[go: up one dir, main page]

JP7747625B2 - カラービデオ処理のための方法およびシステム - Google Patents

カラービデオ処理のための方法およびシステム

Info

Publication number
JP7747625B2
JP7747625B2 JP2022519328A JP2022519328A JP7747625B2 JP 7747625 B2 JP7747625 B2 JP 7747625B2 JP 2022519328 A JP2022519328 A JP 2022519328A JP 2022519328 A JP2022519328 A JP 2022519328A JP 7747625 B2 JP7747625 B2 JP 7747625B2
Authority
JP
Japan
Prior art keywords
color
image
cfa
full
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022519328A
Other languages
English (en)
Other versions
JPWO2021058347A5 (ja
JP2022550741A (ja
Inventor
ヒル,リンドン
アンドリュー ウォレス,イアン
Original Assignee
ロブコ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ロブコ リミテッド filed Critical ロブコ リミテッド
Publication of JP2022550741A publication Critical patent/JP2022550741A/ja
Publication of JPWO2021058347A5 publication Critical patent/JPWO2021058347A5/ja
Application granted granted Critical
Publication of JP7747625B2 publication Critical patent/JP7747625B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

海中現場、資産、環境、または他の任意の過酷な環境設備を調査する場合、ロボットまたは遠隔操作車両などの移動式調査装置を使用することが一般的である。簡潔にするために、そのような施設は調査現場と呼ばれ、そのような調査装置はモバイル装置と呼ばれる。
モバイル装置は、調査現場を画像化するための1つまたは複数のカメラを含むことができる。コンピュータ・ビジョン用途の場合、カラーカメラは通常、フルカラー画像を受信し、メタデータ(例えば3D情報)を生成するためにプロセッサに接続される。
本発明者らは、カラー画像の迅速かつ効率的なビデオ処理を可能にすることができる新しいモバイル装置および方法を考案した。
非限定的な概要として、本発明の実施形態は、カラー・フィルタ・アレイ(CFA)画像の効率的なカラービデオ処理のためのシステムに関し、その結果、特定のタスクを実行するときに内部転送(例えば、RAMからプロセッサコアへ)されるデータが少なくなり、それらのタスクをより高速に実行することができる。既知のタイプのカラーカメラは、CFA画像をキャプチャし、かつ(カメラ上で)デモザイク処理し、かつ補間して、画像全体にわたってピクセルごとに3つのカラーチャネルを生成し、データのサイズを3倍にしてフルカラー画像を生成する。したがって、CFA画像化装置またはCFAカメラは、画像をさらに処理することなくCFA画像を出力する。コンピュータ・ビジョン用途の場合、フルカラー画像およびメタデータは、他のアプリケーションまたは視覚装置に転送するための高帯域幅リンクを必要とする。
本発明の第1の態様によれば、カラービデオ処理のためのコンピュータ実装方法が提供され、本方法は、
CFA画像化装置からCFA画像を受信するステップであって、CFA画像は、複数の画像領域を画定するCFA画像ピクセルを含み、各画像領域は、第1の色の少なくとも1つのピクセルおよび第2の色の少なくとも1つのピクセルを有する、ステップと、
CFA画像化装置とは異なるカラー画像化装置からフルカラー画像を受信するステップであって、フルカラー画像は、デモザイク処理された画像ピクセルを含むことができ、オブジェクトは、CFA画像化装置とカラー画像化装置の両方によって画像化され、CFA画像およびフルカラー画像に表される、ステップと、
フルカラー画像をメモリに記憶するステップと、
第1のカラーチャネルのピクセルを含む第1のカラーチャネルを生成するために、CFA画像の第1の色のピクセルを分離するステップと、
第2のカラーチャネルのピクセルを含む第2のカラーチャネルを生成するために、フルカラー画像の第1の色のピクセルを分離するステップと、
第1の画像メタデータを生成するために、第1のコンピュータ・ビジョン・アルゴリズムを使用して第1のカラーチャネルのピクセルを処理するステップと、
第2の画像メタデータを生成するために、第1のコンピュータ・ビジョン・アルゴリズムを使用して第2のカラーチャネルのピクセルを処理するステップと、
第1の画像メタデータおよび/または第2の画像メタデータを使用して処理済データを生成するステップであって、処理済データが、オブジェクトを表す複数のデータ点を含む、ステップと、
を含む。
したがって、第1の態様による方法は、コンピュータ・ビジョン処理を実行するために、フルカラー画像化装置と組み合わせたCFA画像化装置を有する非対称カメラシステムを使用する。CFA画像化装置とカラー画像化装置の両方を使用することは、処理効率を向上できるビデオ処理の相乗効果を提供し、コンピュータ・ビジョン・タスクが過酷な環境においてリアルタイムで正確に実行することを可能にする。非対称システムはまた、データのライブ処理にもよく適している。これにより、後処理を必要とせずに、過酷な環境でリアルタイムに調査現場の3Dモデルを生成することができる。
本方法は、カラー・ビデオ・データを処理して、オブジェクトを表す複数のデータ点を含む処理済データ(例えば、3Dモデルデータ)を生成することを含む。カラー・ビデオ・データを処理する本方法は、データのより効率的な処理をもたらすことができるカラービデオ処理の技術分野への技術的貢献であり、後処理の代わりにそのようなデータのリアルタイム処理を可能にする。これにより、例えば調査によって危険な状況が明らかになった場合に、リアルタイムの意思決定が可能になる。
本方法は、本方法を実施するモバイル装置のコンピュータ上の処理効率の向上、すなわち処理済データを生成するための計算負荷を低減できる。これにより、従来のシステムと少なくとも同精度であるが、消費電力が低減され、熱的制約が低減され、より少ないおよび/またはあまり強力でないプロセッサでのリアルタイム処理が可能になる。
さらに、上記の方法による高解像度CFA画像および低解像度カラー画像の処理は、既知のシステムの、ほぼ2倍の出力解像度、または半分の帯域幅、を可能にすることができる。従来のシステムと比較して、本方法は、同じ処理能力に対して、より高いフレームレート、より高い空間解像度、より高い色解像度、および/またはフルカラーでの通常の2D画像をもたらすことができる。
輝度を計算し、画像をダウンサンプリングする従来のステップは、部分的に、場合によっては完全に、回避することができる。単一のカラーチャネルが、特に海中環境における輝度の適切な代用であるので、従来のステップを回避することができる。(ステレオ)ビデオ処理およびコンピュータ・ビジョンにおけるタスクの大部分は、輝度を使用する。輝度-彩度の表現は、明るさおよび色差を使用する。輝度は、赤、緑、および青(RGB)のカラーチャネル(または取得時のカメラセンサに応じた他のカラーチャネル)の組み合わせから導出され、正確な式は最終用途に依存する。本発明者らは、単一のカラーチャネルが、ビデオ処理およびコンピュータ・ビジョン(例えば、追跡またはマッチングのアルゴリズム)を実行するための輝度の十分な代用を提供することができることを見出した。CFA画像を使用することは、システムの周囲で転送されるデータが少なく、フルカラー画像を後の段階でデモザイク処理できることを意味する。したがって、本方法は、画像がデモザイク処理されないように「RAW」構成で少なくとも1つのカメラを動作させることを含むことができる。これは、フルカラー画像を生成する必要があるか、そうするのに好都合である場合、処理の後半までフルカラー画像を生成する必要がないことを意味する。
カラーカメラによって提供されるようなフルカラー画像は、ライブビューに有用であり、フルカラー画像を3D点に位置合わせして、カラー3Dモデルを生成することができる。
したがって、画像処理および/またはコンピュータ・ビジョン・アルゴリズムは、CFA画像上で直接実行されるので、その結果、必要に応じて後にフルカラー画像を復元する能力を維持しながら、プロセッサ間で転送されなければならないデータは少なくなる。過
酷な環境などの制約のある帯域幅状況では、利用可能な伝送帯域幅を効率的に利用するために、データフロー量を慎重に制御する必要がある。RAWキャプチャモードで実行することにより、より高いキャプチャ・フレーム・レートを使用し、より多くの画像をキャッシュに記憶することが可能になる。RAWで動作する場合、処理のための画像を単純化するために、高ダイナミックレンジをキャプチャすることができ(例えば、ピクセルあたり16ビット)、画像をピクセルあたり8ビットなどの低い色解像度にビットシフトできる。これにより、ハードウェアの記憶要件を低減できる。これは、YUV 4:2:2(16ビット/ピクセル)(サブサンプル色)としての従来のデモザイク処理された8ビット出力とは対照的であり、これはカラー画像化装置の出力とすることができる。
カメラは同期させることができる。カメラが較正されている場合、デモザイク処理されたカメラの相対位置は、姿勢によって決定することができる。カメラが同期されていない場合、デモザイク処理されたカメラの相対位置は、走行距離計の姿勢および補間によって決定することができる。
ピクセルを分離するステップは、必ずしもCFA画像の第1の色の全ピクセルを有する第1のカラーチャネルを分離して生成するとは限らない。ピクセルを分離するステップは、例えば、CFA画像の第1のチャネルのピクセルの全部ではないが一部を含むことができる。
各カラーチャネルのサイズおよび/または解像度は、一方のカラーチャネルが他方よりも高い解像度を有するように変化できる。
メモリは、揮発性または不揮発性メモリ記憶装置とすることができる。
画像領域は、各色ピクセルのうちの少なくとも1つを含む単一の基本CFAパターンを含むことができる。例えば、CFAパターンがベイヤー配列である場合、画像領域は、2つの緑色ピクセル、1つの赤色ピクセル、および1つの青色ピクセルを含む、少なくとも四角形を含むことができる。
CFA画像化装置およびカラー画像化装置は、ステレオシステムに設置することができる。ステレオ処理システムの場合、フル解像度画像を使用することは要件ではない。例えば、用途に応じて、4Kビデオフレームは、追跡に必要とされるよりも多くの細部を有することができる。したがって、CFA画像からの単一のカラーチャネルのみを使用する必要があり、さらに、フル解像度画像を作成するためにすべての単一のカラー・チャネル・ピクセルの補間を実行する必要はない場合がある。
用途によってフル解像度が必要とされるとき、ビデオからの全フレームが必要とされるわけではなく、例えば、いくつかのアルゴリズムは、キーフレームまたは他の有用な頻度が少ないフレームのみを必要とする。
フルカラー画像の第1のカラーチャネルは、CFA画像の第1のカラーチャネルと同じであり得る。例えば、第1のカラーチャネルが緑色チャネルである場合、第2のカラーチャネルも緑色チャネルである。カラーチャネルは、特定のカラーフィルタ(例えば、ベイヤーフィルタなどのRGBフィルタアレイの緑色(G)カラーフィルタ)を通過する光の強度を表すデータのみを含むチャネルとして定義することができる。
CFA画像は、フルカラー画像よりも、ピクセルあたりでより高いダイナミックレンジを有することができる。例えば、CFA画像は、ピクセルあたり16ビットのダイナミックレンジを有することができ、フルカラー画像は、ピクセルあたり8ビットのダイナミッ
クレンジを有することができる。これは主に、厳しい帯域幅制約によるものである。
第1の態様の方法は、第2のCFA画像の対応する画像領域の第2の色の少なくとも1つのピクセルを使用して、各データ点の色を修正することによってカラー処理済データを生成することができる。これにより、フルカラーであるが、低減された処理能力を用いたビデオ処理によって生成することができるカラー処理済データと実質的に同一のカラー処理済データが得られる。
第1の態様の方法は、
データ点または各データ点をフルカラー画像の対応する画像領域と相関させるステップと、
フルカラー画像の1つまたは複数のピクセルを使用して、上記データ点または各データ点の色を修正することによって、カラー処理済データを生成するステップと、
を含む。
第1の態様のカラービデオの処理に関連する利点は、(同じフレームレートを仮定して)、CFA画像化装置が、フルカラー画像化装置と比較してより低い帯域幅のデータを生成することができることである。これは、処理済データを生成するためのCFA画像のより速い処理をもたらすことができる。しかし、処理済データが着色されることが望ましい。したがって、メモリに記憶されたフルカラー画像を使用して、処理済データを着色することができる。色が1つのカメラのみから来る場合、上記データ点または各データ点の色をレンダリング/修正するときに、色がマッチングする必要はない。2つ以上のカメラが、上記データ点または各データ点の色をレンダリング/修正するために色情報をキャプチャする場合、色マッチングが必要となるであろう。これは、より速い処理からの利点をもたらし、CFA画像をデモザイク処理する必要性を回避する。
第1および/または第2の画像メタデータは、動き、視差、エッジ、およびセグメンテーションの少なくとも1つを備える。
処理済データは、キーフレーム、選択画像セグメント、および3Dモデルデータのうちの少なくとも1つを備えることができる。
3Dモデルデータは、3D再構成アルゴリズムによって生成できる。
処理済データがキーフレームまたは選択画像セグメンテーションである場合、処理済画像データを生成するステップは、第1または第2の画像メタデータの一方のみで達成することができる。
水中3D調査の場合、オブジェクト/シーンの3Dモデルは、3Dモデルデータから増分的に構築することができ、より多くの画像が処理されるにつれて、モデルに新しい点の一群を定期的に追加する。固有のデータ点(例えば3Dモデル点)が見つかるとフルカラーを生成することができ、フルカラーは、フルカラー画像から、またはCFA画像をデモザイク処理することで、作成できる。
第2の画像メタデータは、オブジェクト検出アルゴリズムを用いて処理され、フルカラー画像内のオブジェクトを検出し、オブジェクトにラベルおよび位置を割り当てることができる。オブジェクト検出アルゴリズムは、フルカラー画像の処理によく適している。
第1の画像メタデータは、オブジェクト検出アルゴリズム用いて処理され、第1の画像内のオブジェクトを検出し、オブジェクトにラベルおよび位置を割り当てることができる
。第1の画像メタデータは、CFA画像がフルカラー画像よりも高い解像度である場合、オブジェクト検出により適し得る。これは、識別用のオブジェクトが完全な(キャプチャされた)画像のわずかな比率でしか表されない場合に、特に当てはまる。わずかな比率は、全画像領域の10%、5%、3%、1%、または0.5%であってもよい。
第1のカラーチャネルは緑色とすることができる。水中では、赤色光は水によって減衰され、緑色チャネルが、さらに支配的になる。したがって、輝度の良好な代用は、緑色チャネルであり得る。緑色ピクセルは、前述のアルゴリズムにおける輝度の代わりに使用することができる。低照度車両(例えば自動運転車)の運転状態では、この状態の赤色が輝度の良好な代用であるため、赤色チャネルが望ましい場合がある。
本方法は、デモザイク処理されたフルカラー画像を生成するために、CFA画像をデモザイク処理するステップをさらに含むことができる。シンクライアントに送信するため、または後処理用に記憶するために、デモザイク処理されたフルカラー画像を使用して、各データ点の色を修正することができる。
第1のカラーチャネルを生成するステップは、第1の画像メタデータを生成するために第1のコンピュータ・ビジョン・アルゴリズムを使用して第1のカラーチャネルのピクセルを処理するステップの前に、CFA画像のフル解像度の第1のカラーチャネル画像を生成するために、第1の色の分離されたピクセルから空ピクセルを補間するステップを、含むことができる。
空ピクセルは、関連する色情報を有しないピクセルである。それらは、CFA画像から特定の色を無視することから生じる可能性があり、CFA画像のそれらの色が無視された場所では、CFA画像の対応するピクセルには色情報がない。補間のプロセスは、空ピクセルの色情報を生成する。
フルカラー画像の第1の色のピクセル(フル解像度のピクセル)を分離するステップは、第2のカラーチャネルを生成するために、フルカラー画像の第1の色のピクセルをダウンサンプリングするステップを、さらに含むことができる。
カラー処理済データは、低帯域幅リンクを介して、外部コンピューティング装置に送信することができる。
水中から上部へのフルカラー高解像度ビデオの送信は、低帯域幅のテザーによって制限され得る。したがって、特に水中3D調査では、カメラの近くで(ステレオ)処理を実施し、低帯域幅3Dデータ(点群と各点の色など)を送信すると便利である。これにより、ライブのカラー3Dデータをボート/上部に送信することができる。カメラでは、CFA画像は、カメラが水から取り出されたときのカラービデオとして、直接記憶されるか、または、デモザイク処理された後に記憶することができる。
データ点は、3Dモデルデータ点とすることができる。処理済データを生成するステップは、
CFA画像内の第1の特徴を検出するために、特徴検出アルゴリズムを用いて第1の画像メタデータを処理するステップと、
フルカラー画像内の第2の特徴を検出するために、特徴検出アルゴリズムを用いて第2の画像メタデータを処理するステップと、
第1の特徴および第2の特徴に基づいて、複数のデータ点のうちの1つを生成するステップと、
を含む。
特徴検出アルゴリズムは、コンピュータ・ビジョンの技術分野において周知である。第1および第2の特徴は、オブジェクト上の同じ特徴(例えば、箱の角)とすることができる。両方のカメラはわずかに異なるが重なり合う視野を有するので、特徴は両方の画像(CFAおよびフルカラー)に別々に存在し、識別され、さらに3Dモデルデータ点を生成するために使用できる。
CFA画像内の第1の特徴は、特徴追跡アルゴリズムで追跡できる。CFA画像は、フルカラー画像と比較して低帯域幅にすることができ、第1の特徴は既に識別されているので、第1の特徴は、CFA画像を用いて効率的かつ迅速に追跡できる。特徴を追跡することは、それを再度検出するよりも計算上効率的である。したがって、特徴を追跡でき、それが存在するようになる場合、これは完全な特徴検出の前に起こり得る。
3Dモデルは、自律的かつリアルタイムで環境の周り/通過をナビゲートするために使用できる。
第1の態様の方法のステップの一部または全部は、海中環境などの過酷な環境で実行できる。
本発明の第2の態様によれば、環境を調査する方法が提供され、本方法は、
調査現場内でモバイル装置を移動させることであって、モバイル装置が第1の態様の方法を実施する、移動させることを含む。
したがって、ビデオ処理は環境調査に適しており、複数のCFA画像およびフルカラー画像の解像度およびフレームレートを、調査プロセスの段階に基づいて、選択することができる。複数のCFA画像およびフルカラー画像の第1と第2の解像度、ならびに、第1と第2のフレームレートは、調査現場の相対光レベルの測定値に基づいて、選択することができる。
環境は、石油およびガスのパイプラインまたはリグなどの海中環境を含むことができる。
調査タスクは、CFA画像化装置の較正、特徴追跡、特徴検出、動き推定、再構成、および視差推定のうちの少なくとも1つを含むことができる。
したがって、コンピュータ・ビジョンでは、カメラ較正、特徴検出、特徴追跡、動き推定、再構成、視差推定などのタスクにフルカラー情報は必要とされない。これらのタスクはすべて、計算的に高価であり得るが、フルカラー画像を必要とせず、通常は輝度画像で動作する。しかしながら、フルカラー画像は、オブジェクト検出アルゴリズムにとって計算上効率的であり得る。
本発明の第3の態様によれば、海中などの過酷な環境で調査するためのモバイル装置が提供され、モバイル装置は、
CFA画像を生成するように構成されたCFA画像化装置と、
CFA画像化装置とは異なり、フルカラー画像を生成するように構成されたカラー画像化装置と、
CFA画像化装置とカラー画像化装置とが重なり合う視野で取り付けられるプラットフォームと、
第1の態様の方法を実行するように任意選択的に共に構成された、第1のデータプロセッサおよび第2のデータプロセッサと、
CFA画像化装置と第1のデータプロセッサとの間に結合された第1のデータリンクと、
第1のデータプロセッサに結合された第1のコンピュータメモリと、
カラー画像化装置と第2のデータプロセッサとの間に結合された第2のデータリンクと、
プラットフォームに取り付けられるように配置され、密閉された内部空間を画定する第1のケーシングであって、少なくともCFA画像化装置、第1のデータプロセッサ、および第1のデータリンクが、第1のケーシングの密閉された内部空間内に収容され、CFA画像化装置が、CFA画像をキャプチャするために第1のケーシングから外向きに配置される、第1のケーシングと、を備える。
モバイル装置は、
密閉された内部空間を画定し、プラットフォームに取り付けられるように配置された、第2のケーシングであって、カラー画像化装置と、第2のデータプロセッサと、第2のデータリンクとを備え、カラー画像化装置は、フルカラー画像をキャプチャするために第2のケーシングから外向きに配置される、第2のケーシングと、
第1のデータプロセッサと第2のデータプロセッサとの間で、任意選択的に第1のケーシングおよび第2のケーシングの密閉された内部空間の外側に、結合された第3のデータリンクと、備える。
モバイル装置は、海中画像化用の海中カメラモジュールとすることができ、環境は過酷な環境および/または深海環境である。
モバイル装置は、水中遠隔操作可能ビークル(ROV)、自律水中ビークル(AUV)、無人航空機(UAV)、無人地上ビークル(UGV)、無人水中ビークル(UUV)、または無人水上ビークル(USV)などの遠隔操作可能なまたは自律型のモバイルプラットフォームを含むことができる。
一例では、モバイル装置は、推進システムと、操舵システムと、車両に対して遠隔にある制御ステーションまたは第1のデータプロセッサから提供される指令信号に従って、推進システムおよび操舵システムを制御するように構成された指令コントローラと、を含む海中遠隔操作可能なまたは自律型の車両を備えることができる。
第1および第2のケーシングなどのケーシングは、その外部と内部との間の圧力差に耐えるように構成された、または圧力補償ガスもしくは流体で満たされた、圧力容器とすることができ、過酷な水中環境(少なくとも2メートルの水、または少なくとも5メートルの水、または少なくとも10メートルの水、場合によっては少なくとも20メートルの水など)で、カメラモジュールが継続的に使用されることを可能にする。他の実施形態では、ケーシングは、他の過酷な環境(真空中など)で、カメラモジュールが連続的に使用可能となるように構成できる。
システムは、画像の低解像度バージョンを遠隔サーバに送信しながら、オフラインでさらに処理するために画像の高解像度バージョンを、第1のコンピュータメモリに記憶することができる。送信された画像は、より低い空間、時間、または色解像度を有することができる。例えば、画像を半分のサイズにダウンサンプリングすることができ、キーフレームを選択することができ、または3つのチャネルから単一のカラーチャネルに色を減らすことができる。
任意選択の態様の任意の特徴は、類似の方法で他の任意の態様に適用することができる。
本発明の一実施形態によるモバイル装置のシステム略図である。 図1のモバイル装置のカメラモジュールの略図である。 本発明のさらなる実施形態によるモバイル装置のシステム略図である。 CFAの図である。 本発明の一実施形態によるCFAの分離されたグリーン・ピクセルの図である。 緑カラーチャネルの図である。 図6の緑カラーチャネルの画像領域を選択する図である。 図4のCFAの対応する画像領域を選択する図である。 画像領域から着色処理済データを生成する図である。 本発明のさらなる実施形態によるモバイル装置のシステム略図である。 本発明のさらなる実施形態によるモバイル装置のシステム略図である。 本発明の一実施形態によるカラービデオ処理のための方法のフローチャートである。
図1を参照すると、本発明の一実施形態による過酷な環境を調査するためのモバイル装置が、全体として10で示されている。モバイル装置10は、2メートルを超える水中、海中、または宇宙の真空中、での連続使用などの過酷な環境への展開用に構成され、遠隔操作ビークル(ROV)、自律水中ビークル(AUV)、ロボットプラットフォームなどを備えることができる。
過酷な環境は、機械的応力、放射応力、化学反応および温度暴露などの厳しい要件をカメラモジュールに課す。機械的応力は、圧力、衝撃、振動、および熱膨張係数(CTE)の不一致を含むことができる。放射応力は、宇宙線、および電磁気からの磁気的影響を含むことができる。塩水、水分、燃料、および有害ガスなどの化学物質は、そのようなカメラモジュールと反応する可能性がある。-40°C未満および/または125°Cを超える温度も、過酷な環境で経験する可能性がある。
モバイル装置10は、遠隔操作可能なまたは自律型の車両14に搭載されたコンピューティング装置12を備える。図2を参照して以下により詳細に説明するように、コンピューティング装置12は、海中などの過酷な環境で動作することを可能にするために保護ケーシング16内に収容される。
コンピューティング装置12は、互いに通信可能に結合されたデータプロセッサ18を備える。データプロセッサ18は、第1のカメラ20aおよび第2のカメラ20bに通信可能に結合され、カメラ20aおよび20bから画像を受信する。
第1のカメラ20aは、カラーフィルタ配列(CFA)画像カメラである。CFAは、画像上のパターンで特定の色のみをキャプチャするピクセルを実現するためにカラーフィルタが使用されるシステムである。CFA画像化装置(例えばCFAカメラ)は、3センサカメラよりも安価で軽量であり、カラーホイール(色相環)カメラよりもコンパクトにすることができる。CFA画像化装置は、一般に、単一センサによって受信されたものを正確に出力するために、単一センサの前に色フィルタアレイを有する単一センサ装置である。CFA画像は、「RAW」画像と呼ばれることもある。
第2のカメラ20bは、フルRGBカラー画像を出力するように構成されたフルカラーカメラまたは汎用カメラである。カラー画像化装置は、カメラからフルカラー画像を生成
して出力するために、CFA画像をデモザイク処理するように組み込まれた画像プロセッサを有するCFA画像化装置とすることができる。デモザイク処理は、CFA画像からフル解像度カラーチャネルを生成するプロセスである。フル解像度は、元の(キャプチャされた)CFA画像の解像度である。デモザイク処理は、各色のピクセルを部分解像度の画像/チャネルに空間的に分離することを含む。言い換えると、デモザイク処理は、各カラー・フィルタ・ピクセルを部分解像度カラーチャネル上に分離することを含む。部分解像度カラーチャネルは、他のカラーフィルタがあったであろう空ピクセルを有するただ1つのカラーフィルタのアレイである。これらの部分解像度カラーチャネルは、各色のカラーチャネル(フル解像度、すなわち、全ピクセルがカラーフィルタのピクセルである)を生成するために、補間することができる。良質のデモザイク処理アルゴリズムは、補間中に発生する可能性があるエッジアーチファクトの大部分を隠すことができる。デモザイク処理されたCFA画像は、各ピクセルが3つのカラーチャネルを有するように、すべてのカラーチャネルを組み合わせることができる。
あるいは、カラー画像化装置は、3センサ(カラーチャネルごとに1つ、例えば、赤、緑、青)装置、またはカラーホイールを有する単一センサ装置であってもよい。CFAカメラはまた、カラーカメラと比較して安価にすることができ、部分的には、カメラ上での処理能力が低減され、その結果、構成要素が少なくなり、電力消費が低減される。
カメラ20a、20bは、共通プラットフォーム14に取り付けられるなど、既知の空間的配置で取り付けられる。カメラ20a、20bは、両カメラから出力される画像にはオブジェクトが出現するが、観測角度の違いにより見え方が異なるように、視野が重なり合って配置されている。カメラ20a、20bからの画像は、3D再構成アルゴリズムがオブジェクトサイズをスケーリングすることを可能にし、これにより、候補オブジェクトが適切なサイズであるときにオブジェクト検出アルゴリズムに通知することができ、さらに、より正確な3Dモデル(例えば、3D点群)を作成することができる。
3D再構成アルゴリズムは、カメラ20a、20bの空間配置のいずれかからの重なり合う画像を使用することができる。結果として、3D点群の単一のデータ点は、それに関連付けられた(複数の画像からの)複数のピクセルを有することができる。
他の実施形態では、追加のビューを使用して異なる対のカメラからオブジェクトを再構成することができるように、第1および/もしくは第2のカメラ20a、20b、または、追加のカメラの対に対して、異なるが重なり合う視野を1つ以上の追加のカメラに設けることができる。3D再構成は、追加のデータプロセッサで実行することができ、すべてオブジェクト検出アルゴリズムにフィードバックする。
データプロセッサ18は、ネットワークインターフェース(図示せず)、ならびに、揮発性および不揮発性のメモリ22などの他の装置に結合することができる。メモリ22は、画像、ビデオ、またはメタデータ、ならびにアルゴリズムを記憶することができる。データプロセッサ18は、計算的に複雑な画像処理およびコンピュータ・ビジョン・アルゴリズムに適し得る。例えば、データプロセッサは、GPUコアを含む(しかし、必須ではない)処理コアと、NVidia(登録商標)Tegra(商標)システム・オン・チップ(SoC)などのビデオコーデックまたはAI動作のための組み込み処理とを備えることができる。データプロセッサ18は、1つまたは複数の通信可能に結合されたコアおよび/または別個のプロセッサを備えることができる。
データプロセッサ18は、3Dモデルを開発するために3D再構成アルゴリズムを実行するように構成される。ビデオまたはカメラ画像から3Dモデルを生成するために、3D再構成アルゴリズムは、例えば第2の画像内のオブジェクトのエッジを構成するキー点を
取得し、キー点を、他の画像(以前にキャプチャされた画像または他のカメラによって同時にキャプチャされた画像など)からの対応するキー点と関連付けることができる。各画像に関連付けられたカメラの姿勢を知ることで、各画像のキー点、および特定の点に対する光線が交差するか、または3Dモデル内の対応する点の3D位置を表す3D空間に最もよく適合する点、を介して、カメラ位置から光線を投影することができる。3D再構成アルゴリズムは、動きからの構造復元(Structure from Motion)、またはビデオもしくはカメラ画像から3Dモデルを生成する他の任意の適切な技術とすることができる。3Dモデルは、例えば点群を含むことができる。3D再構成アルゴリズムは、一対の画像から3Dモデルの構築を開始することができるか、またはデータプロセッサによって既に構築されている3Dモデルを拡張するために第2の画像を使用することができる。
正確な3Dモデルを作成するために、3D再構成アルゴリズムは複数の入力画像を必要とする。言い換えると、3Dオブジェクトをモデル化するために、オブジェクトの周りの異なる角度での複数の画像は、オブジェクトのより信頼性の高い3Dモデルを構築するのに役立つ。2つの画像が連続して撮影され、カメラ20a(またはカメラ20b)のキャプチャ・レートが高い場合、2つの画像は非常に類似している可能性が高く、受信した後者の画像は前の画像にほとんど情報を追加しない。「キーフレーム」は、オブジェクトの2つの固有の視野間の相違度によって定義することができる。3D再構成アルゴリズムは、受信した第3の画像を、先行する第2の画像(または以前の画像)と比較して、相違度を決定するように構成することができる。第3の画像は、オブジェクトおよび/またはカメラ20a(もしくはカメラ20b)の移動に起因して、第2の画像に対して異なる視点からのオブジェクトを含むことができる。差分閾値を超えると、受信画像はキーフレームとしてマークされる。他の実施形態では、キーフレームは、データプロセッサ18以外のデータプロセッサによって、および/または、キーフレーム間の一定時間(例えば1秒)待機する、もしくはn番目のフレームごとに選択する、などの他の手段によって、識別することができる。あるいは、慣性測定ユニットを使用して、カメラ位置がキーフレームを開始するのに十分に移動したことを判定することができる。
3D再構成アルゴリズムは、入力画像のすべてを処理し、キーフレームを選択して、構築中のモデルによく適合する点を追加することができる。キーフレームからの点は、つなぎ合わされて、点群であって、メッシュに処理され、コンピュータグラフィックスを有するソリッド・オブジェクトとしてレンダリングされ得る点群を形成する。キーフレームが追加されるたびに、カメラビューは通常、モデル上の固有のビューである。キーフレームの完全なセットは、オブジェクトの完全なモデルを作成するのに必要なオブジェクトのすべてのビューを提供することができるので、固有の視野は、オブジェクト検出アルゴリズムへの入力に最適である。オブジェクト検出アルゴリズムは、モバイル装置10上で、または例えばサーバ上で遠隔的に、実行することができる。
図示の実施形態では、コンピューティング装置12は、例えば無線基地局を備えることができるデータトランシーバ26をさらに備える。
ここで図2を参照すると、図示の実施形態のコンピューティング装置は、過酷な環境で画像化するためのカメラモジュール30を備える。カメラモジュール30は、内部空間を有する防水ハウジングを画定するケーシング16を有する。ケーシング16の一端は、透明な窓またはレンズ32を含む。カメラ20aおよび20bは、内部空間内に取り付けられ、窓32を通して外部環境の画像をキャプチャするように配置される。ケーシング16の内部空間は、Oリングシールされたフランジを介してケーシング16の本体に取り外し可能に結合されたケーシング・エンド・キャップ16aを取り外すことによってアクセスすることができる。ケーシング・エンド・キャップ16aとケーシングの本体との間にシ
ールを設けて、水の浸入を阻止することができる。この実施形態のケーシング16は、ステンレス鋼から形成され、深海環境、ならびに/または海底石油およびガスインフラストラクチャ現場などの水中の過酷な環境でカメラモジュール30が受ける可能性のある高圧に構造的に耐えるように、円筒形状である。他の実施形態では、ケーシング16の材料および/または形状は、展開環境(例えば、アルミニウム、ベリリウム銅、チタン、プラスチック、アイオノマー、PEKK、炭素繊維またはセラミック)に応じて、応力、化学的および/または温度耐性を提供するために、変更することができる。ケーシング16の材料および形状は、強固で堅固な構造をもたらすことが好ましい。ケーシング16の形状は、角柱または円筒形などの任意の耐圧形状とすることができる。カメラ20aおよび20bは、ケーシング16がカメラ20aおよび20bの少なくとも一部(例えばカメラ20aおよび/または20bのレンズ)と流体シールを形成するように、ケーシング16の一部を形成することができる。他のエンド・キャップ・シールは、貫通ボルトまたはねじ式チューブ含む方法を使用して形成することができる。コンピューティング装置12の構成要素の一部または全部は、ケーシング16内に収容することができる。ポートP1~P5は、カメラモジュールが海中などの過酷な環境で動作している間に外部データリンクを提供するために、他のカメラモジュール、カメラモジュールなどへの有線接続のために設けることができる。
上述の実施形態では、両方のカメラ20a、20bが共通のケーシング16内に収容されているが、他の実施形態では、各カメラをそれぞれのケーシング内に取り付けて、それぞれのカメラモジュール12a、12bを形成することができる。例えば、図3に示すように、さらなる実施形態によるコンピューティング装置10aは、遠隔操作可能なまたは自律型の車両14aに取り付けられた一対のカメラモジュール12aおよび12bを備えることができる。そうでなければ、コンピューティング装置10aは、図1および図2のコンピューティング装置12と機能的に同一であり得る。カメラモジュール12a,12bは、海中等の過酷な環境下で動作するための保護ケーシング16a,16bを有する。カメラモジュール12aは、カメラ20aから画像を受信するために、カメラ20aに通信可能に結合されたデータプロセッサ18aを備える。カメラ20aは、カラー・フィルタ・アレイ(CFA)画像カメラである。カメラモジュール12bは、カメラ20bから画像を受信するためにカメラ20bに通信可能に結合されたデータプロセッサ18bを備える。カメラ20bは、フルRGBカラー画像を出力するように構成されたフルカラーカメラまたは汎用カメラである。カメラモジュール12a、12bのいずれかがトランシーバ26を備えることができ、または両方がトランシーバ26を備えることができる。
図4を参照すると、CFAパターンの具体例(CFA画像化装置20aの出力)、すなわち、緑G、赤Rおよび青Bのピクセルを使用するベイヤー配列40が示されている。他の実施形態では、任意のCFAパターンおよび色を使用することができる。ベイヤー配列40は、単一のセンサカメラの前に配置されたフィルタであり、画像が撮影されると、緑G、赤R、および青Bのピクセルからなる画像が生成される。各ピクセルは、画像被写体のその色のそれぞれの光量を表す関連する数値を有する。
既知のコンピュータ・ビジョン・タスクおよびアルゴリズムは、出力を生成するために入力として輝度を使用する。輝度は、CFAパターンのすべての色の組み合わせから導出され、一般に、各色に関連付けられた各値は、輝度値を生成するために異なる量によって重み付けされる。
CFAを使用するほとんどの単一のセンサカメラ(例えば、カラーカメラ20b)では、キャプチャされたCFA画像からの生データが直ちにデモザイク処理されて、各々がCFAと同じ解像度を有する3つのカラーチャネルが生成される。デモザイク処理は、2ステップ処理であり、i)CFAの各色(例えば、赤、緑、青の3色)について同じ色ピク
セルのパターン(図5に示すように、ピクセル・パターン50)を生成するために、CFAパターンの色を分離または分割するステップ、ii)各々がCFAと同じ解像度を有する3つのカラーチャネル(例えば、赤、緑、青)を生成するために、同じカラーピクセルの各パターンを補間するステップ、とを含む。これらの3つのカラーチャネルを組み合わせて、フルカラー画像を生成することができる。この処理は、プロセッサに組み込まれたカメラによって、従来のCFAカラーカメラの各画像に対して自動的に行われる。
本発明者らは、コンピュータ・ビジョン・タスクまたはアルゴリズムに大きな影響を与えることなく、CFAの単色を輝度の代用として使用できることを認識した。単一の色は、最も重み付けされた色、または所与の画像環境に最も存在する色とすることができる。例えば、水中環境では、他の色の光と比較して緑色の光の割合が大きい。また、一般的には、輝度計算のために緑色の光が最も重み付けされる。したがって、海中測量環境では、緑色入力のみでコンピュータ・ビジョン・タスクおよびアルゴリズムを実行することが有利であり得る。
図5は、上記の従来の方法とは対照的に、ただ1つのカラーチャネルしか必要とされないため、キャプチャされたCFA画像からの生データが、カメラからデータプロセッサ18に転送されることを示している。第1の色のピクセルは分離され、残りの色のピクセルが除去されたピクセル・パターン50を生成する。それらが存在しない場合、空ピクセルVは、第1の色Gの既存ピクセルと共に示されている。このピクセル・パターン50は、本明細書でカラーチャネルと呼ばれるサブサンプリングされた緑色画像を表す。このピクセル・パターンは、コンピュータ・ビジョン・アルゴリズムによって直接処理することができる。
図6に示すように、カラーチャネルのピクセルを含むフル解像度カラーチャネル画像を生成するために、空ピクセルVを埋めることができる。ベイヤー型CFAを仮定して、フル解像度カラーチャネル画像を生成するための4つの方法は以下の通りである。
1.欠落したカラーピクセルを、4つの近傍から単純に補間する。
2.カラーチャネルのみをデモザイク処理する。
3.2×2ブロック内の2つのカラーピクセルを単純に平均する(これにより、4分の1の解像度の平滑化画像が生成される)。
4.両方の座標が偶数であるピクセルのみを選択する(これにより、4分の1の解像度のデシメーションが生成される)。
これらの方法は、他の種類のカラーフィルタ配列、例えばFuji X-trans、RGBWまたはRGBEに適合させることができる。方法4の場合、エイリアシングの問題を回避するために、既知のフィルタ処理技術を実行することができる。
例えば、図5では、空ピクセルV1は、その4つの隣接するG1、G2、G3、G4の補間によって、埋めることができる。補間は、画像のすべての空ピクセルVについて繰り返すことができる。
図6は、結果として得られるフル解像度カラーチャネル画像60を示す。これは、最終処理済データにおけるエラー検出、オブジェクト検出および3D再構成アルゴリズム(すなわち、機械学習)の改善、および情報の表示など、のいくつかの処理に有用であり得る。
カラーチャネル50は、第1の画像メタデータを生成するために第1のコンピュータ・ビジョン・アルゴリズムを使用して処理することができる。
画像メタデータは、画像化の環境内に存在する形状またはオブジェクトのエッジを定義するデータにできる。あるいは、メタデータは、視差、セグメンテーション、または動きを定義することができる。連続的に撮影された2つのCFA画像から、動きに対応する画像メタデータを見つけることができ、これらの画像の両方を処理して、第1のカラーチャネルを生成し、両方を処理して第1の画像メタデータを生成し、2つの画像を処理して動きが発生した領域を見つけ、それを画像メタデータとして記録することができる。
画像メタデータは、フルカラー画像から生成することもできる。このフルカラー画像は、デモザイク処理機能を備えたカラーカメラまたはCFAカメラから生成できる。このフルカラー画像を用いて、フル解像度のカラーチャネルを、他のフル解像度のカラーチャネルから分離(分割)できる。これは、フル解像度の緑カラーチャネルであり得る。効率的な処理のために、一般に、フルカラー画像がサブサンプリングされ、コンピュータ・ビジョン・アルゴリズムを使用して処理されるサブサンプリングされた解像度の緑カラーチャネルを生成する。したがって、フル解像度カラーチャネルまたはサブサンプルが、第1のコンピュータ・ビジョン・アルゴリズムによる処理のために、輝度およびダウンサンプル/サブサンプルの代用として使用され、第2の画像メタデータを生成することができる。
画像メタデータが生成されると、任意選択的に、オブジェクト検出アルゴリズムを用いて、画像メタデータをさらに処理することが可能である。アルゴリズムは、処理された画像内のオブジェクトを検出することができ、さらに、ラベルおよび/または位置を上記オブジェクトに割り当てることができる。例えば、オブジェクトは、単一の画像(例えば、ハンドル)に完全に示されてもよく、または、オブジェクトは、複数の画像(例えば、パイプライン)にわたって部分的に示されてもよい。オブジェクト検出アルゴリズムは、任意選択的に、例えばフルカラーカメラからのフルカラー画像に対して別々に実行される。色はオブジェクトを識別するのに役立つ重要な要素であるため、フルカラー画像をアルゴリズムに入力すると、精度と速度の点で優れたオブジェクト検出が得られる。オブジェクト検出は、特徴検出およびオブジェクト分類の2つのプロセスからなる。特徴検出およびオブジェクト分類は、当業者に知られているアルゴリズムを使用して実行することができるが、オブジェクト分類は、潜在的により多くのリソース(例えば電力、時間など)を集約する。
オブジェクト検出および3D再構成は、異なる速度で実行できる。例えば、3D再構成は、高解像度3Dモデルを生成するために頻繁に更新することができ、一方、新しいオブジェクトが環境内に存在する場合、オブジェクト検出を実行することができる。新しいオブジェクトが存在しない場合、オブジェクト分類プロセスなしで特徴検出および追跡アルゴリズムを実行することができる。これらの特徴検出および追跡アルゴリズムは、カラーチャネルのみで、すなわちフルカラー画像を必要とせずに、正確に実行できる。追跡は、オブジェクト分類プロセスの出力、すなわちオブジェクトラベルおよび/または位置が、オブジェクト分類を実行する必要なしに更新されることを可能にする。追跡アルゴリズムは、2つの画像間の差が小さいときに効率的に実行する。これは、高フレームレート、または低速移動オブジェクトもしくはカメラを用いて、達成できる。一例では、特徴検出は、常にカラーチャネル上で実行され、特徴検出アルゴリズムが新しいオブジェクトを表す特徴のセットを認識しない場合にのみ、フルカラー画像上の特徴の位置を使用して実行されるオブジェクト分類アルゴリズムである。カラーチャネルがフルカラー画像から導出される場合、特徴が同一であるため、特徴の位置を効率的に見つけることができる。
第1の画像メタデータおよび第2の画像メタデータが処理されて、処理済データが生成される。処理済データは、複数のデータ点を含む。複数のデータ点は、3Dモデルデータを構成することができる。画像メタデータは、点群を生成することができる3D再構成アルゴリズムを介して処理される。あるいは、3D再構成アルゴリズムは、メッシュモデル
、または他の任意のタイプのモデルを生成できる。点群の点はデータ点である。データ点は、各点が関連する色値を有することができるように、それらのデータ点が導出された元の画像内の特定のピクセル、または代替的にピクセルの集団に対応する。
あるいは、処理済データは、キーフレーム、または選択画像セグメント、またはキーフレーム、選択画像セグメントの組み合わせ、および/または3Dモデルデータとすることができる。処理済データがキーフレームである場合、複数のデータ点は単に画像の各ピクセルである。画像データが選択画像セグメントである場合、これは、画像内のオブジェクト、具体的には、画像が撮影されたときの視野内のオブジェクトを識別することができる。この場合、複数のデータ点は、その画像を表現または構成するピクセルとすることができ、またはその逆も可能である。
各データ点は、CFA画像および/またはフルカラー画像の対応する画像領域とさらに相関する。データ点が3Dモデルのデータ点である場合、データ点は、第1の画像メタデータと第2の画像メタデータの両方から導出される。したがって、第1の画像メタデータまたは第2の画像メタデータに関連するキャプチャ画像のいずれかを使用して、データ点の色を導出することができる。
図7aおよび図7bに示すように、CFA画像からデータ点の色を生成する例では、データ点G5は、第1のカラーチャネル60の対応する画像領域IRGおよびCFA画像40の対応する画像領域IRCと相関する。この実施形態では、画像領域IRG、IRCは9つのピクセルからなるが、他の実施形態では、画像領域はより大きくても小さくてもよい。
データ点の1つまたは複数の色は、カラーカメラから撮影されたフルカラー画像の画像領域の相対位置から抽出できる。
フルカラー画像は、フルカラー画像からカラーチャネルを分離する前に、またはそれと並行してメモリに記憶される。
あるいは、データ点の1つまたは複数の色は、CFA画像の画像領域の相対位置から抽出できる。この代替実施形態では、各フルカラーピクセルは、各カラーチャネルの対応するピクセルの組み合わせによって生成できる。例えば、図8は、CFA画像の画像領域からのフルカラーピクセルCの生成を示している。対応する画像領域IRCからのカラーピクセルは、画像領域IRCの青色ピクセルIRBおよび画像領域IRCの赤色ピクセルIRRによって示されるように、画像領域IRCから抽出される。赤色ピクセルIRRが補間されて、画像領域IRCの中央の赤色ピクセルR1が生成される。次いで、ピクセルG5に対応するフルカラーピクセルCが、画像領域IRR、IRBおよびIRGの対応するカラーピクセルから生成される。これは、画像領域IRGの緑色ピクセルG5と、IRBの青色ピクセルB1と、中央の赤色ピクセルR1とを用いて行われる。フルカラーピクセルCに対応する各カラーピクセルG5、B1、R1は、その色のそれぞれの光量を表す対応する数値によって重み付けされる。対応する数値は、255(すなわち1バイト)から符号化することができる。これは、本質的にCFA画像の画像領域IRCのデモザイク処理である。
あるいは、何らかの統計的平均化または重み付けが使用される場合、第1の画像メタデータと第2の画像メタデータの両方を使用することができる。これは、カメラ角度および影に起因して複数のピクセルが同じ正確な色を有さない可能性があるため、有利である。3Dモデルデータ点の色を導出することは、フルカラー画像が使用される場合に最も効率的である(電力、時間)。使用される電力量は、密閉されたケーシングであるため海中な
どの過酷な環境において極めて重要であり、さらに処理がリアルタイムで行われるためには、処理がキャプチャ画像のフレームレートに追従しなければならない。しかしながら、処理がリアルタイムで行われるようにするために、フレームレートを変更できる。あるいは、両方の画像を使用すると最高の精度を得ることができ、処理能力および時間は問題ではない。
あるいは、3Dモデルデータは着色されている必要はない。例えば、3Dモデルデータは、環境を通じた自律的なローバ制御または環境の調査のために、着色される必要はない。
図9は、12または12aなどのコンピューティング装置上で発生するデータプロセッサ18内のプロセスと、それらの図1および図2のメモリ22との関係を示し、記憶装置22aとして、および図9の任意選択のキャッシュ22bとして示されている。
記憶装置22aは、カメラ20aからのCFA画像を記憶し、および/またはカメラ20bからのフルカラー画像を記憶する。保存されたCFA画像は生データである。フルカラービデオは、記憶後にデモザイク処理を介して生データからオフラインで復元することができる。あるいは、CFA画像はデモザイク処理70されて、記憶装置22aに記憶される前にフルカラー画像を生成することができる。記憶装置22aは、ローカル高帯域幅リンクを介して接続することができる。
生データは、第1の色のピクセルを分離するために72で処理され、第1のカラーチャネル50を生成する。フルカラー画像はまた、72において、第1の色のピクセルも分離するように処理され、第2のカラーチャネルを生成する。これは、フル解像度またはサブサンプル解像度であり得る。
ビデオプロセッサ74は、コンピュータ・ビジョン・アルゴリズムを使用して第1のカラーチャネル50から第1の画像メタデータを生成する。コンピュータ・ビジョン・アルゴリズムは、第1の画像メタデータを生成するために、一度に1つ以上のフレームを処理することができる。ビデオプロセッサ74はまた、コンピュータ・ビジョン・アルゴリズムを使用して第2のカラーチャネルから第2の画像メタデータを生成することができる。コンピュータ・ビジョン・アルゴリズムは、第2の画像メタデータを生成するために、一度に1つまたは複数のフレームを処理することができる。
あるいは、ビデオプロセッサ74は、トランシーバ26を介して送信することができる画像メタデータを使用して、画像の特定の部分(例えば、画像内のオブジェクト)を識別することもできる。トランシーバリンクは、低帯域幅リンクである。
ビデオプロセッサ74dは、同時位置特定およびマッピング(SLAM)などの3D再構成アルゴリズムを実行して、3D点群を構成する複数のデータ点を生成する。3D再構成アルゴリズムは、少なくとも第1および第2の画像メタデータを入力とする。モデルを現場外で見るため、およびオブジェクト検出アルゴリズムを支援するために、この3D点群が使用され、自律型の車両14を自律的にナビゲートすることができる。この実施形態では、全フレームがデモザイク処理される段階はないことに留意されたい。3D点群は、任意選択的に、トランシーバ26を介して送信できる。
あるいは、ビデオプロセッサ74dは、第1および/または第2の画像メタデータに基づいて、キーフレーム、関心のある選択画像セグメントを生成または選択することができる。
任意選択のステップにおいて、着色部76は、複数のデータ点を受信し、記憶装置22aに記憶されたフルカラー画像からのフルカラー画像のフルカラーピクセルまたはピクセルの集合から、着色データ点を生成する。着色部は、着色用データ点に必要な特定のカラーピクセルを取り出すことができるか、または画像全体を取り出して、その後着色用データ点に必要な特定のカラーピクセルを選択することができる。これは、各プロセッサ18a、18bが特定の時点においてどのようにリソースが制約されるかに依存し得る。これにより、トランシーバ26を介して送信することができるフルカラーの3D点群が生成される。このフルカラー点群は、自律型の車両14を自律的にナビゲートし、現場外でモデルを見るために使用できる。この実施形態では、いかなる段階においても、デモザイク処理されたCFA画像化装置からの全フレームではないことに留意されたい。
あるいは、着色部76は、第2のスレッド/プロセッサにおいて記憶された生データをデモザイク処理することによって、記憶装置22aから対応するフルカラー画像を受信できる。さらに、記憶装置22a内の生データは、トランシーバ26を介してリンク78によって示される現場外の処理に送信できる。
他の実施形態では、生データを72で処理して、第1の色のピクセルを補間することができる。これらの補間されたピクセルは、図6の60などのフル解像度の第1のカラーチャネルを形成し、キャッシュ22bに記憶される。キャッシュ22bは、これらの画像の多くを記憶することができる。これらの画像は、オブジェクト検出アルゴリズムを支援するために、または現場外で見るために使用できる。
図10を参照すると、さらなる実施形態は、コンピューティング装置12aおよび12b上でそれぞれ発生する2つのデータプロセッサ18aおよび18b(ただし、これらは単一のプロセッサ18であってもよい)を用いて処理されたビデオデータを生成するためのプロセス、およびそれらのメモリ22に対する関係(記憶装置22a、22cとして示されている。)を示す。具体的には、図10は、3Dモデルデータの生成および上記データの送信を示す。しかし、3Dモデルデータは、過酷な環境を調査するだけでなく、ナビゲーションにも使用できる。図9の共通の要素は、そのようにラベル付けされ、特に指定されない限り、実質的に同じ方法で動作する。
記憶装置22cは、カメラ20bからのフルカラー画像を記憶する。記憶されたフルカラー画像は、任意選択的に、着色部76によって使用され得る。
フルカラー画像は、72bで処理され、フルカラー画像から緑カラーチャネルが分離され、図6のフル解像度カラーチャネル画像60と同様のカラーチャネルを生成する。カラーチャネルは、ダウンサンプラ72cに供給され、カラーチャネルをダウンサンプリングし、第2のカラーチャネル、例えば、図5のピクセル・パターン50と同様のサブサンプリングされた緑色画像、を生成する。
ビデオプロセッサ74bは、コンピュータ・ビジョン・アルゴリズムを使用して第1のカラーチャネルから第1の画像メタデータを生成する。具体的には、特徴検出および特徴追跡アルゴリズムを実行する。コンピュータ・ビジョン・アルゴリズムは、第1の画像メタデータを生成するために、一度に1つ以上のフレームを処理することができる。
ビデオプロセッサ74cは、コンピュータ・ビジョン・アルゴリズムを使用して第2のカラーチャネルから第2の画像メタデータを生成する。具体的には、特徴検出のみを行う。コンピュータ・ビジョン・アルゴリズムは、第2の画像メタデータを生成するために、一度に1つ以上のフレームを処理することができる。
任意選択的に、着色部76は、複数のデータ点を受け取り、記憶装置22cに記憶されたフルカラー画像を使用して、着色データ点を生成する。
したがって、コンピュータ・ビジョン処理パイプラインは、視覚化から有利に分割することができ、これは、各パイプラインの処理ニーズに応じて、プロセッサおよび/またはコアを割り当てることができることを意味する。この分割の利点は、18bから18aに転送されるデータ(例えば、フルカラー画像および第2の画像メタデータのピクセル)の帯域幅が比較的低いことである。これにより、2つのデータプロセッサ18a、18b間に低帯域幅リンクを提供することが可能になり、これは海中などの過酷な環境に有利である。
CFAカメラは、生の解像度で単一のカラーチャネル(すなわち第1のカラーチャネル50)の効率的な生成を可能にする。生の解像度で単一のカラーチャネルを特徴追跡および特徴検出に使用することができる。このカラーチャネルは補間される必要はない。処理帯域幅の制限を考慮すると、生の解像度での単一のカラーチャネルの処理は、画像がフルカラー画像と比較して比較的低い解像度であるため、単位時間当たりに処理される画像の頻度をより多くすることを可能にする。フルカラー画像は、このプロセスがリソース集約的であり、特徴追跡および特徴検出よりも時間がかかるが、オブジェクト検出アルゴリズムを効率的に実行することを可能にする。特徴検出アルゴリズムは、フルカラー画像から導出された第2のカラーチャネルから実行できる。第2のカラーチャネル上の特徴検出は、3Dモデルの生成に寄与するために必要である。しかしながら、オブジェクト検出および特徴検出は共にリソースが重く、処理帯域幅制限に向けて処理能力がほとんど残らない。したがって、フルカラー画像は、CFAカメラのリアルタイム使用に遅れないように、CFAカメラよりも低い空間または時間解像度とすることができる。言い換えれば、CFAカメラは、代替モードを実行するための処理の余裕を持っている。
例えば、CFAカメラはカラーカメラよりも高いフレームレートで動作することができるが、カラーカメラおよびCFAカメラは同じ空間解像度で動作できる。これは、フレーム間の動きが少ないため、より良好な追跡をもたらすことができる。あるいは、CFAカメラは、より高いダイナミックレンジで動作して、低照度条件での追跡を改善できる。
別の例では、カラーカメラは、CFAカメラよりも低いフレームレートで動作できるが、より高い解像度で動作できる。
別の例では、フルカラーカメラは、CFAカメラと同じフレームレートで動作できるが、より低い空間解像度、例えば半分で動作する。これにより、CFAカメラとフルカラーカメラとを完全に1:1で同期させることができ、より安価なフルカラーカメラとすることができる。別の利点は、より高い解像度のCFA画像は、オブジェクト分類プロセスにとってカラー画像が十分に高い品質ではない場合に、オブジェクト検出を助けることができる、より良い品質のフレームを与えることができる点である。対象のオブジェクトは非常に小さく、例えば、5000ピクセル、2000ピクセル、1000ピクセル、500ピクセル、250ピクセルなどよりも少ない特定の数のピクセルのみをカバーすることが知られている。
高フレームレートに結合されたCFAカメラからの高解像度画像、およびフル画像カメラのより低い解像度は、一般的な従来技術のカラービデオ処理システムの半分の帯域幅で、出力解像度をほぼ2倍にできる。
CFAとフルカラーカメラの両方を、同期させることができる。フルカラーカメラがCFAカメラよりも低い時間解像度状態にある場合、これは、フレームレートが低いために
1つおきの画像を同期させることを意味し得る。あるいは、カメラが300Hzなどの非常に高いフレームレート周波数にある場合、隣接するフレームの偏差が小さいため、場合によって同期されない可能性がある。これは、高い周波数のフレームレートが必要とされる他のユースケースに使用できる。
図11を参照すると、本発明の実施形態は、概して82で示される、カラービデオ処理のためのコンピュータ実装方法にまで及ぶ。
ステップ90において、本方法は、CFA画像化装置からCFA画像を受信するステップを含み、CFA画像は、複数の画像領域を画定するCFA画像ピクセルを含み、各画像領域は、第1の色の少なくとも1つのピクセルおよび第2の色の少なくとも1つのピクセルを有する。
ステップ91において、本方法は、カラー画像化装置からフルカラー画像を受信するステップを含み、フルカラー画像は、デモザイク処理された画像ピクセルを含むことができる。
カメラは、オブジェクトがCFA画像化装置およびカラー画像化装置の両方によって画像化され、CFA画像およびフルカラー画像上に表されるように配置される。
ステップ92において、本方法は、フルカラー画像をメモリに記憶するステップを含む。
ステップ93において、本方法は、第1のカラーチャネルのピクセルを含む第1のカラーチャネルを生成するために、CFA画像の第1の色のピクセルを分離するステップを含む。
ステップ94において、本方法は、第2のカラーチャネルのピクセルを含む第2のカラーチャネルを生成するために、フルカラー画像の第1の色のピクセルを分離するステップを含む。
ステップ95において、本方法は、第1の画像メタデータを生成するために、第1のコンピュータ・ビジョン・アルゴリズムを使用して第1のカラーチャネルのピクセルを処理するステップを含む。
ステップ96において、本方法は、第2の画像メタデータを生成するために、第1のコンピュータ・ビジョン・アルゴリズムを使用して第2のカラーチャネルのピクセルを処理するステップを含む。
ステップ98において、本方法は、第1の画像メタデータおよび/または第2の画像メタデータを使用して処理済データを生成するステップを含み、処理済データは、オブジェクトを表す複数のデータ点を含む。
本発明の実施形態によるモバイル装置および方法は、沖合および海中の調査の分野で利用することができるが、宇宙、核、採掘などの危険な環境のための任意の調査システムにも適用することができる。調査は、自律的に、半自律的に、遠隔制御を介して手動で、またはリスクを低減するために最小サイズの乗組員を使用して手動で実行することができる。危険な場所に乗務員を送ることは、安全上の予防措置をとるという不便を伴い、したがってコストが増加する。モバイル装置は、例えば、ROVまたはAUVとすることができる。
本発明を1つまたは複数の好ましい実施形態を参照して上述したが、添付の特許請求の範囲に規定される本発明の範囲から逸脱することなく、様々な変更または改変を行うことができることが理解されよう。「備える(comprising)」という用語は、「含む(including)」または「からなる(consisting of)」を意味することができ、したがって、任意の請求項もしくは明細書全体に列挙された要素またはステップ以外の要素またはステップの存在を排除しない。特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、これらの手段の組み合わせを有利に使用することができないことを示すものではない。

Claims (15)

  1. カラービデオ処理のためのコンピュータ実装方法であって、
    CFA画像化装置からCFA画像を受信するステップであって、前記CFA画像は、複数の画像領域を画定するCFA画像ピクセルを含み、各画像領域は、第1の色の少なくとも1つのピクセルおよび第2の色の少なくとも1つのピクセルを有し、少なくとも1つの画像領域は、オブジェクトの部分を表す、ステップと、
    カラー画像化装置からフルカラー画像を受信するステップであって、前記フルカラー画像は前記オブジェクトの前記部分を表す、ステップと、
    前記フルカラー画像をメモリに記憶するステップと、
    第1のカラーチャネルのピクセルを含む前記第1のカラーチャネルを生成するために、前記CFA画像の前記第1の色のピクセルを分離するステップと、
    第2のカラーチャネルのピクセルを含む前記第2のカラーチャネルを生成するために、前記フルカラー画像の前記第1の色のピクセルを分離するステップと、
    第1の画像メタデータを生成するために、第1のコンピュータ・ビジョン・アルゴリズムを使用して、前記第1のカラーチャネルの前記ピクセルを処理するステップと、
    第2の画像メタデータを生成するために、前記第1のコンピュータ・ビジョン・アルゴリズムを使用して、前記第2のカラーチャネルの前記ピクセルを処理するステップと、
    前記第1の画像メタデータ、および/または、前記第2の画像メタデータを使用して処理済データを生成するステップであって、前記処理済データは、前記オブジェクトを表す複数のデータ点を含む、ステップとを備える、
    コンピュータ実装方法。
  2. データ点を前記フルカラー画像の対応する画像領域と相関させるステップと、
    前記フルカラー画像の少なくとも1つのピクセルを使用して前記データ点の前記色を修正することによってカラー処理済データを生成するステップと、
    をさらに備える、請求項1に記載の方法。
  3. 前記第1および/または第2の画像メタデータは、動き、視差、エッジ、およびセグメンテーションの少なくとも1つを備える、請求項1に記載の方法。
  4. 前記処理済データは、キーフレーム、選択画像セグメント、および3Dモデルデータの
    うちの少なくとも1つを備える、請求項1または2に記載の方法。
  5. 前記第2の画像メタデータは、前記フルカラー画像内の前記オブジェクトを検出し、ラベルおよび位置を前記オブジェクトに割り当てるために、オブジェクト検出アルゴリズムで処理される、請求項1から4のいずれか一項に記載の方法。
  6. 前記第1の画像メタデータは、前記第1の画像内の前記オブジェクトを検出し、ラベルおよび位置を前記オブジェクトに割り当てるために、オブジェクト検出アルゴリズムで処理される、請求項1から5のいずれか一項に記載の方法。
  7. 前記第1のカラーチャネルが緑色である、請求項1から6のいずれか一項に記載の方法。
  8. 前記フルカラー画像の前記第1の色のピクセルを分離するステップは、前記第2のカラーチャネルを生成するために、前記フルカラー画像の前記第1の色の前記ピクセルをダウンサンプリングするステップをさらに含む、請求項1から7のいずれか一項に記載の方法。
  9. デモザイク処理されたフルカラー画像を生成するために、前記CFA画像をデモザイク処理するステップと、任意選択的に、前記デモザイク処理されたフルカラー画像を前記メモリに保存するステップと、をさらに含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記処理済データを、低帯域幅リンクを介して外部コンピューティング装置に送信するステップをさらに含む、請求項1から9のいずれか一項に記載の方法。
  11. 前記データ点は3Dモデルデータ点であり、処理済データを生成する前記ステップは、
    前記CFA画像内の第1の特徴を追跡するために、前記第1の画像メタデータを特徴追跡アルゴリズムを用いて処理するステップと、
    前記CFA画像内の前記第1の特徴を検出するために、前記第1の画像メタデータを特徴検出アルゴリズムを用いて処理するステップと、
    前記フルカラー画像内の第2の特徴を検出するために、前記第2の画像メタデータを特徴検出アルゴリズムを用いて処理するステップと、
    前記第1の特徴および前記第2の特徴に基づいて、前記複数のデータ点のうちの1つを生成するステップと、をさらに含む、請求項4に記載の方法。
  12. 環境を調査する方法であって、
    調査現場内でモバイル装置を移動させるステップであって、前記モバイル装置は、請求項1から11のいずれか一項に記載の方法を実施する、ステップを含む方法。
  13. 環境内で調査するモバイル装置であって、
    CFA画像を生成するように構成されたCFA画像化装置と、
    前記CFA画像化装置とは異なり、フルカラー画像を生成するように構成されたカラー画像化装置と、
    前記CFA画像化装置と前記カラー画像化装置とが、重なり合う視野で取り付けられるプラットフォームと、
    請求項1から12のいずれか一項に記載の前記方法を実行するように共に構成された第1のデータプロセッサおよび第2のデータプロセッサと、
    前記CFA画像化装置と前記第1のデータプロセッサとの間に結合された第1のデータリンクと、
    前記第1のデータプロセッサに結合された第1のコンピュータメモリと、
    前記カラー画像化装置と前記第2のデータプロセッサとの間に結合された第2のデータリンクと、
    前記プラットフォームに取り付けられるように配置され、密閉された内部空間を画定する第1のケーシングであって、少なくとも前記CFA画像化装置、前記第1のデータプロセッサおよび前記第1のデータリンクが、前記第1のケーシングの前記密閉された内部空間内に収容され、前記CFA画像化装置が、CFA画像をキャプチャするために前記第1のケーシングから外向きに面するように配置される、第1のケーシングと、を備える、モバイル装置。
  14. 密閉された内部空間を画定する第2のケーシングであって、前記プラットフォームに取り付けられるように配置され、前記カラー画像化装置と、前記第2のデータプロセッサと、前記第2のデータリンクとを備え、前記カラー画像化装置は、フルカラー画像をキャプチャするために前記第2のケーシングから外向きに配置される、第2のケーシングと、
    前記第1のデータプロセッサと前記第2のデータプロセッサとの間に、任意選択的に前記第1のケーシングおよび前記第2のケーシングの前記密閉された内部空間の外側に結合された第3のデータリンクと、
    をさらに備える、請求項13に記載のモバイル装置。
  15. 前記モバイル装置は、海中モバイル装置である、請求項13または14に記載のモバイル装置。
JP2022519328A 2019-09-24 2020-09-16 カラービデオ処理のための方法およびシステム Active JP7747625B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19199264.3A EP3798967A1 (en) 2019-09-24 2019-09-24 Method and system for colour video processing
EP19199264.3 2019-09-24
PCT/EP2020/075837 WO2021058347A1 (en) 2019-09-24 2020-09-16 Method and system for colour video processing

Publications (3)

Publication Number Publication Date
JP2022550741A JP2022550741A (ja) 2022-12-05
JPWO2021058347A5 JPWO2021058347A5 (ja) 2023-09-08
JP7747625B2 true JP7747625B2 (ja) 2025-10-01

Family

ID=68069488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022519328A Active JP7747625B2 (ja) 2019-09-24 2020-09-16 カラービデオ処理のための方法およびシステム

Country Status (4)

Country Link
US (1) US12299776B2 (ja)
EP (2) EP3798967A1 (ja)
JP (1) JP7747625B2 (ja)
WO (1) WO2021058347A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220121328A (ko) * 2021-02-25 2022-09-01 삼성전자주식회사 영상 처리 방법 및 장치
US12148124B2 (en) 2021-07-15 2024-11-19 Samsung Electronics Co., Ltd. Apparatus and method for combined intraband and interband multi-frame demosaicing
US12254601B2 (en) 2021-07-15 2025-03-18 Samsung Electronics Co., Ltd. Apparatus and method for interband denoising and sharpening of images
WO2023154195A1 (en) * 2022-02-11 2023-08-17 Snap Inc. Dual system on a chip eyewear having a mipi bridge
US11997399B1 (en) 2022-03-14 2024-05-28 Amazon Technologies, Inc. Decoupled captured and external frame rates for an object camera
US12182659B1 (en) * 2022-03-14 2024-12-31 Amazon Technologies, Inc. Object camera
CN120418819A (zh) * 2022-12-16 2025-08-01 石通瑞吉电子公司 用于基于相机的监测系统的图像处理系统
US12450867B2 (en) 2022-12-16 2025-10-21 Stoneridge Electronics Ab Image processing system for camera monitoring system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120019694A1 (en) 2010-07-21 2012-01-26 Canon Kabushiki Kaisha Recording successive frames of raw sensor data depicting a moving scene
JP2018109970A (ja) 2016-12-30 2018-07-12 ダッソー システムズDassault Systemes マルコフ・ランダム・フィールド最適化を使用するセグメント化された画像の生成

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5418565A (en) * 1994-02-15 1995-05-23 Eastman Kodak Company CFA compatible resolution reduction in a single sensor electronic camera
US5629734A (en) 1995-03-17 1997-05-13 Eastman Kodak Company Adaptive color plan interpolation in single sensor color electronic camera
WO2008111927A2 (en) 2007-03-08 2008-09-18 Nikon Corporation Underwater image apparatus with red bias filter array
US8345971B2 (en) 2010-06-28 2013-01-01 The Hong Kong Polytechnic University Method and system for spatial-temporal denoising and demosaicking for noisy color filter array videos
DK2909811T3 (da) 2012-10-17 2020-04-20 Cathx Res Ltd Forbedringer af og i relation til indsamling af afstands- og dimensionsinformation til undervandsundersøgelser
US9654700B2 (en) * 2014-09-16 2017-05-16 Google Technology Holdings LLC Computational camera using fusion of image sensors
WO2019104047A1 (en) 2017-11-22 2019-05-31 Gopro, Inc. Global tone mapping

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120019694A1 (en) 2010-07-21 2012-01-26 Canon Kabushiki Kaisha Recording successive frames of raw sensor data depicting a moving scene
JP2018109970A (ja) 2016-12-30 2018-07-12 ダッソー システムズDassault Systemes マルコフ・ランダム・フィールド最適化を使用するセグメント化された画像の生成

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Neda Salamati et al.,Incorporating Near-Infrared Information into Semantic Image Segmentation ,CoRR,米国,Association Computing Machinery,2014年06月24日,https://arxiv.org/pdf/1406.6147

Also Published As

Publication number Publication date
US12299776B2 (en) 2025-05-13
US20220335663A1 (en) 2022-10-20
EP4035117A1 (en) 2022-08-03
EP3798967A1 (en) 2021-03-31
JP2022550741A (ja) 2022-12-05
EP4035117B1 (en) 2025-05-21
WO2021058347A1 (en) 2021-04-01

Similar Documents

Publication Publication Date Title
JP7747625B2 (ja) カラービデオ処理のための方法およびシステム
CN113170089B (zh) 用于恶劣环境的相机模块和多相机系统
Kumar et al. Unrectdepthnet: Self-supervised monocular depth estimation using a generic framework for handling common camera distortion models
EP2909807B1 (en) Improvements in relation to underwater imaging for underwater surveys
CN114868384B (zh) 用于图像处理的设备及方法
AU2018436279B2 (en) System and method of operation for remotely operated vehicles for simultaneous localization and mapping
US10380751B1 (en) Robot vision in autonomous underwater vehicles using the color shift in underwater imaging
US11468628B2 (en) Submersible inspection device and vision based modelling
GB2581549A (en) Method and system for colour video processing
CN116205792B (zh) 水下大视场图像拼接方法
Ferrera et al. Hyperspectral 3D mapping of underwater environments
CN117630951A (zh) 基于深海采矿车的集成全景环视及声呐预警系统及预警方法
Dionisio et al. Nereon-an underwater dataset for monocular depth estimation
CN113330444B (zh) 用于视频对象检测的计算设备和方法
JPWO2021058347A5 (ja)
Eustice et al. Image registration underwater for fluid flow measurements and mosaicking
US12352572B2 (en) Surveying system for surveying in harsh environments
Chen et al. Unsupervised monocular depth learning with integrated intrinsics and spatio-temporal constraints
Bülow et al. Underwater stereo data acquisition and 3D registration with a spectral method
Negahdaripour et al. Utilizing panoramic views for visually guided tasks in underwater robotics applications
Elalailyi et al. V-Slam-Aided Photogrammetry to Process Fisheye Multi-Camera Systems Sequences
US20250329177A1 (en) System and method for labeling 2d electro-optical (eo) data in 3d model via neural radiance fields and simulators
Spanos et al. Development and Deployment of THEIA: A Compact Underwater Multispectral Imaging System
Brousseau et al. Spherical Epipolar Rectification for Deep Two-View Absolute Depth Estimation
Pham et al. UWA360CAM: A 360$^{\circ} $24/7 Real-Time Streaming Camera System for Underwater Applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230831

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20250205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20250404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250918

R150 Certificate of patent or registration of utility model

Ref document number: 7747625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150