JP7747625B2 - カラービデオ処理のための方法およびシステム - Google Patents
カラービデオ処理のための方法およびシステムInfo
- Publication number
- JP7747625B2 JP7747625B2 JP2022519328A JP2022519328A JP7747625B2 JP 7747625 B2 JP7747625 B2 JP 7747625B2 JP 2022519328 A JP2022519328 A JP 2022519328A JP 2022519328 A JP2022519328 A JP 2022519328A JP 7747625 B2 JP7747625 B2 JP 7747625B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- image
- cfa
- full
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4015—Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
CFA画像化装置からCFA画像を受信するステップであって、CFA画像は、複数の画像領域を画定するCFA画像ピクセルを含み、各画像領域は、第1の色の少なくとも1つのピクセルおよび第2の色の少なくとも1つのピクセルを有する、ステップと、
CFA画像化装置とは異なるカラー画像化装置からフルカラー画像を受信するステップであって、フルカラー画像は、デモザイク処理された画像ピクセルを含むことができ、オブジェクトは、CFA画像化装置とカラー画像化装置の両方によって画像化され、CFA画像およびフルカラー画像に表される、ステップと、
フルカラー画像をメモリに記憶するステップと、
第1のカラーチャネルのピクセルを含む第1のカラーチャネルを生成するために、CFA画像の第1の色のピクセルを分離するステップと、
第2のカラーチャネルのピクセルを含む第2のカラーチャネルを生成するために、フルカラー画像の第1の色のピクセルを分離するステップと、
第1の画像メタデータを生成するために、第1のコンピュータ・ビジョン・アルゴリズムを使用して第1のカラーチャネルのピクセルを処理するステップと、
第2の画像メタデータを生成するために、第1のコンピュータ・ビジョン・アルゴリズムを使用して第2のカラーチャネルのピクセルを処理するステップと、
第1の画像メタデータおよび/または第2の画像メタデータを使用して処理済データを生成するステップであって、処理済データが、オブジェクトを表す複数のデータ点を含む、ステップと、
を含む。
酷な環境などの制約のある帯域幅状況では、利用可能な伝送帯域幅を効率的に利用するために、データフロー量を慎重に制御する必要がある。RAWキャプチャモードで実行することにより、より高いキャプチャ・フレーム・レートを使用し、より多くの画像をキャッシュに記憶することが可能になる。RAWで動作する場合、処理のための画像を単純化するために、高ダイナミックレンジをキャプチャすることができ(例えば、ピクセルあたり16ビット)、画像をピクセルあたり8ビットなどの低い色解像度にビットシフトできる。これにより、ハードウェアの記憶要件を低減できる。これは、YUV 4:2:2(16ビット/ピクセル)(サブサンプル色)としての従来のデモザイク処理された8ビット出力とは対照的であり、これはカラー画像化装置の出力とすることができる。
クレンジを有することができる。これは主に、厳しい帯域幅制約によるものである。
データ点または各データ点をフルカラー画像の対応する画像領域と相関させるステップと、
フルカラー画像の1つまたは複数のピクセルを使用して、上記データ点または各データ点の色を修正することによって、カラー処理済データを生成するステップと、
を含む。
。第1の画像メタデータは、CFA画像がフルカラー画像よりも高い解像度である場合、オブジェクト検出により適し得る。これは、識別用のオブジェクトが完全な(キャプチャされた)画像のわずかな比率でしか表されない場合に、特に当てはまる。わずかな比率は、全画像領域の10%、5%、3%、1%、または0.5%であってもよい。
CFA画像内の第1の特徴を検出するために、特徴検出アルゴリズムを用いて第1の画像メタデータを処理するステップと、
フルカラー画像内の第2の特徴を検出するために、特徴検出アルゴリズムを用いて第2の画像メタデータを処理するステップと、
第1の特徴および第2の特徴に基づいて、複数のデータ点のうちの1つを生成するステップと、
を含む。
調査現場内でモバイル装置を移動させることであって、モバイル装置が第1の態様の方法を実施する、移動させることを含む。
CFA画像を生成するように構成されたCFA画像化装置と、
CFA画像化装置とは異なり、フルカラー画像を生成するように構成されたカラー画像化装置と、
CFA画像化装置とカラー画像化装置とが重なり合う視野で取り付けられるプラットフォームと、
第1の態様の方法を実行するように任意選択的に共に構成された、第1のデータプロセッサおよび第2のデータプロセッサと、
CFA画像化装置と第1のデータプロセッサとの間に結合された第1のデータリンクと、
第1のデータプロセッサに結合された第1のコンピュータメモリと、
カラー画像化装置と第2のデータプロセッサとの間に結合された第2のデータリンクと、
プラットフォームに取り付けられるように配置され、密閉された内部空間を画定する第1のケーシングであって、少なくともCFA画像化装置、第1のデータプロセッサ、および第1のデータリンクが、第1のケーシングの密閉された内部空間内に収容され、CFA画像化装置が、CFA画像をキャプチャするために第1のケーシングから外向きに配置される、第1のケーシングと、を備える。
密閉された内部空間を画定し、プラットフォームに取り付けられるように配置された、第2のケーシングであって、カラー画像化装置と、第2のデータプロセッサと、第2のデータリンクとを備え、カラー画像化装置は、フルカラー画像をキャプチャするために第2のケーシングから外向きに配置される、第2のケーシングと、
第1のデータプロセッサと第2のデータプロセッサとの間で、任意選択的に第1のケーシングおよび第2のケーシングの密閉された内部空間の外側に、結合された第3のデータリンクと、備える。
して出力するために、CFA画像をデモザイク処理するように組み込まれた画像プロセッサを有するCFA画像化装置とすることができる。デモザイク処理は、CFA画像からフル解像度カラーチャネルを生成するプロセスである。フル解像度は、元の(キャプチャされた)CFA画像の解像度である。デモザイク処理は、各色のピクセルを部分解像度の画像/チャネルに空間的に分離することを含む。言い換えると、デモザイク処理は、各カラー・フィルタ・ピクセルを部分解像度カラーチャネル上に分離することを含む。部分解像度カラーチャネルは、他のカラーフィルタがあったであろう空ピクセルを有するただ1つのカラーフィルタのアレイである。これらの部分解像度カラーチャネルは、各色のカラーチャネル(フル解像度、すなわち、全ピクセルがカラーフィルタのピクセルである)を生成するために、補間することができる。良質のデモザイク処理アルゴリズムは、補間中に発生する可能性があるエッジアーチファクトの大部分を隠すことができる。デモザイク処理されたCFA画像は、各ピクセルが3つのカラーチャネルを有するように、すべてのカラーチャネルを組み合わせることができる。
取得し、キー点を、他の画像(以前にキャプチャされた画像または他のカメラによって同時にキャプチャされた画像など)からの対応するキー点と関連付けることができる。各画像に関連付けられたカメラの姿勢を知ることで、各画像のキー点、および特定の点に対する光線が交差するか、または3Dモデル内の対応する点の3D位置を表す3D空間に最もよく適合する点、を介して、カメラ位置から光線を投影することができる。3D再構成アルゴリズムは、動きからの構造復元(Structure from Motion)、またはビデオもしくはカメラ画像から3Dモデルを生成する他の任意の適切な技術とすることができる。3Dモデルは、例えば点群を含むことができる。3D再構成アルゴリズムは、一対の画像から3Dモデルの構築を開始することができるか、またはデータプロセッサによって既に構築されている3Dモデルを拡張するために第2の画像を使用することができる。
ールを設けて、水の浸入を阻止することができる。この実施形態のケーシング16は、ステンレス鋼から形成され、深海環境、ならびに/または海底石油およびガスインフラストラクチャ現場などの水中の過酷な環境でカメラモジュール30が受ける可能性のある高圧に構造的に耐えるように、円筒形状である。他の実施形態では、ケーシング16の材料および/または形状は、展開環境(例えば、アルミニウム、ベリリウム銅、チタン、プラスチック、アイオノマー、PEKK、炭素繊維またはセラミック)に応じて、応力、化学的および/または温度耐性を提供するために、変更することができる。ケーシング16の材料および形状は、強固で堅固な構造をもたらすことが好ましい。ケーシング16の形状は、角柱または円筒形などの任意の耐圧形状とすることができる。カメラ20aおよび20bは、ケーシング16がカメラ20aおよび20bの少なくとも一部(例えばカメラ20aおよび/または20bのレンズ)と流体シールを形成するように、ケーシング16の一部を形成することができる。他のエンド・キャップ・シールは、貫通ボルトまたはねじ式チューブ含む方法を使用して形成することができる。コンピューティング装置12の構成要素の一部または全部は、ケーシング16内に収容することができる。ポートP1~P5は、カメラモジュールが海中などの過酷な環境で動作している間に外部データリンクを提供するために、他のカメラモジュール、カメラモジュールなどへの有線接続のために設けることができる。
セルのパターン(図5に示すように、ピクセル・パターン50)を生成するために、CFAパターンの色を分離または分割するステップ、ii)各々がCFAと同じ解像度を有する3つのカラーチャネル(例えば、赤、緑、青)を生成するために、同じカラーピクセルの各パターンを補間するステップ、とを含む。これらの3つのカラーチャネルを組み合わせて、フルカラー画像を生成することができる。この処理は、プロセッサに組み込まれたカメラによって、従来のCFAカラーカメラの各画像に対して自動的に行われる。
1.欠落したカラーピクセルを、4つの近傍から単純に補間する。
2.カラーチャネルのみをデモザイク処理する。
3.2×2ブロック内の2つのカラーピクセルを単純に平均する(これにより、4分の1の解像度の平滑化画像が生成される)。
4.両方の座標が偶数であるピクセルのみを選択する(これにより、4分の1の解像度のデシメーションが生成される)。
、または他の任意のタイプのモデルを生成できる。点群の点はデータ点である。データ点は、各点が関連する色値を有することができるように、それらのデータ点が導出された元の画像内の特定のピクセル、または代替的にピクセルの集団に対応する。
どの過酷な環境において極めて重要であり、さらに処理がリアルタイムで行われるためには、処理がキャプチャ画像のフレームレートに追従しなければならない。しかしながら、処理がリアルタイムで行われるようにするために、フレームレートを変更できる。あるいは、両方の画像を使用すると最高の精度を得ることができ、処理能力および時間は問題ではない。
1つおきの画像を同期させることを意味し得る。あるいは、カメラが300Hzなどの非常に高いフレームレート周波数にある場合、隣接するフレームの偏差が小さいため、場合によって同期されない可能性がある。これは、高い周波数のフレームレートが必要とされる他のユースケースに使用できる。
Claims (15)
- カラービデオ処理のためのコンピュータ実装方法であって、
CFA画像化装置からCFA画像を受信するステップであって、前記CFA画像は、複数の画像領域を画定するCFA画像ピクセルを含み、各画像領域は、第1の色の少なくとも1つのピクセルおよび第2の色の少なくとも1つのピクセルを有し、少なくとも1つの画像領域は、オブジェクトの部分を表す、ステップと、
カラー画像化装置からフルカラー画像を受信するステップであって、前記フルカラー画像は前記オブジェクトの前記部分を表す、ステップと、
前記フルカラー画像をメモリに記憶するステップと、
第1のカラーチャネルのピクセルを含む前記第1のカラーチャネルを生成するために、前記CFA画像の前記第1の色のピクセルを分離するステップと、
第2のカラーチャネルのピクセルを含む前記第2のカラーチャネルを生成するために、前記フルカラー画像の前記第1の色のピクセルを分離するステップと、
第1の画像メタデータを生成するために、第1のコンピュータ・ビジョン・アルゴリズムを使用して、前記第1のカラーチャネルの前記ピクセルを処理するステップと、
第2の画像メタデータを生成するために、前記第1のコンピュータ・ビジョン・アルゴリズムを使用して、前記第2のカラーチャネルの前記ピクセルを処理するステップと、
前記第1の画像メタデータ、および/または、前記第2の画像メタデータを使用して処理済データを生成するステップであって、前記処理済データは、前記オブジェクトを表す複数のデータ点を含む、ステップとを備える、
コンピュータ実装方法。 - データ点を前記フルカラー画像の対応する画像領域と相関させるステップと、
前記フルカラー画像の少なくとも1つのピクセルを使用して前記データ点の前記色を修正することによってカラー処理済データを生成するステップと、
をさらに備える、請求項1に記載の方法。 - 前記第1および/または第2の画像メタデータは、動き、視差、エッジ、およびセグメンテーションの少なくとも1つを備える、請求項1に記載の方法。
- 前記処理済データは、キーフレーム、選択画像セグメント、および3Dモデルデータの
うちの少なくとも1つを備える、請求項1または2に記載の方法。 - 前記第2の画像メタデータは、前記フルカラー画像内の前記オブジェクトを検出し、ラベルおよび位置を前記オブジェクトに割り当てるために、オブジェクト検出アルゴリズムで処理される、請求項1から4のいずれか一項に記載の方法。
- 前記第1の画像メタデータは、前記第1の画像内の前記オブジェクトを検出し、ラベルおよび位置を前記オブジェクトに割り当てるために、オブジェクト検出アルゴリズムで処理される、請求項1から5のいずれか一項に記載の方法。
- 前記第1のカラーチャネルが緑色である、請求項1から6のいずれか一項に記載の方法。
- 前記フルカラー画像の前記第1の色のピクセルを分離するステップは、前記第2のカラーチャネルを生成するために、前記フルカラー画像の前記第1の色の前記ピクセルをダウンサンプリングするステップをさらに含む、請求項1から7のいずれか一項に記載の方法。
- デモザイク処理されたフルカラー画像を生成するために、前記CFA画像をデモザイク処理するステップと、任意選択的に、前記デモザイク処理されたフルカラー画像を前記メモリに保存するステップと、をさらに含む、請求項1から8のいずれか一項に記載の方法。
- 前記処理済データを、低帯域幅リンクを介して外部コンピューティング装置に送信するステップをさらに含む、請求項1から9のいずれか一項に記載の方法。
- 前記データ点は3Dモデルデータ点であり、処理済データを生成する前記ステップは、
前記CFA画像内の第1の特徴を追跡するために、前記第1の画像メタデータを特徴追跡アルゴリズムを用いて処理するステップと、
前記CFA画像内の前記第1の特徴を検出するために、前記第1の画像メタデータを特徴検出アルゴリズムを用いて処理するステップと、
前記フルカラー画像内の第2の特徴を検出するために、前記第2の画像メタデータを特徴検出アルゴリズムを用いて処理するステップと、
前記第1の特徴および前記第2の特徴に基づいて、前記複数のデータ点のうちの1つを生成するステップと、をさらに含む、請求項4に記載の方法。 - 環境を調査する方法であって、
調査現場内でモバイル装置を移動させるステップであって、前記モバイル装置は、請求項1から11のいずれか一項に記載の方法を実施する、ステップを含む方法。 - 環境内で調査するモバイル装置であって、
CFA画像を生成するように構成されたCFA画像化装置と、
前記CFA画像化装置とは異なり、フルカラー画像を生成するように構成されたカラー画像化装置と、
前記CFA画像化装置と前記カラー画像化装置とが、重なり合う視野で取り付けられるプラットフォームと、
請求項1から12のいずれか一項に記載の前記方法を実行するように共に構成された第1のデータプロセッサおよび第2のデータプロセッサと、
前記CFA画像化装置と前記第1のデータプロセッサとの間に結合された第1のデータリンクと、
前記第1のデータプロセッサに結合された第1のコンピュータメモリと、
前記カラー画像化装置と前記第2のデータプロセッサとの間に結合された第2のデータリンクと、
前記プラットフォームに取り付けられるように配置され、密閉された内部空間を画定する第1のケーシングであって、少なくとも前記CFA画像化装置、前記第1のデータプロセッサおよび前記第1のデータリンクが、前記第1のケーシングの前記密閉された内部空間内に収容され、前記CFA画像化装置が、CFA画像をキャプチャするために前記第1のケーシングから外向きに面するように配置される、第1のケーシングと、を備える、モバイル装置。 - 密閉された内部空間を画定する第2のケーシングであって、前記プラットフォームに取り付けられるように配置され、前記カラー画像化装置と、前記第2のデータプロセッサと、前記第2のデータリンクとを備え、前記カラー画像化装置は、フルカラー画像をキャプチャするために前記第2のケーシングから外向きに配置される、第2のケーシングと、
前記第1のデータプロセッサと前記第2のデータプロセッサとの間に、任意選択的に前記第1のケーシングおよび前記第2のケーシングの前記密閉された内部空間の外側に結合された第3のデータリンクと、
をさらに備える、請求項13に記載のモバイル装置。 - 前記モバイル装置は、海中モバイル装置である、請求項13または14に記載のモバイル装置。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP19199264.3A EP3798967A1 (en) | 2019-09-24 | 2019-09-24 | Method and system for colour video processing |
| EP19199264.3 | 2019-09-24 | ||
| PCT/EP2020/075837 WO2021058347A1 (en) | 2019-09-24 | 2020-09-16 | Method and system for colour video processing |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2022550741A JP2022550741A (ja) | 2022-12-05 |
| JPWO2021058347A5 JPWO2021058347A5 (ja) | 2023-09-08 |
| JP7747625B2 true JP7747625B2 (ja) | 2025-10-01 |
Family
ID=68069488
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022519328A Active JP7747625B2 (ja) | 2019-09-24 | 2020-09-16 | カラービデオ処理のための方法およびシステム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US12299776B2 (ja) |
| EP (2) | EP3798967A1 (ja) |
| JP (1) | JP7747625B2 (ja) |
| WO (1) | WO2021058347A1 (ja) |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20220121328A (ko) * | 2021-02-25 | 2022-09-01 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
| US12148124B2 (en) | 2021-07-15 | 2024-11-19 | Samsung Electronics Co., Ltd. | Apparatus and method for combined intraband and interband multi-frame demosaicing |
| US12254601B2 (en) | 2021-07-15 | 2025-03-18 | Samsung Electronics Co., Ltd. | Apparatus and method for interband denoising and sharpening of images |
| WO2023154195A1 (en) * | 2022-02-11 | 2023-08-17 | Snap Inc. | Dual system on a chip eyewear having a mipi bridge |
| US11997399B1 (en) | 2022-03-14 | 2024-05-28 | Amazon Technologies, Inc. | Decoupled captured and external frame rates for an object camera |
| US12182659B1 (en) * | 2022-03-14 | 2024-12-31 | Amazon Technologies, Inc. | Object camera |
| CN120418819A (zh) * | 2022-12-16 | 2025-08-01 | 石通瑞吉电子公司 | 用于基于相机的监测系统的图像处理系统 |
| US12450867B2 (en) | 2022-12-16 | 2025-10-21 | Stoneridge Electronics Ab | Image processing system for camera monitoring system |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120019694A1 (en) | 2010-07-21 | 2012-01-26 | Canon Kabushiki Kaisha | Recording successive frames of raw sensor data depicting a moving scene |
| JP2018109970A (ja) | 2016-12-30 | 2018-07-12 | ダッソー システムズDassault Systemes | マルコフ・ランダム・フィールド最適化を使用するセグメント化された画像の生成 |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5418565A (en) * | 1994-02-15 | 1995-05-23 | Eastman Kodak Company | CFA compatible resolution reduction in a single sensor electronic camera |
| US5629734A (en) | 1995-03-17 | 1997-05-13 | Eastman Kodak Company | Adaptive color plan interpolation in single sensor color electronic camera |
| WO2008111927A2 (en) | 2007-03-08 | 2008-09-18 | Nikon Corporation | Underwater image apparatus with red bias filter array |
| US8345971B2 (en) | 2010-06-28 | 2013-01-01 | The Hong Kong Polytechnic University | Method and system for spatial-temporal denoising and demosaicking for noisy color filter array videos |
| DK2909811T3 (da) | 2012-10-17 | 2020-04-20 | Cathx Res Ltd | Forbedringer af og i relation til indsamling af afstands- og dimensionsinformation til undervandsundersøgelser |
| US9654700B2 (en) * | 2014-09-16 | 2017-05-16 | Google Technology Holdings LLC | Computational camera using fusion of image sensors |
| WO2019104047A1 (en) | 2017-11-22 | 2019-05-31 | Gopro, Inc. | Global tone mapping |
-
2019
- 2019-09-24 EP EP19199264.3A patent/EP3798967A1/en not_active Withdrawn
-
2020
- 2020-09-16 WO PCT/EP2020/075837 patent/WO2021058347A1/en not_active Ceased
- 2020-09-16 EP EP20768634.6A patent/EP4035117B1/en active Active
- 2020-09-16 JP JP2022519328A patent/JP7747625B2/ja active Active
- 2020-09-16 US US17/762,944 patent/US12299776B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20120019694A1 (en) | 2010-07-21 | 2012-01-26 | Canon Kabushiki Kaisha | Recording successive frames of raw sensor data depicting a moving scene |
| JP2018109970A (ja) | 2016-12-30 | 2018-07-12 | ダッソー システムズDassault Systemes | マルコフ・ランダム・フィールド最適化を使用するセグメント化された画像の生成 |
Non-Patent Citations (1)
| Title |
|---|
| Neda Salamati et al.,Incorporating Near-Infrared Information into Semantic Image Segmentation ,CoRR,米国,Association Computing Machinery,2014年06月24日,https://arxiv.org/pdf/1406.6147 |
Also Published As
| Publication number | Publication date |
|---|---|
| US12299776B2 (en) | 2025-05-13 |
| US20220335663A1 (en) | 2022-10-20 |
| EP4035117A1 (en) | 2022-08-03 |
| EP3798967A1 (en) | 2021-03-31 |
| JP2022550741A (ja) | 2022-12-05 |
| EP4035117B1 (en) | 2025-05-21 |
| WO2021058347A1 (en) | 2021-04-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7747625B2 (ja) | カラービデオ処理のための方法およびシステム | |
| CN113170089B (zh) | 用于恶劣环境的相机模块和多相机系统 | |
| Kumar et al. | Unrectdepthnet: Self-supervised monocular depth estimation using a generic framework for handling common camera distortion models | |
| EP2909807B1 (en) | Improvements in relation to underwater imaging for underwater surveys | |
| CN114868384B (zh) | 用于图像处理的设备及方法 | |
| AU2018436279B2 (en) | System and method of operation for remotely operated vehicles for simultaneous localization and mapping | |
| US10380751B1 (en) | Robot vision in autonomous underwater vehicles using the color shift in underwater imaging | |
| US11468628B2 (en) | Submersible inspection device and vision based modelling | |
| GB2581549A (en) | Method and system for colour video processing | |
| CN116205792B (zh) | 水下大视场图像拼接方法 | |
| Ferrera et al. | Hyperspectral 3D mapping of underwater environments | |
| CN117630951A (zh) | 基于深海采矿车的集成全景环视及声呐预警系统及预警方法 | |
| Dionisio et al. | Nereon-an underwater dataset for monocular depth estimation | |
| CN113330444B (zh) | 用于视频对象检测的计算设备和方法 | |
| JPWO2021058347A5 (ja) | ||
| Eustice et al. | Image registration underwater for fluid flow measurements and mosaicking | |
| US12352572B2 (en) | Surveying system for surveying in harsh environments | |
| Chen et al. | Unsupervised monocular depth learning with integrated intrinsics and spatio-temporal constraints | |
| Bülow et al. | Underwater stereo data acquisition and 3D registration with a spectral method | |
| Negahdaripour et al. | Utilizing panoramic views for visually guided tasks in underwater robotics applications | |
| Elalailyi et al. | V-Slam-Aided Photogrammetry to Process Fisheye Multi-Camera Systems Sequences | |
| US20250329177A1 (en) | System and method for labeling 2d electro-optical (eo) data in 3d model via neural radiance fields and simulators | |
| Spanos et al. | Development and Deployment of THEIA: A Compact Underwater Multispectral Imaging System | |
| Brousseau et al. | Spherical Epipolar Rectification for Deep Two-View Absolute Depth Estimation | |
| Pham et al. | UWA360CAM: A 360$^{\circ} $24/7 Real-Time Streaming Camera System for Underwater Applications |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230831 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230831 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241105 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20250205 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20250404 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250501 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250819 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250918 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7747625 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |