[go: up one dir, main page]

JP7216351B2 - 点群符号化構造 - Google Patents

点群符号化構造 Download PDF

Info

Publication number
JP7216351B2
JP7216351B2 JP2021535985A JP2021535985A JP7216351B2 JP 7216351 B2 JP7216351 B2 JP 7216351B2 JP 2021535985 A JP2021535985 A JP 2021535985A JP 2021535985 A JP2021535985 A JP 2021535985A JP 7216351 B2 JP7216351 B2 JP 7216351B2
Authority
JP
Japan
Prior art keywords
point cloud
patch
attribute
encoding
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021535985A
Other languages
English (en)
Other versions
JP2022517060A (ja
Inventor
ダニーロ グラジオッシ
央二 中神
アリ タバタバイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2022517060A publication Critical patent/JP2022517060A/ja
Application granted granted Critical
Publication of JP7216351B2 publication Critical patent/JP7216351B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

〔関連出願との相互参照〕
本出願は、2019年3月20日に出願された「点群符号化構造(POINT CLOUD CODING STRUCTURE)」という名称の米国仮特許出願第62/821,139号、2019年1月11日に出願された「点群符号化構造」という名称の米国仮特許出願第62/791,328号、2019年1月2日に出願された「点群符号化構造」という名称の米国仮特許出願第62/787,637号、2018年12月19日に出願された「点群符号化構造」という名称の米国仮特許出願第62/781,968号の米国特許法第119条に基づく優先権を主張するものであり、これらの文献はその全体が全ての目的で引用により本明細書に組み入れられる。
本発明は、3次元グラフィックスに関する。具体的には、本発明は、3次元グラフィックスの符号化に関する。
点群(point clouds)は、3Dスキャナ、LIDARセンサによって取り込まれた、又は仮想現実/拡張現実(VR/AR)などの大衆向け用途で使用される3Dデータの伝送フォーマット候補とみなされてきた。点群は、3D空間内の点の集合である。通常、各点は、空間位置(X、Y、Z)以外に、色(R、G、B)、又は(LIDAR画像などにおける)反射率及び時間的タイムスタンプなどの関連する属性を有する。装置は、標的3Dオブジェクトの高品質表現を取得するために、約数千個又は数百万個もの点の点群を取り込む。さらに、VR/AR用途で使用される動的3Dシーンでは、しばしば全ての単一フレームが固有の高密度な点群を有し、結果として毎秒数百万個もの点群が伝送されるようになる。このような大量データの伝送を実行できるように、しばしば圧縮が適用される。
2017年に、MPEGは点群圧縮のための提案募集(CfP)を行った。MPEGは、複数の提案を評価した後に、(八分木及び同様の符号化法に基づく)3Dネイティブな符号化技術、又は3Dから2Dへの投影後における従来のビデオ符号化という2つの異なる技術を点群圧縮のために検討している。MPEGは、動的3Dシーンについては、パッチサーフェスモデリング(patch surface modeling)に基づくテストモデルソフトウェア(TMC2)、3Dから2D画像へのパッチ投影、及びHEVCなどのビデオエンコーダを用いた2D画像の符号化を使用する。この方法は、ネイティブな3D符号化よりも効率的であることが証明されており、許容できる品質で優位性のあるビットレートを達成することができる。
TMC2は、点群の符号化時に、2Dキャンバス画像内のパッチ位置及び境界ボックスサイズなどの、パッチ投影に関連する補助情報を符号化する。補助情報の時間符号化では、現在の点群からのパッチと復号直後の点群からのパッチとの間のパッチマッチングが予測に使用される。この手順は直近のものに限定され、シーケンス内の全てのフレームについてデルタ符号化(delta coding)を実行することを含む。
点群符号化構造が、点群パッチの予測に使用される全ての参照が現在の点群フレームに制限される「キー」点群フレームを定める。参照パッチのリスト及びその点群フレームからのそれぞれの境界ボックスを別のフレーム内のパッチ予測に使用するために記憶する点群パッチバッファについて説明する。点群フレームの符号化順が提示順と異なることができる場合、参照パッチのリストは過去からのパッチ及び将来からのパッチを含むことができ、双方向予測が使用される。点群の層にも同様の参照バッファリストの概念を適用することができる。上位レベル情報を含むブロックのIDへの参照をペイロード内でシグナリングすることによってV-PCCのブロックを相関させるシグナリング法についても説明する。
1つの態様では、装置の非一時メモリにプログラムされた方法が、点群符号化構造を実装するステップと、点群符号化構造を使用して点群メタデータを符号化するステップとを含む。点群符号化構造を実装するステップは、予測のために他のどのフレームにも依存しないキー点群フレームを決定するステップを含む。点群メタデータを符号化するステップは、過去のパッチ及びメタデータ情報と、将来のパッチ及びメタデータ情報とを使用することを含む双方向予測を利用する。双方向予測は、過去のパッチ及びメタデータ情報のための第1の構造、並びに将来のパッチ及びメタデータ情報のための第2の構造という2つの別の構造を実装する。第1の構造及び第2の構造は、点群パッチバッファに記憶される。方法は、点群の層のバッファリストを利用して、点群の点が互いに重なり合って投影されることを可能にするステップをさらに含む。方法は、V-PCCのブロックを相関させるシグナリング法を実装するステップをさらに含む。
別の態様では、装置が、点群符号化構造を実装し、点群符号化構造を使用して点群メタデータを符号化するためのアプリケーションを記憶する非一時的メモリと、メモリに結合されてアプリケーションを処理するように構成されたプロセッサとを含む。点群符号化構造を実装することは、予測のために他のいずれのフレームにも依存しないキー点群フレームを決定することを含む。点群メタデータを符号化することは、過去のパッチ及びメタデータ情報と、将来のパッチ及びメタデータ情報とを使用することを含む双方向予測を利用する。双方向予測は、過去のパッチ及びメタデータ情報のための第1の構造、並びに将来のパッチ及びメタデータ情報のための第2の構造という2つの別の構造を実装する。第1の構造及び第2の構造は、点群パッチバッファに記憶される。方法は、点群の層のバッファリストを利用して、点群の点が互いに重なり合って投影されることを可能にすることをさらに含む。装置は、V-PCCのブロックを相関させるシグナリング法を実装することをさらに含む。
別の態様では、システムが、点群符号化構造と、点群符号化構造を使用して点群メタデータを符号化するエンコーダとを含む。点群符号化構造を実装することは、予測のために他のいずれのフレームにも依存しないキー点群フレームを決定することを含む。点群メタデータを符号化することは、過去のパッチ及びメタデータ情報と、将来のパッチ及びメタデータ情報とを使用することを含む双方向予測を利用する。双方向予測は、過去のパッチ及びメタデータ情報のための第1の構造、並びに将来のパッチ及びメタデータ情報のための第2の構造という2つの別の構造を実装する。第1の構造及び第2の構造は、点群パッチバッファに記憶される。システムは、点群の層のバッファリストを利用して、点群の点が互いに重なり合って投影されることを可能にすることをさらに含む。システムは、V-PCCのブロックを相関させるシグナリング法を実装することをさらに含む。
いくつかの実施形態による、「キー」点群フレームのための補助情報バッファの図である。 いくつかの実施形態による、時間的予測を利用する補助情報バッファの図である。 いくつかの実施形態による、双方向予測を利用する補助情報バッファの図である。 いくつかの実施形態による、層の階層的グループ化の図である。 いくつかの実施形態によるV-PCCシグナリングの図である。 いくつかの実施形態による、論理チェーン情報を含むV-PCCシグナリングの例示的な符号化の図である。 いくつかの実施形態による、論理チェーン情報を含むV-PCCシグナリングの例示的な符号化の図である。 いくつかの実施形態による、論理チェーン情報を含むV-PCCシグナリングの例示的な符号化の図である。 いくつかの実施形態による、点群符号化構造を実装する方法のフローチャートである。 いくつかの実施形態による、点群符号化構造を実装するように構成された例示的なコンピュータ装置のブロック図である。
本明細書では、動的点群の時間的圧縮のための新規符号化構造について説明する。この符号化構造は、点群パッチの予測に使用される全ての参照が現在の点群フレームに制限される「キー」点群フレームの概念を定める。さらに、参照パッチのリスト及びその点群フレームからのそれぞれの境界ボックスを別のフレーム内のパッチの予測に使用するために記憶する点群パッチバッファについても説明する。点群フレームの符号化順が提示順と異なることができる場合、参照パッチのリストは過去からのパッチ及び将来からのパッチを含むことができ、双方向予測が使用される。点群の層にも同様の参照バッファリストの概念を適用することができる。上位レベル情報を含むブロックのIDへの参照をペイロード内でシグナリングすることによってV-PCCのブロックを相関させるシグナリング法についても説明する。
メタデータ情報(パッチ及びそれぞれの境界ボックス)を含むバッファが、前のフレームからのデータを記憶する。次に、エンコーダが、現在のフレームを符号化するために、現在のフレームと前のフレームから記憶されたパッチとの間のパッチマッチング(patch matching)を実行する。さらに、これらのパッチを、将来的に配置されることも又はされないこともある2又は3以上前のフレームからの2又は3以上のパッチとマッチングすることができる。双方向予測を可能にするために、参照パッチリストを、一方が過去のフレームを示して他方が将来のフレームを示す2つの別のリストに記憶することができる。「キー」点群フレームが定められる場合、過去の点群フレームを使用した予測は認められず、使用される全ての参照は現在のフレームに由来すべきである。さらに、V-PCCユニットのシグナリング構造は、上位レベルの要素への参照を含むものとする。例えば、属性パッチパラメータセット(Attribute Patch Parameter Set:APPS)のための情報を含むブロックは、属性パラメータセット(Attribute Parameter Set:APS)の情報を含むブロックを参照し、これはIDを使用して行われる。
HEVCなどのビデオエンコーダにおいて使用される復号ピクチャバッファ(Decoded Picture Buffer:DPB)と同様の、現在の情報を予測するための過去の情報のリストについて説明する。この技術の新規性は、画像を符号化するためだけに参照リストを使用するのではなく、メタデータ情報(パッチ)を符号化するためにも使用する点である。さらに、本明細書では、上位レベルの情報を含むブロックへの参照をペイロード内で示すシグナリング法についても説明する。
本明細書で説明する点群符号化構造は、構造をより効率的なものにするために点群符号化標準に追加された新たな要素に関連する情報を含む。含まれる情報は、点群圧縮ビットストリーム(point cloud compressed bitstreams)の関係性、並びに符号化及び復号方法を提供する。
点群符号化標準では、点群を曲面パッチ(surface patches)にセグメント化して曲面パッチを投影する。この投影により、1又は2以上の2Dビデオエンコーダを使用して符号化できる2D画像が生成される。2D画像の生成法及び3D画像からの2D画像の再構築法、又はこれらの逆(例えば、3Dの点から2Dビデオへの移行方法などのマッピング情報)を示す補助情報(又はメタデータ)が送信される。例えば、点群は100個のパッチに分割され、すなわち点群からパッチへの移行方法又は3Dパッチから2Dパッチへの移行方法を示すメタデータが存在する。メタデータは、フレーム間の時間的相関などの特性を含む。このメタデータ(例えば、時間的相関情報)は符号化される。例えば、点群の1つのフレームは100個のパッチに分割され、1つのパッチは、顔上の全ての点が単一のパッチにグループ化された顔パッチである。次のフレームはわずかにシフトした点群を含み、今回は点群が110個のパッチに分割され、2つのパッチが顔を表す。フレーム毎のパッチのリストを他のフレームからのパッチのリストと相関させることができる。例えば、補助情報はパッチの位置情報(例えば、位置10)などの3D情報を含み、第2のフレーム内のパッチの位置情報(例えば、位置11)は異なる/変化する。新たな位置を符号化する必要はなく、古いパッチと比べた新たなパッチの関係が符号化される(例えば、この例では第2のフレームからのパッチが位置p+1である)。従って、これらのフレーム間のパッチ間の関係/相関を記憶することができる。この例では現在のフレーム及び前のフレームについて説明しているが、あらゆるフレームを使用及び相関させることができる。
パッチが5フレーム前のフレームの前のフレーム内のパッチに時間的に相関するように、補助情報のためのバッファリング構造を生成することができる。バッファリング構造は、パッチ及びフレームの全ての依存性を示す。その後、キーフレームに類似する前のフレームに依存しない補助情報などの異なるタイプの補助情報を生成することができる。過去からのフレームに依存するパッチは時間的予測を含む。フレームが順に符号化されるのではなくパッチが過去及び将来のパッチを参照できるようにフレームを並べ替える双方向予測を実装することができ、これによって高い柔軟性が可能になる。
図1に、いくつかの実施形態による、「キー」点群フレームのための補助情報バッファの図を示す。「キー」点群フレームでは、各パッチの補助情報が同じフレーム内の前のパッチからのものである。さらなるフレームからの補助情報は利用されない。
図2に、いくつかの実施形態による、時間的予測を利用する補助情報バッファの図を示す。時間的予測では、パッチの補助情報が前のフレーム(例えば、FrameN-1...Frame0)からのパッチに由来することができる。
図3に、いくつかの実施形態による、双方向予測を利用する補助情報バッファの図を示す。双方向予測では、パッチの補助情報が前のフレーム(例えば、FrameN-1...Frame0)又は将来のフレーム(例えば、FrameN+1)からのパッチに由来することができる。
補助情報のデルタ性/差動性を考えると、現在のTMC2マッチング手法の限界は、参照として前の補助情報データユニットしか使用されない点である。現在の補助情報データユニットのより柔軟な予測スキームは、一連の予め定められた参照補助情報セット(reference auxiliary information set:RAIS)から参照リストを作成することである。図3に、参照補助情報セット及びLDのリストの例を示す。
図3の例は、参照セット及びリストの概念を使用する単純な実装を示す。しかしながら、この実装は、ランダムアクセスのための双予測の使用、及びL0に加えたL1型参照リストの導入により、ジオメトリビデオコーデック(geometry video codec)のGOP構成に従って一連の予め定められた参照補助情報セットを生成するための柔軟性を提供する。また、現在のスキームを、現在のフレーム内の一致するパッチが異なる参照フレームインデックスを参照できるようにさらに拡張して一般化することもできる。
ビデオ層バッファでは、3D面から2D面に点を投影した時に、互いに重なり合って投影される点がいくつか存在する。これらの点を保持するために、第1の層が第1の点であり、第2の層が第2の点であり、以下同様であるようなビデオ層を実装することができる。いくつかの実装では、第1の層が最初の点であり、第2の層が最後の点である2つの層のみを利用し、これらの間の点は符号化されない。いくつかの実装では、さらなる層(例えば、16個の層)を利用することもできる。
具体的に言えば、現在のV-PCC仕様では最大16個の層が存在できるのに対し、TMC2 SWの実装では層数がたった2つに制限される。また、フラグ「absolute_d1_flag」を使用して、単一のインターリーブ層0/層1入力(absolute_d1_flag=1)、又は2つの入力((absolute_d1_flag=0):層0及びジオメトリビデオコーデックへの残差(layer_1-layer_0)を生成する。2つよりも多くの層を取り扱う場合には、予測順のシグナリングがより複雑になる。従って、参照補助情報セット及びリストの概念を複数の層に拡張することで、両ケースに対応する統一された方法が得られる。
2つよりも多くの層(3D面からのスライス)の利用を可能にするためにFIFOバッファを実装することができる。FIFOバッファは、どの層が以前に符号化されたかを示すことができる。これらの層は、階層的な予測スキームを生成するために階層的にグループ化することもできる。例えば、層を階層グループに組み合わせて、これらの階層グループを予測に使用することができる。図4に、いくつかの実施形態による層の階層的グループ化の図を示す。
単一の/2つの層を作成する別の方法は、現在のTMC2実装に従って2層スキーム又は単一層スキームのいずれかを生成する、層の階層的グループ化である。このようなグループ化の情報は、固定/事前定義し、又はデコーダに送信することができる。
図5に、いくつかの実施形態によるV-PCCシグナリングの図を示す。V-PCCビットストリームはV-PCCユニットを含み、各V-PCCユニットは、V-PCCユニットヘッダ及びV-PCCユニットペイロードを含む。V-PCCユニットペイロードは、シーケンスパラメータセット、占有パラメータセット、ジオメトリパッチパラメータセット、占有ビデオデータユニット、フレームパラメータセット、ジオメトリパラメータセット、属性パッチパラメータセット、ジオメトリビデオデータユニット、属性パラメータセット、補助情報データユニット、又は属性ビデオデータユニットのうちのいずれかとすることができる。
各V-PCCユニットの論理チェーンを生成するために、各V-PCCユニットのV-PCCビットストリームと共にシグナリングを含めることができる。例えば、ジオメトリパッチパラメータセットは、シーケンスパラメータセットに関連することができる。シグナリングは、V-PCCユニットを関連付ける情報を含むことができる。
図6~図8に、いくつかの実施形態による、論理チェーン情報を含むV-PCCシグナリングの例示的な符号化を示す。シーケンスパラメーターセット(sps)は、シーケンス全体にとって有効なパラメータを定める。シーケンスパラメータセットのIDはsps_sps_idである。属性パラメータ セット(aps)は、特定の属性のパラメータを定める。属性パラメータセットは、ペイロード内のaps_aps_id及びsps_sps_idによって示されるシーケンスパラメータセットに関連する。パラメータ又は条件のライブラリを生成した後に、シグナリング/IDを使用してライブラリからの選択を行うことができる。図8に示すように、フレームパラメータセットユニットは、イントラフレームの指示、デコーダバッファをリセットするためのメタデータ情報、デコーダへの通知、パッチ配向などの新たなデフォルト値、などの情報を送信するために使用することができる。
spsペイロードはグローバルスコープ(global scope)を有しているので、属性タイプ、対応する(単複の)次元(この情報はテーブルから非明示的に導出することができる)及び各属性のインスタンス数をシグナリングすることができる。
現在のTMC2 SW内のビデオデータユニットはフレームグループ(Group of Frame:GoF)固有のものであり、CD構文仕様(CD syntax specification)には従わない。
現在の草案には層0及び層1をインターリーブする順序が指定されていないので、デフォルト順を指定することができる。この順序が固定されていて変更できない場合には、エンコーダに制約を課すことができる。ヘッダにlayer_index値を導入することによって、より柔軟な順序で層を符号化することが可能になる。
「パラメータセットid」を追加することで、各パッチのメタデータ情報をシグナリングする必要なく同様の/共通する機能(例えばROIなどのスケール、オフセット)を有するパッチのグループを表すためのよりコンパクトな方法、誤り耐性、及びHEVC/AVCにおいてパラメータセットIDの使用が十分に確立される協調をサポートすることができる。TMC13も同様の概念を使用する。
GoFの概念は、TMC2では導入されているが現在の草案ではサポートされていないので、HEVC「IDR」又は「CRA」ピクチャに若干類似する、フレーム内のランダムアクセスポイント(クローズド又はオープンGOP)を識別できる機構が依然として必要である。ある実装は、フレームパラメータセットユニットを使用して、1)IRAP(例えばIDR、CRAなどのイントラランダムアクセスポイント)の指示、2)デコーダバッファをリセットするためのメタデータ情報、及び3)デフォルト値のリセット、などの他の情報を伝えることを含む。CRA(オープンGOP)の場合には必ずしも出力順と復号順が同じではないので、その使用は補助情報入力の並べ替えが可能であるかどうかに依存する。
以下は例示的なコードである。
sequence_parameter_set( ) { 記述子

profile_idc u(7)

tier_flag u(1)

level_idc u(8)

frame_width u(16)

frame_height u(16)

additional_points_patch_enabled _flag u(1)

if ( additional_points_patch_enabled_flag ) {

additional_points_separate_video_enabled_flag u(1)

}

auxiliary_information_delta_coding_enabled_flag u(1)

auxiliary_information_delta_coding_enabled_flag u(1)

layer_count_minus1 u(4)

layer_ref_enabled_flag u(1)

num_layer_ref_sets u(4)

for( i = 0; i < num_layer_ref_sets; i++)

rlayer_ref_sets(i)

attribute_count u(16)

geometry_metadata_enabled_flag u(1)

if ( geometry_metadata_enabled_flag ) {

geometry_smoothing_metadata_enabled_flag u(1)

geometry_scale_metadata_enabled_flag u(1)

geometry_offset_metadata_enabled_flag u(1)

frame_parameter_set ( ) { 記述子

byte_alignment ( )

}
以下は例示的なコードである。

auxiliary_information_data_unit( ) { 記述子

patch_count_minus1 u(32)

if(auxiliary_information_orientation_enabled_flag) {

auxiliary_information_patch_orientation_present_flag u(1)

}

patch_2d_shift_u_bit_count_minus1 u(8)

patch_2d_shift_v_bit_count_minus1 u(8)

patch_3d_shift_tangent_axis_bit_count_minus1 u(8)

patch_3d_shift_bitangent_axis_bit_count_minus1 u(8)

patch_3d_shift_normal_axis_bit_count_minus1 u(8)

patch_lod_bit_count_minus1 u(8)

if( auxiliary_information_delta_coding_enabled_flag &&

pc_frame_type != IDR || != CRA ){

use_bit_count_for_unmatched_patch_enabled_flag u(1)

if( bit_count_for_unmatched_patch_enabled_flag ) {

inherit_patch_2d_shift_u_bit_count_for_ u(1)

unmatched_patch_flag

if( inherit_patch_2d_shift_u_bit-count_for_

unmatched_patch_flag ){

unmatched_patch_2d_shift_u_bit_ u(8)

count_minus1

}

inherit_patch_2d_shift_v_bit_count_for_ u(1)

unmatched_patch_flag


if( inherit_patch_2d_shift_v_bit_count_for_

unmatched_patch_flag ){

unmatched_patch_2d_shift_v_bit_ u(8)

count_minus1

}

inherit_patch_3d_shift_tangent_axis_bit_ u(1)

count_for_unmatched_patch_flag

if( inherit_patch_3d_shift_tangent_axis_

bit_count_for_unmatched_patch_flag ){

unmatched_patch_3d_shift_tangent_ u(8)

axis_bit_count_minus1

}

inherit_patch_3d_shift_bitangent_axis_bit_ u(1)

count_for_unmatched_patch_flag

if( inherit_patch_3d_shift_bitangent_axis_bit_

count_for_unmatched_patch_flag ){

unmatched_patch_3d_shift_bitangent_axis_ u(8)

bit_count_minus1

}

inherit_patch_3d_shift_normal_axis_bit_ u(1)

count_for_unmatched_patch_flag

if( inherit_patch_3d_shift_normal_axis_bit_

count_for_unmatched_patch_flag ){

unmatched_patch_3d_shift_normal_axis_ u(8)

bit_count_minus1

}

}

for( p = 0; p < matched_patch_count; p++ ) {

delta_patch_index[ p ] ae(v)

delta_patch_2d_shift_u[ p ] se(v)

delta_patch_2d_shift_v[ p ] se(v)

delta_patch_3d_shift_tangent_axis[ p ] se(v)

delta_patch_3d_shift_bitangent_axis[ p ] se(v)

delta_patch_3d_shift_normal_axis[ p ] se(v)

if( geometry_absolute_coding_enabled_flag )

patch_projection_mode[ p ] ae(v)

delta_patch_2d_size_u[ p ] se(v)

delta_patch_2d_size_v[ p ] se(v)

}

for( p = matched_patch_count; p <= patch_count_minus1; p++ ) {

patch_2d_shift_u[ p ] ae(v)

patch_2d_shift_v[ p ] ae(v)

if(auxiliary_information_flexible_orientation

present_flag)

patch_orientation_index[ p ] ae(v)

patch_3d_shift_tangent_axis[ p ] ae(v)

patch_3d_shift_bitangent_axis[ p ] ae(v)

patch_3d_shift_normal_axis[ p ] ae(v)

patch_lod[ p ] ae(v)

if( geometry_absolute_coding_enabled_flag )

patch_projection_mode[ p ] ae(v)

delta_patch_2d _size_u[ p ] se(v)

delta_patch_2d _size_v[ p ] se(v)

normal_axis[ p ] ae(v)
}

}

byte_alignment( )

}
委員会草案では、「sps_attribute_count」のセマンティックが以下のように指定される。
sps_attribute_countは、点群に関連する属性の数を示す。
sps_attribute_countは、0~65535の範囲内とする。sps_attribute_countのセマンティックは、点群に関連する各属性の属性インスタンスの総数を示すように見える。その後、以下の構文テーブルは、「aps_attribute codec_id」「aps_attribute_dimension_minus1」などの「attribute_parameter_set()」構文要素の一部(或いは全て又はそのグループ)が変化しないままであるにもかかわらず、同じ属性タイプについて「attribute_parameter_set()」構造が属性インスタンス毎に繰り返し呼び出されることを示す。
シーケンスパラメータセット構文

sps_attribute_count u(16)

for (i = 0; i < sps_attribute_count; i++)

attribute_parameter_set (i)

以下に示すように、属性インスタンスではなく属性タイプの数を参照する別の定義が存在することもできる。この後者の解釈では、sps_attribute_count値の範囲は0~15となる。従って、以下の構文テーブルの変更を実装することができる。
V-PCCユニットヘッダ構文

vpcc_unit_header 記述子

・・・・・・・・・・・・・・・・

if (vpcc_unit_type = = VPCC_AVD) {



vpcc_attribute_type_index u(4)

vpcc_attribute instance_index u(7)

・・・・・・・・・・・・・・・・
シーケンスパラメータセット構文

sps_attribute_type_count u(4)


for (i = 0; i < sps_attribute_type_count; i++

attribute_parameter_set (i)
属性パラメータセット構文

attribute_parameter_set (attributeTypeIndex) { 記述子

aps_attribute_dimension_minus1[attributeTypeIndex] u(8)

attributeDimension = aps_attribute_dimension_minus1

[attributeTypeIndex] + 1

aps_attribute_type_id[attributeTypeIndex] u(4)

aps_attribute_codec_id[attributeTypeIndex] u(8)

aps_attribute_instance_count[attributeTypeIndex] u(7)

attInstCnt = aps_attribute_instance_count [attributeTypeIndex]

if(attrInstCnt > 1)

aps_attribute_group_present_flag[attributeTypeIndex] u(1)

if(aps_attribute_group_present_flag [attributeTypeIndex])

aps_attribute_group_count_minus1[attributeTypeIndex] u(7)

attrGrpCnt = aps_attribute_group_count_minus1[attributeTypeIndex]

+ 1

for (i = 0; i < attrGrpCnt; i++) {

for (j = 0; attrGrpCnt > 1 && j < attrInstCnt; j++)

aps_attribute_group_instance_map [attributeTypeIndex][i][j] u(1)

aps_attribute_params_enabled_flag[attributeTypeIndex][i] u(1)

if(aps_attribute_params_enabled_flag[attributeTypeIndex][i])

attribute_sequence_params(i, attributeDimension)

aps_attribute_patch_params_enabled_flag[attributeTypeIndex][i] u(1)


if(aps_attribute_patch_params_enabled_flag

[attributeTypeIndex][i]) {

aps_attribute_patch_scale_params_enabled_flag u(1)

[attributeTypeIndex][i]

aps_attribute_patch_offset_params_enabled_flag u(1)

[attributeTypeIndex][i]

}

}

}
vpcc_attribute_type_indexは、点群に関連する属性タイプへのインデックスを示す。sps_attribute_type_indexは、0~15の範囲内とする。
vpcc_attribute_instance_indexは、属性ビデオデータユニット(Attribute Video Data unit)で伝えられる属性データのインスタンスインデックスを示す。vpcc_attribute_indexの値は、0~127の範囲内とする。
sps_attribute_type_countは、点群に関連する属性タイプの数を示す。sps_attribute_type_countは、0~15の範囲内とする。
aps_attribute_instance_count[i]は、点群に関連する属性タイプiの属性インスタンスの数を示す。aps_attribute_instance_countは、0~127の範囲内とする。
aps_attribute_group_present_flag[i]が1に等しい場合には、属性タイプiに関連する属性インスタンスがグループ化されることを示す。aps_attribute_group_flag[i]が0に等しい場合には、属性タイプiに関連する属性インスタンスがグループ化されないことを示す。aps_attribute_group_present_flag[i]が存在しない場合には、その値が0に等しいと推測される。
aps_attribute_group_count_minus1[i]+1は、属性タイプiに関連する属性インスタンスグループの数を示す。aps_attribute_group_countは、1~127の範囲内とする。aps_attribute_group_count_minus1[i]が存在しない場合には、その値が0に等しいと推測される。
aps_attribute_group_instance_map[i][j][k]は、属性タイプiに関連する属性インスタンスグループjに属性インスタンスkが属するかどうかを示す。aps_attribute_group_instance_map[i][j][k]は、0~1の範囲内とする。aps_attribute_group_instance_map[i][j][k]が存在しない場合には、その値が1に等しいと推測される。aps_attribute_group_instance_map[i][j][k]が存在しない場合には、全ての属性インスタンスが単一グループにマッピングされると推測される。
上記の変更は、vpcc_unit_header()における「vpcc_attribute_index」と「vpcc_attribute_type」との間の対応を確立し、同じ属性タイプの全てのインタンスが同様の属性パラメータセットを共有するようにするか、それともグループとするかに関する柔軟性をもたらし、属性タイプに基づいてattribute_parameter_set()構文構造をアクティブにする。
ジオメトリ層と属性層との間の緊密な境界
委員会草案では、ジオメトリ層の数と属性層の数とが同様である。これにより、必ずしも属性がジオメトリと同じ数の層を有していない事例に対処する柔軟性が制限される。単純な例としては、属性が3よりも大きな次元を有する事例が挙げられる。第2の例としては、属性層を単一層のジオメトリにインターリーブできる場合と複数層のジオメトリにインターリーブできる場合、又はこの逆を挙げることができる。
このような柔軟性をサポートするために、構文テーブルに以下の変更を行う。
属性パラメータセット構文

attribute_parameter_set( attributeIndex { 記述子

aps_attribute_type_id[attributeIndex] u(4)

aps_attribute_dimension_minus1[ attributeIndex ] u(8)

aps_attribute_codec_id[ attributeIndex ] u(8)

aps_attribute_layer_count_present_flag[ attributeIndex ] u(1)

if( asp_attribute_layer_count_present_flag[ attributeIndex ] ) {

asp_attribute_layer_abs_delta_count_minus1[ attributeIndex ] u(2)

asp_attribute_layer_count_sign_flag [ attributeIndex ] u(1)

}

aps_attribute_patch_params_enabled_flag[ attributeIndex ] u(1)

if(aps_attribute_patch_params_enabled_flag[ attributeIndex ] ) {

aps_attribute_patch_scale_params_enabled_flag[ u(1)

attributeIndex ]
)
aps_attribute_patch_offset_params_enabled_flag[ u(1)

attributeIndex ]

}

}
aps_attribute_layer_count_present_flag[i]が1に等しい場合には、属性層の数がインデックスiを有する属性の「sps_layer_count_minus1+1」と同じではないことを示す。aps_attribute_layer_count_present_flag[i]が0に等しい場合には、属性層の数がインデックスiを有する属性の「sps_layer_count_minus1+1」と同じであることを示す。
asp_attribute_layer_abs_delta_count_minus1[i]+1は、インデックスi及びsps_layer_countを有する属性の属性層数間の絶対差を指定する。asp_attribute_layer_abs_delta_count_minus1[i]の値は、0~3の範囲内とする。存在しない場合、asp_attribute_layer_abs_delta_count_minus1[i]の値は1に等しいと推測される。
asp_attribute_layer_count_sign_flag[i]が1に等しい場合には、asp_attribute_layer_abs_delta_count_minus1[i]+1が0よりも大きい値を有することを指定する。asp_attribute_layer_count_sign_flag[i]が0に等しい場合には、asp_attribute_layer_abs_delta_count_minus1[i]+1が0未満の値を有することを指定する。存在しない場合、asp_attribute_layer_count_sign_flag[i]の値は0に等しいと推測される。
ここに属性復号プロセスの変更が反映される。
sps_attribute_countが0に等しい場合には、属性ビデオフレームが復号されず、最終的な再構築された点群に属性情報が関連付けられない。
attributeLayerCount=(sps_layer_count_minus1+1)+
asp_attribute_layer_count_sign_flag[vpcc_attribute_index]*
(asp_attribute_layer_abs_delta_count_minus1[vpcc_attribute_index]+1)
それ以外の場合 (sps_attribute_countが0に等しくない場合)には、以下が適用される。
attributeLayerCountが0に等しい場合には、関連する異なるvpcc_attribute_indexと、aps_attribute_codec_id[vpcc_attribute_index]によって指定された関連するコーデックとをそれぞれが入力として伴うsps_attribute_count数のビデオ復号プロセスが呼び出される。このプロセスの出力は、復号され表示/出力順に並べられた属性ビデオフレームAttrFrame[attrIdx][layerIdx][orderIdx][compIdx][y][x]、並びにその関連するビット深度AttrBitdepth[attrIdx][layerIdx][orderIdx]、幅AttrWidth[attrIdx][layerIdx][orderIdx]、及び高さAttrHeight[attrIdx][layerIdx][orderIdx]情報であり、ここでのattrldxは属性インデックスに対応して0~sps_attribute_count-1の範囲内であり、layerIdxは層のインデックスに対応して0に等しく、orderIdxは復号された属性フレームの表示順インデックスであり、compIdxは属性コンポーネントインデックスに対応して0~aps_attribute_dimension_minus1[attrId] x-1]の範囲内であり、yは0~AttrHeight[attrIdx][layerIdx][orderIdx]-1の範囲内であり、xは復号されたフレーム内の列インデックスであって0~AttrWidth[attrIdx][layerIdx][orderIdx]-1の範囲内である。
それ以外の場合(sps_attribute_countが0に等しくない場合)には以下が適用される。
sps_multiple_layer_streams_present_flagが0に等しい場合には、それぞれ関連する異なるvpcc_attribute_indexと、aps_attribute_codec_id[vpcc_attribute_index]によって指定された関連するコーデックとを入力として伴うsps_attribute_count数のビデオ復号プロセスが呼び出される。このプロセスの出力は、復号され表示/出力順に並べられた中間属性ビデオフレームAttrFrame[attrIdx][tempOrderIdx][compIdx][y][x]、並びにその関連するビット深度tempAttrBitdepth[attrId][tempOrderIdx]、幅tempAttrWidth[attrIdx][tempOrderIdx]、及び高さtempAttrHeight[attrIdx][tempOrderIdx]情報であり、ここでのattrldxは属性インデックスに対応して0~sps_attribute_count-1の範囲内であり、tempOrderIdxは復号された全属性フレームの表示順インデックスであり、compIdxは属性コンポーネントインデックスに対応して0~aps_attribute_dimension_minus1[attrIdx-1]の範囲内であり、yは0~tempAttrHeight[attrIdx][tempOrderIdx]-1の範囲内であり、xは復号されたフレーム内の列インデックスであって0~tempAttrWidth[attrIdx][tempOrderIdx]-1の範囲内である。インデックスattrIdxを有する属性の復号された属性ビデオフレームは、各層の表示/出力順orderIdxで以下のように導出される。
for(i=0;i<=sps_layer_count_minus1;i++){
mappedIdx=orderIdx*attributeLayerCount)+i
AttrBitdepth[attrIdx][i][orderIdx]=tempAttrBitdepth[attrIdx][mappedIdx]
AttrWidth[attrIdx][i][orderIdx]=tempAttrWidth[attrIdx][mappedIdx]
AttrHeight[attrIdx][i][orderIdx]=tempAttrHeight[attrIdx][mappedIdx]
AttrFrame[attrIdx][i][orderIdx]=tempAttrFrame[mappedIdx]
}
最後に、解釈を明確かつ容易にするために、両方に「vpcc_layer_index」ではなく「vpcc_geometry_layer_index」及び「vpcc_attribute_layer_index」を使用する。
ジオメトリ及び属性のための単一及び複数ビットストリーム
sps_multiple_layer_streams_present_flagが0に等しい場合には、全てのジオメトリ又は属性層がそれぞれ単一のジオメトリ又は属性ビデオストリームに配置されることを示す。sps_multiple_layer_streams_present_flagが1に等しい場合には、全てのジオメトリ又は属性層が別のビデオストリームに配置されることを示す。sps_multiple_layer_streams_present_flagが存在しない場合には、その値が0に等しいと推測される。
上記のセマンティックに基づけば、その意図は、単一層/複数層ストリームをジオメトリ層と属性層との間で緊密に境界することである。将来的な拡張の柔軟性を可能にするために、1つの選択肢は、sps_multiple_layer_streams_present_flagをジオメトリ及び属性について別々に定めることである(例えば、sps_multiple_geometry_layer_streams_present_flag=sps_multiple_attribute_layer_streams_present_flagをデフォルトとするsps_multiple_geometry_layer_streams_present_flag及びsps_multiple_attribute_layer_streams_present_flag)。
ジオメトリシーケンスパラメータ構文
geometry_parameter_set()/attribute_parameter_set()対geometry_sequence_params())/attribute_sequence_params()の順序付け。
現在の構文では、上記の構文構造の呼び出し順は以下の通りである。
sequence_parameter_set->geometry/attribute_parameter_set->geometry/attribute_sequence_params
又は
sequence_parameter_set->geometry/attribute_sequence_params->geometry/attribute_parameter_set
図9に、いくつかの実施形態による、点群符号化構造を実装する方法のフローチャートを示す。ステップ900において、点群符号化構造を展開/実装する。点群符号化構造の展開及び実装は、「キー」点群フレームを決定することを含む。キー点群フレームは、予測のために他のどのフレームにも依存しないフレームである。
ステップ902において、双方向予測を符号化に使用する。双方向予測は、パッチ情報及び/又はメタデータ情報などの過去及び将来の情報を記憶する2つの独立構造(例えばリスト)を使用して実装され、予測の実行時には過去の情報及び/又は将来の情報を使用して予測を行うことができる。これらの構造は、点群パッチバッファに記憶することができる。点群の点を互いに重なり合って投影できるように、点群の層にはバッファリストが使用される。また、V-PCCのブロックを相関させるシグナリング法も実装される。いくつかの実施形態では、これよりも少ない又はさらなるステップが実装される。例えば、復号ステップも実装される。いくつかの実施形態では、ステップの順序が変更される。
図10に、いくつかの実施形態による、点群符号化構造を実装するように構成された例示的なコンピュータ装置のブロック図を示す。コンピュータ装置1000は、3Dコンテンツを含む画像及びビデオなどの情報の取得、記憶、計算、処理、通信及び/又は表示のために使用することができる。コンピュータ装置1000は、点群符号化構造の態様のいずれかを実装することができる。一般に、コンピュータ装置1000を実装するのに適したハードウェア構造は、ネットワークインターフェイス1002、メモリ1004、プロセッサ1006、I/O装置1008、バス1010及び記憶装置1012を含む。プロセッサの選択は、十分な速度の好適なプロセッサを選択する限り重要ではない。メモリ1004は、当業で周知のいずれかの従来のコンピュータメモリとすることができる。記憶装置1012は、ハードドライブ、CDROM、CDRW、DVD、DVDRW、高精細ディスク/ドライブ、ウルトラHDドライブ、フラッシュメモリカード、又はその他のいずれかの記憶装置を含むことができる。コンピュータ装置1000は、1又は2以上のネットワークインターフェイス1002を含むことができる。ネットワークインターフェイスの例としては、イーサネット又は他のタイプのLANに接続されたネットワークカードが挙げられる。(単複の)I/O装置1008は、キーボード、マウス、モニタ、画面、プリンタ、モデム、タッチ画面、ボタンインターフェイス及びその他の装置のうちの1つ又は2つ以上を含むことができる。記憶装置1012及びメモリ1004には、点群符号化構造を実装するために使用される(単複の点群符号化構造アプリケーション1030が記憶されて、アプリケーションが通常処理されるように処理される可能性が高い。コンピュータ装置1000には、図10に示すものよりも多くの又は少ないコンポーネントを含めることもできる。いくつかの実施形態では、点群符号化構造ハードウェア1020が含まれる。図10のコンピュータ装置1000は、点群符号化構造のためのアプリケーション1030及びハードウェア1020を含むが、点群符号化構造は、ハードウェア、ファームウェア、ソフトウェア、又はこれらのあらゆる組み合わせでコンピュータ装置上に実装することもできる。例えば、いくつかの実施形態では、点群符号化構造アプリケーション1030がメモリにプログラムされ、プロセッサを使用して実行される。別の例として、いくつかの実施形態では、点群符号化構造ハードウェア1020が、点群符号化構造を実行するように特別に設計されたゲートを含むプログラムされたハードウェアロジックである。
いくつかの実施形態では、(単複の)点群符号化構造アプリケーション1030が、複数のアプリケーション及び/又はモジュールを含む。いくつかの実施形態では、モジュールが1又は2以上のサブモジュールも含む。いくつかの実施形態では、これよりも少ない又はさらなるモジュールを含めることもできる。
いくつかの実施形態では、点群符号化構造ハードウェア1020が、レンズ、イメージセンサ及び/又は他のいずれかのカメラコンポーネントなどのカメラコンポーネントを含む。
好適なコンピュータ装置の例としては、パーソナルコンピュータ、ラップトップコンピュータ、コンピュータワークステーション、サーバ、メインフレームコンピュータ、ハンドヘルドコンピュータ、携帯情報端末、セルラ/携帯電話機、スマート家電、ゲーム機、デジタルカメラ、デジタルカムコーダ、カメラ付き電話機、スマートホン、ポータブル音楽プレーヤ、タブレットコンピュータ、モバイル装置、ビデオプレーヤ、ビデオディスクライタ/プレーヤ(DVDライタ/プレーヤ、高精細ディスクライタ/プレーヤ、超高精細ディスクライタ/プレーヤなど)、テレビ、家庭用エンターテイメントシステム、拡張現実装置、仮想現実装置、スマートジュエリ(例えば、スマートウォッチ)、車両(例えば、自動走行車両)、又はその他のいずれかの好適なコンピュータ装置が挙げられる。
本明細書で説明した点群符号化構造を利用するには、装置が3Dコンテンツを取得又は受信し、3Dコンテンツの正しい効率的な表示を可能にするのに最適な方法でコンテンツを処理及び/又は送信する。点群符号化構造は、ユーザの支援を伴って、又はユーザの関与を伴わずに自動的に実行することができる。
動作中、点群符号化構造は、3Dコンテンツをより効率的に符号化する。点群符号化構造は、点群パッチの予測に使用される全ての参照が現在の点群フレームに制限される「キー」点群フレームを定める。点群パッチバッファは参照パッチのリストを含み、点群フレームからのそれぞれの境界ボックスが別のフレーム内のパッチの予測に使用されるように記憶される。点群フレームの符号化順が提示順と異なることができる場合、参照パッチのリストは過去からのパッチ及び将来からのパッチを含むことができ、双方向予測が使用される。点群の層にも同様の参照バッファリストの概念を適用することができる。上位レベル情報を含むブロックのIDへの参照をペイロード内でシグナリングすることによってV-PCCのブロックを相関させるシグナリング法についても説明する。これらの実装は符号化の効率を高める。
点群符号化構造のいくつかの実施形態
1.装置の非一時的メモリにプログラムされた方法が、
点群符号化構造を実装するステップと、
前記点群符号化構造を使用して点群メタデータを符号化するステップと、
を含む。
2.前記点群符号化構造を実装するステップは、予測のために他のどのフレームにも依存しないキー点群フレームを決定するステップを含む、条項1に記載の方法。
3.前記点群メタデータを符号化するステップは、過去のパッチ及びメタデータ情報と、将来のパッチ及びメタデータ情報とを使用することを含む双方向予測を利用する、条項1に記載の方法。
4.双方向予測は、前記過去のパッチ及びメタデータ情報のための第1の構造、並びに前記将来のパッチ及びメタデータ情報のための第2の構造という2つの別の構造を実装する、条項3に記載の方法。
5.前記第1の構造及び前記第2の構造は、点群パッチバッファに記憶される、条項1に記載の方法。
6.前記点群の層のバッファリストを利用して、点群の点が互いに重なり合って投影されることを可能にするステップをさらに含む、条項1に記載の方法。
7.V-PCCのブロックを相関させるシグナリング法を実装するステップをさらに含む、条項1に記載の方法。
8.
点群符号化構造を実装し、
前記点群符号化構造を使用して点群メタデータを符号化する、
ためのアプリケーションを記憶する非一時的メモリと、
前記メモリに結合されて前記アプリケーションを処理するように構成されたプロセッサと、
を備えた装置。
9.前記点群符号化構造を実装することは、予測のために他のいずれのフレームにも依存しないキー点群フレームを決定することを含む、条項8に記載の装置。
10.前記点群メタデータを符号化することは、過去のパッチ及びメタデータ情報と、将来のパッチ及びメタデータ情報とを使用することを含む双方向予測を利用する、条項8に記載の装置。
11.双方向予測は、前記過去のパッチ及びメタデータ情報のための第1の構造、並びに前記将来のパッチ及びメタデータ情報のための第2の構造という2つの別の構造を実装する、条項10に記載の装置。
12.前記第1の構造及び前記第2の構造は、点群パッチバッファに記憶される、条項8に記載の装置。
13.前記点群の層のバッファリストを利用して、点群の点が互いに重なり合って投影されることを可能にすることをさらに含む、条項8に記載の装置。
14.V-PCCのブロックを相関させるシグナリング法を実装することをさらに含む、条項8に記載の装置。
15.
点群符号化構造と、
前記点群符号化構造を使用して点群メタデータを符号化するエンコーダと、
を備えたシステム。
16.前記点群符号化構造を実装することは、予測のために他のいずれのフレームにも依存しないキー点群フレームを決定することを含む、条項15に記載のシステム。
17.前記点群メタデータを符号化することは、過去のパッチ及びメタデータ情報と、将来のパッチ及びメタデータ情報とを使用することを含む双方向予測を利用する、条項15に記載のシステム。
18.双方向予測は、前記過去のパッチ及びメタデータ情報のための第1の構造、並びに前記将来のパッチ及びメタデータ情報のための第2の構造という2つの別の構造を実装する、条項17に記載のシステム。
19.前記第1の構造及び前記第2の構造は、点群パッチバッファに記憶される、条項15に記載のシステム。
20.前記点群の層のバッファリストを利用して、点群の点が互いに重なり合って投影されることを可能にすることをさらに含む、条項15に記載のシステム。
21.V-PCCのブロックを相関させるシグナリング法を実装することをさらに含む、条項15に記載のシステム。
本発明の構成及び動作の原理を容易に理解できるように、詳細を含む特定の実施形態に関して本発明を説明した。本明細書におけるこのような特定の実施形態及びこれらの実施形態の詳細についての言及は、本明細書に添付する特許請求の範囲を限定することを意図したものではない。当業者には、特許請求の範囲によって定められる本発明の趣旨及び範囲から逸脱することなく、例示のために選択した実施形態において他の様々な修正を行えることが容易に明らかになるであろう。

Claims (12)

  1. 装置の非一時的メモリにプログラムされた方法であって、
    点群符号化構造を実装するステップと、
    前記点群符号化構造を使用して点群メタデータを符号化するステップと、
    を含み、
    前記点群メタデータを符号化するステップは、過去のパッチ及びメタデータ情報と、将来のパッチ及びメタデータ情報とを使用することを含む双方向予測を利用し、
    双方向予測は、前記過去のパッチ及びメタデータ情報のための第1の構造、並びに前記将来のパッチ及びメタデータ情報のための第2の構造という、参照パッチリストのための2つの別の構造を使用して実装され,
    前記点群メタデータを符号化するステップは、過去及び将来のパッチを参照できるようにフレームを並べ替えることを含み、
    前記点群の層のバッファリストを利用して、前記点群の点が互いに重なり合って投影されることを可能にし、ここで、前記点群の層は、第1の層が第1の点であり、第2の層が最後の点であり、これらの間の点は符号化されない2つの層に限定されるものであるステップをさらに含むことを特徴とする方法。
  2. 前記点群符号化構造を実装するステップは、予測のために他のどのフレームにも依存しないキー点群フレームを決定するステップを含む、
    請求項1に記載の方法。
  3. 前記第1の構造及び前記第2の構造は、点群パッチバッファに記憶される、
    請求項1に記載の方法。
  4. V-PCCのブロックを相関させるシグナリング法実装されるようにされたものである
    請求項1に記載の方法。
  5. 点群符号化構造を実装し、
    前記点群符号化構造を使用して点群メタデータを符号化
    前記点群の層のバッファリストを利用して、前記点群の点が互いに重なり合って投影されることを可能にする、
    ためのアプリケーションを記憶する非一時的メモリと、
    前記メモリに結合されて前記アプリケーションを処理するように構成されたプロセッサと、
    を備え
    前記点群メタデータを符号化することは、過去のパッチ及びメタデータ情報と、将来のパッチ及びメタデータ情報とを使用することを含む双方向予測を利用し、
    双方向予測は、前記過去のパッチ及びメタデータ情報のための第1の構造、並びに前記将来のパッチ及びメタデータ情報のための第2の構造という、参照パッチリストのための2つの別の構造を使用して実装され,
    前記点群メタデータを符号化することは、過去及び将来のパッチを参照できるようにフレームを並べ替えることを含み、
    前記点群の層は、第1の層が第1の点であり、第2の層が最後の点であり、これらの間の点は符号化されない2つの層に限定されるものであることを特徴とする装置。
  6. 前記点群符号化構造を実装することは、予測のために他のいずれのフレームにも依存しないキー点群フレームを決定することを含む、
    請求項に記載の装置。
  7. 前記第1の構造及び前記第2の構造は、点群パッチバッファに記憶される、
    請求項に記載の装置。
  8. V-PCCのブロックを相関させるシグナリング法実装されるようにされたものである
    請求項に記載の装置。
  9. 点群符号化構造を実装する手段と、
    前記点群符号化構造を使用して点群メタデータを符号化するエンコーダと、
    を備え
    前記点群メタデータを符号化することは、過去のパッチ及びメタデータ情報と、将来のパッチ及びメタデータ情報とを使用することを含む双方向予測を利用し、
    双方向予測は、前記過去のパッチ及びメタデータ情報のための第1の構造、並びに前記将来のパッチ及びメタデータ情報のための第2の構造という、参照パッチリストのための2つの別の構造を使用して実装され、
    前記メタデータ情報は、時間的相関情報を含み、参照パッチリストが、柔軟な予測を実装するための所定の参照補助情報セットから生成され、
    前記点群メタデータを符号化することは、過去及び将来のパッチを参照できるようにフレームを並べ替えることを含み、
    前記エンコーダは、前記点群の層のバッファリストを利用して、前記点群の点が互いに重なり合って投影されることを可能にするようにさらに構成され、ここで、前記点群の層は、第1の層が第1の点であり、第2の層が最後の点であり、これらの間の点は符号化されない2つの層に限定されるものであることを特徴とするシステム。
  10. 前記点群符号化構造を実装することは、予測のために他のいずれのフレームにも依存しないキー点群フレームを決定することを含む、
    請求項に記載のシステム。
  11. 前記第1の構造及び前記第2の構造は、点群パッチバッファに記憶される、
    請求項に記載のシステム。
  12. V-PCCのブロックを相関させるシグナリング法実装されるようにされたものである
    請求項に記載のシステム。
JP2021535985A 2018-12-19 2019-09-18 点群符号化構造 Active JP7216351B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US201862781968P 2018-12-19 2018-12-19
US62/781,968 2018-12-19
US201962787637P 2019-01-02 2019-01-02
US62/787,637 2019-01-02
US201962791328P 2019-01-11 2019-01-11
US62/791,328 2019-01-11
US201962821139P 2019-03-20 2019-03-20
US62/821,139 2019-03-20
US16/408,124 US11095900B2 (en) 2018-12-19 2019-05-09 Point cloud coding structure
US16/408,124 2019-05-09
PCT/IB2019/057835 WO2020128650A1 (en) 2018-12-19 2019-09-18 Point cloud coding structure

Publications (2)

Publication Number Publication Date
JP2022517060A JP2022517060A (ja) 2022-03-04
JP7216351B2 true JP7216351B2 (ja) 2023-02-01

Family

ID=71097933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021535985A Active JP7216351B2 (ja) 2018-12-19 2019-09-18 点群符号化構造

Country Status (6)

Country Link
US (1) US11095900B2 (ja)
EP (1) EP3881553A1 (ja)
JP (1) JP7216351B2 (ja)
KR (1) KR20210088630A (ja)
CN (1) CN113196784B (ja)
WO (1) WO2020128650A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10699444B2 (en) 2017-11-22 2020-06-30 Apple Inc Point cloud occupancy map compression
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
US10867414B2 (en) 2018-04-10 2020-12-15 Apple Inc. Point cloud attribute transfer algorithm
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
US11386524B2 (en) 2018-09-28 2022-07-12 Apple Inc. Point cloud compression image padding
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
US11430155B2 (en) 2018-10-05 2022-08-30 Apple Inc. Quantized depths for projection point cloud compression
US11348284B2 (en) * 2019-01-08 2022-05-31 Apple Inc. Auxiliary information signaling and reference management for projection-based point cloud compression
CN111726616B (zh) 2019-03-19 2024-03-01 华为技术有限公司 点云编码方法、点云解码方法、装置及存储介质
EP3712854B1 (en) * 2019-03-19 2024-07-24 Nokia Technologies Oy Method and apparatus for storage and signaling of static point cloud data
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
US11711544B2 (en) * 2019-07-02 2023-07-25 Apple Inc. Point cloud compression with supplemental information messages
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11625866B2 (en) 2020-01-09 2023-04-11 Apple Inc. Geometry encoding using octrees and predictive trees
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
CN111881827B (zh) * 2020-07-28 2022-04-26 浙江商汤科技开发有限公司 目标检测方法及装置、电子设备和存储介质
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes
CN113852829A (zh) * 2021-09-01 2021-12-28 腾讯科技(深圳)有限公司 点云媒体文件的封装与解封装方法、装置及存储介质
US12412313B2 (en) * 2022-03-25 2025-09-09 Sony Group Corporation Mesh geometry coding
CN115118998A (zh) * 2022-06-22 2022-09-27 福州大学 一种增强投影相关性帧间编码方法、解码方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017104115A1 (ja) 2015-12-14 2017-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置及び三次元データ復号装置
US20180026870A1 (en) 2016-07-21 2018-01-25 Cisco Technology, Inc. Distributed constrained tree formation for deterministic multicast
WO2018130491A1 (en) 2017-01-13 2018-07-19 Thomson Licensing Method, apparatus and stream for immersive video format
JP2018198421A (ja) 2017-05-04 2018-12-13 トムソン ライセンシングThomson Licensing 二次元ポイントクラウドを符号化および復号する方法および装置
WO2019055963A1 (en) 2017-09-18 2019-03-21 Apple Inc. COMPRESSION OF CLOUD OF POINTS
WO2019142164A1 (en) 2018-01-19 2019-07-25 Interdigital Vc Holdings, Inc. Processing a point cloud
WO2020003037A1 (en) 2018-06-26 2020-01-02 Sony Corporation Motion compensation of geometry information
JP2020017946A (ja) 2018-07-03 2020-01-30 財團法人工業技術研究院Industrial Technology Research Institute ポイントクラウドパッチ処理方法および装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9106927B2 (en) 2011-09-23 2015-08-11 Qualcomm Incorporated Video coding with subsets of a reference picture set
CN103606151B (zh) * 2013-11-15 2016-05-04 南京师范大学 基于影像点云的大范围虚拟地理场景自动构建方法
US20170064301A1 (en) * 2015-08-26 2017-03-02 Zhan Ma Methods and Apparatus for Use of Reference Block in Video Coding
WO2017067429A1 (en) * 2015-10-19 2017-04-27 Mediatek Inc. Method and apparatus for decoded picture buffer management in video coding system using intra block copy
US10223810B2 (en) 2016-05-28 2019-03-05 Microsoft Technology Licensing, Llc Region-adaptive hierarchical transform and entropy coding for point cloud compression, and corresponding decompression
US11297346B2 (en) * 2016-05-28 2022-04-05 Microsoft Technology Licensing, Llc Motion-compensated compression of dynamic voxelized point clouds
WO2018212111A1 (ja) * 2017-05-19 2018-11-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2019001741A1 (en) * 2017-06-30 2019-01-03 Huawei Technologies Co., Ltd. MOTION VECTOR REFINEMENT FOR MULTI-REFERENCE PREDICTION
CN107909612B (zh) * 2017-12-01 2021-01-29 驭势科技(北京)有限公司 一种基于3d点云的视觉即时定位与建图的方法与系统
US10783668B2 (en) * 2017-12-22 2020-09-22 Samsung Electronics Co., Ltd. Handling duplicate points in point cloud compression
US11122279B2 (en) * 2018-10-02 2021-09-14 Samsung Electronics Co., Ltd. Point cloud compression using continuous surface codes
US10798389B2 (en) * 2018-10-02 2020-10-06 Tencent America LLC Method and apparatus for content-aware point cloud compression using HEVC tiles
US11430155B2 (en) * 2018-10-05 2022-08-30 Apple Inc. Quantized depths for projection point cloud compression
US11290743B2 (en) * 2018-12-08 2022-03-29 Qualcomm Incorporated Interaction of illumination compensation with inter-prediction

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017104115A1 (ja) 2015-12-14 2017-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置及び三次元データ復号装置
US20180026870A1 (en) 2016-07-21 2018-01-25 Cisco Technology, Inc. Distributed constrained tree formation for deterministic multicast
WO2018130491A1 (en) 2017-01-13 2018-07-19 Thomson Licensing Method, apparatus and stream for immersive video format
JP2018198421A (ja) 2017-05-04 2018-12-13 トムソン ライセンシングThomson Licensing 二次元ポイントクラウドを符号化および復号する方法および装置
WO2019055963A1 (en) 2017-09-18 2019-03-21 Apple Inc. COMPRESSION OF CLOUD OF POINTS
WO2019142164A1 (en) 2018-01-19 2019-07-25 Interdigital Vc Holdings, Inc. Processing a point cloud
WO2020003037A1 (en) 2018-06-26 2020-01-02 Sony Corporation Motion compensation of geometry information
JP2020017946A (ja) 2018-07-03 2020-01-30 財團法人工業技術研究院Industrial Technology Research Institute ポイントクラウドパッチ処理方法および装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Dong Liu, Tong Shao, Houqiang Li, and Feng Wu,Three-Dimensional Point-Cloud Plus Patches: Towards Model-Based Image Coding in the Cloud,2015 IEEE International Conference on Multimedia Big Data,IEEE,2015年,pp.395-400
Rufael Mekuria, Kees Blom, and Pablo Cesar,Design, Implementation, and Evaluation of a Point Cloud Codec for Tele-Immersive Video,IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY,IEEE,2017年04月,VOL. 27, NO. 4,pp.828-842
Vida Fakour Sevom, et al.,Geometry-Guided 3D Data Interpolation for Projection-Based Dynamic Point Cloud Coding,2018 7th European Workshop on Visual Information Processing (EUVIP),IEEE,2018年11月26日,pp.1-6

Also Published As

Publication number Publication date
CN113196784B (zh) 2024-10-29
WO2020128650A1 (en) 2020-06-25
CN113196784A (zh) 2021-07-30
EP3881553A1 (en) 2021-09-22
US11095900B2 (en) 2021-08-17
JP2022517060A (ja) 2022-03-04
US20200204808A1 (en) 2020-06-25
KR20210088630A (ko) 2021-07-14

Similar Documents

Publication Publication Date Title
JP7216351B2 (ja) 点群符号化構造
US11057645B2 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
US11328440B2 (en) Point cloud data transmission apparatus, point cloud data transmission method, point cloud data reception apparatus, and point cloud data reception method
US20220084164A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
CN110313181B (zh) 用于多视图视频的视频编码技术
KR20210040273A (ko) 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
KR20210135325A (ko) 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신장치 및 포인트 클라우드 데이터 수신 방법
KR20210135324A (ko) 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신장치 및 포인트 클라우드 데이터 수신 방법
US12058370B2 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
KR20210132200A (ko) 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신장치 및 포인트 클라우드 데이터 수신 방법
CN112399165B (zh) 解码方法及装置以及计算机设备和存储介质
US20240196012A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
KR102796754B1 (ko) 포인트 클라우드 데이터의 전송 장치와 이 전송 장치에서 수행되는 방법 및, 포인트 클라우드 데이터의 수신 장치와 이 수신 장치에서 수행되는 방법
EP4369716A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
US20250095211A1 (en) Point cloud data transmission method, point cloud data transmission device, point cloud data reception method, and point cloud data reception device
US20250071347A1 (en) Point cloud data transmission method, point cloud data transmission device, point cloud data reception method, and point cloud data reception device
BR112021013784A2 (pt) Rotação de patch efeciente em codificação de nuvem de pontos
US20240064334A1 (en) Motion field coding in dynamic mesh compression
CN118575201A (zh) 网格压缩中的顶点位置编码
EP4395320A1 (en) Point cloud data transmission method, point cloud data transmission device, point cloud data reception method, and point cloud data reception device
CN115086658A (zh) 点云数据的处理方法、装置、存储介质及编解码设备
CN118511530A (zh) 网格压缩中的纹理坐标编码
US20240179347A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
CN115702568A (zh) 点云数据发送装置、点云数据发送方法、点云数据接收装置和点云数据接收方法
US20250247556A1 (en) Point cloud data transmission method, point cloud data transmission device, point cloud data reception method, and point cloud data reception device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220727

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230103

R151 Written notification of patent or utility model registration

Ref document number: 7216351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151