[go: up one dir, main page]

JP7726209B2 - 情報処理装置および方法 - Google Patents

情報処理装置および方法

Info

Publication number
JP7726209B2
JP7726209B2 JP2022530134A JP2022530134A JP7726209B2 JP 7726209 B2 JP7726209 B2 JP 7726209B2 JP 2022530134 A JP2022530134 A JP 2022530134A JP 2022530134 A JP2022530134 A JP 2022530134A JP 7726209 B2 JP7726209 B2 JP 7726209B2
Authority
JP
Japan
Prior art keywords
bitstream
information
spatial scalability
layer
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022530134A
Other languages
English (en)
Other versions
JPWO2021251173A5 (ja
JPWO2021251173A1 (ja
Inventor
遼平 高橋
光浩 平林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2021251173A1 publication Critical patent/JPWO2021251173A1/ja
Publication of JPWO2021251173A5 publication Critical patent/JPWO2021251173A5/ja
Application granted granted Critical
Publication of JP7726209B2 publication Critical patent/JP7726209B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本開示は、情報処理装置および方法に関し、特に、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができるようにした情報処理装置および方法に関する。
従来、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウド(Point cloud)の符号化・復号の標準化がMPEG(Moving Picture Experts Group)で進められている。そして、そのポイントクラウドのジオメトリ(Geometry)とアトリビュート(Attribute)とを小領域毎に2次元平面に投影し、その2次元平面に投影された画像(パッチ)を動画像のフレーム画像内に配置し、その動画像を2次元画像用の符号化方法で符号化する方法(以下、V-PCC(Video based Point Cloud Compression)とも称する)が提案された(例えば、非特許文献1参照)。
また、動画圧縮の国際標準技術MPEG-4(Moving Picture Experts Group - 4)のファイルコンテナ仕様であるISOBMFF(International Organization for Standardization Base Media File Format)がある(例えば、非特許文献2および非特許文献3参照)。
そして、このV-PCCで符号化されたビットストリーム(V3Cビットストリームとも称する)のローカルストレージからの再生処理やネットワーク配信の効率化を目的とし、V3CビットストリームをISOBMFFに格納する方法の検討がなされている(例えば、非特許文献4参照)。また、非特許文献4では、ポイントクラウドオブジェクトの一部分のみを復号するパーシャルアクセス(Partial access)の技術が開示されている。
さらに、MPEG-I Part 5 Visual Volumetric Video-based Coding(V3C) and Video-based Point Cloud Compression(V-PCC)において、クライアントが高LoD(密)のポイントクラウドを構成する低LoD(疎)のポイントクラウドを単独で復号し、低LoDのポイントクラウドを構築することができるように符号化するLoD patch modeが提案された(例えば、非特許文献5参照)。
しかしながら、非特許文献4に記載のV3Cビットストリームを格納するISOBMFFは、このスペーシャルスケーラビリティに対応しておらず、スペーシャルスケーラビリティに関する情報をシステムレイヤに格納することが困難であった。そのため、クライアントがこのスペーシャルスケーラビリティを利用して所望のLoDで3Dデータを構築するためには、V3Cビットストリームを解析する等の煩雑な作業が必要であった。
本開示は、このような状況に鑑みてなされたものであり、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができるようにするものである。
本技術の一側面の情報処理装置は、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータを前記階層構造のレイヤ毎にサブビットストリームとして符号化し、前記サブビットストリームを含むビットストリームを生成する符号化部と、前記サブビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記サブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報を生成するスペーシャルスケーラビリティ情報生成部と、前記符号化部により生成された前記ビットストリームを格納するファイルを生成し、前記スペーシャルスケーラビリティ情報生成部により生成された前記スペーシャルスケーラビリティ情報を前記ファイルのシステムレイヤに格納するファイル生成部とを備える情報処理装置である。
本技術の一側面の情報処理方法は、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータを前記階層構造のレイヤ毎にサブビットストリームとして符号化し、前記サブビットストリームを含むビットストリームを生成し、前記サブビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記サブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報を生成し、生成された前記ビットストリームを格納するファイルを生成し、生成された前記スペーシャルスケーラビリティ情報を前記ファイルのシステムレイヤに格納する情報処理方法である。
本技術の他の側面の情報処理装置は、ファイルのシステムレイヤに格納される、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに関する情報であって、前記3Dデータの前記解像度に基づく階層構造のレイヤ毎に符号化されたサブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報に基づいて、復号する前記レイヤを選択する選択部と、前記ファイルに格納される前記3Dデータのビットストリームから、前記選択部により選択された前記レイヤに対応するサブビットストリームを抽出する抽出部と、前記抽出部により抽出された前記サブビットストリームを復号する復号部とを備える情報処理装置である。
本技術の他の側面の情報処理方法は、ファイルのシステムレイヤに格納される、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに関する情報であって、前記3Dデータの前記解像度に基づく階層構造のレイヤ毎に符号化されたサブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報に基づいて、復号する前記レイヤを選択し、前記ファイルに格納される前記3Dデータのビットストリームから、選択された前記レイヤに対応するサブビットストリームを抽出し、抽出された前記サブビットストリームを復号する情報処理方法である。
本技術のさらに他の側面の情報処理装置は、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータを前記階層構造のレイヤ毎にサブビットストリームとして符号化し、前記サブビットストリームを含むビットストリームを生成する符号化部と、前記サブビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記サブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報を生成するスペーシャルスケーラビリティ情報生成部と、前記スペーシャルスケーラビリティ情報生成部により生成された前記スペーシャルスケーラビリティ情報と、前記符号化部により生成された前記ビットストリームの配信に関する制御情報とを格納する制御ファイルを生成する制御ファイル生成部とを備える情報処理装置である。
本技術のさらに他の側面の情報処理方法は、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータを前記階層構造のレイヤ毎にサブビットストリームとして符号化し、前記サブビットストリームを含むビットストリームを生成し、前記サブビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記サブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報を生成し、生成された前記スペーシャルスケーラビリティ情報と、生成された前記ビットストリームの配信に関する制御情報とを格納する制御ファイルを生成する情報処理方法である。
本技術のさらに他の側面の情報処理装置は、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータが符号化されたビットストリームの配信に関する制御情報が格納された制御ファイルに格納される、前記ビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記階層構造のレイヤ毎に符号化されたサブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報に基づいて、復号する前記レイヤを選択する選択部と、前記選択部により選択された前記レイヤに対応するサブビットストリームを取得する取得部と、前記取得部により取得された前記サブビットストリームを復号する復号部とを備える情報処理装置である。
本技術のさらに他の側面の情報処理方法は、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータが符号化されたビットストリームの配信に関する制御情報が格納された制御ファイルに格納される、前記ビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記階層構造のレイヤ毎に符号化されたサブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報に基づいて、復号する前記レイヤを選択し、選択された前記レイヤに対応するサブビットストリームを取得し、取得された前記サブビットストリームを復号する情報処理方法である。
本技術の一側面の情報処理装置および方法においては、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、その解像度に基づく階層構造を有する3Dデータがその階層構造のレイヤ毎にサブビットストリームとして符号化され、そのサブビットストリームを含むビットストリームが生成され、そのサブビットストリームのスペーシャルスケーラビリティに関する情報であって、そのサブビットストリームに対応するレイヤの識別情報と、階層構造の最上位レイヤからそのサブビットストリームのレイヤまでを再構築することにより得られる3Dデータの解像度に関する情報とを含むスペーシャルスケーラビリティ情報が生成され、その生成されたビットストリームを格納するファイルが生成され、その生成されたスペーシャルスケーラビリティ情報がそのファイルのシステムレイヤに格納される。
本技術の他の側面の情報処理装置および方法においては、ファイルのシステムレイヤに格納される、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに関する情報であって、3Dデータの解像度に基づく階層構造のレイヤ毎に符号化されたサブビットストリームに対応するレイヤの識別情報と、その階層構造の最上位レイヤからそのサブビットストリームのレイヤまでを再構築することにより得られる3Dデータの解像度に関する情報とを含むスペーシャルスケーラビリティ情報に基づいて、復号するレイヤが選択され、そのファイルに格納される3Dデータのビットストリームから、選択されたレイヤに対応するサブビットストリームが抽出され、その抽出されたサブビットストリームが復号される。
本技術のさらに他の側面の情報処理装置および方法においては、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、その解像度に基づく階層構造を有する3Dデータがその階層構造のレイヤ毎にサブビットストリームとして符号化され、そのサブビットストリームを含むビットストリームが生成され、そのサブビットストリームのスペーシャルスケーラビリティに関する情報であって、そのサブビットストリームに対応するレイヤの識別情報と、その階層構造の最上位レイヤからそのサブビットストリームのレイヤまでを再構築することにより得られる3Dデータの解像度に関する情報とを含むスペーシャルスケーラビリティ情報が生成され、その生成されたスペーシャルスケーラビリティ情報と、その生成されたビットストリームの配信に関する制御情報とを格納する制御ファイルが生成される。
本技術のさらに他の側面の情報処理装置および方法においては、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、その解像度に基づく階層構造を有する3Dデータが符号化されたビットストリームの配信に関する制御情報が格納された制御ファイルに格納される、そのビットストリームのスペーシャルスケーラビリティに関する情報であって、その階層構造のレイヤ毎に符号化されたサブビットストリームに対応するレイヤの識別情報と、その階層構造の最上位レイヤからそのサブビットストリームのレイヤまでを再構築することにより得られる3Dデータの解像度に関する情報とを含むスペーシャルスケーラビリティ情報に基づいて、復号するレイヤが選択され、その選択されたレイヤに対応するサブビットストリームが取得され、その取得されたサブビットストリームが復号される。
V-PCCの概要を説明する図である。 V3Cビットストリームの主な構成例を示す図である。 アトラスサブビットストリームの主な構成例を示す図である。 V3Cビットストリームを格納するISOBMFFの構造の例を示す図である。 パーシャルアクセス情報の例について説明する図である。 3Dスペーシャルリージョンが静的な場合のファイル構造の例を示す図である。 SpatialRegionGroupBoxとV3CSpatialRegionsBoxの例を示す図である。 3Dスペーシャルリージョンが動的に変化する場合のファイル構造の例を示す図である。 スペーシャルスケーラビリティについて説明するための図である。 スペーシャルスケーラビリティに関するシンタックスの例を示す図である。 スペーシャルスケーラビリティに対応するデータの構成例を示す図である。 スペーシャルスケーラビリティ情報を格納するファイル構造の例を示す図である。 シンタックスの例を示す図である。 シンタックスの他の例を示す図である。 マトリョーシカメディアコンテナの構成例を示す図である。 ファイル生成装置の主な構成例を示すブロック図である。 ファイル生成処理の流れの例を示すフローチャートである。 クライアント装置の主な構成例を示すブロック図である。 クライアント処理の流れの例を示すフローチャートである。 スペーシャルスケーラビリティ情報を格納するMPDの構成例を示す図である。 シンタックスの例を示す図である。 シンタックスの他の例を示す図である。 MPDの記述例を示す図である。 MPDの記述例を示す図である。 ファイル生成装置の主な構成例を示すブロック図である。 ファイル生成処理の流れの例を示すフローチャートである。 クライアント装置の主な構成例を示すブロック図である。 クライアント処理の流れの例を示すフローチャートである。 コンピュータの主な構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.V3Cビットストリームのスペーシャルスケーラビリティ
2.第1の実施の形態(ビットストリームとスペーシャルスケーラビリティ情報を格納するファイル)
3.第2の実施の形態(スペーシャルスケーラビリティ情報を格納する制御ファイル)
4.付記
<1.V3Cビットストリームのスペーシャルスケーラビリティ>
<技術内容・技術用語をサポートする文献等>
本技術で開示される範囲は、実施の形態に記載されている内容だけではなく、出願当時において公知となっている以下の非特許文献等に記載されている内容や以下の非特許文献において参照されている他の文献の内容等も含まれる。
非特許文献1:(上述)
非特許文献2:(上述)
非特許文献3:(上述)
非特許文献4:(上述)
非特許文献5:(上述)
非特許文献6:https://www.matroska.org/index.html
つまり、上述の非特許文献に記載されている内容や、上述の非特許文献において参照されている他の文献の内容等も、サポート要件を判断する際の根拠となる。
<ポイントクラウド>
従来、点の位置情報や属性情報等により3次元構造を表すポイントクラウド(Point cloud)等の3Dデータが存在した。
例えばポイントクラウドの場合、立体構造物(3次元形状のオブジェクト)を多数の点の集合として表現する。ポイントクラウドは、各点の位置情報(ジオメトリ(geometry)とも称する)と属性情報(アトリビュート(attribute)とも称する)とにより構成される。アトリビュートは任意の情報を含むことができる。例えば、各ポイントの色情報、反射率情報、法線情報等がアトリビュートに含まれるようにしてもよい。このようにポイントクラウドは、データ構造が比較的単純であるとともに、十分に多くの点を用いることにより任意の立体構造物を十分な精度で表現することができる。
<V-PCCの概要>
V-PCC(Video based Point Cloud Compression)では、このようなポイントクラウドのジオメトリやアトリビュートが、小領域毎に2次元平面に投影される。本開示において、この小領域を部分領域という場合がある。このジオメトリやアトリビュートが2次元平面に投影された画像を投影画像とも称する。また、この小領域(部分領域)毎の投影画像をパッチ(patch)と称する。例えば、図1のAのオブジェクト1(3Dデータ)が、図1のBに示されるようなパッチ2(2Dデータ)に分解される。ジオメトリのパッチの場合、各画素値は、ポイントの位置情報を示す。ただし、その場合、ポイントの位置情報は、その投影面に対して垂直方向(奥行方向)の位置情報(デプス値(Depth))として表現される。
そして、このように生成された各パッチがビデオシーケンスのフレーム画像(ビデオフレームとも称する)内に配置される。ジオメトリのパッチが配置されたフレーム画像をジオメトリビデオフレーム(Geometry video frame)とも称する。また、アトリビュートのパッチが配置されたフレーム画像をアトリビュートビデオフレーム(Attribute video frame)とも称する。例えば、図1のAのオブジェクト1から、図1のCに示されるようなジオメトリのパッチ3が配置されたジオメトリビデオフレーム11と、図1のDに示されるようなアトリビュートのパッチ4が配置されたアトリビュートビデオフレーム12が生成される。例えば、ジオメトリビデオフレーム11の各画素値は、上述のデプス値を示す。
そして、これらのビデオフレームが、例えばAVC(Advanced Video Coding)やHEVC(High Efficiency Video Coding)等といった2次元画像用の符号化方法で符号化される。つまり、3次元構造を表す3Dデータであるポイントクラウドデータを、2次元画像用のコーデックを用いて符号化することができる。
なお、オキュパンシーマップを用いることもできる。オキュパンシーマップは、ジオメトリビデオフレームやアトリビュートビデオフレームのNxN画素毎に、投影画像(パッチ)の有無を示すマップ情報である。例えば、オキュパンシーマップは、ジオメトリビデオフレームやアトリビュートビデオフレームの、パッチが存在する領域(NxN画素)を値「1」で示し、パッチが存在しない領域(NxN画素)を値「0」で示す。
デコーダは、このオキュパンシーマップを参照することにより、パッチが存在する領域であるか否かを把握することができるので、符号化・復号により生じるノイズ等の影響を抑制することができ、より正確に3Dデータを復元することができる。例えば、符号化・復号によりデプス値が変化しても、デコーダは、オキュパンシーマップを参照することにより、パッチが存在しない領域のデプス値を無視することができる。つまり、デコーダは、オキュパンシーマップを参照することにより、3Dデータの位置情報として処理しないようにすることができる。
例えば、ジオメトリビデオフレーム11およびアトリビュートビデオフレーム12に対して、図1のEに示されるようなオキュパンシーマップ13を生成してもよい。オキュパンシーマップ13において、白の部分が値「1」を示し、黒の部分が値「0」を示している。
このようなオキュパンシーマップが、ジオメトリビデオフレームやアトリビュートビデオフレームとは別のデータ(ビデオフレーム)として符号化され、復号側に伝送され得る。つまり、オキュパンシーマップも、ジオメトリビデオフレームやアトリビュートビデオフレームと同様に、AVCやHEVC等の2次元画像用の符号化方法で符号化することができる。
ジオメトリビデオフレームを符号化して生成される符号化データ(ビットストリーム)をジオメトリビデオサブビットストリーム(geometry video sub-bitstream)とも称する。アトリビュートビデオフレームを符号化して生成される符号化データ(ビットストリーム)をアトリビュートビデオサブビットストリーム(attribute video sub-bitstream)とも称する。オキュパンシーマップを符号化して生成される符号化データ(ビットストリーム)をオキュパンシーマップビデオサブビットストリーム(occupancy map video sub-bitstream)とも称する。なお、ジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、オキュパンシーマップビデオサブビットストリームを互いに区別して説明する必要が無い場合、ビデオサブビットストリーム(video sub-bitstream)と称する。
さらに、パッチ(2Dデータ)からポイントクラウド(3Dデータ)を再構成するための情報であるアトラス情報(atlas)が符号化され、復号側に伝送される。アトラス情報の符号化方法(および復号方法)は任意である。アトラス情報を符号化して生成される符号化データ(ビットストリーム)をアトラスサブビットストリーム(atlas sub-bitstream)とも称する。
なお、以下において、ポイントクラウド(のオブジェクト)は、2次元画像の動画像のように、時間方向に変化し得るものとする。つまり、ジオメトリデータやアトリビュートデータは、時間方向の概念を有し、2次元画像の動画像のように、所定の時間毎にサンプリングされたデータとする。なお、2次元画像のビデオフレームのように、各サンプリング時刻のデータをフレームと称する。つまり、ポイントクラウドデータ(ジオメトリデータやアトリビュートデータ)は、2次元画像の動画像のように、複数フレームにより構成されるものとする。本開示において、このポイントクラウドのフレームのことを、ポイントクラウドフレームとも称する。V-PCCの場合、このような動画像(複数フレーム)のポイントクラウドであっても、各ポイントクラウドフレームをビデオフレーム化してビデオシーケンスとすることで、動画像の符号化方式を用いて高効率に符号化することができる。
<V3Cビットストリームの構造>
エンコーダは、上述したようなジオメトリビデオフレーム、アトリビュートビデオフレーム、オキュパンシーマップ、およびアトラス情報の符号化データを多重化し、1つのビットストリームを生成する。このビットストリームをV3Cビットストリーム(V3C Bitstream)とも称する。
図2は、V3Cビットストリームの1つのフォーマットである、V3Cサンプルストリーム(V3C sample stream)の構造例を示す図である。図2に示されるように、V-PCCの符号化ストリームであるV3Cビットストリーム(V3Cサンプルストリーム)は、複数のV3Cユニット(V3C unit)を含む。
V3Cユニットは、V3Cユニットヘッダ(V3C unit header)とV3Cユニットペイロード(V3C unit payload)を含む。V3Cユニットヘッダは、V3Cユニットペイロードに格納される情報の種類(タイプ)を示す情報を含む。V3Cユニットペイロードは、そのV3Cユニットヘッダに格納されるタイプに応じて、アトリビュートビデオサブビットストリーム(attribute video sub-bitstream)、ジオメトリビデオサブビットストリーム(geometry video sub-bitstream)、オキュパンシービデオサブビットストリーム(occupancy video sub-bitstream)、アトラスサブビットストリーム(atlas sub-bitstream)等が格納され得る。
<アトラスサブビットストリームの構造>
図3のAは、アトラスサブビットストリームの主な構成例を示す図である。図3のAに示されるようにアトラスサブビットストリーム31は、アトラスNALユニット(atlas NAL unit)32の連続で構成される。図3のAに示される各四角がアトラスNALユニット32を示している。
audは、アクセスユニットデリミタ(access unit delimiter)のNALユニットである。atlas spsは、アトラスシーケンスパラメータセット(atlas sequence parameter set)のNALユニットである。atlas fpsは、アトラスフレームパラメータセット(atlas frame parameter set)のNALユニットである。atlas apsは、アトラスアダプテーションパラメータセット(atlas adaptation parameter set)のNALユニットである。
アトラスタイルレイヤNALユニット(atlas tile layer NAL unit)は、アトラスタイルレイヤ(atlas tile layer)のNALユニットである。アトラスタイルレイヤNALユニットは、アトラスタイル(atlas tile)に関する情報であるアトラスタイル情報を持つ。1つのアトラスタイルレイヤNALユニットが、1つのアトラスタイルの情報を持つ。つまり、アトラスタイルレイヤNALユニットとアトラスタイルは1対1に対応する。
atlas fpsは、アトラスタイルのフレーム(frame)内位置情報を格納し、その位置情報がid経由でアトラスタイルレイヤNALユニットに紐づけられる。
アトラスタイルは、互いに独立して復号可能であり、ビデオサブビットストリーム(video sub-bitstream)の対応矩形領域のパッチ(patches)に対する2D3D変換情報を持つ。2D3D変換情報は、2Dデータであるパッチを3Dデータであるポイントクラウドに変換するための情報のことである。例えば、図3のBに示されるアトリビュートビデオフレーム12が点線のように分割され、矩形のアトラスタイル33が形成される。
このアトラスタイルの符号化には、HEVCのタイル(tile)と同等の制約がある。例えば、同一フレーム(same frame)の他のアトラスタイルには依存しないように構成される。また、参照関係のあるアトラスフレーム(atlas frame)は互いに同一のアトラスタイルパーティショニング(atlas tile partitioning)を持つ。さらに、参照フレームの同一位置のアトラスタイルのみ参照する。
<ISOBMFFへの格納方法>
非特許文献4には、V3CビットストリームをISOBMFF(International Organization for Standardization Base Media File Format)に格納する方法として、マルチトラックストラクチャ(multi-track structure)とシングルトラックストラクチャ(single track structure)の2種類が規定されている。
マルチトラックストラクチャは、ジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、オキュパンシービデオサブビットストリーム、およびアトラスサブビットストリームをそれぞれ個別のトラック(track)に格納する方法である。各ビデオサブビットストリームは、従来の2Dビデオストリームであるので、2Dの場合と同様の手法で格納(管理)することができる。マルチトラックストラクチャを適用する場合のファイルの構成例を図4に示す。
シングルトラックストラクチャは、V-PCCビットストリームを1つのトラックに格納する方法である。つまりこの場合、ジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、オキュパンシーマップビデオサブビットストリーム、およびアトラスサブビットストリームが互いに同一のトラックに格納される。
<パーシャルアクセス>
ところで非特許文献4には、ポイントクラウドのオブジェクトの一部分を取得したり、復号したりするためのパーシャルアクセス(partial access)情報が規定されている。例えば、このパーシャルアクセス情報を利用することにより、ストリーミング配信時にポイントクラウドのオブジェクトの表示部分の情報のみを取得するといった制御が可能になる。このような制御により、帯域幅を有効活用して高精細化する、といった効果を得ることができる。
例えば、図5のAに示されるように、ポイントクラウドのオブジェクトに対して、そのオブジェクトを内包する3次元領域であるバウンディングボックス(Bounding box)51が設定されているとする。つまり、ISOBMFFにおいて、図5のBに示されるように、バウンディングボックス51に関する情報であるバウンディングボックス情報(3DBoundingBoxStruct)が設定されている。バウンディングボックス情報において、バウンディングボックス51の基準点(orgin)の座標は(0, 0, 0)とされ、バウンディングボックス51のサイズは(bb_dx, bb_dy, bb_dz)で指定される。
パーシャルアクセス情報を設定することにより、図5のAに示されるように、このバウンディングボックス51内に、独立に復号可能な部分領域である3Dスペーシャルリージョン(3D spatial region)52を設定することができる。つまり、図5のBに示されるように、ISOBMFFにおいてパーシャルアクセス情報として、3Dスペーシャルリージョン52に関する情報である3Dスペーシャルリージョン情報(3dSpatialRegionStruct)が設定される。3Dスペーシャルリージョン情報において、その領域は、その基準点の座標(x, y, z)とサイズ(cuboid_dx, cuboid_dy, cuboid_dz)で指定される。
<ファイル構造例>
例えば、図6のオブジェクト61のビットストリームが3つの3Dスペーシャルリージョン(3Dスペーシャルリージョン61A、3Dスペーシャルリージョン61B、3Dスペーシャルリージョン61C)に分割されてISOBMFFに格納されるとする。また、マルチトラックストラクチャが適用され、3Dスペーシャルリージョン情報が静的である(時間方向に変化しない)とする。
その場合、図6の右側に示されるように、ビデオサブビットストリームは、3Dスペーシャルリージョン毎に分けて(互いに異なるトラックに)格納される。そして、互いに同一の3Dスペーシャルリージョンに対応するジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、オキュパンシービデオサブビットストリームを格納する各トラックがグループ化される(図6の点線枠)。このグループをスペーシャルリージョントラックグループ(spatial region track group)とも称する。
なお、1つの3Dスペーシャルリージョンのビデオサブビットストリームは、1つまたは複数のスペーシャルリージョントラックグループに格納される。図6の例の場合、3Dスペーシャルリージョンが3つ構成されるので、3つ以上のスペーシャルリージョントラックグループが形成される。
各スペーシャルリージョントラックグループには、スペーシャルリージョントラックグループを識別する識別情報であるトラックグループ識別情報としてtrack_group_idが割り当てられる。このtrack_group_idは、各トラックに格納される。つまり、互いに同一のスペーシャルリージョントラックグループに属するトラックには、互いに同一の値のtrack_group_idが格納される。したがって、このtrack_group_idの値に基づいて、所望のスペーシャルリージョントラックグループに属するトラックを識別することができる。
換言するに、互いに同一の3Dスペーシャルリージョンに対応するジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、オキュパンシービデオサブビットストリームを格納する各トラックには、互いに同一の値のtrack_group_idが格納される。したがって、このtrack_group_idの値に基づいて、所望の3Dスペーシャルリージョンに対応する各ビデオサブビットストリームを識別することができる。
より具体的には、互いに同一のスペーシャルリージョントラックグループに属するトラックには、図7に示されるように、互いに同一のtrack_group_idを持つスペーシャルリージョングループボックス(SpatialRegionGroupBox)が格納される。track_group_idは、スペーシャルリージョングループボックスが継承するトラックグループタイプボックス(TrackGroupTypeBox)に格納される。
なお、アトラスサブビットストリームは、3Dスペーシャルリージョンに関わらず1つのV3Cトラックに格納される。つまり、この1つのアトラスサブビットストリームが複数の3Dスペーシャルリージョンのパッチに関する2D3D変換情報を持つ。より具体的には、アトラスサブビットストリームが格納されるV3Cトラックに、図7に示されるように、V3Cスペーシャルリージョンボックス(V3CSpatialRegionsBox)が格納され、そのV3Cスペーシャルリージョンボックスに各track_group_idが格納される。
アトラスタイルとスペーシャルリージョントラックグループは、非特許文献3に記載のNALUマップエントリサンプルグループ(NALUMapEntry sample group)により、紐づけられる。
なお、3Dスペーシャルリージョン情報が動的である(時間方向に変化する)場合、図8のAに示されるように、タイムドメタデータトラック(timed metadata track)を用いて、各時刻の3Dスペーシャルリージョンを表現すればよい。つまり、図8のBに示されるように、ISOBMFFに、ダイナミック3Dスペーシャルリージョンサンプルエントリ(Dynamic3DSpatialRegionSampleEntry)やダイナミックスペーシャルリージョンサンプル(DynamicSpatialRegionSample)が格納される。
<V-PCC符号化のスケーラビリティ>
V-PCC符号化においては、例えば、上述のように、volumetric annotation SEI message familyを利用することにより、特定の3D空間位置の一部のポイントクラウド(partial point cloud)のみを復号し、レンダリングすることができるリージョンベースドスケーラビリティ(region-based scalability)を実現することができる。
また、非特許文献5に記載のように、LoDパッチモード(LoD patch mode)を利用することにより、特定のLoDとなるポイントクラウドの点群のみを復号し、レンダリングすることができるスペーシャルスケーラビリティ(spatial scalability)を実現することができる。
LoDは、ポイントクラウドオブジェクトを、ポイントの密度によって階層化する場合の階層を示す。例えば、ボクセル(voxel)量子化を用いたオクツリー(octree)のように、互いにポイントの密度が異なる複数階層(ポイントが疎な階層からポイントが密な階層まで)が形成されるように、ポイントクラウドのポイントをグループ分け(階層化)する。このような階層構造の各階層をLoDとも称する。
各LoDで構築されたポイントクラウドオブジェクトは、互いに同一のオブジェクトを表現するものではあるが、その解像度(ポイント数)が互いに異なる。すなわち、この階層構造は、ポイントクラウドの解像度に基づく階層構造とも言える。
<LoDパッチモード>
LoDパッチモードでは、クライアントが高LoD(密)のポイントクラウドを構成する低LoD(疎)のポイントクラウドを単独で復号し、低LoDのポイントクラウドを構築することができるようにポイントクラウドが符号化される。
つまり、上述のように各ポイントがグループ分けされることにより、元の密度のポイントクラウド(密なポイントクラウド)が、複数の疎なポイントクラウドに分けられる。これらの疎なポイントクラウドの密度は互いに同一であってもよいし、同一でなくてもよい。疎なポイントクラウドを単数で用いたり、複数の疎なポイントクラウドを組み合わせたりすることにより、上述の階層構造の各階層のポイントクラウドを実現することができる。例えば、全ての疎なポイントクラウドを組み合わせることにより、元の密度のポイントクラウドを復元することができる。
LoDパッチモードでは、このようなポイントクラウドの階層化をパッチ毎に行うことができる。そして、疎なポイントクラウドのパッチのポイント間隔を密な状態(元のポイントクラウドのポイント間隔)にスケーリングして符号化することができる。例えば、図9のAに示されるように、ポイント間隔をダウンスケールすることにより密なパッチ(小さいパッチ)として符号化することができる。これにより、階層化による符号化効率の低減を抑制することができる。
復号の際は逆方向にスケーリングすればよい。例えば、図9のBに示されるように、ポイント間隔を、符号化の際と同じ比率でアップスケールすることにより疎なパッチ(大きいパッチ)を復元することができる。
この場合、このようなスケーリングに関する情報であるスケーリングファクタ(scaling factor)をパッチ毎に、符号化側から復号側に伝送する。つまり、スケーリングファクタをV3Cビットストリームに格納する。図10は、このスケーリングファクタのシンタックスの例を示す図である。図10に示されるpdu_lod_scale_x_minus1[patchIndex]が、パッチ毎のダウンスケールのx方向の変換比率を示し、pdu_lod_scale_y[patchIndex]が、パッチ毎のダウンスケールのy方向の変換比率を示す。復号の際に、これらのパラメータにより示される変換比率でアップスケールする(つまり、スケーリングファクタに基づいてアップスケールする)ことにより、容易に符号化(ダウンスケール)の際と同じ変換比率でアップスケールすることができる。
以上のように、LoDパッチモードでは、1つのポイントクラウドが、互いに同一のオブジェクトを示すように複数の疎なポイントクラウドに分割されて、符号化される。このような分割がパッチ毎に行われる。つまり、図11に示されるように、パッチが互いに異なるサンプルグリッドのポイントにより構成される複数のパッチに分割される。図11の左側に示されるパッチP0は元のパッチ(密なパッチ)を示しており、各丸はそのパッチを構成するポイントを示している。図11においては、このパッチP0のポイントが4種類のサンプルグリッドでグループ分けされ、4つの疎なパッチが形成されている。つまり、パッチP0から、白地のポイント、黒地のポイント、グレー地のポイント、斜線模様のポイントがそれぞれ抽出され、互いに異なる疎なパッチに分けられている。つまり、この場合、元のパッチP0に対してポイントの密度がx方向とy方向のそれぞれについて2分の1(ポイント間隔が2倍)の疎なパッチが4つ形成される。このような疎なパッチを単数で用いたり、複数組み合わせたりすることにより、スペーシャルなスケーラビリティ(解像度スケーラビリティ)を実現することができる。
疎なパッチは、上述のように、符号化の際にダウンスケールされる。LoDパッチモードでは、元の密なパッチのそれぞれについて、このような分割が行われる。そして、分割された疎なパッチは、フレーム画像に配置される際に、サンプルグリッド毎にアトラスタイルにまとめられる。例えば、図11において、白地の丸で示されるポイントにより構成される疎なパッチは、「atlas tile 0」に配置され、黒地の丸で示されるポイントにより構成される疎なパッチは、「atlas tile 1」に配置され、グレー地の丸で示されるポイントにより構成される疎なパッチは、「atlas tile 2」に配置され、斜線模様の丸で示されるポイントにより構成される疎なパッチは、「atlas tile 3」に配置されている。このように配置するアトラスタイルを分けることにより、互いに同一のサンプルグリッドに対応するパッチを他と独立に復号することができる。つまり、サンプルグリッド毎にポイントクラウドを構築することができる。したがって、スペーシャルスケーラビリティを実現することができる。
<スペーシャルスケーラビリティへの非対応>
以上のように、MPEG-I Part 5 Visual Volumetric Video-based Coding(V3C) and Video-based Point Cloud Compression(V-PCC)では、LoDパッチモードで符号化することで、クライアントは高LoD(密)のポイントクラウドを構成する低LoD(疎)のポイントクラウドを単独で復号し、低LoDのポイントクラウドを構築することができる。
このようなスペーシャルスケーラビリティを利用することで、V-PCCコンテンツの配信時のネットワーク帯域制限や変動、クライアント装置の復号処理やレンダリング処理の性能等に応じて適切なLoDのV-PCCコンテンツを取得することが可能になる。そのため、MPEG-I part 10においてスペーシャルスケーラビリティを利用した配信サポートが望まれる。
しかしながら、非特許文献4に記載のV3Cビットストリームを格納するISOBMFFは、このスペーシャルスケーラビリティに対応しておらず、スペーシャルスケーラビリティに関する情報を、V3Cビットストリームとは別の情報として、システムレイヤに格納することが困難であった。そのため、クライアントは、V-PCCコンテンツ配信時、スペーシャルスケーラビリティを提供するポイントクラウドの組み合わせを識別することができず、クライアント環境に応じて適切なLoDのポイントクラウドを選択することができなかった。
クライアントがこのスペーシャルスケーラビリティを利用して所望のLoDで3Dデータを構築するためには、V3Cビットストリーム(アトラスサブビットストリーム)をパッチデータユニット(patch_data_unit)までパースする等の煩雑な作業が必要であった。
<2.第1の実施の形態>
<ビットストリームとスペーシャルスケーラビリティ情報を格納するファイル>
そこで、スペーシャルスケーラビリティに関する情報を、V3Cビットストリームを格納するファイル(例えばISOBMFF)に、V3Cビットストリームとは別の情報として格納する(システムレイヤに格納する)ようにする。
例えば、情報処理方法において、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応するポイントクラウドが2次元化された2Dデータを符号化して、そのスペーシャルスケーラビリティの単数または複数のレイヤに対応するポイントクラウドが符号化されたサブビットストリームを含むビットストリームを生成し、そのサブビットストリームのスペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を生成し、その生成されたビットストリームとスペーシャルスケーラビリティ情報とを格納するファイルを生成するようにする。
例えば、情報処理装置において、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応するポイントクラウドが2次元化された2Dデータを符号化して、そのスペーシャルスケーラビリティの単数または複数のレイヤに対応するポイントクラウドが符号化されたサブビットストリームを含むビットストリームを生成する符号化部と、そのサブビットストリームのスペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を生成するスペーシャルスケーラビリティ情報生成部と、符号化部により生成されたビットストリームと、スペーシャルスケーラビリティ情報生成部により生成されたスペーシャルスケーラビリティ情報とを格納するファイルを生成するファイル生成部とを備えるようにする。
例えば、図12に示されるように、スペーシャルスケーラビリティインフォストラクト(SpatialScalabilityInfoStruct)を新規定義し、サンプルエントリ(SampleEntry)のVPCCスペーシャルリージョンボックス(VPCCSpatialRegionsBox)の中にそのスペーシャルスケーラビリティインフォストラクトを格納する。そして、そのスペーシャルスケーラビリティインフォストラクトにスペーシャルスケーラビリティ情報を格納する。
このようにすることにより、V3Cビットストリームを復号するクライアント装置に対して、スペーシャルスケーラビリティ情報をシステムレイヤにおいて提供することができる。したがって、クライアント装置は、V3Cビットストリームを解析する等の煩雑な作業を必要とせずに、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
例えば、情報処理方法において、ファイルに格納される、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応するポイントクラウドが2次元化された2Dデータが符号化されたビットストリームの、スペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報に基づいて、復号するスペーシャルスケーラビリティのレイヤを選択し、そのファイルに格納されるビットストリームから、選択されたレイヤに対応するサブビットストリームを抽出し、その抽出されたサブビットストリームを復号する。
例えば、情報処理装置において、ファイルに格納される、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応するポイントクラウドが2次元化された2Dデータが符号化されたビットストリームの、スペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報に基づいて、復号するスペーシャルスケーラビリティのレイヤを選択する選択部と、そのファイルに格納されるビットストリームから、選択部により選択されたレイヤに対応するサブビットストリームを抽出する抽出部と、その抽出部により抽出されたサブビットストリームを復号する復号部とを備えるようにする。
例えば、図12に示されるように、非特許文献4に記載のV3Cビットストリームを格納するISOBMFFにおいて、サンプルエントリのVPCCスペーシャルリージョンボックスの中のスペーシャルスケーラビリティインフォストラクトに格納されるスペーシャルスケーラビリティ情報に基づいて、復号するスペーシャルスケーラビリティのレイヤを選択する。
このようにすることにより、クライアント装置は、そのシステムレイヤに格納されたスペーシャルスケーラビリティ情報に基づいてスペーシャルスケーラビリティを提供するポイントクラウドの組み合わせを識別することができる。したがって、例えばV-PCCコンテンツ配信において、クライアント装置は、ビットストリームを解析する等の煩雑な作業を必要とせずに、クライアント環境に応じて適切なLoDのポイントクラウドを選択することができる。
例えば、クライアント装置は、視点から近いポイントクラウドの一部分を高LoDで取得し、その他の遠い部分を低LoDで取得する、といった制御を行うことができる。したがって、クライアント装置は、ネットワーク帯域制限の下でも帯域をより有効に活用し、高品位なメディア体験をユーザに提供することができる。
つまり、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
例えば、このスペーシャルスケーラビリティ情報として、どのグループ(疎なパッチ)をベースレイヤとし、どのグループ(疎なパッチ)をエンハンスメントレイヤとするか等、各グループ(疎なパッチ)の選択順(レイヤ)を指定するベース・エンハンスメントグルーピング情報をシステムレイヤに格納してもよい。
このようにすることにより、クライアント装置は、所望のLoDのポイントクラウドを構築するためにどのグループが必要であるかを、スペーシャルスケーラビリティ情報に基づいて容易に把握することができる。したがって、クライアント装置は、より容易に、適切なLoDのポイントクラウドを選択することができる。
また、図12に示されるように、各レイヤ(グループ)のビットストリームを、ISOBMFFの互いに異なるトラック(スペーシャルリージョントラックグループ)に格納してもよい。図12の例の場合、白地の丸で示されるポイントにより構成される疎なパッチ、黒地の丸で示されるポイントにより構成される疎なパッチ、グレー地の丸で示されるポイントにより構成される疎なパッチ、および、斜線模様の丸で示されるポイントにより構成される疎なパッチは、互いに異なるスペーシャルリージョントラックグループに格納される。このようにすることにより、クライアント装置は、復号するトラック(スペーシャルリージョントラックグループ)を選択することにより、所望のレイヤ(グループ)のビットストリームを選択することができる。つまり、クライアント装置は、所望のレイヤ(グループ)のビットストリームをより容易に取得し、復号することができる。
<スペーシャルスケーラビリティ情報の例>
図13のAは、VPCCスペーシャルリージョンボックス(VPCCSpatialRegionsBox)のシンタックスの例を示す図である。図13のAの例の場合、VPCCスペーシャルリージョンボックスにおいて、リージョン(region)毎に、スペーシャルスケーラビリティインフォストラクト(SpatialScalabilityInfoStruct())が格納される。
図13のBは、スペーシャルスケーラビリティインフォストラクト(SpatialScalabilityInfoStruct())のシンタックスの例を示す図である。図13のBに示されるように、このスペーシャルスケーラビリティインフォストラクトに、スペーシャルスケーラビリティ情報として、レイヤ識別情報(layer_id)が格納されてもよい。レイヤ識別情報は、ISOBMFFの、そのスペーシャルスケーラビリティインフォストラクトが対応するトラックグループに格納されるサブビットストリームが対応するレイヤを示す識別情報である。例えば、layer_id = 0は、ベースレイヤを示し、layer_id = 1乃至255は、エンハンスメントレイヤを示す。
つまり、ファイル生成装置が、このレイヤ識別情報(layer_id)をスペーシャルスケーラビリティインフォストラクトに格納し、クライアント装置が、このレイヤ識別情報に基づいてサブビットストリーム(トラック)の選択を行ってもよい。このようにすることにより、クライアント装置は、このレイヤ識別情報に基づいて、各トラック(スペーシャルリージョントラックグループ)に格納されるサブビットストリーム(疎なパッチ)が対応するレイヤを把握することができる。したがって、クライアント装置は、より容易に、コンテンツ制作者の意図した通りの順番での高精細化を実現するポイントクラウドを選択することができる。したがって、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
また、図13のBに示されるように、このレイヤ識別情報に加え、スペーシャルスケーラビリティの最上位レイヤからレイヤ識別情報により示されるレイヤまでの各レイヤに対応するポイントクラウドを再構築することにより得られるポイントクラウドの解像度に関する情報(lod)が、スペーシャルスケーラビリティインフォストラクトに格納されてもよい。
例えば、layer_id = 0の場合、このポイントクラウドの解像度に関する情報(lod)は、ベースレイヤ(base layer)のLoD値を示す。また、例えば、layer_id = 0でない場合、このポイントクラウドの解像度に関する情報(lod)は、レイヤ0乃至(layer_id-1)のポイントクラウドと同時に表示することで得られるLoD値を示す。なお、このLoD値は、コンテンツ制作者が定めた目安値でもよい。なお、ポイントクラウドの解像度に関する情報(lod)をシグナルせず、layer_idの値がポイントクラウドの解像度に関する情報をシグナルするとしてもよい。つまり、ポイントクラウドの解像度に関する情報(lod)は、レイヤ識別情報(layer_id)に含まれるようにしてもよい。例えば、layer_idの値が、スペーシャルスケーラビリティの最上位レイヤからレイヤ識別情報により示されるレイヤまでの各レイヤに対応するポイントクラウドの解像度(lod値)も示すようにしてもよい。
つまり、ファイル生成装置が、このポイントクラウドの解像度に関する情報(lod)をスペーシャルスケーラビリティインフォストラクトに格納し、クライアント装置が、このポイントクラウドの解像度に関する情報に基づいてサブビットストリーム(トラック)の選択を行ってもよい。このようにすることにより、クライアント装置は、どのトラック(スペーシャルリージョントラックグループ)を選択すれば所望のLoDが得られるかをより容易に把握することができる。したがって、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
また、図13のBに示されるように、このレイヤ識別情報に加え、スペーシャルスケーラビリティを識別するスペーシャルスケーラビリティ識別情報(spatial_scalability_id)が、スペーシャルスケーラビリティインフォストラクトに格納されてもよい。互いに同一のスペーシャルスケーラビリティ識別情報(spatial_scalability_id)を持つリージョン(region)(num_regionのforループの1ループが1regionに相当)のグループがスペーシャルスケーラビリティを提供する。つまり、互いに同一のスペーシャルスケーラビリティ識別情報(spatial_scalability_id)を持つリージョンを複数組み合わせると、高LoDのポイントクラウドが得られる。
つまり、ファイル生成装置が、このスペーシャルスケーラビリティ識別情報(spatial_scalability_id)をスペーシャルスケーラビリティインフォストラクトに格納し、クライアント装置が、このスペーシャルスケーラビリティ識別情報に基づいてサブビットストリーム(トラック)の選択を行ってもよい。このようにすることにより、クライアント装置は、より容易に、スペーシャルスケーラビリティを提供するグループを特定することができる。したがって、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
なお、図13のAに示されるように、VPCCスペーシャルリージョンボックスに、スペーシャルスケーラビリティフラグ(spatial_scalability_flag)が格納されてもよい。スペーシャルスケーラビリティフラグは、スペーシャルスケーラビリティインフォストラクトが格納されているか否かを示すフラグ情報である。スペーシャルスケーラビリティフラグが真(例えば「1」)の場合、スペーシャルスケーラビリティインフォストラクトが格納されていることを示す。また、スペーシャルスケーラビリティフラグが偽(例えば「0」)の場合、スペーシャルスケーラビリティインフォストラクトが格納されていないことを示す。
<スペーシャルスケーラビリティ情報の他の例>
なお、図14のAに示される例のように、VPCCスペーシャルリージョンボックス(VPCCSpatialRegionsBox)において、リージョン(region)毎に、レイヤ数分のforループを用いて、スペーシャルスケーラビリティインフォストラクト(SpatialScalabilityInfoStruct())およびトラックグループ識別情報(track_group_id)を格納してもよい。
この場合、このforループにより格納されるグループがスペーシャルスケーラビリティ(spatial scalability)を提供する。つまり、forループによって、互いに同一のスペーシャルスケーラビリティを提供するスペーシャルスケーラビリティインフォストラクトがまとめられている。したがって、この場合、スペーシャルスケーラビリティ識別情報(spatial_scalability_id)の格納が不要になる。換言するに、スペーシャルスケーラビリティ識別情報を格納する必要なく、スペーシャルスケーラビリティを識別することができる。
その場合のスペーシャルスケーラビリティインフォストラクト(SpatialScalabilityInfoStruct())のシンタックスの例を図14のBに示す。図14のBの例の場合、スペーシャルスケーラビリティインフォストラクトには、上述したレイヤ識別情報(layer_id)とポイントクラウドの解像度に関する情報(lod)とが格納されている。
なお、この場合も、図14のAに示されるように、VPCCスペーシャルリージョンボックスに、スペーシャルスケーラビリティフラグ(spatial_scalability_flag)が格納されてもよい。
<マトリョーシカメディアコンテナ>
以上においてはファイルフォーマットとしてISOBMFFを適用する例について説明したが、V3Cビットストリームを格納するファイルは任意であり、ISOBMFF以外であってもよい。例えば、V3Cビットストリームが、マトリョーシカメディアコンテナ(Matroska Media Container)に格納されるようにしてもよい。マトリョーシカメディアコンテナの主な構成例を図15に示す。
例えば、スペーシャルスケーラビリティ情報(またはベース・エンハンスメントポイントクラウド情報)が、アトラスサブビットストリームを格納するトラックのトラックエントリエレメント(Track Entry element)下のエレメント(element)に格納されてもよい。
<ファイル生成装置>
図16は、本技術を適用した情報処理装置の一態様であるファイル生成装置の構成の一例を示すブロック図である。図16に示されるファイル生成装置300は、V-PCCを適用して、ポイントクラウドデータをビデオフレームとして2次元画像用の符号化方法により符号化する装置である。また、ファイル生成装置300は、ISOBMFFを生成し、その符号化により生成したV3Cビットストリームを格納する。
その際、ファイル生成装置300は、本実施の形態において上述した本技術を適用し、スペーシャルスケーラビリティを可能とするようにISOBMFFに情報を格納する。つまり、ファイル生成装置300は、スペーシャルスケーラビリティに関する情報をISOBMFFに格納する。
なお、図16においては、処理部やデータの流れ等の主なものを示しており、図16に示されるものが全てとは限らない。つまり、ファイル生成装置300において、図16においてブロックとして示されていない処理部が存在したり、図16において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図16に示されるようにファイル生成装置300は、3D2D変換部301、2D符号化部302、メタデータ生成部303、PCストリーム生成部304、ファイル生成部305、および出力部306を有する。
3D2D変換部301は、ファイル生成装置300に入力された3Dデータであるポイントクラウドをパッチに分解し、パッキングする。つまり、3D2D変換部301は、ジオメトリビデオフレーム、アトリビュートビデオフレーム、オキュパンシービデオフレームを生成する。その際、3D2D変換部301は、例えば図11や図12等を参照して説明したように、ポイントクラウドを複数の疎なポイントクラウドに分割し、サンプルグリッド毎に(互いに同一のスペーシャルスケーラビリティを提供するパッチ毎に)アトラスタイルにまとめるように、各パッチをフレーム画像に配置する。また、3D2D変換部301は、アトラス情報を生成する。3D2D変換部301は、生成したジオメトリビデオフレーム、アトリビュートビデオフレーム、オキュパンシービデオフレーム、およびアトラス情報等を2D符号化部302に供給する。
2D符号化部302は、符号化に関する処理を行う。例えば、2D符号化部302は、3D2D変換部301から供給されるジオメトリビデオフレーム、アトリビュートビデオフレーム、オキュパンシービデオフレーム、およびアトラス情報等を取得する。2D符号化部302は、それらを符号化し、サブビットストリームを生成する。例えば、2D符号化部302は、符号化部311乃至符号化部314を有する。符号化部311は、ジオメトリビデオフレームを符号化し、ジオメトリビデオサブビットストリームを生成する。また、符号化部312は、アトリビュートビデオフレームを符号化し、アトリビュートビデオサブビットストリームを生成する。さらに、符号化部313は、オキュパンシービデオフレームを符号化し、オキュパンシービデオサブビットストリームを生成する。また、符号化部314は、アトラス情報を符号化し、アトラスサブビットストリームを生成する。
その際、2D符号化部302は、LoDパッチモードを適用し、疎なポイントクラウドのパッチ情報をそれぞれアトラスタイル(atlas tile)として符号化し、1つのアトラスサブビットストリームを生成する。また、2D符号化部302は、LoDパッチモードを適用し、疎なポイントクラウドのそれぞれについて、3つの画像(ジオメトリ画像、アトリビュート画像、オキュパンシーマップ)をそれぞれ符号化し、ジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、およびオキュパンシービデオサブビットストリームを生成する。
2D符号化部302は、生成したサブビットストリームをメタデータ生成部303およびPCストリーム生成部304に供給する。例えば、符号化部311は、生成したジオメトリビデオサブビットストリームをメタデータ生成部303およびPCストリーム生成部304に供給する。また、符号化部312は、生成したアトリビュートビデオサブビットストリームをメタデータ生成部303およびPCストリーム生成部304に供給する。さらに、符号化部313は、生成したオキュパンシービデオサブビットストリームをメタデータ生成部303およびPCストリーム生成部304に供給する。また、符号化部314は、生成したアトラスサブビットストリームをメタデータ生成部303およびPCストリーム生成部304に供給する。
メタデータ生成部303は、メタデータの生成に関する処理を行う。例えば、メタデータ生成部303は、2D符号化部302から供給されるビデオサブビットストリームやアトラスサブビットストリームを取得する。また、メタデータ生成部303は、それらのデータを用いてメタデータを生成する。
例えば、メタデータ生成部303は、メタデータとして、取得したサブビットストリームのスペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を生成する。つまり、メタデータ生成部303は、図12乃至図14等を参照して説明した各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いて、スペーシャルスケーラビリティ情報を生成する。なお、メタデータ生成部303は、スペーシャルスケーラビリティ情報以外の任意のメタデータを生成し得る。
メタデータ生成部303は、このように、スペーシャルスケーラビリティ情報を含むメタデータを生成すると、そのメタデータをファイル生成部305に供給する。
PCストリーム生成部304は、V3Cビットストリームの生成に関する処理を行う。例えば、PCストリーム生成部304は、2D符号化部302から供給されるビデオサブビットストリームやアトラスサブビットストリームを取得する。また、PCストリーム生成部304は、それらを用いてV3Cビットストリーム(ジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、オキュパンシーマップビデオサブビットストリーム、およびアトラスサブビットストリーム、または、それらをまとめたもの)を生成し、ファイル生成部305に供給する。
ファイル生成部305は、ファイルの生成に関する処理を行う。例えば、ファイル生成部305は、メタデータ生成部303から供給される、スペーシャルスケーラビリティ情報を含むメタデータを取得する。また、ファイル生成部305は、PCストリーム生成部304から供給されるV3Cビットストリームを取得する。ファイル生成部305は、取得したメタデータとV3Cビットストリームを格納するファイル(例えばISOBMFFやマトリョーシカメディアコンテナ)を生成する。つまり、ファイル生成部305は、スペーシャルスケーラビリティ情報を、V3Cビットストリームとは別にファイルに格納する。つまり、ファイル生成部305は、スペーシャルスケーラビリティ情報をシステムレイヤに格納する。
その際、ファイル生成部305は、スペーシャルスケーラビリティ情報を、図12乃至図14等を参照して説明した各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いてファイルに格納する。例えば、ファイル生成部305は、スペーシャルスケーラビリティ情報を、V3Cビットストリームを格納するファイルの、図12乃至図14に示される例の場所に格納する。
ファイル生成部305は、生成したファイルを出力部306に供給する。出力部306は、供給されたファイル(V3Cビットストリームおよびスペーシャルスケーラビリティ情報を含むファイル)を、ファイル生成装置300の外部(例えば配信サーバ等)に出力する。
以上のように、ファイル生成装置300は、本実施の形態において上述した本技術を適用して、V3Cビットストリームとスペーシャルスケーラビリティ情報とを格納するファイル(例えばISOBMFFやマトリョーシカメディアコンテナ)を生成する。
このような構成とすることにより、3Cビットストリームを復号するクライアント装置に対して、スペーシャルスケーラビリティ情報をシステムレイヤにおいて提供することができる。したがって、クライアント装置は、V3Cビットストリームを解析する等の煩雑な作業を必要とせずに、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
なお、これらの処理部(3D2D変換部301乃至出力部306、並びに、符号化部311乃至符号化部314)は、任意の構成を有する。例えば、各処理部が、上述の処理を実現する論理回路により構成されるようにしてもよい。また、各処理部が、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有し、それらを用いてプログラムを実行することにより、上述の処理を実現するようにしてもよい。もちろん、各処理部が、その両方の構成を有し、上述の処理の一部を論理回路により実現し、他を、プログラムを実行することにより実現するようにしてもよい。各処理部の構成は互いに独立していてもよく、例えば、一部の処理部が上述の処理の一部を論理回路により実現し、他の一部の処理部がプログラムを実行することにより上述の処理を実現し、さらに他の処理部が論理回路とプログラムの実行の両方により上述の処理を実現するようにしてもよい。
<ファイル生成処理の流れ>
このファイル生成装置300により実行されるファイル生成処理の流れの例を、図17のフローチャートを参照して説明する。
ファイル生成処理が開始されると、ファイル生成装置300の3D2D変換部301は、ステップS301において、ポイントクラウドを複数の疎なポイントクラウドに分割する。ステップS302において、3D2D変換部301は、ポイントクラウドをパッチに分解し、ジオメトリやアトリビュートのパッチを生成する。そして、3D2D変換部301は、そのパッチをビデオフレームにパッキングする。また、3D2D変換部301は、オキュパンシーマップやアトラス情報を生成する。
ステップS303において、2D符号化部302は、LoDパッチモードを適用し、疎なポイントクラウドのパッチ情報をそれぞれアトラスタイルとして符号化し、1つのアトラスサブビットストリームを生成する。
ステップS304において、2D符号化部302は、疎なポイントクラウドのそれぞれについて、3つの画像(ジオメトリビデオフレーム、アトリビュートビデオフレーム、オキュパンシーマップビデオフレーム)をそれぞれ符号化し、ジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、およびオキュパンシービデオサブビットストリームを生成する。
PCストリーム生成部304は、それらのビデオサブビットストリームやアトラスサブビットストリーム等を用いてV3Cビットストリーム(ポイントクラウドストリーム)を生成する。
ステップS305において、メタデータ生成部303は、スペーシャルスケーラビリティ情報を含むメタデータを生成する。つまり、メタデータ生成部303は、図12乃至図14等を参照して説明した各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いて、スペーシャルスケーラビリティ情報を生成する。例えば、メタデータ生成部303は、スペーシャルスケーラビリティ情報として、ベース・エンハンスメントポイントクラウド情報を生成する。
ステップS306において、ファイル生成部305は、例えばISOBMFFやマトリョーシカメディアコンテナ等のファイルを生成し、スペーシャルスケーラビリティ情報とV3Cビットストリームとをそのファイルに格納する。その際、ファイル生成部305は、スペーシャルスケーラビリティ情報を、図12乃至図14等を参照して説明した各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いてファイルに格納する。例えば、ファイル生成部305は、ステップS305において生成されたベース・エンハンスメントポイントクラウド情報をファイルに格納する。
ステップS307において、出力部306は、ステップS306において生成されたファイル、すなわち、V3Cビットストリームとスペーシャルスケーラビリティ情報とを格納するファイルを、ファイル生成装置300の外部(例えば配信サーバ等)に出力する。ステップS307の処理が終了するとファイル生成処理が終了する。
このように各処理を実行することにより、3Cビットストリームを復号するクライアント装置に対して、スペーシャルスケーラビリティ情報をシステムレイヤにおいて提供することができる。したがって、クライアント装置は、V3Cビットストリームを解析する等の煩雑な作業を必要とせずに、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
<クライアント装置>
本実施の形態において上述した本技術は、ファイル生成装置に限らず、クライアント装置にも適用することができる。図18は、本技術を適用した情報処理装置の一態様であるクライアント装置の構成の一例を示すブロック図である。図18に示されるクライアント装置400は、V-PCCを適用し、ポイントクラウドデータをビデオフレームとして2次元画像用の符号化方法により符号化されたV3Cビットストリーム(ジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、オキュパンシービデオサブビットストリーム、およびアトラスサブビットストリーム、または、それらをまとめたもの)をファイルから取得し、2次元画像用の復号方法により復号し、ポイントクラウドを生成(再構築)する装置である。例えば、クライアント装置400は、ファイル生成装置300が生成したファイルからV3Cビットストリームを抽出し、復号してポイントクラウドを生成することができる。
その際、クライアント装置400は、本実施の形態において上述した本技術の各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いてスペーシャルスケーラビリティを実現する。つまり、クライアント装置400は、ファイルにV3Cビットストリームとともに格納されたスペーシャルスケーラビリティ情報に基づいて、所望のLoDのポイントクラウドを再構築するのに必要なビットストリーム(トラック)を選択し、復号する。
なお、図18においては、処理部やデータの流れ等の主なものを示しており、図18に示されるものが全てとは限らない。つまり、クライアント装置400において、図18においてブロックとして示されていない処理部が存在したり、図18において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図18に示されるようにクライアント装置400は、ファイル処理部401、2D復号部402、表示情報生成部403、および表示部404を有する。
ファイル処理部401は、クライアント装置400に入力されるファイルからV3Cビットストリーム(サブビットストリーム)を抽出し、2D復号部402に供給する。その際、ファイル処理部401は、本実施の形態において説明した本技術を適用し、ファイルに格納されたスペーシャルスケーラビリティ情報に基づいて、所望のLoD等に対応するレイヤのV3Cビットストリーム(サブビットストリーム)を抽出する。そして、ファイル処理部401は、抽出したV3Cビットストリームを2D復号部402に供給する。
つまり、抽出したレイヤのV3Cビットストリームのみが復号対象とされる。換言するに、ファイル処理部401は、スペーシャルスケーラビリティ情報に基づいて、所望のLoDのポイントクラウドの構築に不要なレイヤのV3Cビットストリームを復号対象から除外する。
ファイル処理部401は、ファイル取得部411、ファイル解析部412、および抽出部413を有する。
ファイル取得部411は、クライアント装置400に入力されるファイルを取得する。このファイルは、上述のように、V3Cビットストリームとスペーシャルスケーラビリティ情報とを格納する。例えば、このファイルは、ISOBMFFやマトリョーシカメディアコンテナ等である。ファイル取得部411は、取得したファイルをファイル解析部412に供給する。
ファイル解析部412は、ファイル取得部411から供給されるファイルを取得する。ファイル解析部412は、取得したそのファイルを解析する。その際、ファイル解析部412は、本実施の形態において説明した本技術の各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いてそのファイルを解析する。例えば、ファイル解析部412は、そのファイルに格納されるスペーシャルスケーラビリティ情報を解析し、復号対象とするサブビットストリームを選択する。例えば、ファイル解析部412は、スペーシャルスケーラビリティ情報に基づき、ネットワーク環境やクライアント装置400自身の処理能力に応じたスペーシャルスケーラビリティを提供するポイントクラウドの組み合わせ(つまり、復号対象とするサブビットストリーム)を選択する。ファイル解析部412は、その解析結果を、ファイルとともに抽出部413に供給する。
抽出部413は、ファイル解析部412による解析結果に基づいて、ファイルに格納されるV3Cビットストリームから、復号対象とするデータを抽出する。つまり、抽出部413は、ファイル解析部412により選択されたサブビットストリームを抽出する。抽出部413は、抽出したデータを2D復号部402に供給する。
2D復号部402は、復号に関する処理を行う。例えば、2D復号部402は、ファイル処理部401から供給されるジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、オキュパンシービデオサブビットストリーム、およびアトラスサブビットストリーム等を取得する。2D復号部402は、それらを復号し、ビデオフレームやアトラス情報を生成する。例えば、2D復号部402は、復号部421乃至復号部424を有する。復号部421は、供給されたジオメトリビデオサブビットストリームを復号し、ジオメトリビデオフレーム(2Dデータ)を生成する。復号部422は、アトリビュートビデオサブビットストリームを復号し、アトリビュートビデオフレーム(2Dデータ)を生成する。復号部423は、オキュパンシービデオサブビットストリームを復号し、オキュパンシービデオフレーム(2Dデータ)を生成する。復号部424は、アトラスサブビットストリームを復号し、上述のビデオフレームに対応するアトラス情報を生成する。
2D復号部402は、生成したビットストリームを表示情報生成部403に供給する。例えば、復号部421は、生成したジオメトリビデオフレームを表示情報生成部403に供給する。復号部422は、生成したアトリビュートビデオフレームを表示情報生成部403に供給する。復号部423は、生成したオキュパンシービデオフレームを表示情報生成部403に供給する。復号部424は、生成したアトラス情報を表示情報生成部403に供給する。
表示情報生成部403は、ポイントクラウドの構築やレンダリングに関する処理を行う。例えば、表示情報生成部403は、2D復号部402から供給されるビデオフレームやアトラス情報を取得する。また、表示情報生成部403は、取得したアトラス情報に基づいて、取得したビデオフレームにパッキングされたパッチからポイントクラウドを生成する。そして、表示情報生成部403は、そのポイントクラウドをレンダリングして、表示用画像を生成し、表示部404に供給する。
表示情報生成部403は、例えば、2D3D変換部431および表示処理部432を有する。
2D3D変換部431は、2D復号部402から供給されるビデオフレームに配置されたパッチ(2Dデータ)をポイントクラウド(3Dデータ)に変換する。2D3D変換部431は、生成したポイントクラウドを表示処理部432に供給する。
表示処理部432は、レンダリングに関する処理を行う。例えば、表示処理部432は、2D3D変換部431から供給されるポイントクラウドを取得する。また、表示処理部432は、取得したポイントクラウドをレンダリングして表示用画像を生成する。表示処理部432は、生成した表示用画像を表示部404に供給する。
表示部404は、例えば、モニタ等の表示デバイスを有し、表示用画像を表示する。例えば、表示部404は、表示処理部432から供給される表示用画像を取得する。表示部404は、その表示用画像を表示デバイスに表示させ、ユーザ等に提示する。
このような構成を有することにより、クライアント装置400は、システムレイヤに格納されたスペーシャルスケーラビリティ情報に基づいてスペーシャルスケーラビリティを提供するポイントクラウドの組み合わせを識別することができる。したがって、例えばV-PCCコンテンツ配信において、クライアント装置は、ビットストリームを解析する等の煩雑な作業を必要とせずに、クライアント環境に応じて適切なLoDのポイントクラウドを選択することができる。つまり、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
なお、これらの処理部(ファイル処理部401乃至表示部404、ファイル取得部311乃至抽出部413、復号部421乃至復号部424、並びに、2D3D変換部431および表示処理部432)は、任意の構成を有する。例えば、各処理部が、上述の処理を実現する論理回路により構成されるようにしてもよい。また、各処理部が、例えばCPU、ROM、RAM等を有し、それらを用いてプログラムを実行することにより、上述の処理を実現するようにしてもよい。もちろん、各処理部が、その両方の構成を有し、上述の処理の一部を論理回路により実現し、他を、プログラムを実行することにより実現するようにしてもよい。各処理部の構成は互いに独立していてもよく、例えば、一部の処理部が上述の処理の一部を論理回路により実現し、他の一部の処理部がプログラムを実行することにより上述の処理を実現し、さらに他の処理部が論理回路とプログラムの実行の両方により上述の処理を実現するようにしてもよい。
<クライアント処理の流れ>
このクライアント装置400により実行されるクライアント処理の流れの例を、図19のフローチャートを参照して説明する。
クライアント処理が開始されると、クライアント装置400のファイル取得部411は、ステップS401においてクライアント装置400に供給されるファイルを取得する。このファイルは、V3Cビットストリームとスペーシャルスケーラビリティ情報とを格納する。例えば、このファイルは、ISOBMFFやマトリョーシカメディアコンテナ等である。
ステップS402においてファイル解析部412は、ファイルに格納されるスペーシャルスケーラビリティ情報(例えばベース・エンハンスメントポイントクラウド情報)に基づき、ネットワーク環境やクライアント装置400自身の処理能力に応じてスペーシャルスケーラビリティを提供するポイントクラウドの組み合わせを選択する。
ステップS403において、抽出部413は、ファイルに格納されたV3Cビットストリームから、アトラスサブビットストリームと、ステップS402において選択された複数の疎なポイントクラウドに対応するビデオサブビットストリームを抽出する。
ステップS404において、2D復号部402は、ステップS403において抽出されたアトラスサブビットストリームとビデオサブビットストリームを復号する。
ステップS405において、表示情報生成部403は、ステップS403において復号されて得られたデータに基づいて、ポイントクラウドを構築する。つまり、ファイルから抽出された所望のLoDのポイントクラウドが構築される。
ステップS406において、表示情報生成部403は、構築したポイントクラウドをレンダリングし、表示用画像を生成する。
ステップS407において、表示部404は、ステップS406において生成された表示用画像を表示デバイスに表示させる。
ステップS407の処理が終了するとクライアント処理が終了する。
以上のように各処理を実行することにより、クライアント装置400は、システムレイヤに格納されたスペーシャルスケーラビリティ情報に基づいてスペーシャルスケーラビリティを提供するポイントクラウドの組み合わせを識別することができる。したがって、例えばV-PCCコンテンツ配信において、クライアント装置は、ビットストリームを解析する等の煩雑な作業を必要とせずに、クライアント環境に応じて適切なLoDのポイントクラウドを選択することができる。つまり、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
<3.第2の実施の形態>
<スペーシャルスケーラビリティ情報を格納する制御ファイル>
本技術は、例えば、MPEG-DASH(Moving Picture Experts Group phase - Dynamic Adaptive Streaming over HTTP)に適用することもできる。例えば、MPEG-DASHにおいて、ビットストリームの配信に関する制御情報を格納する制御ファイルであるMPD(Media Presentation Description)を拡張し、サブビットストリームのスペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を格納してもよい。
例えば、情報処理方法において、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応するポイントクラウドが2次元化された2Dデータを符号化して、そのスペーシャルスケーラビリティの単数または複数のレイヤに対応するポイントクラウドが符号化されたサブビットストリームを含むビットストリームを生成し、そのサブビットストリームのスペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を生成し、その生成されたスペーシャルスケーラビリティ情報と、その生成されたビットストリームの配信に関する制御情報とを格納する制御ファイルを生成するようにする。
例えば、情報処理装置において、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応するポイントクラウドが2次元化された2Dデータを符号化して、そのスペーシャルスケーラビリティの単数または複数のレイヤに対応するポイントクラウドが符号化されたサブビットストリームを含むビットストリームを生成する符号化部と、そのサブビットストリームのスペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を生成するスペーシャルスケーラビリティ情報生成部と、そのスペーシャルスケーラビリティ情報生成部により生成されたスペーシャルスケーラビリティ情報と、その符号化部により生成されたビットストリームの配信に関する制御情報とを格納する制御ファイルを生成する制御ファイル生成部とを備えるようにする。
例えば、図20に示されるように、MPDのV3C3Dリージョンディスクリプタ(V3C3DRegions descriptor)を拡張し、スペーシャルスケーラビリティ情報(例えばベース・エンハンスメントポイントクラウド情報)を格納してもよい。
このようにすることにより、このMPDを用いて、復号するV3Cビットストリームを取得するクライアント装置に対して、スペーシャルスケーラビリティ情報をシステムレイヤ(MPD)において提供することができる。したがって、クライアント装置は、V3Cビットストリームを解析する等の煩雑な作業を必要とせずに、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
例えば、情報処理方法において、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応するポイントクラウドが2次元化された2Dデータが符号化されたビットストリームの配信に関する制御情報が格納された制御ファイルに格納される、そのビットストリームのスペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報に基づいて、復号するスペーシャルスケーラビリティのレイヤを選択し、その選択されたレイヤに対応するサブビットストリームを取得し、その取得されたサブビットストリームを復号するようにする。
例えば、情報処理装置において、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応するポイントクラウドが2次元化された2Dデータが符号化されたビットストリームの配信に関する制御情報が格納された制御ファイルに格納される、そのビットストリームのスペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報に基づいて、復号するスペーシャルスケーラビリティのレイヤを選択する選択部と、その選択部により選択されたレイヤに対応するサブビットストリームを取得する取得部と、その取得部により取得されたサブビットストリームを復号する復号部とを備えるようにする。
例えば、図20に示されるように、MPDのV3C3Dリージョンディスクリプタ(V3C3DRegions descriptor)に格納されたスペーシャルスケーラビリティ情報(例えばベース・エンハンスメントポイントクラウド情報)に基づいて、復号するスペーシャルスケーラビリティのレイヤを選択してもよい。
このようにすることにより、クライアント装置は、そのシステムレイヤ(MPD)に格納されたスペーシャルスケーラビリティ情報に基づいてスペーシャルスケーラビリティを提供するポイントクラウドの組み合わせを識別することができる。したがって、例えばV-PCCコンテンツ配信において、クライアント装置は、ビットストリームを解析する等の煩雑な作業を必要とせずに、クライアント環境に応じて適切なLoDのポイントクラウドを選択することができる。
例えば、クライアント装置は、視点から近いポイントクラウドの一部分を高LoDで取得し、その他の遠い部分を低LoDで取得する、といった制御を行うことができる。したがって、クライアント装置は、ネットワーク帯域制限の下でも帯域をより有効に活用し、高品位なメディア体験をユーザに提供することができる。
つまり、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
例えば、このスペーシャルスケーラビリティ情報として、どのグループ(疎なパッチ)をベースレイヤとし、どのグループ(疎なパッチ)をエンハンスメントレイヤとするか等、各グループ(疎なパッチ)の選択順(レイヤ)を指定するベース・エンハンスメントグルーピング情報をシステムレイヤに格納してもよい。
このようにすることにより、クライアント装置は、所望のLoDのポイントクラウドを構築するためにどのグループが必要であるかを、スペーシャルスケーラビリティ情報に基づいて容易に把握することができる。したがって、クライアント装置は、より容易に、適切なLoDのポイントクラウドを選択することができる。
また、図20に示されるように、各レイヤ(グループ)のビットストリームの配信に関する制御情報を、MPDの互いに異なるアダプテーションセット(Adaptation Set)に格納してもよい。図20の例の場合、白地の丸で示されるポイントにより構成される疎なパッチ、黒地の丸で示されるポイントにより構成される疎なパッチ、グレー地の丸で示されるポイントにより構成される疎なパッチ、および、斜線模様の丸で示されるポイントにより構成される疎なパッチのそれぞれに関する制御情報は、互いに異なるアダプテーションセットに格納される。このようにすることにより、クライアント装置は、復号するアダプテーションセットを選択することにより、所望のレイヤ(グループ)のビットストリームを選択することができる。つまり、クライアント装置は、所望のレイヤ(グループ)のビットストリームをより容易に取得し、復号することができる。
<スペーシャルスケーラビリティ情報の例>
図21は、V3C3Dリージョンディスクリプタのシンタックスの例を示す図である。図21に示されるように、このV3C3Dリージョンディスクリプタのvpsr.spatialRegion.spatialScalabilityInfoに、スペーシャルスケーラビリティ情報として、レイヤ識別情報(layerId)が格納されてもよい。レイヤ識別情報は、ISOBMFFの場合と同様に、そのvpsr.spatialRegion.spatialScalabilityInfoが対応するアダプテーションセットに制御情報が格納されるサブビットストリームが対応するレイヤを示す識別情報である。例えば、layerId = 0は、ベースレイヤを示し、layerId = 1乃至255は、エンハンスメントレイヤを示す。
つまり、ファイル生成装置が、このレイヤ識別情報(layerId)をMPDのV3C3Dリージョンディスクリプタに格納し、クライアント装置が、このMPDのV3C3Dリージョンディスクリプタに格納されたレイヤ識別情報に基づいてサブビットストリーム(アダプテーションセット)の選択を行ってもよい。このようにすることにより、クライアント装置は、このレイヤ識別情報に基づいて、各アダプテーションセットに制御情報が格納されるサブビットストリーム(疎なパッチ)が対応するレイヤを把握することができる。したがって、クライアント装置は、より容易に、コンテンツ制作者の意図した通りの順番での高精細化を実現するポイントクラウドを選択し、取得することができる。したがって、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
また、図21に示されるように、このレイヤ識別情報に加え、スペーシャルスケーラビリティの最上位レイヤからレイヤ識別情報により示されるレイヤまでの各レイヤに対応するポイントクラウドを再構築することにより得られるポイントクラウドの解像度に関する情報(lod)が、このV3C3Dリージョンディスクリプタのvpsr.spatialRegion.spatialScalabilityInfoに格納されてもよい。
例えば、layerId = 0の場合、このポイントクラウドの解像度に関する情報(lod)は、ベースレイヤ(base layer)のLoD値を示す。また、例えば、layerId = 0でない場合、このポイントクラウドの解像度に関する情報(lod)は、0乃至(layer_id-1)のポイントクラウドと同時に表示することで得られるLoD値を示す。なお、このLoD値は、コンテンツ制作者が定めた目安値でもよい。なお、この場合も、ポイントクラウドの解像度に関する情報(lod)をシグナルせず、layer_idの値がポイントクラウドの解像度に関する情報をシグナルするとしてもよい。つまり、ポイントクラウドの解像度に関する情報(lod)は、レイヤ識別情報(layer_id)に含まれるようにしてもよい。例えば、layer_idの値が、スペーシャルスケーラビリティの最上位レイヤからレイヤ識別情報により示されるレイヤまでの各レイヤに対応するポイントクラウドの解像度(lod値)も示すようにしてもよい。
つまり、ファイル生成装置が、このポイントクラウドの解像度に関する情報(lod)をMPDのV3C3Dリージョンディスクリプタに格納し、クライアント装置が、このMPDのV3C3Dリージョンディスクリプタに格納されたポイントクラウドの解像度に関する情報に基づいてサブビットストリーム(アダプテーションセット)の選択を行ってもよい。このようにすることにより、クライアント装置は、どのアダプテーションセットを選択すれば所望のLoDが得られるかをより容易に把握することができる。したがって、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
また、図21に示されるように、このレイヤ識別情報に加え、スペーシャルスケーラビリティを識別するスペーシャルスケーラビリティ識別情報(id)が、このV3C3Dリージョンディスクリプタのvpsr.spatialRegion.spatialScalabilityInfoに格納されてもよい。互いに同一のスペーシャルスケーラビリティ識別情報(id)を持つスペーシャルリージョン(SpatialRegion)のグループがスペーシャルスケーラビリティを提供する。つまり、互いに同一のスペーシャルスケーラビリティ識別情報(id)を持つリージョンを複数組み合わせると、高LoDのポイントクラウドが得られる。
つまり、ファイル生成装置が、このスペーシャルスケーラビリティ識別情報(id)をMPDのV3C3Dリージョンディスクリプタに格納し、クライアント装置が、このMPDのV3C3Dリージョンディスクリプタに格納されたスペーシャルスケーラビリティ識別情報(id)に基づいてサブビットストリーム(アダプテーションセット)の選択を行ってもよい。このようにすることにより、クライアント装置は、より容易に、スペーシャルスケーラビリティを提供するグループを特定することができる。したがって、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
<スペーシャルスケーラビリティ情報の他の例>
なお、図22に示される例のように、vpsr.spatialRegion.spatialScalabilityInfo@idをシグナルせず、代わりにレイヤ数分のvpsr.spatialRegion.spatialScalabilityInfoおよびasIdsをシグナルしてもよい。このとき特定のvpsr.spatialRegion下の複数spatialScalabilityInfoがスペーシャルスケーラビリティ(spatial scalability)を提供する。
<MPD記述例>
図23は、このような本技術を適用した場合の、MPDの記述例を示す図である。図23の上から5行目に示されるサプリメントプロパティの記述例を図24に示す。
図24に示される例の場合、v3c:spatialScalabilityInfoとして、スペーシャルスケーラビリティ識別情報(id)、ポイントクラウドの解像度に関する情報(lod)。および、レイヤ識別情報(layerId)が示されている。
したがって、クライアント装置は、このMPDに基づいて、所望のLoDのポイントクラウドを構築するのに必要なビットストリームを取得することができる。つまり、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
<ファイル生成装置>
図25は、この場合のファイル生成装置300の主な構成例を示すブロック図である。つまり、図25に示されるファイル生成装置300は、本技術を適用した情報処理装置の一態様であるファイル生成装置の構成の一例を示す。図25に示されるファイル生成装置300は、V-PCCを適用して、ポイントクラウドデータをビデオフレームとして2次元画像用の符号化方法により符号化する装置である。また、この場合のファイル生成装置300は、その符号化により生成したV3Cビットストリームの配信を制御する制御情報を格納するMPDを生成する。
その際、ファイル生成装置300は、本実施の形態において上述した本技術を適用し、スペーシャルスケーラビリティを可能とするようにMPDに情報を格納する。つまり、ファイル生成装置300は、スペーシャルスケーラビリティに関する情報をMPDに格納する。
なお、図25においては、処理部やデータの流れ等の主なものを示しており、図25に示されるものが全てとは限らない。つまり、ファイル生成装置300において、図25においてブロックとして示されていない処理部が存在したり、図25において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図25に示されるようにファイル生成装置300は、図16を参照して説明した構成に加え、MPD生成部501を有する。
この場合、メタデータ生成部303は、図16の場合と同様にメタデータを生成する。例えば、メタデータ生成部303は、メタデータとして、取得したサブビットストリームのスペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を生成する。つまり、メタデータ生成部303は、図20乃至図24等を参照して説明した各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いて、スペーシャルスケーラビリティ情報を生成する。なお、メタデータ生成部303は、スペーシャルスケーラビリティ情報以外の任意のメタデータを生成し得る。
メタデータ生成部303は、このように、スペーシャルスケーラビリティ情報を含むメタデータを生成すると、そのメタデータをMPD生成部501に供給する。
MPD生成部501は、メタデータ生成部303から供給される、スペーシャルスケーラビリティ情報を含むメタデータを取得する。MPD生成部501は、取得したメタデータを格納するMPDを生成する。つまり、MPD生成部501は、スペーシャルスケーラビリティ情報をMPDに格納する。つまり、MPD生成部501は、スペーシャルスケーラビリティ情報をシステムレイヤに格納する。
その際、MPD生成部501は、スペーシャルスケーラビリティ情報を、図20乃至図24等を参照して説明した各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いてMPDに格納する。例えば、MPD生成部501は、図24に示されるように、スペーシャルスケーラビリティ情報を、MPDのv3c:spatialScalabilityInfoに格納する。
MPD生成部501は、生成したMPDを出力部306に供給する。出力部306は、供給されたMPD(スペーシャルスケーラビリティ情報を含むMPD)を、ファイル生成装置300の外部(例えば配信サーバやクライアント装置等)に出力する。
以上のように、ファイル生成装置300は、本実施の形態において上述した本技術を適用して、スペーシャルスケーラビリティ情報を格納するMPDを生成する。
このような構成とすることにより、V3Cビットストリームを復号するクライアント装置に対して、スペーシャルスケーラビリティ情報をシステムレイヤにおいて提供することができる。したがって、クライアント装置は、V3Cビットストリームを解析する等の煩雑な作業を必要とせずに、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
なお、これらの処理部(3D2D変換部301乃至出力部306、MPD生成部501、並びに、符号化部311乃至符号化部314)は、任意の構成を有する。例えば、各処理部が、上述の処理を実現する論理回路により構成されるようにしてもよい。また、各処理部が、例えばCPU、ROM、RAM等を有し、それらを用いてプログラムを実行することにより、上述の処理を実現するようにしてもよい。もちろん、各処理部が、その両方の構成を有し、上述の処理の一部を論理回路により実現し、他を、プログラムを実行することにより実現するようにしてもよい。各処理部の構成は互いに独立していてもよく、例えば、一部の処理部が上述の処理の一部を論理回路により実現し、他の一部の処理部がプログラムを実行することにより上述の処理を実現し、さらに他の処理部が論理回路とプログラムの実行の両方により上述の処理を実現するようにしてもよい。
<ファイル生成処理の流れ>
この場合のファイル生成装置300により実行されるファイル生成処理の流れの例を、図26のフローチャートを参照して説明する。
ファイル生成処理が開始されると、ステップS501乃至ステップS505の各処理が、図17のステップS301乃至ステップS305の各処理と同様に実行される。
ステップS506において、ファイル生成部305は、ファイルを生成し、V3Cビットストリーム(各サブビットストリーム)をそのファイルに格納する。
ステップS507において、MPD生成部501は、スペーシャルスケーラビリティ情報(例えば、ベース・エンハンスメントポイントクラウド情報)を格納するMPDを生成する。その際、MPD生成部501は、スペーシャルスケーラビリティ情報を、図20乃至図24等を参照して説明した各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いてMPDに格納する。
ステップS508において、出力部306は、ステップS506において生成されたファイルと、ステップS507において生成された、スペーシャルスケーラビリティ情報を格納するMPDを、ファイル生成装置300の外部(例えば配信サーバ等)に出力する。ステップS508の処理が終了するとファイル生成処理が終了する。
このように各処理を実行することにより、V3Cビットストリームを復号するクライアント装置に対して、スペーシャルスケーラビリティ情報をシステムレイヤにおいて提供することができる。したがって、クライアント装置は、V3Cビットストリームを解析する等の煩雑な作業を必要とせずに、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
<クライアント装置>
本実施の形態において上述した本技術は、ファイル生成装置に限らず、クライアント装置にも適用することができる。図27は、この場合のクライアント装置400の主な構成例を示すブロック図である。つまり、図27に示されるクライアント装置400は、本技術を適用した情報処理装置の一態様であるクライアント装置の構成の一例を示す。図27に示されるクライアント装置400は、V-PCCを適用し、ポイントクラウドデータをビデオフレームとして2次元画像用の符号化方法により符号化されたV3Cビットストリーム(ジオメトリビデオサブビットストリーム、アトリビュートビデオサブビットストリーム、オキュパンシービデオサブビットストリーム、およびアトラスサブビットストリーム、または、それらをまとめたもの)を、MPDに基づいて取得し、2次元画像用の復号方法により復号し、ポイントクラウドを生成(再構築)する装置である。例えば、クライアント装置400は、ファイル生成装置300が生成したMPDに基づいてV3Cビットストリームを取得し、復号してポイントクラウドを生成することができる。
その際、クライアント装置400は、本実施の形態において上述した本技術の各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いてスペーシャルスケーラビリティを実現する。つまり、クライアント装置400は、MPDに格納されたスペーシャルスケーラビリティ情報に基づいて、所望のLoDのポイントクラウドを再構築するのに必要なビットストリーム(トラック)を選択し、取得する。
なお、図27においては、処理部やデータの流れ等の主なものを示しており、図27に示されるものが全てとは限らない。つまり、クライアント装置400において、図27においてブロックとして示されていない処理部が存在したり、図27において矢印等として示されていない処理やデータの流れが存在したりしてもよい。
図27に示されるようにクライアント装置400は、図18に示される構成に加え、MPD解析部601を有する。
MPD解析部601は、ファイル取得部411が取得したMPDを解析し、復号対象とするビットストリームを選択し、ファイル取得部411にそのビットストリームを取得させる。
その際、MPD解析部601は、本実施の形態において説明した本技術の各種方法の内、いずれかの単数の手法を用いて、または任意の複数の手法を適宜組み合わせて用いてそのMPDを解析する。例えば、MPD解析部601は、そのMPDに格納されるスペーシャルスケーラビリティ情報を解析し、復号対象とするサブビットストリームを選択する。例えば、MPD解析部601は、スペーシャルスケーラビリティ情報に基づき、ネットワーク環境やクライアント装置400自身の処理能力に応じたスペーシャルスケーラビリティを提供するポイントクラウドの組み合わせ(つまり、復号対象とするサブビットストリーム)を選択する。MPD解析部601は、その解析結果に基づいてファイル取得部411を制御し、その選択したビットストリームを取得させる。
この場合、ファイル取得部411は、配信サーバ等からMPDを取得し、MPD解析部601に供給する。また、ファイル取得部411は、MPD解析部601により制御され、MPD解析部601により選択されたビットストリームを含むファイルを配信サーバ等から取得し、ファイル解析部412に供給する。
ファイル解析部412は、そのファイルを解析し、抽出部413は、その解析結果に基づいて、ビットストリームを抽出し、2D復号部402に供給する。
2D復号部402乃至表示部404は、図18の場合と同様の処理を行う。
このような構成を有することにより、クライアント装置400は、システムレイヤに格納されたスペーシャルスケーラビリティ情報に基づいてスペーシャルスケーラビリティを提供するポイントクラウドの組み合わせを識別することができる。したがって、例えばV-PCCコンテンツ配信において、クライアント装置は、ビットストリームを解析する等の煩雑な作業を必要とせずに、クライアント環境に応じて適切なLoDのポイントクラウドを選択することができる。つまり、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
なお、これらの処理部(ファイル処理部401乃至表示部404、ファイル取得部311乃至抽出部413、復号部421乃至復号部424、2D3D変換部431および表示処理部432、並びに、MPD解析部601)は、任意の構成を有する。例えば、各処理部が、上述の処理を実現する論理回路により構成されるようにしてもよい。また、各処理部が、例えばCPU、ROM、RAM等を有し、それらを用いてプログラムを実行することにより、上述の処理を実現するようにしてもよい。もちろん、各処理部が、その両方の構成を有し、上述の処理の一部を論理回路により実現し、他を、プログラムを実行することにより実現するようにしてもよい。各処理部の構成は互いに独立していてもよく、例えば、一部の処理部が上述の処理の一部を論理回路により実現し、他の一部の処理部がプログラムを実行することにより上述の処理を実現し、さらに他の処理部が論理回路とプログラムの実行の両方により上述の処理を実現するようにしてもよい。
<クライアント処理の流れ>
このクライアント装置400により実行されるクライアント処理の流れの例を、図28のフローチャートを参照して説明する。
クライアント処理が開始されると、クライアント装置400のファイル取得部411は、ステップS601において、MPDを取得する。
ステップS602において、MPD解析部601は、そのMPDに記述されたスペーシャルスケーラビリティ情報(ベース・エンハンスメントポイントクラウド情報)に基づき、ネットワーク環境やクライアント処理能力に応じてたスペーシャルスケーラビリティを提供するポイントクラウドの組み合わせを選択する。
ステップS603において、ファイル取得部411は、アトラスサブビットストリームと、ステップS602において選択した複数の疎なポイントクラウドに対応するビデオサブビットストリームを格納するファイルを取得する。
ステップS604において、抽出部413は、そのファイルからトラスサブビットストリームとビデオサブビットストリームを抽出する。
ステップS605乃至ステップS608の各処理は、図19のステップS404乃至ステップS407の各処理と同様に実行される。
ステップS608の処理が終了するとクライアント処理が終了する。
以上のように各処理を実行することにより、クライアント装置400は、システムレイヤに格納されたスペーシャルスケーラビリティ情報に基づいてスペーシャルスケーラビリティを提供するポイントクラウドの組み合わせを識別することができる。したがって、例えばV-PCCコンテンツ配信において、クライアント装置は、ビットストリームを解析する等の煩雑な作業を必要とせずに、クライアント環境に応じて適切なLoDのポイントクラウドを選択することができる。つまり、クライアント装置は、より容易に、スペーシャルスケーラビリティを利用して3Dデータを再生することができる。
<4.付記>
<コンピュータ>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
図29は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
図29に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータが実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。
また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。
その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
<本技術の適用可能な対象>
以上においては、ポイントクラウドデータの符号化・復号に本技術を適用する場合について説明したが、本技術は、これらの例に限らず、任意の規格の3Dデータの符号化・復号に対して適用することができる。つまり、上述した本技術と矛盾しない限り、符号化・復号方式等の各種処理、並びに、3Dデータやメタデータ等の各種データの仕様は任意である。また、本技術と矛盾しない限り、上述した一部の処理や仕様を省略してもよい。
また、本技術は、任意の構成に適用することができる。例えば、本技術は、様々な電子機器に応用され得る。
また、例えば、本技術は、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、または、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等、装置の一部の構成として実施することもできる。
また、例えば、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、本技術を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングとして実施するようにしてもよい。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスにおいて本技術を実施するようにしてもよい。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
<本技術を適用可能な分野・用途>
本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
例えば、本技術は、観賞用コンテンツ等の提供の用に供されるシステムやデバイスに適用することができる。また、例えば、本技術は、交通状況の監理や自動運転制御等、交通の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、機械等の自動制御の用に供されるシステムやデバイスに適用することができる。さらに、例えば、本技術は、農業や畜産業の用に供されるシステムやデバイスにも適用することができる。また、本技術は、例えば火山、森林、海洋等の自然の状態や野生生物等を監視するシステムやデバイスにも適用することができる。さらに、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。
<その他>
なお、本明細書において「フラグ」とは、複数の状態を識別するための情報であり、真(1)または偽(0)の2状態を識別する際に用いる情報だけでなく、3以上の状態を識別することが可能な情報も含まれる。したがって、この「フラグ」が取り得る値は、例えば1/0の2値であってもよいし、3値以上であってもよい。すなわち、この「フラグ」を構成するbit数は任意であり、1bitでも複数bitでもよい。また、識別情報(フラグも含む)は、その識別情報をビットストリームに含める形だけでなく、ある基準となる情報に対する識別情報の差分情報をビットストリームに含める形も想定されるため、本明細書においては、「フラグ」や「識別情報」は、その情報だけではなく、基準となる情報に対する差分情報も包含する。
また、符号化データ(ビットストリーム)に関する各種情報(メタデータ等)は、符号化データに関連づけられていれば、どのような形態で伝送または記録されるようにしてもよい。ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられたデータは、1つのデータとしてまとめられてもよいし、それぞれ個別のデータとしてもよい。例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の伝送路上で伝送されるようにしてもよい。また、例えば、符号化データ(画像)に関連付けられた情報は、その符号化データ(画像)とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、データ全体でなく、データの一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。
なお、本明細書において、「合成する」、「多重化する」、「付加する」、「一体化する」、「含める」、「格納する」、「入れ込む」、「差し込む」、「挿入する」等の用語は、例えば符号化データとメタデータとを1つのデータにまとめるといった、複数の物を1つにまとめることを意味し、上述の「関連付ける」の1つの方法を意味する。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
また、例えば、上述したプログラムは、任意の装置において実行されるようにしてもよい。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
また、例えば、1つのフローチャートの各ステップを、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。さらに、1つのステップに複数の処理が含まれる場合、その複数の処理を、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
また、例えば、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
また、例えば、本技術に関する複数の技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
なお、本技術は以下のような構成も取ることができる。
(1) 3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応する前記ポイントクラウドが2次元化された2Dデータを符号化して、前記スペーシャルスケーラビリティの単数または複数のレイヤに対応する前記ポイントクラウドが符号化されたサブビットストリームを含むビットストリームを生成する符号化部と、
前記サブビットストリームの前記スペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を生成するスペーシャルスケーラビリティ情報生成部と、
前記符号化部により生成された前記ビットストリームと、前記スペーシャルスケーラビリティ情報生成部により生成された前記スペーシャルスケーラビリティ情報とを格納するファイルを生成するファイル生成部と
を備える情報処理装置。
(2) 前記スペーシャルスケーラビリティ情報は、前記ファイルのトラックグループに格納される前記サブビットストリームが対応する前記レイヤを示すレイヤ識別情報を含む
(1)に記載の情報処理装置。
(3) 前記スペーシャルスケーラビリティ情報は、前記スペーシャルスケーラビリティの最上位レイヤから前記レイヤ識別情報により示される前記レイヤまでの各レイヤに対応する前記ポイントクラウドを再構築することにより得られる前記ポイントクラウドの解像度に関する情報をさらに含む
(2)に記載の情報処理装置。
(4) 前記スペーシャルスケーラビリティ情報は、前記スペーシャルスケーラビリティを識別するスペーシャルスケーラビリティ識別情報をさらに含む
(3)に記載の情報処理装置。
(5) 3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応する前記ポイントクラウドが2次元化された2Dデータを符号化して、前記スペーシャルスケーラビリティの単数または複数のレイヤに対応する前記ポイントクラウドが符号化されたサブビットストリームを含むビットストリームを生成し、
前記サブビットストリームの前記スペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を生成し、
生成された前記ビットストリームと前記スペーシャルスケーラビリティ情報とを格納するファイルを生成する
情報処理方法。
(6) ファイルに格納される、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応する前記ポイントクラウドが2次元化された2Dデータが符号化されたビットストリームの前記スペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報に基づいて、復号する前記スペーシャルスケーラビリティのレイヤを選択する選択部と、
前記ファイルに格納される前記ビットストリームから、前記選択部により選択された前記レイヤに対応するサブビットストリームを抽出する抽出部と、
前記抽出部により抽出された前記サブビットストリームを復号する復号部と
を備える情報処理装置。
(7) 前記選択部は、前記スペーシャルスケーラビリティ情報に含まれる、前記ファイルのトラックグループに格納される前記サブビットストリームが対応する前記レイヤを示すレイヤ識別情報に基づいて、復号する前記スペーシャルスケーラビリティの前記レイヤを選択する
(6)に記載の情報処理装置。
(8) 前記選択部は、さらに、前記スペーシャルスケーラビリティ情報に含まれる、前記スペーシャルスケーラビリティの最上位レイヤから前記レイヤ識別情報により示される前記レイヤまでの各レイヤに対応する前記ポイントクラウドを再構築することにより得られる前記ポイントクラウドの解像度に関する情報に基づいて、復号する前記スペーシャルスケーラビリティの前記レイヤを選択する
(7)に記載の情報処理装置。
(9) 前記選択部は、さらに、前記スペーシャルスケーラビリティ情報に含まれる、前記スペーシャルスケーラビリティを識別するスペーシャルスケーラビリティ識別情報に基づいて、復号する前記スペーシャルスケーラビリティの前記レイヤを選択する
(8)に記載の情報処理装置。
(10) ファイルに格納される、3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応する前記ポイントクラウドが2次元化された2Dデータが符号化されたビットストリームの前記スペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報に基づいて、復号する前記スペーシャルスケーラビリティのレイヤを選択し、
前記ファイルに格納される前記ビットストリームから、選択された前記レイヤに対応するサブビットストリームを抽出し、
抽出された前記サブビットストリームを復号する
情報処理方法。
(11) 3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応する前記ポイントクラウドが2次元化された2Dデータを符号化して、前記スペーシャルスケーラビリティの単数または複数のレイヤに対応する前記ポイントクラウドが符号化されたサブビットストリームを含むビットストリームを生成する符号化部と、
前記サブビットストリームの前記スペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を生成するスペーシャルスケーラビリティ情報生成部と、
前記スペーシャルスケーラビリティ情報生成部により生成された前記スペーシャルスケーラビリティ情報と、前記符号化部により生成された前記ビットストリームの配信に関する制御情報とを格納する制御ファイルを生成する制御ファイル生成部と
を備える情報処理装置。
(12) 前記スペーシャルスケーラビリティ情報は、前記制御ファイルのアダプテーションセットに前記制御情報が格納される前記サブビットストリームが対応する前記レイヤを示すレイヤ識別情報を含む
(11)に記載の情報処理装置。
(13) 前記スペーシャルスケーラビリティ情報は、前記スペーシャルスケーラビリティの最上位レイヤから前記レイヤ識別情報により示される前記レイヤまでの各レイヤに対応する前記ポイントクラウドを再構築することにより得られる前記ポイントクラウドの解像度に関する情報をさらに含む
(12)に記載の情報処理装置。
(14) 前記スペーシャルスケーラビリティ情報は、前記スペーシャルスケーラビリティを識別するスペーシャルスケーラビリティ識別情報をさらに含む
(13)に記載の情報処理装置。
(15) 3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応する前記ポイントクラウドが2次元化された2Dデータを符号化して、前記スペーシャルスケーラビリティの単数または複数のレイヤに対応する前記ポイントクラウドが符号化されたサブビットストリームを含むビットストリームを生成し、
前記サブビットストリームの前記スペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報を生成し、
生成された前記スペーシャルスケーラビリティ情報と、生成された前記ビットストリームの配信に関する制御情報とを格納する制御ファイルを生成する
情報処理方法。
(16) 3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応する前記ポイントクラウドが2次元化された2Dデータが符号化されたビットストリームの配信に関する制御情報が格納された制御ファイルに格納される、前記ビットストリームの前記スペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報に基づいて、復号する前記スペーシャルスケーラビリティのレイヤを選択する選択部と、
前記選択部により選択された前記レイヤに対応するサブビットストリームを取得する取得部と、
前記取得部により取得された前記サブビットストリームを復号する復号部と
を備える情報処理装置。
(17) 前記選択部は、前記スペーシャルスケーラビリティ情報に含まれる、前記制御ファイルのアダプテーションセットに前記制御情報が格納される前記サブビットストリームが対応する前記レイヤを示すレイヤ識別情報に基づいて、復号する前記スペーシャルスケーラビリティの前記レイヤを選択する
(16)に記載の情報処理装置。
(18) 前記選択部は、さらに、前記スペーシャルスケーラビリティ情報に含まれる、前記スペーシャルスケーラビリティの最上位レイヤから前記レイヤ識別情報により示される前記レイヤまでの各レイヤに対応する前記ポイントクラウドを再構築することにより得られる前記ポイントクラウドの解像度に関する情報に基づいて、復号する前記スペーシャルスケーラビリティの前記レイヤを選択する
(17)に記載の情報処理装置。
(19) 前記選択部は、さらに、前記スペーシャルスケーラビリティ情報に含まれる、前記スペーシャルスケーラビリティを識別するスペーシャルスケーラビリティ識別情報に基づいて、復号する前記スペーシャルスケーラビリティの前記レイヤを選択する
(18)に記載の情報処理装置。
(20) 3次元形状のオブジェクトをポイントの集合として表現するポイントクラウドであって、スペーシャルスケーラビリティに対応する前記ポイントクラウドが2次元化された2Dデータが符号化されたビットストリームの配信に関する制御情報が格納された制御ファイルに格納される、前記ビットストリームの前記スペーシャルスケーラビリティに関するスペーシャルスケーラビリティ情報に基づいて、復号する前記スペーシャルスケーラビリティのレイヤを選択し、
選択された前記レイヤに対応するサブビットストリームを取得し、
取得された前記サブビットストリームを復号する
情報処理方法。
300 ファイル生成装置, 301 3D2D変換部, 302 2D符号化部, 303 メタデータ生成部, 304 PCストリーム生成部, 305 ファイル生成部, 306 出力部, 311乃至314 符号化部, 400 クライアント装置, 401 ファイル処理部, 402 2D復号部, 403 表示情報生成部, 404 表示部, 411 ファイル取得部, 412 ファイル解析部, 413 抽出部, 421乃至424 復号部, 431 2D3D変換部, 432 表示処理部, 501 MPD生成部, 601 MPD解析部

Claims (12)

  1. 再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータを前記階層構造のレイヤ毎にサブビットストリームとして符号化し、前記サブビットストリームを含むビットストリームを生成する符号化部と、
    前記サブビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記サブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報を生成するスペーシャルスケーラビリティ情報生成部と、
    前記符号化部により生成された前記ビットストリームを格納するファイルを生成し、前記スペーシャルスケーラビリティ情報生成部により生成された前記スペーシャルスケーラビリティ情報を前記ファイルのシステムレイヤに格納するファイル生成部と
    を備える情報処理装置。
  2. 前記スペーシャルスケーラビリティ情報は、前記スペーシャルスケーラビリティを識別するスペーシャルスケーラビリティ識別情報をさらに含む
    請求項1に記載の情報処理装置。
  3. 再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータを前記階層構造のレイヤ毎にサブビットストリームとして符号化し、前記サブビットストリームを含むビットストリームを生成し、
    前記サブビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記サブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報を生成し、
    生成された前記ビットストリームを格納するファイルを生成し、生成された前記スペーシャルスケーラビリティ情報を前記ファイルのシステムレイヤに格納する
    情報処理方法。
  4. ファイルのシステムレイヤに格納される、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに関する情報であって、前記3Dデータの前記解像度に基づく階層構造のレイヤ毎に符号化されたサブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報に基づいて、復号する前記レイヤを選択する選択部と、
    前記ファイルに格納される前記3Dデータのビットストリームから、前記選択部により選択された前記レイヤに対応する前記サブビットストリームを抽出する抽出部と、
    前記抽出部により抽出された前記サブビットストリームを復号する復号部と
    を備える情報処理装置。
  5. 前記選択部は、さらに、前記スペーシャルスケーラビリティ情報に含まれる、前記スペーシャルスケーラビリティを識別するスペーシャルスケーラビリティ識別情報に基づいて、復号する前記レイヤを選択する
    請求項4に記載の情報処理装置。
  6. ファイルのシステムレイヤに格納される、再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに関する情報であって、前記3Dデータの前記解像度に基づく階層構造のレイヤ毎に符号化されたサブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報に基づいて、復号する前記レイヤを選択し、
    前記ファイルに格納される前記3Dデータのビットストリームから、選択された前記レイヤに対応するサブビットストリームを抽出し、
    抽出された前記サブビットストリームを復号する
    情報処理方法。
  7. 再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータを前記階層構造のレイヤ毎にサブビットストリームとして符号化し、前記サブビットストリームを含むビットストリームを生成する符号化部と、
    前記サブビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記サブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報を生成するスペーシャルスケーラビリティ情報生成部と、
    前記スペーシャルスケーラビリティ情報生成部により生成された前記スペーシャルスケーラビリティ情報と、前記符号化部により生成された前記ビットストリームの配信に関する制御情報とを格納する制御ファイルを生成する制御ファイル生成部と
    を備える情報処理装置。
  8. 前記スペーシャルスケーラビリティ情報は、前記スペーシャルスケーラビリティを識別するスペーシャルスケーラビリティ識別情報をさらに含む
    請求項7に記載の情報処理装置。
  9. 再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、
    前記解像度に基づく階層構造を有する前記3Dデータを前記階層構造のレイヤ毎にサブビットストリームとして符号化し、前記サブビットストリームを含むビットストリームを生成し、
    前記サブビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記サブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報を生成し、
    生成された前記スペーシャルスケーラビリティ情報と、生成された前記ビットストリームの配信に関する制御情報とを格納する制御ファイルを生成する
    情報処理方法。
  10. 再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータが符号化されたビットストリームの配信に関する制御情報が格納された制御ファイルに格納される、前記ビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記階層構造のレイヤ毎に符号化されたサブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報に基づいて、復号する前記レイヤを選択する選択部と、
    前記選択部により選択された前記レイヤに対応するサブビットストリームを取得する取得部と、
    前記取得部により取得された前記サブビットストリームを復号する復号部と
    を備える情報処理装置。
  11. 前記選択部は、さらに、前記スペーシャルスケーラビリティ情報に含まれる、前記スペーシャルスケーラビリティを識別するスペーシャルスケーラビリティ識別情報に基づいて、復号する前記レイヤを選択する
    請求項10に記載の情報処理装置。
  12. 再構築された3Dデータの解像度を制御するスペーシャルスケーラビリティに対応し、前記解像度に基づく階層構造を有する前記3Dデータが符号化されたビットストリームの配信に関する制御情報が格納された制御ファイルに格納される、前記ビットストリームの前記スペーシャルスケーラビリティに関する情報であって、前記階層構造のレイヤ毎に符号化されたサブビットストリームに対応する前記レイヤの識別情報と、前記階層構造の最上位レイヤから前記サブビットストリームのレイヤまでを再構築することにより得られる前記3Dデータの前記解像度に関する情報とを含むスペーシャルスケーラビリティ情報に基づいて、復号する前記レイヤを選択し、
    選択された前記レイヤに対応するサブビットストリームを取得し、
    取得された前記サブビットストリームを復号する
    情報処理方法。
JP2022530134A 2020-06-12 2021-05-28 情報処理装置および方法 Active JP7726209B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063038389P 2020-06-12 2020-06-12
US63/038,389 2020-06-12
PCT/JP2021/020355 WO2021251173A1 (ja) 2020-06-12 2021-05-28 情報処理装置および方法

Publications (3)

Publication Number Publication Date
JPWO2021251173A1 JPWO2021251173A1 (ja) 2021-12-16
JPWO2021251173A5 JPWO2021251173A5 (ja) 2024-12-09
JP7726209B2 true JP7726209B2 (ja) 2025-08-20

Family

ID=78845585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022530134A Active JP7726209B2 (ja) 2020-06-12 2021-05-28 情報処理装置および方法

Country Status (8)

Country Link
US (1) US20230224482A1 (ja)
EP (1) EP4167573A4 (ja)
JP (1) JP7726209B2 (ja)
KR (1) KR20230022165A (ja)
CN (1) CN115699751A (ja)
BR (1) BR112022024817A2 (ja)
MX (1) MX2022015369A (ja)
WO (1) WO2021251173A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467647B2 (ja) * 2020-06-24 2024-04-15 中興通訊股▲ふん▼有限公司 ボリュメトリックメディア処理方法および装置
CN116636225A (zh) 2020-12-28 2023-08-22 索尼集团公司 信息处理装置和方法
KR20220095819A (ko) * 2020-12-30 2022-07-07 현대자동차주식회사 라이다 센서를 이용한 객체 추적 방법 및 장치, 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체
CN117176715A (zh) * 2021-03-31 2023-12-05 腾讯科技(深圳)有限公司 点云编解码方法、装置、计算机可读介质及电子设备
KR102527798B1 (ko) * 2021-12-23 2023-05-02 경희대학교 산학협력단 3차원 컨텐츠 전송 장치 및 방법
WO2024262058A1 (ja) * 2023-06-21 2024-12-26 ソニーグループ株式会社 情報処理装置および方法
US20250285381A1 (en) * 2024-03-07 2025-09-11 GM Global Technology Operations LLC Human-centric vehicular metaverse platform for road-side ar/vr content delivery
JP2025158437A (ja) * 2024-04-04 2025-10-17 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268570A1 (en) 2017-03-16 2018-09-20 Samsung Electronics Co., Ltd. Point cloud and mesh compression using image/video codecs
US20190087978A1 (en) 2017-09-18 2019-03-21 Apple Inc. Point cloud compression using non-cubic projections and masks
WO2020008758A1 (ja) 2018-07-06 2020-01-09 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9167246B2 (en) * 2008-03-06 2015-10-20 Arris Technology, Inc. Method and apparatus for decoding an enhanced video stream
US9936196B2 (en) * 2012-10-30 2018-04-03 Qualcomm Incorporated Target output layers in video coding
AU2014252043B2 (en) * 2013-04-07 2016-11-24 Dolby International Ab Signaling change in output layer sets
US10567804B2 (en) * 2014-01-08 2020-02-18 Qualcomm Incorporated Carriage of HEVC extension bitstreams and buffer model with MPEG-2 systems
US20170019673A1 (en) * 2014-03-14 2017-01-19 Sharp Kabushiki Kaisha Image decoding device, image decoding method, recoding medium, image coding device, and image coding method
US9712837B2 (en) * 2014-03-17 2017-07-18 Qualcomm Incorporated Level definitions for multi-layer video codecs
US10148969B2 (en) * 2015-02-11 2018-12-04 Qualcomm Incorporated Of sample entry and operation point signalling in a layered video file format
KR102603459B1 (ko) * 2015-09-07 2023-11-17 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
AU2020234972B2 (en) * 2019-03-11 2025-10-23 Interdigital Vc Holdings, Inc. Sub-picture bitstream extraction and reposition
EP4022928A4 (en) * 2019-09-24 2022-11-16 Huawei Technologies Co., Ltd. DPB PARAMETER REPORTING FOR MULTILAYER VIDEO BITSTREAMS
KR20230002615A (ko) * 2020-04-14 2023-01-05 인터디지탈 패튼 홀딩스, 인크 비디오 기반 포인트 클라우드 스트림들을 위한 isobmff 컨테이너들에서의 부분 액세스 지원
CN115699761A (zh) * 2020-04-19 2023-02-03 抖音视界有限公司 变换跳过残差编解码
CA3184462A1 (en) * 2020-05-22 2021-11-25 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Subpicture-related video coding concepts
IL319989A (en) * 2020-05-22 2025-06-01 Fraunhofer Ges Forschung Processing of output layer sets of coded video
US11589052B2 (en) * 2020-06-10 2023-02-21 Tencent America LLC Techniques for bitstream extraction for subpicture in coded video stream
JP7518216B2 (ja) * 2020-06-20 2024-07-17 北京字節跳動網絡技術有限公司 異なるコーディングブロックサイズを有するインターレイヤ予測
JP7632805B2 (ja) * 2020-09-29 2025-02-19 北京字節跳動網絡技術有限公司 補助情報のシグナリング
WO2022225233A1 (ko) * 2021-04-22 2022-10-27 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268570A1 (en) 2017-03-16 2018-09-20 Samsung Electronics Co., Ltd. Point cloud and mesh compression using image/video codecs
US20190087978A1 (en) 2017-09-18 2019-03-21 Apple Inc. Point cloud compression using non-cubic projections and masks
WO2020008758A1 (ja) 2018-07-06 2020-01-09 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jiheon Im et al.,A method of level of details control table for 3D point density scalability in video based point cloud compression,Applications of Digital Image Processing XLII,SPIE,2019年09月,Proc. SPIE Vol.11137,pp.1-6
Vida Fakour Sevom, et al.,Geometry-Guided 3D Data Interpolation for Projection-Based Dynamic Point Cloud Coding,2018 7th European Workshop on Visual Information Processing (EUVIP),IEEE,2018年11月26日,pp.1-6

Also Published As

Publication number Publication date
US20230224482A1 (en) 2023-07-13
EP4167573A4 (en) 2023-12-13
MX2022015369A (es) 2023-01-16
WO2021251173A1 (ja) 2021-12-16
JPWO2021251173A1 (ja) 2021-12-16
KR20230022165A (ko) 2023-02-14
EP4167573A1 (en) 2023-04-19
CN115699751A (zh) 2023-02-03
BR112022024817A2 (pt) 2022-12-27

Similar Documents

Publication Publication Date Title
JP7726209B2 (ja) 情報処理装置および方法
US11245926B2 (en) Methods and apparatus for track derivation for immersive media data tracks
KR102559862B1 (ko) 미디어 콘텐츠 전송을 위한 방법, 디바이스, 및 컴퓨터 프로그램
US11457231B2 (en) Methods and apparatus for signaling spatial relationships for point cloud multimedia data tracks
EP3751857A1 (en) A method, an apparatus and a computer program product for volumetric video encoding and decoding
US11699248B2 (en) Image processing apparatus and method
US11218715B2 (en) Methods and apparatus for spatial grouping and coordinate signaling for immersive media data tracks
JP7487742B2 (ja) 画像処理装置および方法
CN114342402A (zh) 信息处理装置、信息处理方法、再现处理装置和再现处理方法
GB2509953A (en) Displaying a Region of Interest in a Video Stream by Providing Links Between Encapsulated Video Streams
JP7331852B2 (ja) 画像処理装置および方法
CN113302944B (zh) 信息处理装置和信息处理方法
JP7768130B2 (ja) 情報処理装置および方法
US11974026B2 (en) Apparatus, a method and a computer program for volumetric video
JP7746995B2 (ja) 情報処理装置および方法
CN116636225A (zh) 信息处理装置和方法
WO2024071283A1 (ja) 情報処理装置および方法
JP7687375B2 (ja) 情報処理装置および方法
WO2023054156A1 (ja) 情報処理装置および方法
WO2019138928A1 (ja) 情報処理装置および方法
CN117529924A (zh) 信息处理装置和方法
US20230370636A1 (en) Image processing device and method
WO2024143466A1 (ja) 情報処理装置および方法
WO2022075074A1 (ja) 画像処理装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250721

R150 Certificate of patent or registration of utility model

Ref document number: 7726209

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150