[go: up one dir, main page]

WO2025153031A1 - Method, apparatus, and medium for point cloud coding - Google Patents

Method, apparatus, and medium for point cloud coding

Info

Publication number
WO2025153031A1
WO2025153031A1 PCT/CN2025/072865 CN2025072865W WO2025153031A1 WO 2025153031 A1 WO2025153031 A1 WO 2025153031A1 CN 2025072865 W CN2025072865 W CN 2025072865W WO 2025153031 A1 WO2025153031 A1 WO 2025153031A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
node
prediction mode
point cloud
bitstream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/CN2025/072865
Other languages
French (fr)
Inventor
Yingzhan XU
Wenyi Wang
Bharath VISHWANATH
Kai Zhang
Li Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
ByteDance Inc
Original Assignee
Douyin Vision Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Douyin Vision Co Ltd, ByteDance Inc filed Critical Douyin Vision Co Ltd
Publication of WO2025153031A1 publication Critical patent/WO2025153031A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter

Definitions

  • Embodiments of the present disclosure relates generally to point cloud techniques, and more particularly, to prediction mode determination for point cloud coding.
  • a point cloud is a collection of individual data points in a three-dimensional (3D) plane with each point having a set coordinate on the X, Y, and Z axes.
  • a point cloud may be used to represent the physical content of the three-dimensional space.
  • Point clouds have shown to be a promising way to represent 3D visual data for a wide range of immersive applications, from augmented reality to autonomous cars.
  • Embodiments of the present disclosure provide a solution for point cloud coding.
  • a method for point cloud coding comprises: determining, for a conversion between a current frame of a point cloud sequence and a bitstream of the point cloud sequence, a prediction mode for a current node of the current frame based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding; determining a prediction of the current node based on the prediction mode; and performing the conversion based on the prediction.
  • the method in accordance with the first aspect of the present disclosure can determine predictions more accurately, therefore the method can improve coding efficiency of point cloud coding.
  • non-transitory computer-readable recording medium stores a bitstream of a point cloud sequence which is generated by a method performed by an apparatus for point cloud coding.
  • the method comprises: determining, a prediction mode for a current node of a current frame of the point cloud sequence based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding; determining a prediction of the current node based on the prediction mode; and generating the bitstream based on the prediction.
  • Fig. 1 illustrates a block diagram that illustrates an example point cloud coding system, in accordance with some embodiments of the present disclosure
  • Fig. 2 illustrates a block diagram that illustrates an example of a GPCC encoder, in accordance with some embodiments of the present disclosure
  • Fig. 7 illustrates a block diagram of a computing device in which various embodiments of the present disclosure can be implemented.
  • first and second etc. may be used herein to describe various elements, these elements should not be limited by these terms. These terms are only used to distinguish one element from another. For example, a first element could be termed a second element, and similarly, a second element could be termed a first element, without departing from the scope of example embodiments.
  • the term “and/or” includes any and all combinations of one or more of the listed terms.
  • Fig. 1 is a block diagram that illustrates an example point cloud coding system 100 that may utilize the techniques of the present disclosure.
  • the point cloud coding system 100 may include a source device 110 and a destination device 120.
  • the source device 110 can be also referred to as a point cloud encoding device, and the destination device 120 can be also referred to as a point cloud decoding device.
  • the source device 110 can be configured to generate encoded point cloud data and the destination device 120 can be configured to decode the encoded point cloud data generated by the source device 110.
  • the techniques of this disclosure are generally directed to coding (encoding and/or decoding) point cloud data, i.e., to support point cloud compression.
  • the coding may be effective in compressing and/or decompressing point cloud data.
  • the source device 100 may include a data source 112, a memory 114, a GPCC encoder 116, and an input/output (I/O) interface 118.
  • the destination device 120 may include an input/output (I/O) interface 128, a GPCC decoder 126, a memory 124, and a data consumer 122.
  • GPCC encoder 116 of source device 100 and GPCC decoder 126 of destination device 120 may be configured to apply the techniques of this disclosure related to point cloud coding.
  • source device 100 represents an example of an encoding device
  • destination device 120 represents an example of a decoding device.
  • source device 100 and destination device 120 may include other components or arrangements.
  • source device 100 may receive data (e.g., point cloud data) from an internal or external source.
  • destination device 120 may interface with an external data consumer, rather than include a data consumer in the same device.
  • I/O interface 118 and I/O interface 128 may represent wireless transmitters/receivers, modems, wired networking components (e.g., Ethernet cards) , wireless communication components that operate according to any of a variety of IEEE 802.11 standards, or other physical components.
  • I/O interface 118 and I/O interface 128 may be configured to transfer data, such as encoded point cloud data, according to a cellular communication standard, such as 4G, 4G-LTE (Long-Term Evolution) , LTE Advanced, 5G, or the like.
  • I/O interface 118 and I/O interface 128 may be configured to transfer data, such as encoded point cloud data, according to other wireless standards, such as an IEEE 802.11 specification.
  • source device 100 and/or destination device 120 may include respective system-on-a-chip (SoC) devices.
  • SoC system-on-a-chip
  • source device 100 may include an SoC device to perform the functionality attributed to GPCC encoder 116 and/or I/O interface 118
  • destination device 120 may include an SoC device to perform the functionality attributed to GPCC decoder 126 and/or I/O interface 128.
  • I/O interface 128 of destination device 120 receives an encoded bitstream from source device 110.
  • the encoded bitstream may include signaling information defined by GPCC encoder 116, which is also used by GPCC decoder 126, such as syntax elements having values that represent a point cloud.
  • Data consumer 122 uses the decoded data. For example, data consumer 122 may use the decoded point cloud data to determine the locations of physical objects. In some examples, data consumer 122 may comprise a display to present imagery based on the point cloud data.
  • GPCC encoder 200 and GPCC decoder 300 point cloud positions are coded first. Attribute coding depends on the decoded geometry.
  • Fig. 2 and Fig. 3 the region adaptive hierarchical transform (RAHT) unit 218, surface approximation analysis unit 212, RAHT unit 314 and surface approximation synthesis unit 310 are options typically used for Category 1 data.
  • the level-of-detail (LOD) generation unit 220, lifting unit 222, LOD generation unit 316 and inverse lifting unit 318 are options typically used for Category 3 data. All the other units are common between Categories 1 and 3.
  • LOD level-of-detail
  • Geometry reconstruction unit 216 may reconstruct transform coordinates of points in the point cloud based on the octree, data indicating the surfaces determined by surface approximation analysis unit 212, and/or other information.
  • the number of transform coordinates reconstructed by geometry reconstruction unit 216 may be different from the original number of points of the point cloud because of voxelization and surface approximation. This disclosure may refer to the resulting points as reconstructed points.
  • Attribute transfer unit 208 may transfer attributes of the original points of the point cloud to reconstructed points of the point cloud data.
  • GPCC decoder 300 may include a geometry arithmetic decoding unit 302, an attribute arithmetic decoding unit 304, an octree synthesis unit 306, an inverse quantization unit 308, a surface approximation synthesis unit 310, a geometry reconstruction unit 312, a RAHT unit 314, a LOD generation unit 316, an inverse lifting unit 318, a coordinate inverse transform unit 320, and a color inverse transform unit 322.
  • GPCC decoder 300 may obtain a geometry bitstream and an attribute bitstream.
  • Geometry arithmetic decoding unit 302 of decoder 300 may apply arithmetic decoding (e.g., CABAC or other type of arithmetic decoding) to syntax elements in the geometry bitstream.
  • attribute arithmetic decoding unit 304 may apply arithmetic decoding to syntax elements in attribute bitstream.
  • geometry reconstruction unit 312 may perform a reconstruction to determine coordinates of points in a point cloud.
  • Coordinate inverse transform unit 320 may apply an inverse transform to the reconstructed coordinates to convert the reconstructed coordinates (positions) of the points in the point cloud from a transform domain back into an initial domain.
  • color inverse transform unit 322 may apply an inverse color transform to the color values.
  • the inverse color transform may be an inverse of a color transform applied by color transform unit 204 of encoder 200.
  • color transform unit 204 may transform color information from an RGB color space to a YCbCr color space.
  • color inverse transform unit 322 may transform color information from the YCbCr color space to the RGB color space.
  • the various units of Fig. 2 and Fig. 3 are illustrated to assist with understanding the operations performed by encoder 200 and decoder 300.
  • the units may be implemented as fixed-function circuits, programmable circuits, or a combination thereof.
  • Fixed-function circuits refer to circuits that provide particular functionality and are preset on the operations that can be performed.
  • Programmable circuits refer to circuits that can be programmed to perform various tasks and provide flexible functionality in the operations that can be performed.
  • programmable circuits may execute software or firmware that cause the programmable circuits to operate in the manner defined by instructions of the software or firmware.
  • Fixed-function circuits may execute software instructions (e.g., to receive parameters or output parameters) , but the types of operations that the fixed-function circuits perform are generally immutable.
  • one or more of the units may be distinct circuit blocks (fixed-function or programmable) , and in some examples, one or more of the units may be integrated circuits.
  • MPEG Moving Picture Experts Group
  • 3DG MPEG 3D Graphics Coding group
  • CPP call for proposals
  • the final standard will consist in two classes of solutions.
  • Video-based Point Cloud Compression (V-PCC) is appropriate for point sets with a relatively uniform distribution of points.
  • Geometry-based Point Cloud Compression (G-PCC) is appropriate for more sparse distributions. Both V-PCC and G-PCC support the coding and decoding for single point cloud and point cloud sequence.
  • RAHT point cloud attribute coding tools
  • RAHT is a transform that uses the attributes associated with a node in a lower level of the octree to predict the attributes of the nodes in the next level. It assumes that the positions of the points are given at both the encoder and decoder.
  • RAHT follows the octree scan backwards, from leaf nodes to root node, at each step recombining nodes into larger ones until reaching the root node. At each level of octree, the nodes are processed in the Morton order.
  • RAHT does it in three steps along each dimension, (e.g., along z, then y then x) . If there are L levels in octree, RAHT takes 3L levels to traverse the tree backwards.
  • the nodes at level l be g l, x, y, z , for x, y, z integers.
  • g l, x, y, z was obtained by grouping g l+1, 2x, y, z and g l+1, 2x+1, y, z , where the grouping along the first dimension was an example.
  • the RAHT tree traversal is changed to be descent based from the previous ascent approach, i.e., a tree of attribute and weight sums is constructed and then RAHT is performed from the root of the tree to the leaves for both the encoder and the decoder.
  • the transform is also performed in octree node transform unit that has 2 ⁇ 2 ⁇ 2 sub-nodes. Within the node, the encoder transform order is from leaves to the root.
  • a corresponding predicted sub-node is produced by upsampling the previous transform level. Actually, only sub-node that contains at last one point will produce a corresponding predicted sub-node.
  • the transform unit that contains 2 ⁇ 2 ⁇ 2 predicted sub-nodes is transformed and subtracted from the transformed attributes at the encoder side.
  • the node 410 may have a plurality of neighbour node (also referred to as parent-level neighbour node) such as a neighbour node 430.
  • a neighbour node may be a node sharing at least one of a face, an edge or a vertex with a certain node.
  • the octree decomposition is performed on the two frames.
  • the decomposition is derived based on the geometry information of each frame.
  • the flag is derived based on one rate-distortion optimization method. 3.5 AC coefficients quantization offset
  • the prediction value comes from either intra prediction or inter prediction.
  • this kind of prediction value determination may be not optimal.
  • the indicators to indicate whether to signal the AC coefficients quantization matrices are signalled always.
  • the AC coefficients quantization matrices are only used for RAHT coding method. 5.
  • the prediction method may be no prediction.
  • the prediction method may be intra prediction.
  • the prediction method may be inter prediction.
  • the prediction method may be using the intra prediction and inter prediction to derive the prediction value. i.
  • the prediction value may be the weighted average of inter prediction and intra prediction.
  • the prediction method for each node may be selected form some candidate predic- tion methods.
  • the candidate prediction method may be no prediction. ii. In one example, the candidate prediction method may be intra prediction. iii. In one example, the candidate prediction method may be inter prediction. iv. In one example, the candidate prediction method may be weighted average prediction. f. In one example, the prediction method may be determined based on some eligibility conditions. i. In one example, the eligibility conditions may be based on the layer depth of the node. ii. In one example, the eligibility conditions may be based on the geometry location of the node. iii. In one example, the eligibility conditions may be based on the attribute information of the node. iv. In one example, the eligibility conditions may be based on the neighbor information of the node. v.
  • the eligibility condition of one candidate prediction method may be based on the eligibilities of other candidate prediction methods. 1.
  • the eligibility conditions for weighted average prediction may be that the eligibility conditions for inter prediction and intra prediction are both fit.
  • the above eligibility conditions may be combined to determine the eligi- bility of one prediction method.
  • the prediction method may be determined based on the rate-distortion optimization method. i. In one example, the rate and/or the distortion may be estimated. ii. Alternatively, the rate and/or the distortion may be calculated based on the reconstructed value. h. In one example, the above determination methods may be combined to be used to determine the prediction method. i.
  • the representation of N bits may be selected based on the how many kinds of prediction methods and which kinds of prediction meth-ods are enabled for the current node. 3.
  • the first bit may be used to indicate whether the prediction method is prediction method A, when there are 3 prediction methods (A, B, C) in the pre-diction method candidate list for the current node. a.
  • the indicator is the first bit.
  • the second bit may be used to indicate whether the prediction method is prediction method B.
  • the indicator is composed of the two bits.
  • the prediction method A may be inter prediction.
  • the prediction method A may be intra prediction. e.
  • the prediction method A may be weighted average predic- tion. 4.
  • one bit may be used to indicate whether the prediction method is prediction method A, when there are prediction methods (A, B) in the prediction method candidate list for the current node. a.
  • the indicator is the bit. 5.
  • the first bit may be used to indicate whether the prediction method is prediction method A or prediction method B, when there are 4 prediction meth-ods (A, B, C, D) in the prediction method candidate list for the current node. a.
  • the second bit may be used to indicate whether the prediction method is pre-diction method A.
  • the indicator is composed of the two bits. b.
  • the main prediction method of the neighbor nodes may be classified into N types. 1. In one example, N may be 3. a. In one example, one type may be inter predic- tion. b. In one example, one type may be intra predic- tion. c. In one example, one type may be no prediction or not found. vi. In one example, the element may be determined in different sit- uations depending on which type of main prediction method of neighbor nodes it is. 2) It is proposed to derive the prediction method for each node at the decoder. a. In one example, the prediction method for each node may be selected form some candidate predic- tion methods. i.
  • the candidate prediction method may be no prediction. ii. In one example, the candidate prediction method may be intra prediction. iii. In one example, the candidate prediction method may be inter prediction. iv. In one example, the candidate prediction method may be weighted average prediction. b. In one example, the prediction method may be derived based on some eligibility conditions. i. In one example, the eligibility conditions may be based on the layer depth of the node. ii. In one example, the eligibility conditions may be based on the geometry location of the node. iii. In one example, the eligibility conditions may be based on the attribute information of the node. iv. In one example, the eligibility conditions may be based on the neighbor information of the node. v.
  • the eligibility condition of one candidate prediction method may be based on the eligibilities of other candidate prediction methods. 1.
  • the eligibility conditions for weighted average prediction may be that the eligibility conditions for inter prediction and intra prediction are both fit. vi. In one example, the above eligibility conditions may be combined to determine the eligi- bility of one prediction method.
  • the prediction method may be derived based on the prediction priority of each candidate prediction method. i. In one example, the candidate priority of weighted average prediction is higher than no prediction/inter prediction/intra prediction; the candidate priority of inter prediction is higher than intra prediction and no prediction; the candidate priority of intra prediction is higher than no prediction. d.
  • the prediction method may be included in the list when the can- didate priority of this method is higher than the methods which are not in the list. a. In one example, the candidate priority of weighted average prediction is higher than no prediction/inter prediction/intra prediction; the candidate priority of no prediction is higher than inter prediction and intra predic-tion; the candidate priority of intra prediction is higher than inter predic-tion. 4. In one example, the prediction method may be included in the list when the above conditions are both fit. 3) It is proposed to combine the above methods to determine the prediction method of each node. a. It is proposed to determine and signal the prediction method for each node at some specific layers, namely layer group A. i.
  • the eligibility conditions may be based on the layer depth of the re- gion/level. 1. In one example, there may be at least one indicator to indicate the permitted layer depth (s) or region (s) in the eligibility conditions. a. In one example, the indicator may be signalled to the decoder. i. In one example, the indicator may be coded with fixed-length coding, unary coding, truncated unary coding, etc. al. ii. In one example, the indicator may be coding in a predictive way. ii. In one example, the eligibility conditions may be based on the geometry location of the region/level. iii. In one example, the eligibility conditions may be based on the attribute information of the region/level.
  • the eligibility conditions may be based on the neighbor information of the nodes in the region/level. v. In one example, the eligibility condition of one prediction method may be based on the eligibilities of other prediction methods. 1. In one example, the eligibility conditions for weighted average prediction may be that the eligibility conditions for inter prediction and intra prediction are both fit. vi. In one example, the above eligibility conditions may be combined to determine the eligi- bility of one prediction method. h. In one example, the prediction method may be determined based on the rate-distortion optimization method. i. In one example, the rate and/or the distortion may be estimated. ii. Alternatively, the rate and/or the distortion may be calculated based on the reconstructed value. i.
  • the above determination methods may be combined to be used to determine the prediction method.
  • j In one example, for each region/level, there may be one indicator to indicate which prediction method is determined to be applied on the nodes in the region/level. i. In one example, the indicator may be signalled to the decoder. 1. In one example, the indicator may be coded with fixed-length coding, unary cod- ing, truncated unary coding, etc. al. 2. In one example, the indicator may be coding in a predictive way. 5) It is proposed to signal the parameters to determine the prediction method. a. In one example, there may be some parameters to indicate the eligibility conditions for one predic- tion method. b.
  • the indicator may be the depth of L min , or the depth difference between L min and the root node, or the depth difference between L min and the bottom layer. ii. In one example, the indicator may be the depth difference be- tween L min and another specific layer, L s . 1. In one example, L s may be derived from other parame- ters. 2. In one example, the indicator may be L s -L min . b. In one example, there may be one indicator to indicate the maximum layer within the specific layers, L max . i. In one example, the indicator may be the depth of L max , or the depth difference between L max and the root node, or the depth difference between L max and the bottom layer. ii.
  • the indicator may be the depth difference be- tween L max and another specific layer, L s . 1.
  • L s may be derived from other parame- ters. 2.
  • the indicator may be L max -L s . d.
  • the above parameters may be signalled to the decoder. i.
  • the parameters may be coded with fixed-length coding, unary coding, truncated unary coding, etc. al. ii.
  • the parameters may be coding in a predictive way. 6) It is proposed to generate the prediction result based on the reference information from multiple reference frames. a. In one example, for each node, there may be multiple reference node from multiple reference frames.
  • one predictor candidate may be the weighted average of intra prediction value and one inter prediction value.
  • one predictor candidate may be the weighted average of multiple inter prediction values if there are multiple reference nodes.
  • the selection may be determined based on the rate-distortion optimization method.
  • the rate and/or the distortion may be estimated. ii.
  • the rate and/or the distortion may be calculated based on the reconstructed value.
  • there may be one indicator to indicate which predictor candidate is selected. i. In one example, the indicator may be signalled to the decoder. 1.
  • the indicator may be coded with fixed-length coding, unary cod- ing, truncated unary coding, etc. al. 2. In one example, the indicator may be coding in a predictive way. 7) It is proposed to fix/derive/signal the weight values which are used in the weighted average calculation described above.
  • the weights may be fixed at the decoder. i. In one example, the weights may be various for each layer. ii. In one example, the weights may be various for each node. iii. In one example, the weights may be consistent for all nodes. b. In one example, the weights may be derived at the decoder. i.
  • the weights may be derived for each layer. 1. In one example, the weights may be derived based on the predictor candidate se- lection results of nodes in the previous layer (s) . 2. In one example, the weights may be derived based on the depth level. ii. In one example, the weights may be derived for each node. 1. In one example, the weights may be derived based on the predictor candidate se- lection results of some previous coded nodes, such as the coded neighbor nodes or the parent node. 2. In one example, the weights may be derived based on the predictor candidate se- lection results of some previous coded nodes, such as the parent node, uncle nodes and cousin nodes. a.
  • the uncle nodes are the neighbor nodes of the parent node in the parent level; the cousin nodes are the child nodes of the uncle nodes.
  • the weights for intra/inter prediction may be derived based on the number of uncle nodes which select intra/inter/no prediction result as the final predictor, the number of cousin nodes which select in-tra/inter/no prediction result as the final predictor and whether the parent node selects intra/inter/no prediction result as the final predictor.
  • the volume of intra/inter prediction may be calculated to derive the weights for intra/inter prediction. i.
  • a, b and c are the impact factors. 1.
  • the impact factors may be pre-defined. a.
  • one or more impact factors may be set to positive values, for example, a, b and c are set to 1, 3 and 6 respectively.
  • one or more impact factors may be set to 0.
  • one or more impact factors may be set to negative values.
  • the impact factors may be signalled to the decoder. ii.
  • the impact factors may be pre-defined. a. In one example, one or more impact factors may be set to positive values, for example, a, b, c, d, e and f are set to 2, 6, 12, 1, 3 and 6 respectively. b. In one example, one or more impact factors may be set to 0. c. In one example, one or more impact factors may be set to negative values. 2. In one example, the impact factors may be signalled to the decoder. iii. In one example, the prediction weights for inter/intra prediction may be the conversion of the volume of inter/intra prediction. 1. In one example, the conversion may include bit shift op- eration, fixed-point implementation of division opera-tion and other operations. c.
  • the weights may be signalled to the decoder. i. In one example, the weights may be signalled to the decoder for each layer. 1. In one example, the weights may be coded with fixed-length coding, unary coding, truncated unary coding, etc. al. 2. In one example, the weights may be coding in a predictive way. d. In one example, the weights may be selected from the pre-defined weights candidates list. i. In one example, the weights may be selected by rate-distortion optimization/rate optimiza- tion/distortion optimization based method. ii. In one example, there may be at least one indicator to indicate the selection result. 1.
  • the RAHT coefficients may be the AC coefficients.
  • the RAHT coefficients may be the DC coefficients.
  • the RAHT coefficients may be both AC coefficients and DC coefficients.
  • the indicator may be coded with fixed-length coding, unary coding, trun- cated unary coding, etc. al. iii. In one example, the indicator may be coding in a predictive way. 10) Whether to and/or how to apply a method disclosed above may be signaled from encoder to decoder in a bitstream/frame/tile/slice/octree/etc. 11) Whether to and/or how to apply the disclosed methods above may be dependent on coded information, such as dimensions, colour format, colour component, slice/picture type. 6.
  • a plurality of reference frames such as a reference frame 1 and a reference frame 2 may be used for coding the current frame.
  • an octree scan backwards on the current frame, the reference frame 1 and/or the reference frame 2.
  • Coefficients of each octree depth level may be derived for the current frame. If the node is not at the first N depth level, N being a pisitive integer, the intra prediction value may be used to predict the coefficients.
  • a refernce node 1 and a reference node 2 may be searched.
  • the reference coefficients of the reference node 1 or the reference node 2 are derived. If the reference node 1 or the reference node 2 is not searched, an inter prediction value 1 or an inter prediction value 2 may be used to predict the coefficients for each octree depth level. In addition, the RDO method may be used to select the prediction value to predict the coefficients. A residual of the transformed AC coefficients and may be calcuated and indicated in the bitstream.
  • Embodiments of the present disclosure are related to coding for point cloud coding.
  • the term “point cloud sequence” may refer to a sequence of one or more point clouds.
  • the term “frame” may refer to a point cloud in a point cloud sequence.
  • the term “point cloud” may refer to a frame in the point cloud sequence.
  • node represents a spatial partition of the current frame.
  • Fig. 6 illustrates a flowchart of a method 600 for point cloud coding in accordance with embodiments of the present disclosure.
  • the method 600 is implemented during a conversion between a current frame of a point cloud sequence and a bitstream of the point cloud sequence.
  • a prediction mode for a current node of the current frame is determined based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding.
  • the determined prediction mode may be a combined mode based on an inter prediction and an intra prediction, or may be any other suitable prediction mode.
  • a prediction of the current node is determined based on the prediction mode.
  • the conversion is performed based on the prediction.
  • the method 600 enables determining a prediction mode for the current node based on the context-based adaptive binary arithmetic coded indication. By using the determined prediction mode, a more accurate prediction may be obtained, therefore the method can improve coding efficiency of point cloud coding.
  • a context of the indication may be derived from at least one element.
  • the context of the indication may be derived from a plurality of elements.
  • An element of the at least one element may be derived based on a main prediction mode of at least one neighbor node of the current node.
  • an element may be derived from a main prediction mode of a plurality of neighbor nodes.
  • the main prediction mode may be a prediction mode used by a majority of the plurality of neighbor nodes.
  • the main prediction mode of the at least one neighbor node is derived based on at least one prediction mode of the at least one neighbor node.
  • the main prediction moe may be determined from a plurality of prediction modes of a plurality of neighbor nodes.
  • the main prediction mode may be an inter prediction mode, an intra prediction mode, or no prediction mode.
  • the main prediction mode is not found. If the main prediction mode is not found, the main prediction mode is indicated as not found, or indicated as no prediction mode.
  • the type of the main prediction mode may be a type of an inter prediction mode, a type of an intra prediction mode, or a type of no prediction mode. In some other embodiments, the type of the main prediction may be not found.
  • the at least one element comprises a plurality of elements determined in a plurality of situations.
  • a situation of an element may be based on a type of a main prediction mode of at least one neighbor node of the current node.
  • the prediction mode of the current node may be an inter prediction mode, an intra prediction mode, a mode combining an inter prediction and an intra prediction. In some other embodiments, the prediction mode of the current node may be no prediction mode.
  • an indicator indicating whether to apply the method 600 may be included in the bitstream.
  • the indicator may be included from an encoder to a decoder in the bitstream, a frame, a tile, a slice, or an octree.
  • the conversion comprises encoding the current frame into the bitstream.
  • the conversion comprises decoding the current frame from the bitstream.
  • a non-transitory computer-readable recording medium stores a bitstream of a point cloud sequence which is generated by a method performed by an apparatus for point cloud coding.
  • a prediction mode for a current node of a current frame of the point cloud sequence is determined based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding.
  • a prediction of the current node is determined based on the prediction mode.
  • the bitstream is generated based on the prediction.
  • a method for storing bitstream of a point cloud sequence is provided.
  • a prediction mode for a current node of a current frame of the point cloud sequence is determined based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding.
  • a prediction of the current node is determined based on the prediction mode.
  • the bitstream is generated based on the prediction.
  • the bitstream is stored in a non-transitory computer-readable recording medium.
  • a method for point cloud coding comprising: determining, for a conversion between a current frame of a point cloud sequence and a bitstream of the point cloud sequence, a prediction mode for a current node of the current frame based on an indication in the bitstream, wherein the indication is coded by a context-based adaptive binary arithmetic coding; determining a prediction of the current node based on the prediction mode; and performing the conversion based on the prediction.
  • Clause 3 The method of clause 2, wherein an element of the at least one element is derived based on a main prediction mode of at least one neighbor node of the current node.
  • Clause 5 The method of clause 3 or 4, wherein the main prediction mode of the at least one neighbor node is derived based on at least one prediction mode of the at least one neighbor node.
  • Clause 6 The method of any of clauses 3-5, wherein the main prediction mode comprises at least one of: an inter prediction mode, an intra prediction mode, or no prediction mode, or wherein the main prediction mode is not found.
  • Clause 8 The method of any of clauses 3-7, wherein a type of the main prediction mode is one of N types, N being a positive integer.
  • Clause 10 The method of any of clauses 2-9, wherein the at least one element comprises a plurality of elements determined in a plurality of situations, a situation of an element being based on a type of a main prediction mode of at least one neighbor node of the current node.
  • the prediction mode of the current node comprises at least one of: an inter prediction mode, an intra prediction mode, a mode combining an inter prediction and an intra prediction, or no prediction mode.
  • Clause 12 The method of any of clauses 1-11, wherein the conversion comprises encoding the current frame into the bitstream.
  • An apparatus for point cloud coding comprising a processor and a non-transitory memory with instructions thereon, wherein the instructions upon execution by the processor, cause the processor to perform a method in accordance with any of clauses 1-13.
  • Clause 15 A non-transitory computer-readable storage medium storing instructions that cause a processor to perform a method in accordance with any of clauses 1-13.
  • a method for storing a bitstream of a point cloud sequence comprising: determining, a prediction mode for a current node of a current frame of the point cloud sequence based on an indication in the bitstream, wherein the indication is coded by a context-based adaptive binary arithmetic coding; determining a prediction of the current node based on the prediction mode; generating the bitstream based on the prediction; and storing the bitstream in a non-transitory computer-readable recording medium.
  • Fig. 7 illustrates a block diagram of a computing device 700 in which various embodiments of the present disclosure can be implemented.
  • the computing device 700 may be implemented as or included in the source device 110 (or the GPCC encoder 116 or 200) or the destination device 120 (or the GPCC decoder 126 or 300) .
  • computing device 700 shown in Fig. 7 is merely for purpose of illustration, without suggesting any limitation to the functions and scopes of the embodiments of the present disclosure in any manner.
  • the computing device 700 includes a general-purpose computing device 700.
  • the computing device 700 may at least comprise one or more processors or processing units 710, a memory 720, a storage unit 730, one or more communication units 740, one or more input devices 750, and one or more output devices 760.
  • the computing device 700 may be implemented as any user terminal or server terminal having the computing capability.
  • the server terminal may be a server, a large-scale computing device or the like that is provided by a service provider.
  • the user terminal may for example be any type of mobile terminal, fixed terminal, or portable terminal, including a mobile phone, station, unit, device, multimedia computer, multimedia tablet, Internet node, communicator, desktop computer, laptop computer, notebook computer, netbook computer, tablet computer, personal communication system (PCS) device, personal navigation device, personal digital assistant (PDA) , audio/video player, digital camera/video camera, positioning device, television receiver, radio broadcast receiver, E-book device, gaming device, or any combination thereof, including the accessories and peripherals of these devices, or any combination thereof.
  • the computing device 700 can support any type of interface to a user (such as “wearable” circuitry and the like) .
  • the processing unit 710 may be a physical or virtual processor and can implement various processes based on programs stored in the memory 720. In a multi-processor system, multiple processing units execute computer executable instructions in parallel so as to improve the parallel processing capability of the computing device 700.
  • the processing unit 710 may also be referred to as a central processing unit (CPU) , a microprocessor, a controller or a microcontroller.
  • the computing device 700 typically includes various computer storage medium. Such medium can be any medium accessible by the computing device 700, including, but not limited to, volatile and non-volatile medium, or detachable and non-detachable medium.
  • the memory 720 can be a volatile memory (for example, a register, cache, Random Access Memory (RAM) ) , a non-volatile memory (such as a Read-Only Memory (ROM) , Electrically Erasable Programmable Read-Only Memory (EEPROM) , or a flash memory) , or any combination thereof.
  • the storage unit 730 may be any detachable or non-detachable medium and may include a machine-readable medium such as a memory, flash memory drive, magnetic disk or another other media, which can be used for storing information and/or data and can be accessed in the computing device 700.
  • a machine-readable medium such as a memory, flash memory drive, magnetic disk or another other media, which can be used for storing information and/or data and can be accessed in the computing device 700.
  • the computing device 700 may further include additional detachable/non-detachable, volatile/non-volatile memory medium.
  • additional detachable/non-detachable, volatile/non-volatile memory medium may be provided.
  • a magnetic disk drive for reading from and/or writing into a detachable and non-volatile magnetic disk
  • an optical disk drive for reading from and/or writing into a detachable non-volatile optical disk.
  • each drive may be connected to a bus (not shown) via one or more data medium interfaces.
  • the communication unit 740 communicates with a further computing device via the communication medium.
  • the functions of the components in the computing device 700 can be implemented by a single computing cluster or multiple computing machines that can communicate via communication connections. Therefore, the computing device 700 can operate in a networked environment using a logical connection with one or more other servers, networked personal computers (PCs) or further general network nodes.
  • PCs personal computers
  • the input device 750 may be one or more of a variety of input devices, such as a mouse, keyboard, tracking ball, voice-input device, and the like.
  • the output device 760 may be one or more of a variety of output devices, such as a display, loudspeaker, printer, and the like.
  • the computing device 700 can further communicate with one or more external devices (not shown) such as the storage devices and display device, with one or more devices enabling the user to interact with the computing device 700, or any devices (such as a network card, a modem and the like) enabling the computing device 700 to communicate with one or more other computing devices, if required.
  • Such communication can be performed via input/output (I/O) interfaces (not shown) .
  • some or all components of the computing device 700 may also be arranged in cloud computing architecture.
  • the components may be provided remotely and work together to implement the functionalities described in the present disclosure.
  • cloud computing provides computing, software, data access and storage service, which will not require end users to be aware of the physical locations or configurations of the systems or hardware providing these services.
  • the cloud computing provides the services via a wide area network (such as Internet) using suitable protocols.
  • a cloud computing provider provides applications over the wide area network, which can be accessed through a web browser or any other computing components.
  • the software or components of the cloud computing architecture and corresponding data may be stored on a server at a remote position.
  • the computing resources in the cloud computing environment may be merged or distributed at locations in a remote data center.
  • Cloud computing infrastructures may provide the services through a shared data center, though they behave as a single access point for the users. Therefore, the cloud computing architectures may be used to provide the components and functionalities described herein from a service provider at a remote location. Alternatively, they may be provided from a conventional server or installed directly or otherwise on a client device.
  • the computing device 700 may be used to implement point cloud encoding/decoding in embodiments of the present disclosure.
  • the memory 720 may include one or more point cloud coding modules 725 having one or more program instructions. These modules are accessible and executable by the processing unit 710 to perform the functionalities of the various embodiments described herein.
  • the input device 750 may receive point cloud data as an input 770 to be encoded.
  • the point cloud data may be processed, for example, by the point cloud coding module 725, to generate an encoded bitstream.
  • the encoded bitstream may be provided via the output device 760 as an output 780.
  • the input device 750 may receive an encoded bitstream as the input 770.
  • the encoded bitstream may be processed, for example, by the point cloud coding module 725, to generate decoded point cloud data.
  • the decoded point cloud data may be provided via the output device 760 as the output 780.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Embodiments of the present disclosure provide a solution for point cloud coding. In a method for point cloud coding, for a conversion between a current frame of a point cloud sequence and a bitstream of the point cloud sequence, a prediction mode for a current node of the current frame is determined based on an indication in the bitstream. The indication is coded by a context-based adaptive binary arithmetic coding. A prediction of the current node is determined based on the prediction mode. The conversion is performed based on the prediction.

Description

METHOD, APPARATUS, AND MEDIUM FOR POINT CLOUD CODING
FIELDS
Embodiments of the present disclosure relates generally to point cloud techniques, and more particularly, to prediction mode determination for point cloud coding.
BACKGROUND
In A point cloud is a collection of individual data points in a three-dimensional (3D) plane with each point having a set coordinate on the X, Y, and Z axes. Thus, a point cloud may be used to represent the physical content of the three-dimensional space. Point clouds have shown to be a promising way to represent 3D visual data for a wide range of immersive applications, from augmented reality to autonomous cars.
Point cloud coding standards have evolved primarily through the development of the well-known MPEG organization. MPEG, short for Moving Picture Experts Group, is one of the main standardization groups dealing with multimedia. In 2017, the MPEG 3D Graphics Coding group (3DG) published a call for proposals (CFP) document to start to develop point cloud coding standard. The final standard will consist in two classes of solutions. Video-based Point Cloud Compression (V-PCC or VPCC) is appropriate for point sets with a relatively uniform distribution of points. Geometry-based Point Cloud Compression (G-PCC or GPCC) is appropriate for more sparse distributions. However, coding efficiency of conventional point cloud coding techniques is generally expected to be further improved.
SUMMARY
Embodiments of the present disclosure provide a solution for point cloud coding.
In a first aspect, a method for point cloud coding is proposed. The method comprises: determining, for a conversion between a current frame of a point cloud sequence and a bitstream of the point cloud sequence, a prediction mode for a current node of the current frame based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding; determining a prediction of the current node based on the prediction mode; and performing the conversion based on the prediction. The method in accordance with the first aspect of the present disclosure can determine predictions more accurately, therefore the method can improve coding efficiency of point cloud coding.
In a second aspect, an apparatus for point cloud coding is proposed. The apparatus comprises a processor and a non-transitory memory with instructions thereon. The instructions upon execution by the processor, cause the processor to perform a method in accordance with the first aspect of the present disclosure.
In a third aspect, a non-transitory computer-readable storage medium is proposed. The non-transitory computer-readable storage medium stores instructions that cause a processor to perform a method in accordance with the first aspect of the present disclosure.
In a fourth aspect, another non-transitory computer-readable recording medium is proposed. The non-transitory computer-readable recording medium stores a bitstream of a point cloud sequence which is generated by a method performed by an apparatus for point cloud coding. The method comprises: determining, a prediction mode for a current node of a current frame of the point cloud sequence based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding; determining a prediction of the current node based on the prediction mode; and generating the bitstream based on the prediction.
In a fifth aspect, a method for storing a bitstream of a point cloud sequence is proposed. The method comprises: determining, a prediction mode for a current node of a current frame of the point cloud sequence based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding; determining a prediction of the current node based on the prediction mode; generating the bitstream based on the prediction; and storing the bitstream in a non-transitory computer-readable recording medium.
This Summary is provided to introduce a selection of concepts in a simplified form that are further described below in the Detailed Description. This Summary is not intended to identify key features or essential features of the claimed subject matter, nor is it intended to be used to limit the scope of the claimed subject matter.
BRIEF DESCRIPTION OF THE DRAWINGS
Through the following detailed description with reference to the accompanying drawings, the above and other objectives, features, and advantages of example embodiments of the present disclosure will become more apparent. In the example embodiments of the present disclosure, the same reference numerals usually refer to the same components.
Fig. 1 illustrates a block diagram that illustrates an example point cloud coding system, in accordance with some embodiments of the present disclosure;
Fig. 2 illustrates a block diagram that illustrates an example of a GPCC encoder, in accordance with some embodiments of the present disclosure;
Fig. 3 illustrates a block diagram that illustrates an example of a GPCC decoder, in accordance with some embodiments of the present disclosure;
Fig. 4 illustrates parent-level nodes for each sub-node of transform unit node;
Fig. 5 illustrates an example flowchart of the improved attribute prediction when there are two reference frames in accordance with some embodiments of the present disclosure;
Fig. 6 illustrates a flowchart of a method for point cloud coding in accordance with some embodiments of the present disclosure; and
Fig. 7 illustrates a block diagram of a computing device in which various embodiments of the present disclosure can be implemented.
Throughout the drawings, the same or similar reference numerals usually refer to the same or similar elements.
DETAILED DESCRIPTION
Principle of the present disclosure will now be described with reference to some embodiments. It is to be understood that these embodiments are described only for the purpose of illustration and help those skilled in the art to understand and implement the present disclosure, without suggesting any limitation as to the scope of the disclosure. The disclosure described herein can be implemented in various manners other than the ones described below.
In the following description and claims, unless defined otherwise, all technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skills in the art to which this disclosure belongs.
References in the present disclosure to “one embodiment, ” “an embodiment, ” “an example embodiment, ” and the like indicate that the embodiment described may include a particular feature, structure, or characteristic, but it is not necessary that every embodiment includes the particular feature, structure, or characteristic. Moreover, such phrases are not necessarily referring to the same embodiment. Further, when a particular feature, structure, or characteristic is described in connection with an example embodiment, it is submitted that it is within the knowledge of one skilled in the art to affect such feature, structure, or characteristic in connection with other embodiments whether or not explicitly described.
It shall be understood that although the terms “first” and “second” etc. may be used herein to describe various elements, these elements should not be limited by these terms. These terms are only used to distinguish one element from another. For example, a first element could be termed a second element, and similarly, a second element could be termed a first element, without departing from the scope of example embodiments. As used herein, the term “and/or” includes any and all combinations of one or more of the listed terms.
The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of example embodiments. As used herein, the singular forms “a” , “an” and “the” are intended to include the plural forms as well, unless the context clearly indicates otherwise. It will be further understood that the terms “comprises” , “comprising” , “has” , “having” , “includes” and/or “including” , when used herein, specify the presence of stated features, elements, and/or components etc., but do not preclude the presence or addition of one or more other features, elements, components and/or combinations thereof.
Example Environment
Fig. 1 is a block diagram that illustrates an example point cloud coding system 100 that may utilize the techniques of the present disclosure. As shown, the point cloud coding system 100 may include a source device 110 and a destination device 120. The source device 110 can be also referred to as a point cloud encoding device, and the destination device 120 can be also referred to as a point cloud decoding device. In operation, the source device 110 can be configured to generate encoded point cloud data and the destination device 120 can be configured to decode the encoded point cloud data generated by the source device 110. The techniques of this disclosure are generally directed to coding (encoding and/or decoding) point cloud data, i.e., to support point cloud compression. The coding may be effective in compressing and/or decompressing point cloud data.
Source device 100 and destination device 120 may comprise any of a wide range of devices, including desktop computers, notebook (i.e., laptop) computers, tablet computers, set-top boxes, telephone handsets such as smartphones and mobile phones, televisions, cameras, display devices, digital media players, video gaming consoles, video streaming devices, vehicles (e.g., terrestrial or marine vehicles, spacecraft, aircraft, etc. ) , robots, LIDAR devices, satellites, extended reality devices, or the like. In some cases, source device 100 and destination device 120 may be equipped for wireless communication.
The source device 100 may include a data source 112, a memory 114, a GPCC encoder 116, and an input/output (I/O) interface 118. The destination device 120 may include an input/output (I/O) interface 128, a GPCC decoder 126, a memory 124, and a data consumer 122. In accordance with this disclosure, GPCC encoder 116 of source device 100 and GPCC decoder 126 of destination device 120 may be configured to apply the techniques of this disclosure related to point cloud coding. Thus, source device 100 represents an example of an encoding device, while destination device 120 represents an example of a decoding device. In other examples, source device 100 and destination device 120 may include other components or arrangements. For example, source device 100 may receive data (e.g., point cloud data) from an internal or external source. Likewise, destination device 120 may interface with an external data consumer, rather than include a data consumer in the same device.
In general, data source 112 represents a source of point cloud data (i.e., raw, unencoded point cloud data) and may provide a sequential series of “frames” of the point cloud data to GPCC encoder 116, which encodes point cloud data for the frames. In some examples, data source 112 generates the point cloud data. Data source 112 of source device 100 may include a point cloud capture device, such as any of a variety of cameras or sensors, e.g., one or more video cameras, an archive containing previously captured point cloud data, a 3D scanner or a light detection and ranging (LIDAR) device, and/or a data feed interface to receive point cloud data from a data content provider. Thus, in some examples, data source 112 may generate the point cloud data based on signals from a LIDAR apparatus. Alternatively or additionally, point cloud data may be computer-generated from scanner, camera, sensor or other data. For example, data source 112 may generate the point cloud data, or produce a combination of live point cloud data, archived point cloud data, and computer-generated point cloud data. In each case, GPCC encoder 116 encodes the captured, pre-captured, or computer-generated point cloud data. GPCC encoder 116 may rearrange frames of the point cloud data from the received order (sometimes referred to as “display order” ) into a coding order for coding. GPCC encoder 116 may generate one or more bitstreams including encoded point cloud data. Source device 100 may then output the encoded point cloud data via I/O interface 118 for reception and/or retrieval by, e.g., I/O interface 128 of destination device 120. The encoded point cloud data may be transmitted directly to destination device 120 via the I/O interface 118 through the network 130A. The encoded point cloud data may also be stored onto a storage medium/server 130B for access by destination device 120.
Memory 114 of source device 100 and memory 124 of destination device 120 may represent general purpose memories. In some examples, memory 114 and memory 124 may store raw point cloud data, e.g., raw point cloud data from data source 112 and raw, decoded point cloud data from GPCC decoder 126. Additionally or alternatively, memory 114 and memory 124 may store software instructions executable by, e.g., GPCC encoder 116 and GPCC decoder 126, respectively. Although memory 114 and memory 124 are shown separately from GPCC encoder 116 and GPCC decoder 126 in this example, it should be understood that GPCC encoder 116 and GPCC decoder 126 may also include internal memories for functionally similar or equivalent purposes. Furthermore, memory 114 and memory 124 may store encoded point cloud data, e.g., output from GPCC encoder 116 and input to GPCC decoder 126. In some examples, portions of memory 114 and memory 124 may be allocated as one or more buffers, e.g., to store raw, decoded, and/or encoded point cloud data. For instance, memory 114 and memory 124 may store point cloud data.
I/O interface 118 and I/O interface 128 may represent wireless transmitters/receivers, modems, wired networking components (e.g., Ethernet cards) , wireless communication components that operate according to any of a variety of IEEE 802.11 standards, or other physical components. In examples where I/O interface 118 and I/O interface 128 comprise wireless components, I/O interface 118 and I/O interface 128 may be configured to transfer data, such as encoded point cloud data, according to a cellular communication standard, such as 4G, 4G-LTE (Long-Term Evolution) , LTE Advanced, 5G, or the like. In some examples where I/O interface 118 comprises a wireless transmitter, I/O interface 118 and I/O interface 128 may be configured to transfer data, such as encoded point cloud data, according to other wireless standards, such as an IEEE 802.11 specification. In some examples, source device 100 and/or destination device 120 may include respective system-on-a-chip (SoC) devices. For example, source device 100 may include an SoC device to perform the functionality attributed to GPCC encoder 116 and/or I/O interface 118, and destination device 120 may include an SoC device to perform the functionality attributed to GPCC decoder 126 and/or I/O interface 128.
The techniques of this disclosure may be applied to encoding and decoding in support of any of a variety of applications, such as communication between autonomous vehicles, communication between scanners, cameras, sensors and processing devices such as local or remote servers, geographic mapping, or other applications.
I/O interface 128 of destination device 120 receives an encoded bitstream from source device 110. The encoded bitstream may include signaling information defined by GPCC encoder 116, which is also used by GPCC decoder 126, such as syntax elements having values that represent a point cloud. Data consumer 122 uses the decoded data. For example, data consumer 122 may use the decoded point cloud data to determine the locations of physical objects. In some examples, data consumer 122 may comprise a display to present imagery based on the point cloud data.
GPCC encoder 116 and GPCC decoder 126 each may be implemented as any of a variety of suitable encoder and/or decoder circuitry, such as one or more microprocessors, digital signal processors (DSPs) , application specific integrated circuits (ASICs) , field programmable gate arrays (FPGAs) , discrete logic, software, hardware, firmware or any combinations thereof. When the techniques are implemented partially in software, a device may store instructions for the software in a suitable, non-transitory computer-readable medium and execute the instructions in hardware using one or more processors to perform the techniques of this disclosure. Each of GPCC encoder 116 and GPCC decoder 126 may be included in one or more encoders or decoders, either of which may be integrated as part of a combined encoder/decoder (CODEC) in a respective device. A device including GPCC encoder 116 and/or GPCC decoder 126 may comprise one or more integrated circuits, microprocessors, and/or other types of devices.
GPCC encoder 116 and GPCC decoder 126 may operate according to a coding standard, such as video point cloud compression (VPCC) standard or a geometry point cloud compression (GPCC) standard. This disclosure may generally refer to coding (e.g., encoding and decoding) of frames to include the process of encoding or decoding data. An encoded bitstream generally includes a series of values for syntax elements representative of coding decisions (e.g., coding modes) .
A point cloud may contain a set of points in a 3D space, and may have attributes associated with the point. The attributes may be color information such as R, G, B or Y, Cb, Cr, or reflectance information, or other attributes. Point clouds may be captured by a variety of cameras or sensors such as LIDAR sensors and 3D scanners and may also be computer-generated. Point cloud data are used in a variety of applications including, but not limited to, construction (modeling) , graphics (3D models for visualizing and animation) , and the automotive industry (LIDAR sensors used to help in navigation) .
Fig. 2 is a block diagram illustrating an example of a GPCC encoder 200, which may be an example of the GPCC encoder 116 in the system 100 illustrated in Fig. 1, in accordance with some embodiments of the present disclosure. Fig. 3 is a block diagram illustrating an example of a GPCC decoder 300, which may be an example of the GPCC decoder 126 in the system 100 illustrated in Fig. 1, in accordance with some embodiments of the present disclosure.
In both GPCC encoder 200 and GPCC decoder 300, point cloud positions are coded first. Attribute coding depends on the decoded geometry. In Fig. 2 and Fig. 3, the region adaptive hierarchical transform (RAHT) unit 218, surface approximation analysis unit 212, RAHT unit 314 and surface approximation synthesis unit 310 are options typically used for Category 1 data. The level-of-detail (LOD) generation unit 220, lifting unit 222, LOD generation unit 316 and inverse lifting unit 318 are options typically used for Category 3 data. All the other units are common between Categories 1 and 3.
For Category 3 data, the compressed geometry is typically represented as an octree from the root all the way down to a leaf level of individual voxels. For Category 1 data, the compressed geometry is typically represented by a pruned octree (i.e., an octree from the root down to a leaf level of blocks larger than voxels) plus a model that approximates the surface within each leaf of the pruned octree. In this way, both Category 1 and 3 data share the octree coding mechanism, while Category 1 data may in addition approximate the voxels within each leaf with a surface model. The surface model used is a triangulation comprising 1-10 triangles per block, resulting in a triangle soup. The Category 1 geometry codec is therefore known as the Trisoup geometry codec, while the Category 3 geometry codec is known as the Octree geometry codec.
In the example of Fig. 2, GPCC encoder 200 may include a coordinate transform unit 202, a color transform unit 204, a voxelization unit 206, an attribute transfer unit 208, an octree analysis unit 210, a surface approximation analysis unit 212, an arithmetic encoding unit 214, a geometry reconstruction unit 216, an RAHT unit 218, a LOD generation unit 220, a lifting unit 222, a coefficient quantization unit 224, and an arithmetic encoding unit 226.
As shown in the example of Fig. 2, GPCC encoder 200 may receive a set of positions and a set of attributes. The positions may include coordinates of points in a point cloud. The attributes may include information about points in the point cloud, such as colors associated with points in the point cloud.
Coordinate transform unit 202 may apply a transform to the coordinates of the points to transform the coordinates from an initial domain to a transform domain. This disclosure may refer to the transformed coordinates as transform coordinates. Color transform unit 204 may apply a transform to convert color information of the attributes to a different domain. For example, color transform unit 204 may convert color information from an RGB color space to a YCbCr color space.
Furthermore, in the example of Fig. 2, voxelization unit 206 may voxelize the transform coordinates. Voxelization of the transform coordinates may include quantizing and removing some points of the point cloud. In other words, multiple points of the point cloud may be subsumed within a single “voxel, ” which may thereafter be treated in some respects as one point. Furthermore, octree analysis unit 210 may generate an octree based on the voxelized transform coordinates. Additionally, in the example of Fig. 2, surface approximation analysis unit 212 may analyze the points to potentially determine a surface representation of sets of the points. Arithmetic encoding unit 214 may perform arithmetic encoding on syntax elements representing the information of the octree and/or surfaces determined by surface approximation analysis unit 212. GPCC encoder 200 may output these syntax elements in a geometry bitstream.
Geometry reconstruction unit 216 may reconstruct transform coordinates of points in the point cloud based on the octree, data indicating the surfaces determined by surface approximation analysis unit 212, and/or other information. The number of transform coordinates reconstructed by geometry reconstruction unit 216 may be different from the original number of points of the point cloud because of voxelization and surface approximation. This disclosure may refer to the resulting points as reconstructed points. Attribute transfer unit 208 may transfer attributes of the original points of the point cloud to reconstructed points of the point cloud data.
Furthermore, RAHT unit 218 may apply RAHT coding to the attributes of the reconstructed points. Alternatively or additionally, LOD generation unit 220 and lifting unit 222 may apply LOD processing and lifting, respectively, to the attributes of the reconstructed points. RAHT unit 218 and lifting unit 222 may generate coefficients based on the attributes. Coefficient quantization unit 224 may quantize the coefficients generated by RAHT unit 218 or lifting unit 222. Arithmetic encoding unit 226 may apply arithmetic coding to syntax elements representing the quantized coefficients. GPCC encoder 200 may output these syntax elements in an attribute bitstream.
In the example of Fig. 3, GPCC decoder 300 may include a geometry arithmetic decoding unit 302, an attribute arithmetic decoding unit 304, an octree synthesis unit 306, an inverse quantization unit 308, a surface approximation synthesis unit 310, a geometry reconstruction unit 312, a RAHT unit 314, a LOD generation unit 316, an inverse lifting unit 318, a coordinate inverse transform unit 320, and a color inverse transform unit 322.
GPCC decoder 300 may obtain a geometry bitstream and an attribute bitstream. Geometry arithmetic decoding unit 302 of decoder 300 may apply arithmetic decoding (e.g., CABAC or other type of arithmetic decoding) to syntax elements in the geometry bitstream. Similarly, attribute arithmetic decoding unit 304 may apply arithmetic decoding to syntax elements in attribute bitstream.
Octree synthesis unit 306 may synthesize an octree based on syntax elements parsed from geometry bitstream. In instances where surface approximation is used in geometry bitstream, surface approximation synthesis unit 310 may determine a surface model based on syntax elements parsed from geometry bitstream and based on the octree.
Furthermore, geometry reconstruction unit 312 may perform a reconstruction to determine coordinates of points in a point cloud. Coordinate inverse transform unit 320 may apply an inverse transform to the reconstructed coordinates to convert the reconstructed coordinates (positions) of the points in the point cloud from a transform domain back into an initial domain.
Additionally, in the example of Fig. 3, inverse quantization unit 308 may inverse quantize attribute values. The attribute values may be based on syntax elements obtained from attribute bitstream (e.g., including syntax elements decoded by attribute arithmetic decoding unit 304) .
Depending on how the attribute values are encoded, RAHT unit 314 may perform RAHT coding to determine, based on the inverse quantized attribute values, color values for points of the point cloud. Alternatively, LOD generation unit 316 and inverse lifting unit 318 may determine color values for points of the point cloud using a level of detail-based technique.
Furthermore, in the example of Fig. 3, color inverse transform unit 322 may apply an inverse color transform to the color values. The inverse color transform may be an inverse of a color transform applied by color transform unit 204 of encoder 200. For example, color transform unit 204 may transform color information from an RGB color space to a YCbCr color space. Accordingly, color inverse transform unit 322 may transform color information from the YCbCr color space to the RGB color space.
The various units of Fig. 2 and Fig. 3 are illustrated to assist with understanding the operations performed by encoder 200 and decoder 300. The units may be implemented as fixed-function circuits, programmable circuits, or a combination thereof. Fixed-function circuits refer to circuits that provide particular functionality and are preset on the operations that can be performed. Programmable circuits refer to circuits that can be programmed to perform various tasks and provide flexible functionality in the operations that can be performed. For instance, programmable circuits may execute software or firmware that cause the programmable circuits to operate in the manner defined by instructions of the software or firmware. Fixed-function circuits may execute software instructions (e.g., to receive parameters or output parameters) , but the types of operations that the fixed-function circuits perform are generally immutable. In some examples, one or more of the units may be distinct circuit blocks (fixed-function or programmable) , and in some examples, one or more of the units may be integrated circuits.
Some exemplary embodiments of the present disclosure will be described in detailed hereinafter. It should be understood that section headings are used in the present document to facilitate ease of understanding and do not limit the embodiments disclosed in a section to only that section. Furthermore, while certain embodiments are described with reference to GPCC or other specific point cloud codecs, the disclosed techniques are applicable to other point cloud coding technologies also. Furthermore, while some embodiments describe point cloud coding steps in detail, it will be understood that corresponding steps decoding that undo the coding will be implemented by a decoder.
1. Brief Summary
This disclosure is related to point cloud coding technologies. Specifically, it is related to point cloud attribute inter prediction in region-adaptive hierarchical transform. The ideas may be applied individually or in various combination, to any point cloud coding standard or non-standard point cloud codec, e.g., the being-developed Geometry based Point Cloud Compression (G-PCC) .
2. Abbreviations
G-PCC          Geometry based Point Cloud Compression
MPEG         Moving Picture Experts Group
3DG         3D Graphics Coding Group
CFP      Call For Proposal
V-PCC       Video-based Point Cloud Compression
RAHT    Region-Adaptive Hierarchical Transform.
3. Introduction
MPEG, short for Moving Picture Experts Group, is one of the main standardization groups dealing with multimedia. In 2017, the MPEG 3D Graphics Coding group (3DG) published a call for proposals (CFP) document to start to develop point cloud coding standard. The final standard will consist in two classes of solutions. Video-based Point Cloud Compression (V-PCC) is appropriate for point sets with a relatively uniform distribution of points. Geometry-based Point Cloud Compression (G-PCC) is appropriate for more sparse distributions. Both V-PCC and G-PCC support the coding and decoding for single point cloud and point cloud sequence.
In one point cloud, there may be geometry information and attribute information. Geometry information is used to describe the geometry locations of the data points. Attribute information is used to record some details of the data points, such as textures, normal vectors, reflections and so on.
3.1 Region-Adaptive Hierarchical Transform
In G-PCC, one of important point cloud attribute coding tools is RAHT. It is a transform that uses the attributes associated with a node in a lower level of the octree to predict the attributes of the nodes in the next level. It assumes that the positions of the points are given at both the encoder and decoder. RAHT follows the octree scan backwards, from leaf nodes to root node, at each step recombining nodes into larger ones until reaching the root node. At each level of octree, the nodes are processed in the Morton order. At each decomposition, instead of grouping eight nodes at a time, RAHT does it in three steps along each dimension, (e.g., along z, then y then x) . If there are L levels in octree, RAHT takes 3L levels to traverse the tree backwards.
Let the nodes at level l be gl, x, y, z, for x, y, z integers. gl, x, y, z was obtained by grouping gl+1, 2x, y, z and gl+1, 2x+1, y, z, where the grouping along the first dimension was an example. RAHT only process occupied nodes. If one of the nodes in the pair is unoccupied, the other one is promoted to the next level, unprocessed, i.e., gl-1, x, y, z=gl, 2x, y, z if the latter is the occupied node of the pair. The grouping process is repeated until getting to the root. Note that the grouping process generates nodes at lower levels that are the result of grouping different numbers of voxels along the way. The number of nodes grouped to generate node gl, x, y, z is the weight ωl, x, y, z of that node.
At every grouping of two nodes, say gl, 2x, y, z and gl, 2x+1, y, z, with their respective weights, ωl, 2x, y, z and ωl, 2x+1, y, z, RAHT apply the following transform:

where ω1l, 2x, y, z and ω2l, 2x+1, y, z and
Note that the transform matrix changes at all times, adapting to the weights, i.e., adapting to the number of leaf nodes that each gl, x, y, z actually represents. The quantities gl, x, y, z are used to group and compose further nodes at a lower level. hl, x, y, z are the actual high-pass coefficients generated by the transform to be encoded and transmitted. Furthermore, weights accumulate for the level above. In the above example,
ωl-1, 2, y, zl, 2x, y, zl, 2x+1, y, z.
In the last stage, the tree root, the remaining two voxels g1, 0, 0, 0 and g1, 1, 0, 0 are transformed into the final two coefficients as:

where gDC=g0, 0, 0, 0.
3.3 Upsampled transform domain prediction in RAHT
The transform domain prediction is introduced to improve coding efficiency on RAHT. It is formed of two parts.
Firstly, the RAHT tree traversal is changed to be descent based from the previous ascent approach, i.e., a tree of attribute and weight sums is constructed and then RAHT is performed from the root of the tree to the leaves for both the encoder and the decoder. The transform is also performed in octree node transform unit that has 2×2×2 sub-nodes. Within the node, the encoder transform order is from leaves to the root.
Secondly, for each sub-node of transform unit, a corresponding predicted sub-node is produced by upsampling the previous transform level. Actually, only sub-node that contains at last one point will produce a corresponding predicted sub-node. The transform unit that contains 2×2×2 predicted sub-nodes is transformed and subtracted from the transformed attributes at the encoder side.
Each sub-node of transform unit node is predicted by 7 parent-level nodes where 3 coline parent-level neighbour nodes, 3 coplane parent-level neighbour nodes and 1 parent node. Coplane and coline neighbours are the neighbours that share a face and an edge with current transform unit node, respectively. Fig. 4 shows seven parent-level nodes for each sub-node of transform unit node. For example, a node 410 (such as a current node) may be split or partitioned into a plurality of sub-nodes such as a sub-node 420. The node 410 may be referred to as a parent node of the sub-node 420. The node 410 may have a plurality of neighbour node (also referred to as parent-level neighbour node) such as a neighbour node 430. As used herein, a neighbour node may be a node sharing at least one of a face, an edge or a vertex with a certain node.
The attribute aup of each sub-node is predicted depending on the distance between it and its parent-level node as follows.
aup=∑ωkak/∑ωk,
where ak is the attribute of its one parent-level node and ωk is weight depending on the distance. In G-
PCC, ωparent: ωcoplane: ωcoline=4: 2: 1.
For AC coefficient, the prediction residual will be signalled.
For DC coefficient, the coefficients are inherited from the previous level, which means that the DC coefficient is signalled without prediction.
3.4 Attribute inter prediction in RAHT
It is proposed to apply inter-prediction to DC and AC coefficients in RAHT.
For the layers enabling inter-prediction, the octree decomposition is performed on the two frames. The decomposition is derived based on the geometry information of each frame.
For each node in the current octree decomposition, it may be matched to one node in the reference decomposition. The Morton value of the matched node should be as same as the Morton value of the current node. For AC and DC coefficients of these nodes, the reference coefficients are generated in the same way as the current coefficients. The reference coefficients are used to predict the current coefficients.
For example, for AC coefficients, the prediction residual is signalled as:
ACresidual= ACcurrent-ACpredicted,
ACpredicted=ACpredicted_inter ? ACpredicted_inter∶ ACpredicted_intra.
If the ACpredicted_inter is equal to zero, the ACpredicted_intra is applied as the original transform domain prediction.
There is one flag for each layer to indicate whether the inter-prediction is enabled. The flag is derived based on one rate-distortion optimization method.
3.5 AC coefficients quantization offset
Signalling of 3D quantization matrices is proposed so that a QP offset can be applied to each AC coefficient of the transformed 2×2×2 residual. Note that the DC coefficient is inherited and thus there is no residual DC component that is signalled to the decoder.
4. Problems
The existing designs for point cloud attribute inter prediction in RAHT have the following problems.
In current design, the flag to indicate whether the inter-prediction is enabled is determined for each layer. However, this kind of layer level determination may be not optimal, considering the best choice for each node may be various.
In current design, the reference information only comes from one reference frame and there may be at most one reference node for each node. However, this kind of reference information may be not enough to provide efficient prediction.
In current design, the prediction value comes from either intra prediction or inter prediction. However, this kind of prediction value determination may be not optimal.
In current design, the indicators to indicate whether to signal the AC coefficients quantization matrices are signalled always. However, the AC coefficients quantization matrices are only used for RAHT coding method.
5. Detailed solutions
1) It is proposed to determine and signal the prediction method for each node.
a. In one example, the prediction method may be no prediction.
b. In one example, the prediction method may be intra prediction.
c. In one example, the prediction method may be inter prediction.
d. In one example, the prediction method may be using the intra prediction and inter prediction to 
derive the prediction value.
i. In one example, the prediction value may be the weighted average of inter prediction and 
intra prediction.
e. In one example, the prediction method for each node may be selected form some candidate predic-
tion methods.
i. In one example, the candidate prediction method may be no prediction.
ii. In one example, the candidate prediction method may be intra prediction.
iii. In one example, the candidate prediction method may be inter prediction.
iv. In one example, the candidate prediction method may be weighted average prediction.
f. In one example, the prediction method may be determined based on some eligibility conditions.
i. In one example, the eligibility conditions may be based on the layer depth of the node.
ii. In one example, the eligibility conditions may be based on the geometry location of the 
node.
iii. In one example, the eligibility conditions may be based on the attribute information of the 
node.
iv. In one example, the eligibility conditions may be based on the neighbor information of the 
node.
v. In one example, the eligibility condition of one candidate prediction method may be based 
on the eligibilities of other candidate prediction methods.
1. In one example, the eligibility conditions for weighted average prediction may be 
that the eligibility conditions for inter prediction and intra prediction are both fit.
vi. In one example, the above eligibility conditions may be combined to determine the eligi-
bility of one prediction method.
g. In one example, the prediction method may be determined based on the rate-distortion optimization 
method.
i. In one example, the rate and/or the distortion may be estimated.
ii. Alternatively, the rate and/or the distortion may be calculated based on the reconstructed 
value.
h. In one example, the above determination methods may be combined to be used to determine the 
prediction method.
i. In one example, the prediction method may be selected from the prediction method candi-
date list based on the rate-distortion optimization method.
ii. In one example, the prediction method candidate list may be derived based on the eligibility 
of each prediction method.
1. In one example, there may be at most N prediction methods in the prediction 
method candidate list.
a. In one example, N may be pre-defined, for example, N = 3.
b. In one example, N may be signalled to the decoder.
2. In one example, the prediction method may be included in the list when the eligi-
bility condition of this method is fit.
3. In one example, the prediction method may be included in the list when the can-
didate priority of this method is higher than the methods which are not in the list.
a. In one example, the candidate priority of weighted average prediction is 
higher than no prediction/inter prediction/intra prediction; the candidate pri-ority of no prediction is higher than inter prediction and intra prediction; the candidate priority of intra prediction is higher than inter prediction.
4. In one example, the prediction method may be included in the list when the above 
conditions are both fit.
i. In one example, for each node, there may be one indicator to indicate which prediction method is 
determined to be applied on one node.
i. In one example, the indicator may be composed of at least one bits.
1. In one example, the indicator may be composed of at most N bits.
a. In one example, when there are more than 2 prediction methods in the pre-
diction method candidate list, the indicator may be composed of at most 2 bits.
b. In one example, when there are less than 2 prediction methods in the pre-
diction method candidate list, the indicator may be composed of at most 1 bit.
2. In one example, the representation of N bits may be different in different cases.
a. In one example, the representation of N bits may be selected based on the 
PC sample type of the current PC sample.
i. In one example, PC sample type may be derived based on 
whether and how the inter prediction is enabled on the PC sam-ple.
ii. In one example, PC sample type may be derived based on which 
kind of reference GOF structure is used on the PC sample.
iii. In one example, PC sample types may include I-slice/I-frame, P-
slice/P-frame and B-slice/B-frame.
b. In one example, the representation of N bits may be selected based on the 
how many kinds of prediction methods and which kinds of prediction meth-ods are enabled for the current node.
3. In one example, the first bit may be used to indicate whether the prediction method 
is prediction method A, when there are 3 prediction methods (A, B, C) in the pre-diction method candidate list for the current node.
a. When the prediction method is method A, the indicator is the first bit.
b. When the prediction method is not method A, the second bit may be used 
to indicate whether the prediction method is prediction method B. The indicator is composed of the two bits.
c. In one example, the prediction method A may be inter prediction.
d. Alternatively, the prediction method A may be intra prediction.
e. Alternatively, the prediction method A may be weighted average predic-
tion.
4. In one example, one bit may be used to indicate whether the prediction method is 
prediction method A, when there are prediction methods (A, B) in the prediction method candidate list for the current node.
a. The indicator is the bit.
5. In one example, the first bit may be used to indicate whether the prediction method 
is prediction method A or prediction method B, when there are 4 prediction meth-ods (A, B, C, D) in the prediction method candidate list for the current node.
a. When the prediction method is method A or prediction method B, the 
second bit may be used to indicate whether the prediction method is pre-diction method A. The indicator is composed of the two bits.
b. When the prediction method is not method A or prediction method B, the 
second bit may be used to indicate whether the prediction method is pre-diction method C. The indicator is composed of the two bits.
c. In one example, the prediction method A may be inter prediction.
d. Alternatively, the prediction method A may be intra prediction.
e. Alternatively, the prediction method A may be weighted average predic-
tion.
ii. In one example, the indicator may be signalled to the decoder.
1. In one example, the indicator may be coded with fixed-length coding, unary cod-
ing, truncated unary coding, etc. al.
2. In one example, the indicator may be coding in a predictive way.
3. In one example, the indicator may be signalled in a context-based adaptive binary 
arithmetic coding way.
a. In one example, the context may be derived from multiple elements.
b. In one example, one element may be derived based on the main prediction
method of the neighbor nodes of the current node.
i. In one example, the neighbor node may be the uncle node.
ii. In one example, the neighbor node may be the cousin node.
iii. In one example, the main prediction method of the neighbor 
nodes may be derived based on prediction method of the neigh-bor nodes.
iv. In one example, the main prediction method of the neighbor 
nodes may be inter prediction or intra prediction or no prediction or not found.
1. When the main prediction method of the neighbor nodes 
is not found, the main prediction method is indicated as not found.
v. In one example, the main prediction method of the neighbor 
nodes may be classified into N types.
1. In one example, N may be 3.
a. In one example, one type may be inter predic-
tion.
b. In one example, one type may be intra predic-
tion.
c. In one example, one type may be no prediction 
or not found.
vi. In one example, the element may be determined in different sit-
uations depending on which type of main prediction method of neighbor nodes it is.
2) It is proposed to derive the prediction method for each node at the decoder.
a. In one example, the prediction method for each node may be selected form some candidate predic-
tion methods.
i. In one example, the candidate prediction method may be no prediction.
ii. In one example, the candidate prediction method may be intra prediction.
iii. In one example, the candidate prediction method may be inter prediction.
iv. In one example, the candidate prediction method may be weighted average prediction.
b. In one example, the prediction method may be derived based on some eligibility conditions.
i. In one example, the eligibility conditions may be based on the layer depth of the node.
ii. In one example, the eligibility conditions may be based on the geometry location of the 
node.
iii. In one example, the eligibility conditions may be based on the attribute information of the 
node.
iv. In one example, the eligibility conditions may be based on the neighbor information of the 
node.
v. In one example, the eligibility condition of one candidate prediction method may be based 
on the eligibilities of other candidate prediction methods.
1. In one example, the eligibility conditions for weighted average prediction may be 
that the eligibility conditions for inter prediction and intra prediction are both fit.
vi. In one example, the above eligibility conditions may be combined to determine the eligi-
bility of one prediction method.
c. In one example, the prediction method may be derived based on the prediction priority of each 
candidate prediction method.
i. In one example, the candidate priority of weighted average prediction is higher than no 
prediction/inter prediction/intra prediction; the candidate priority of inter prediction is higher than intra prediction and no prediction; the candidate priority of intra prediction is higher than no prediction.
d. In one example, the above determination methods may be combined to be used to derive the pre-
diction method for one node.
i. In one example, the prediction method may be selected from the prediction method candi-
date list based on prediction priority of each candidate prediction method.
ii. In one example, the prediction method candidate list may be derived based on the eligibility 
of each prediction method.
1. In one example, there may be at most N prediction methods in the prediction 
method candidate list.
a. In one example, N may be pre-defined.
b. In one example, N may be signalled to the decoder.
2. In one example, the prediction method may be included in the list when the eligi-
bility condition of this method is fit.
3. In one example, the prediction method may be included in the list when the can-
didate priority of this method is higher than the methods which are not in the list.
a. In one example, the candidate priority of weighted average prediction is 
higher than no prediction/inter prediction/intra prediction; the candidate priority of no prediction is higher than inter prediction and intra predic-tion; the candidate priority of intra prediction is higher than inter predic-tion.
4. In one example, the prediction method may be included in the list when the above 
conditions are both fit.
3) It is proposed to combine the above methods to determine the prediction method of each node.
a. It is proposed to determine and signal the prediction method for each node at some specific layers, 
namely layer group A.
i. In one example, the prediction methods of nodes in layer group A may be indicated by 
some indicator, and the indicator may be signalled to the decoder.
b. It is proposed to derive the prediction method for each node at some other specific layers, namely 
layer group B.
i. In one example, the prediction methods of nodes in layer group B may be derived at the 
decoder.
c. In one example, layer group A and layer group B may be derived from some parameters.
i. In one example, the parameters may be signalled to the decoder.
4) It is proposed to determine and signal the prediction method for each region/level.
a. In one example, the prediction method may be no prediction.
b. In one example, the prediction method may be intra prediction.
c. In one example, the prediction method may be inter prediction.
d. In one example, the prediction method may be using the intra prediction and inter prediction to 
derive the prediction value.
i. In one example, the prediction value may be the weighted average of inter prediction and 
intra prediction.
ii. In one example, the above prediction method may be weighted average prediction.
e. In one example, the prediction method may be the combination of the above methods.
i. In one example, the prediction value may be the prediction value of the method A if the 
prediction value of the method A is not zero; otherwise, the prediction value may be the prediction value of the method B.
f. In one example, the prediction method may be applied to all nodes in the region/level.
g. In one example, the prediction method may be determined based on some eligibility conditions.
i. In one example, the eligibility conditions may be based on the layer depth of the re-
gion/level.
1. In one example, there may be at least one indicator to indicate the permitted layer 
depth (s) or region (s) in the eligibility conditions.
a. In one example, the indicator may be signalled to the decoder.
i. In one example, the indicator may be coded with fixed-length 
coding, unary coding, truncated unary coding, etc. al.
ii. In one example, the indicator may be coding in a predictive way.
ii. In one example, the eligibility conditions may be based on the geometry location of the 
region/level.
iii. In one example, the eligibility conditions may be based on the attribute information of the 
region/level.
iv. In one example, the eligibility conditions may be based on the neighbor information of the 
nodes in the region/level.
v. In one example, the eligibility condition of one prediction method may be based on the 
eligibilities of other prediction methods.
1. In one example, the eligibility conditions for weighted average prediction may be 
that the eligibility conditions for inter prediction and intra prediction are both fit.
vi. In one example, the above eligibility conditions may be combined to determine the eligi-
bility of one prediction method.
h. In one example, the prediction method may be determined based on the rate-distortion optimization 
method.
i. In one example, the rate and/or the distortion may be estimated.
ii. Alternatively, the rate and/or the distortion may be calculated based on the reconstructed 
value.
i. In one example, the above determination methods may be combined to be used to determine the 
prediction method.
j. In one example, for each region/level, there may be one indicator to indicate which prediction 
method is determined to be applied on the nodes in the region/level.
i. In one example, the indicator may be signalled to the decoder.
1. In one example, the indicator may be coded with fixed-length coding, unary cod-
ing, truncated unary coding, etc. al.
2. In one example, the indicator may be coding in a predictive way.
5) It is proposed to signal the parameters to determine the prediction method.
a. In one example, there may be some parameters to indicate the eligibility conditions for one predic-
tion method.
b. In one example, there may be some parameters to derive the eligibility conditions for one prediction 
method.
c. In one example, there may be some parameters to indicate the regions/levels/layers which need to 
check the eligibility conditions.
i. In one example, for one prediction method, only some specific layers may need to check 
the eligibility conditions; other layers may not apply the prediction method.
ii. Alternatively, for one prediction method, only some specific layers may need to check the 
eligibility conditions; other layers may apply the prediction method.
iii. In one example, there may be some parameters to derive the specific layers.
1. In one example, some parameters may be signalled to derive the specific layers 
for the weighted average prediction.
a. In one example, there may be one indicator to indicate the minimum layer
within the specific layers, Lmin.
i. In one example, the indicator may be the depth of Lmin, or the 
depth difference between Lmin and the root node, or the depth difference between Lmin and the bottom layer.
ii. In one example, the indicator may be the depth difference be-
tween Lmin and another specific layer, Ls.
1. In one example, Ls may be derived from other parame-
ters.
2. In one example, the indicator may be Ls-Lmin.
b. In one example, there may be one indicator to indicate the maximum layer 
within the specific layers, Lmax.
i. In one example, the indicator may be the depth of Lmax, or the 
depth difference between Lmax and the root node, or the depth difference between Lmax and the bottom layer.
ii. In one example, the indicator may be the depth difference be-
tween Lmax and another specific layer, Ls.
1. In one example, Ls may be derived from other parame-
ters.
2. In one example, the indicator may be Lmax-Ls.
d. In one example, the above parameters may be signalled to the decoder.
i. In one example, the parameters may be coded with fixed-length coding, unary coding, 
truncated unary coding, etc. al.
ii. In one example, the parameters may be coding in a predictive way.
6) It is proposed to generate the prediction result based on the reference information from multiple reference 
frames.
a. In one example, for each node, there may be multiple reference node from multiple reference 
frames.
b. In one example, for each reference node, there may be one inter prediction value.
c. In one example, for each reference node, there may be on indicator to indicate the reference node.
d. In one example, for the current node, the prediction value may be derived from the intra prediction 
value and the multiple inter prediction value.
e. In one example, the prediction value may be selected from predictor candidates.
i. In one example, one predictor candidate may be the intra prediction value.
ii. In one example, one predictor candidate may be the inter prediction value of one reference 
node if there is one reference node.
iii. In one example, one predictor candidate may be the weighted average of intra prediction 
value and multiple inter prediction values if there are multiple reference nodes.
iv. In one example, one predictor candidate may be the weighted average of intra prediction 
value and one inter prediction value.
v. In one example, one predictor candidate may be the weighted average of multiple inter 
prediction values if there are multiple reference nodes.
f. In one example, the selection may be determined based on the rate-distortion optimization method.
i. In one example, the rate and/or the distortion may be estimated.
ii. Alternatively, the rate and/or the distortion may be calculated based on the reconstructed 
value.
g. In one example, there may be one indicator to indicate which predictor candidate is selected.
i. In one example, the indicator may be signalled to the decoder.
1. In one example, the indicator may be coded with fixed-length coding, unary cod-
ing, truncated unary coding, etc. al.
2. In one example, the indicator may be coding in a predictive way.
7) It is proposed to fix/derive/signal the weight values which are used in the weighted average calculation 
described above.
a. In one example, the weights may be fixed at the decoder.
i. In one example, the weights may be various for each layer.
ii. In one example, the weights may be various for each node.
iii. In one example, the weights may be consistent for all nodes.
b. In one example, the weights may be derived at the decoder.
i. In one example, the weights may be derived for each layer.
1. In one example, the weights may be derived based on the predictor candidate se-
lection results of nodes in the previous layer (s) .
2. In one example, the weights may be derived based on the depth level.
ii. In one example, the weights may be derived for each node.
1. In one example, the weights may be derived based on the predictor candidate se-
lection results of some previous coded nodes, such as the coded neighbor nodes or the parent node.
2. In one example, the weights may be derived based on the predictor candidate se-
lection results of some previous coded nodes, such as the parent node, uncle nodes and cousin nodes.
a. In one example, the uncle nodes are the neighbor nodes of the parent node 
in the parent level; the cousin nodes are the child nodes of the uncle nodes.
b. In one example, the weights for intra/inter prediction may be derived 
based on the number of uncle nodes which select intra/inter/no prediction result as the final predictor, the number of cousin nodes which select in-tra/inter/no prediction result as the final predictor and whether the parent node selects intra/inter/no prediction result as the final predictor.
c. In one example, the volume of intra/inter prediction may be calculated to 
derive the weights for intra/inter prediction.
i. In one example, the volume of intra/inter prediction may be cal-
culated as the linear combination of Nintra_uncle/Ninter_uncle,Nintra_cousin/Ninter_cousin, Nintra_parent/Ninter_cousin, such as: Volumeintra=a×Nintra_uncle+b×Nintra_cousin+c×Nintra_parent, Volumeinter=a×Ninter_uncle+b×Ninter_cousin+c×Ninter_parent, Where Nintra_uncle/Ninter_uncle is the number of the number of uncle nodes which select intra/inter prediction result as the final predictor; Nintra_cousin/Ninter_cousin is the number of the number of cousin nodes which select intra/inter prediction result as the final predictor; Nintra_parent/Ninter_parent is used to indicate whether the parent node select intra/inter prediction result as the final predictor; if the parent node select intra prediction result as the final predictor, Nintra_parent is set to 1, Ninter_parent is set to 0; if the parent node select inter prediction result as the final predictor, Nintra_parent is set to 0, Ninter_parent is set to 1. a, b and c are the impact factors.
1. In one example, the impact factors may be pre-defined.
a. In one example, one or more impact factors 
may be set to positive values, for example, a, b and c are set to 1, 3 and 6 respectively.
b. In one example, one or more impact factors 
may be set to 0.
c. In one example, one or more impact factors 
may be set to negative values.
2. In one example, the impact factors may be signalled to 
the decoder.
ii. In one example, the volume of intra/inter prediction may be cal-
culated as the linear combination of Nintra_uncle /Ninter_uncle /Nno_uncle , Nintra_cousin /Ninter_cousin /Nno_consin , Nintra_parent/Ninter_parent/Nno_parent, such as: Volumeintra=a×Nintra_uncle+b×Nintra_cousin+c×Nintra_parent+d×Nno_uncle+e×Nno_cousin+f×Nno_parent, Volumeinter=a×Ninter_uncle+b×Ninter_cousin+c×Ninter_parent+d×Nno_uncle+e×Nno_cousin+f×Nno_parent, Where Nintra_uncle/Ninter_uncle/Nno_uncle is the number of the number of uncle nodes which select intra/inter/no prediction result as the final predictor; Nintra_cousin/Ninter_cousin/Nno_cousin is the number of the number of cousin nodes which select intra/inter/no prediction result as the final predictor; Nintra_parent/Ninter_parent/Nno_parent is used to indicate which prediction result is selected as the final predictor of the parent node; if the parent node select intra prediction result as the final predictor, Nintra_parent is set to 1, Ninter_parent and Nno_parent are set to 0; if the parent node select inter prediction result as the final predictor, Ninter_parent is set to 1, Nintra_parent and Nno_parent are set to 0; if the parent node select no prediction result as the final predictor, Nno_parent is set to 1, Nintra_parent and Ninter_parent are set to 0; a, b, c, d, e and f are the impact factors.
1. In one example, the impact factors may be pre-defined.
a. In one example, one or more impact factors 
may be set to positive values, for example, a, b, c, d, e and f are set to 2, 6, 12, 1, 3 and 6 respectively.
b. In one example, one or more impact factors 
may be set to 0.
c. In one example, one or more impact factors 
may be set to negative values.
2. In one example, the impact factors may be signalled to 
the decoder.
iii. In one example, the prediction weights for inter/intra prediction 
may be the conversion of the volume of inter/intra prediction.
1. In one example, the conversion may include bit shift op-
eration, fixed-point implementation of division opera-tion and other operations.
c. In one example, the weights may be signalled to the decoder.
i. In one example, the weights may be signalled to the decoder for each layer.
1. In one example, the weights may be coded with fixed-length coding, unary coding, 
truncated unary coding, etc. al.
2. In one example, the weights may be coding in a predictive way.
d. In one example, the weights may be selected from the pre-defined weights candidates list.
i. In one example, the weights may be selected by rate-distortion optimization/rate optimiza-
tion/distortion optimization based method.
ii. In one example, there may be at least one indicator to indicate the selection result.
1. In one example, the indicator may be signalled to the decoder.
a. In one example, the indicator may be coded with fixed-length coding, 
unary coding, truncated unary coding, etc. al.
b. In one example, the indicator may be coding in a predictive way.
iii. In one example, the selection may be performed for each layer.
iv. In one example, the selection may be performed for each node.
8) It is proposed to signal whether the weighted average of intra prediction and inter prediction is used.
a. In one example, there may be one indicator to indicate whether the weighted average of intra pre-
diction and inter prediction can be enabled for the whole sequence.
b. In one example, there may be one indicator to indicate whether the weighted average of intra pre-
diction and inter prediction is used for one PC sample.
c. In one example, there may be one indicator to indicate whether the weighted average of intra pre-
diction and inter prediction is used for one layer/region.
d. In one example, all or partial indicators described above may be signalled to the decoder.
i. In one example, the indicators may be coded with fixed-length coding, unary coding, trun-
cated unary coding, etc. al.
ii. In one example, the indicators may be coding in a predictive way.
9) It is proposed to signal the parameters for RAHT coefficients quantization matrices when the RAHT attrib-
ute coding is enabled.
a. In one example, the RAHT coefficients may be the AC coefficients.
b. In one example, the RAHT coefficients may be the DC coefficients.
c. In one example, the RAHT coefficients may be both AC coefficients and DC coefficients.
d. In one example, there may be quantization matrices for AC coefficients.
e. In one example, there may be quantization matrices for DC coefficients.
f. In one example, there may be at least one indicator to indicate whether the RAHT coefficients 
quantization matrices are signalled.
i. In one example, the indicator may be signalled to the decoder only when the RAHT attrib-
ute coding is enabled.
ii. In one example, the indicator may be coded with fixed-length coding, unary coding, trun-
cated unary coding, etc. al.
iii. In one example, the indicator may be coding in a predictive way.
10) Whether to and/or how to apply a method disclosed above may be signaled from encoder to decoder in a 
bitstream/frame/tile/slice/octree/etc.
11) Whether to and/or how to apply the disclosed methods above may be dependent on coded information, such 
as dimensions, colour format, colour component, slice/picture type.
6. Embodiments
An example of the coding flow 500 for the improved inter prediction of coefficients when there are two reference frames is depicted in Fig. 5. As illustrated, a plurality of reference frames such as a reference frame 1 and a reference frame 2 may be used for coding the current frame. For example, an octree scan backwards on the current frame, the reference frame 1 and/or the reference frame 2. Coefficients of each octree depth level may be derived for the current frame. If the node is not at the first N depth level, N being a pisitive integer, the intra prediction value may be used to predict the coefficients. A refernce node 1 and a reference node 2 may be searched. If the reference node 1 or the reference node 2 is searched, the reference coefficients of the reference node 1 or the reference node 2 are derived. If the reference node 1 or the reference node 2 is not searched, an inter prediction value 1 or an inter prediction value 2 may be used to predict the coefficients for each octree depth level. In addition, the RDO method may be used to select the prediction value to predict the coefficients. A residual of the transformed AC coefficients and may be calcuated and indicated in the bitstream.
Embodiments of the present disclosure are related to coding for point cloud coding. As used herein, the term “point cloud sequence” may refer to a sequence of one or more point clouds. The term “frame” may refer to a point cloud in a point cloud sequence. The term “point cloud” may refer to a frame in the point cloud sequence. The term “node” represents a spatial partition of the current frame.
Fig. 6 illustrates a flowchart of a method 600 for point cloud coding in accordance with embodiments of the present disclosure. The method 600 is implemented during a conversion between a current frame of a point cloud sequence and a bitstream of the point cloud sequence.
At block 610, for a conversion between a current frame of a point cloud sequence and a bitstream of the point cloud sequence, a prediction mode for a current node of the current frame is determined based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding. For example, the determined prediction mode may be a combined mode based on an inter prediction and an intra prediction, or may be any other suitable prediction mode.
At block 620, a prediction of the current node is determined based on the prediction mode. At block 630, the conversion is performed based on the prediction.
The method 600 enables determining a prediction mode for the current node based on the context-based adaptive binary arithmetic coded indication. By using the determined prediction mode, a more accurate prediction may be obtained, therefore the method can improve coding efficiency of point cloud coding.
In some embodiments, a context of the indication may be derived from at least one element. For example, the context of the indication may be derived from a plurality of elements. An element of the at least one element may be derived based on a main prediction mode of at least one neighbor node of the current node. For example, an element may be derived from a main prediction mode of a plurality of neighbor nodes. The main prediction mode may be a prediction mode used by a majority of the plurality of neighbor nodes.
In some embodiments, the at least one neighbor node may be an uncle node. The uncle node may be a neighbor node of a parent node of the current node in a parent level. In some other embodiments, the at least one neighbor node may be a cousin code. The cousin node may be a child node of the uncle node.
In some embodiments, the main prediction mode of the at least one neighbor node is derived based on at least one prediction mode of the at least one neighbor node. For example, the main prediction moe may be determined from a plurality of prediction modes of a plurality of neighbor nodes. The main prediction mode may be an inter prediction mode, an intra prediction mode, or no prediction mode.
In some other embodiments, the main prediction mode is not found. If the main prediction mode is not found, the main prediction mode is indicated as not found, or indicated as no prediction mode.
In some embodiments, the main prediction method of the neighbor nodes may be classified into N types, N being a positive integer. For example, N may be 3 or any other suitable integer.
In some embodiments, the type of the main prediction mode may be a type of an inter prediction mode, a type of an intra prediction mode, or a type of no prediction mode. In some other embodiments, the type of the main prediction may be not found.
In some embodiments, the at least one element comprises a plurality of elements determined in a plurality of situations. A situation of an element may be based on a type of a main prediction mode of at least one neighbor node of the current node.
In some embodiments, the prediction mode of the current node may be an inter prediction mode, an intra prediction mode, a mode combining an inter prediction and an intra prediction. In some other embodiments, the prediction mode of the current node may be no prediction mode.
In some embodiments, an indicator indicating whether to apply the method 600 may be included in the bitstream. By way of example, the indicator may be included from an encoder to a decoder in the bitstream, a frame, a tile, a slice, or an octree.
Alternatively, or in addition, in some embodiments, whether to and/or how to apply the method 600 may be determined based on coded information. By way of example, the coded information may include at least one of: a dimension, a colour format, a colour component, a slice type, or a picture type. By using the method 600, the coding effectiveness and coding efficiency of the point cloud coding can be improved.
In some embodiments, the conversion comprises encoding the current frame into the bitstream. Alternatively, or in addition, in some embodiments, the conversion comprises decoding the current frame from the bitstream.
According to further embodiments of the present disclosure, a non-transitory computer-readable recording medium is provided. The non-transitory computer-readable recording medium stores a bitstream of a point cloud sequence which is generated by a method performed by an apparatus for point cloud coding. In the method, a prediction mode for a current node of a current frame of the point cloud sequence is determined based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding. A prediction of the current node is determined based on the prediction mode. The bitstream is generated based on the prediction.
According to still further embodiments of the present disclosure, a method for storing bitstream of a point cloud sequence is provided. In the method, a prediction mode for a current node of a current frame of the point cloud sequence is determined based on an indication in the bitstream, where the indication is coded by a context-based adaptive binary arithmetic coding. A prediction of the current node is determined based on the prediction mode. The bitstream is generated based on the prediction. The bitstream is stored in a non-transitory computer-readable recording medium.
Implementations of the present disclosure can be described in view of the following clauses, the features of which can be combined in any reasonable manner.
Clause 1. A method for point cloud coding, comprising: determining, for a conversion between a current frame of a point cloud sequence and a bitstream of the point cloud sequence, a prediction mode for a current node of the current frame based on an indication in the bitstream, wherein the indication is coded by a context-based adaptive binary arithmetic coding; determining a prediction of the current node based on the prediction mode; and performing the conversion based on the prediction.
Clause 2. The method of clause 1, wherein a context of the indication is derived from at least one element.
Clause 3. The method of clause 2, wherein an element of the at least one element is derived based on a main prediction mode of at least one neighbor node of the current node.
Clause 4. The method of clause 3, wherein the at least one neighbor node comprises at least one of: an uncle node, the uncle node being a neighbor node of a parent node of the current node in a parent level, or a cousin code, the cousin node being a child node of the uncle node.
Clause 5. The method of clause 3 or 4, wherein the main prediction mode of the at least one neighbor node is derived based on at least one prediction mode of the at least one neighbor node.
Clause 6. The method of any of clauses 3-5, wherein the main prediction mode comprises at least one of: an inter prediction mode, an intra prediction mode, or no prediction mode, or wherein the main prediction mode is not found.
Clause 7. The method of clause 6, wherein in response to the main prediction mode being not found, the main prediction mode is indicated as not found.
Clause 8. The method of any of clauses 3-7, wherein a type of the main prediction mode is one of N types, N being a positive integer.
Clause 9. The method of clause 8, wherein the type of the main prediction mode is at least one of: a type of an inter prediction mode, a type of an intra prediction mode, or a type of no prediction mode or being not found.
Clause 10. The method of any of clauses 2-9, wherein the at least one element comprises a plurality of elements determined in a plurality of situations, a situation of an element being based on a type of a main prediction mode of at least one neighbor node of the current node.
Clause 11. The method of any of clauses 1-10, wherein the prediction mode of the current node comprises at least one of: an inter prediction mode, an intra prediction mode, a mode combining an inter prediction and an intra prediction, or no prediction mode.
Clause 12. The method of any of clauses 1-11, wherein the conversion comprises encoding the current frame into the bitstream.
Clause 13. The method of any of clauses 1-11, wherein the conversion comprises decoding the current frame from the bitstream.
Clause 14. An apparatus for point cloud coding comprising a processor and a non-transitory memory with instructions thereon, wherein the instructions upon execution by the processor, cause the processor to perform a method in accordance with any of clauses 1-13.
Clause 15. A non-transitory computer-readable storage medium storing instructions that cause a processor to perform a method in accordance with any of clauses 1-13.
Clause 16. A non-transitory computer-readable recording medium storing a bitstream of a point cloud sequence which is generated by a method performed by an apparatus for point cloud coding, wherein the method comprises: determining, a prediction mode for a current node of a current frame of the point cloud sequence based on an indication in the bitstream, wherein the indication is coded by a context-based adaptive binary arithmetic coding; determining a prediction of the current node based on the prediction mode; and generating the bitstream based on the prediction.
Clause 17. A method for storing a bitstream of a point cloud sequence, comprising: determining, a prediction mode for a current node of a current frame of the point cloud sequence based on an indication in the bitstream, wherein the indication is coded by a context-based adaptive binary arithmetic coding; determining a prediction of the current node based on the prediction mode; generating the bitstream based on the prediction; and storing the bitstream in a non-transitory computer-readable recording medium.
Example Device
Fig. 7 illustrates a block diagram of a computing device 700 in which various embodiments of the present disclosure can be implemented. The computing device 700 may be implemented as or included in the source device 110 (or the GPCC encoder 116 or 200) or the destination device 120 (or the GPCC decoder 126 or 300) .
It would be appreciated that the computing device 700 shown in Fig. 7 is merely for purpose of illustration, without suggesting any limitation to the functions and scopes of the embodiments of the present disclosure in any manner.
As shown in Fig. 7, the computing device 700 includes a general-purpose computing device 700. The computing device 700 may at least comprise one or more processors or processing units 710, a memory 720, a storage unit 730, one or more communication units 740, one or more input devices 750, and one or more output devices 760.
In some embodiments, the computing device 700 may be implemented as any user terminal or server terminal having the computing capability. The server terminal may be a server, a large-scale computing device or the like that is provided by a service provider. The user terminal may for example be any type of mobile terminal, fixed terminal, or portable terminal, including a mobile phone, station, unit, device, multimedia computer, multimedia tablet, Internet node, communicator, desktop computer, laptop computer, notebook computer, netbook computer, tablet computer, personal communication system (PCS) device, personal navigation device, personal digital assistant (PDA) , audio/video player, digital camera/video camera, positioning device, television receiver, radio broadcast receiver, E-book device, gaming device, or any combination thereof, including the accessories and peripherals of these devices, or any combination thereof. It would be contemplated that the computing device 700 can support any type of interface to a user (such as “wearable” circuitry and the like) .
The processing unit 710 may be a physical or virtual processor and can implement various processes based on programs stored in the memory 720. In a multi-processor system, multiple processing units execute computer executable instructions in parallel so as to improve the parallel processing capability of the computing device 700. The processing unit 710 may also be referred to as a central processing unit (CPU) , a microprocessor, a controller or a microcontroller.
The computing device 700 typically includes various computer storage medium. Such medium can be any medium accessible by the computing device 700, including, but not limited to, volatile and non-volatile medium, or detachable and non-detachable medium. The memory 720 can be a volatile memory (for example, a register, cache, Random Access Memory (RAM) ) , a non-volatile memory (such as a Read-Only Memory (ROM) , Electrically Erasable Programmable Read-Only Memory (EEPROM) , or a flash memory) , or any combination thereof. The storage unit 730 may be any detachable or non-detachable medium and may include a machine-readable medium such as a memory, flash memory drive, magnetic disk or another other media, which can be used for storing information and/or data and can be accessed in the computing device 700.
The computing device 700 may further include additional detachable/non-detachable, volatile/non-volatile memory medium. Although not shown in Fig. 7, it is possible to provide a magnetic disk drive for reading from and/or writing into a detachable and non-volatile magnetic disk and an optical disk drive for reading from and/or writing into a detachable non-volatile optical disk. In such cases, each drive may be connected to a bus (not shown) via one or more data medium interfaces.
The communication unit 740 communicates with a further computing device via the communication medium. In addition, the functions of the components in the computing device 700 can be implemented by a single computing cluster or multiple computing machines that can communicate via communication connections. Therefore, the computing device 700 can operate in a networked environment using a logical connection with one or more other servers, networked personal computers (PCs) or further general network nodes.
The input device 750 may be one or more of a variety of input devices, such as a mouse, keyboard, tracking ball, voice-input device, and the like. The output device 760 may be one or more of a variety of output devices, such as a display, loudspeaker, printer, and the like. By means of the communication unit 740, the computing device 700 can further communicate with one or more external devices (not shown) such as the storage devices and display device, with one or more devices enabling the user to interact with the computing device 700, or any devices (such as a network card, a modem and the like) enabling the computing device 700 to communicate with one or more other computing devices, if required. Such communication can be performed via input/output (I/O) interfaces (not shown) .
In some embodiments, instead of being integrated in a single device, some or all components of the computing device 700 may also be arranged in cloud computing architecture. In the cloud computing architecture, the components may be provided remotely and work together to implement the functionalities described in the present disclosure. In some embodiments, cloud computing provides computing, software, data access and storage service, which will not require end users to be aware of the physical locations or configurations of the systems or hardware providing these services. In various embodiments, the cloud computing provides the services via a wide area network (such as Internet) using suitable protocols. For example, a cloud computing provider provides applications over the wide area network, which can be accessed through a web browser or any other computing components. The software or components of the cloud computing architecture and corresponding data may be stored on a server at a remote position. The computing resources in the cloud computing environment may be merged or distributed at locations in a remote data center. Cloud computing infrastructures may provide the services through a shared data center, though they behave as a single access point for the users. Therefore, the cloud computing architectures may be used to provide the components and functionalities described herein from a service provider at a remote location. Alternatively, they may be provided from a conventional server or installed directly or otherwise on a client device.
The computing device 700 may be used to implement point cloud encoding/decoding in embodiments of the present disclosure. The memory 720 may include one or more point cloud coding modules 725 having one or more program instructions. These modules are accessible and executable by the processing unit 710 to perform the functionalities of the various embodiments described herein.
In the example embodiments of performing point cloud encoding, the input device 750 may receive point cloud data as an input 770 to be encoded. The point cloud data may be processed, for example, by the point cloud coding module 725, to generate an encoded bitstream. The encoded bitstream may be provided via the output device 760 as an output 780.
In the example embodiments of performing point cloud decoding, the input device 750 may receive an encoded bitstream as the input 770. The encoded bitstream may be processed, for example, by the point cloud coding module 725, to generate decoded point cloud data. The decoded point cloud data may be provided via the output device 760 as the output 780.
While this disclosure has been particularly shown and described with references to preferred embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present application as defined by the appended claims. Such variations are intended to be covered by the scope of this present application. As such, the foregoing description of embodiments of the present application is not intended to be limiting.

Claims (17)

  1. A method for point cloud coding, comprising:
    determining, for a conversion between a current frame of a point cloud sequence and a bitstream of the point cloud sequence, a prediction mode for a current node of the current frame based on an indication in the bitstream, wherein the indication is coded by a context-based adaptive binary arithmetic coding;
    determining a prediction of the current node based on the prediction mode; and
    performing the conversion based on the prediction.
  2. The method of claim 1, wherein a context of the indication is derived from at least one element.
  3. The method of claim 2, wherein an element of the at least one element is derived based on a main prediction mode of at least one neighbor node of the current node.
  4. The method of claim 3, wherein the at least one neighbor node comprises at least one of:
    an uncle node, the uncle node being a neighbor node of a parent node of the current node in a parent level, or
    a cousin code, the cousin node being a child node of the uncle node.
  5. The method of claim 3 or 4, wherein the main prediction mode of the at least one neighbor node is derived based on at least one prediction mode of the at least one neighbor node.
  6. The method of any of claims 3-5, wherein the main prediction mode comprises at least one of: an inter prediction mode, an intra prediction mode, or no prediction mode, or
    wherein the main prediction mode is not found.
  7. The method of claim 6, wherein in response to the main prediction mode being not found, the main prediction mode is indicated as not found.
  8. The method of any of claims 3-7, wherein a type of the main prediction mode is one of N types, N being a positive integer.
  9. The method of claim 8, wherein the type of the main prediction mode is at least one of:
    a type of an inter prediction mode,
    a type of an intra prediction mode, or
    a type of no prediction mode or being not found.
  10. The method of any of claims 2-9, wherein the at least one element comprises a plurality of elements determined in a plurality of situations, a situation of an element being based on a type of a main prediction mode of at least one neighbor node of the current node.
  11. The method of any of claims 1-10, wherein the prediction mode of the current node comprises at least one of:
    an inter prediction mode,
    an intra prediction mode,
    a mode combining an inter prediction and an intra prediction, or
    no prediction mode.
  12. The method of any of claims 1-11, wherein the conversion comprises encoding the current frame into the bitstream.
  13. The method of any of claims 1-11, wherein the conversion comprises decoding the current frame from the bitstream.
  14. An apparatus for point cloud coding comprising a processor and a non-transitory memory with instructions thereon, wherein the instructions upon execution by the processor, cause the processor to perform a method in accordance with any of claims 1-13.
  15. A non-transitory computer-readable storage medium storing instructions that cause a processor to perform a method in accordance with any of claims 1-13.
  16. A non-transitory computer-readable recording medium storing a bitstream of a point cloud sequence which is generated by a method performed by an apparatus for point cloud coding, wherein the method comprises:
    determining a prediction mode for a current node of a current frame of the point cloud sequence based on an indication in the bitstream, wherein the indication is coded by a context-based adaptive binary arithmetic coding;
    determining a prediction of the current node based on the prediction mode; and
    generating the bitstream based on the prediction.
  17. A method for storing a bitstream of a point cloud sequence, comprising:
    determining a prediction mode for a current node of a current frame of the point cloud sequence based on an indication in the bitstream, wherein the indication is coded by a context-based adaptive binary arithmetic coding;
    determining a prediction of the current node based on the prediction mode;
    generating the bitstream based on the prediction; and
    storing the bitstream in a non-transitory computer-readable recording medium.
PCT/CN2025/072865 2024-01-17 2025-01-16 Method, apparatus, and medium for point cloud coding Pending WO2025153031A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2024072888 2024-01-17
CNPCT/CN2024/072888 2024-01-17

Publications (1)

Publication Number Publication Date
WO2025153031A1 true WO2025153031A1 (en) 2025-07-24

Family

ID=96470790

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2025/072865 Pending WO2025153031A1 (en) 2024-01-17 2025-01-16 Method, apparatus, and medium for point cloud coding

Country Status (1)

Country Link
WO (1) WO2025153031A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022147015A1 (en) * 2020-12-29 2022-07-07 Qualcomm Incorporated Hybrid-tree coding for inter and intra prediction for geometry coding
WO2022186675A1 (en) * 2021-03-05 2022-09-09 엘지전자 주식회사 Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
WO2023059089A1 (en) * 2021-10-06 2023-04-13 엘지전자 주식회사 Point cloud data transmission method, point cloud data transmission device, point cloud data reception method, and point cloud data reception device
CN117354496A (en) * 2023-07-18 2024-01-05 腾讯科技(深圳)有限公司 Point cloud encoding and decoding method, device, equipment and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022147015A1 (en) * 2020-12-29 2022-07-07 Qualcomm Incorporated Hybrid-tree coding for inter and intra prediction for geometry coding
WO2022186675A1 (en) * 2021-03-05 2022-09-09 엘지전자 주식회사 Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
WO2023059089A1 (en) * 2021-10-06 2023-04-13 엘지전자 주식회사 Point cloud data transmission method, point cloud data transmission device, point cloud data reception method, and point cloud data reception device
CN117354496A (en) * 2023-07-18 2024-01-05 腾讯科技(深圳)有限公司 Point cloud encoding and decoding method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
US20240242393A1 (en) Method, apparatus and medium for point cloud coding
WO2024012381A1 (en) Method, apparatus, and medium for point cloud coding
WO2023131132A1 (en) Method, apparatus, and medium for point cloud coding
US20250259334A1 (en) Method, apparatus, and medium for point cloud coding
US20250142121A1 (en) Method, apparatus, and medium for point cloud coding
US20240267527A1 (en) Method, apparatus, and medium for point cloud coding
WO2023093785A1 (en) Method, apparatus, and medium for point cloud coding
US20250232483A1 (en) Method, apparatus, and medium for point cloud coding
US20240364927A1 (en) Method, apparatus, and medium for point cloud coding
US20240314359A1 (en) Method, apparatus, and medium for point cloud coding
WO2025153031A1 (en) Method, apparatus, and medium for point cloud coding
WO2025149086A1 (en) Method, apparatus, and medium for point cloud coding
WO2025073292A1 (en) Method, apparatus, and medium for point cloud coding
WO2024146644A1 (en) Method, apparatus, and medium for point cloud coding
WO2025007983A1 (en) Method, apparatus, and medium for video processing
WO2024051617A9 (en) Method, apparatus, and medium for point cloud coding
US20250337954A1 (en) Method, apparatus, and medium for point cloud coding
WO2024074121A1 (en) Method, apparatus, and medium for point cloud coding
WO2024212969A1 (en) Method, apparatus, and medium for video processing
WO2025077881A1 (en) Method, apparatus, and medium for point cloud coding
WO2024213148A9 (en) Method, apparatus, and medium for point cloud coding
WO2025149067A1 (en) Method, apparatus, and medium for point cloud coding
US20240244249A1 (en) Method, apparatus, and medium for point cloud coding
US20250039448A1 (en) Method, apparatus, and medium for point cloud coding

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 25741592

Country of ref document: EP

Kind code of ref document: A1