CN111711815B - 基于集成学习和概率模型的快速vvc帧内预测方法 - Google Patents
基于集成学习和概率模型的快速vvc帧内预测方法 Download PDFInfo
- Publication number
- CN111711815B CN111711815B CN202010618890.8A CN202010618890A CN111711815B CN 111711815 B CN111711815 B CN 111711815B CN 202010618890 A CN202010618890 A CN 202010618890A CN 111711815 B CN111711815 B CN 111711815B
- Authority
- CN
- China
- Prior art keywords
- depth
- division
- probability
- current
- fast
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于集成学习和概率模型的快速VVC帧内预测方法,包括以下步骤:步骤S1:基于集成学习并利用视频序列的时空域相关性,预测得到不同编码单元的深度信息;步骤S2:使用时空域相邻已编码CU的划分模式对未编码CU的划分模式进行预测,并按概率大小排序得到划分模式排序表;步骤S3:根据得到的不同编码单元的深度信息和划分模式排序表,提前终止CU的划分。本发明在保证视频质量的前提下,有效地节省了视频编码时间,用于目前主流的高清、超高清视频编码时,优势更加明显。
Description
技术领域
本发明涉及视频编码技术领域,具体涉及一种基于集成学习和概率模型的快速VVC帧内预测方法。
背景技术
视频编码的目的是为了剔除视频中存在的大量冗余信息(如时域冗余,空域冗余,统计冗余,熵冗余等),以压缩视频文件的占用空间,提高视频在存储及传输时的效率。
VVC是新一代视频编码标准,通过对原有编码框架中的各模块进行算法更新与技术提升来实现更高的压缩效率,例如:在帧内预测中,引入了基于跨分支线性模型的帧内预测技术、基于位置的帧内预测合并技术及更多的角度预测模式;在帧间预测中,引入了仿射运动预测技术、先进时域运动矢量预测技术、自适应运动矢量分辨率技术、基于8×8块的运动补偿技术及高精度(1/16像素值)运动矢量存储及补偿技术;在变换和量化中,引入了多重变换选择技术及变换系数编码时隐藏符号数据的技术,并扩大了的量化参数的取值范围;在CU划分过程中,引入了更为精细的二叉、三叉及四叉树划分方式以提升编码压缩率。然而新技术的引入在提高压缩率的同时也增加了编码时间。
发明内容
有鉴于此,本发明的目的在于提供一种基于集成学习和概率模型的快速VVC帧内预测方法,在保证视频质量的前提下,基于集成学习与概率模型方法,有效地节省了视频编码时间。
为实现上述目的,本发明采用如下技术方案:
一种基于集成学习和概率模型的快速VVC帧内预测方法,包括以下步骤:
步骤S1:基于集成学习并利用视频序列的时空域相关性,预测得到不同编码单元的深度信息;
步骤S2:使用时空域相邻已编码CU的划分模式对未编码CU的划分模式进行预测,并按概率大小排序得到划分模式排序表;
步骤S3:根据得到的不同编码单元的深度信息和划分模式排序表,提前终止CU的划分。
进一步的,所述步骤S1具体为:
步骤S11:选定深度图参考单元,若当前帧领域存在已编码CU,就选定其深度图单元信息作为参考,否则选定前一帧相应位置的深度图单元信息作为参考;
步骤S12:读取数据集,对数据样本进行预处理,并送入三个不同的卷积神经网络进行网络训练,得到基于集成学习的深度预测模型;
步骤S13:将多尺度参考信息分别送入步骤S12训练好的三个卷积神经网络中,得到三个深度图单元预测值U1、U2及U3,使用多数投票法集成三个卷积神经网络的预测结果作为最终的输出;
步骤S14、获得CU预测深度图后,使用预测深度图的平均值作为最终CU的预测深度DO。
进一步的,所述选定深度图参考单元的函数表达式如下:
其中X(x,y,t)表示第t帧位于(x,y)位置的深度图单元,其中Δx和Δy表示-n到n的整数。
进一步的,所述最终CU的预测深度DO具体为:
进一步的,所述步骤S2具体为:
步骤S21:获取参考CU的信息,选取13个时空域相邻的用于划分模式预测的参考CU构成集合S;
步骤S22:选取集合S中所有参考CU的划分模式构成集合R;
步骤S23:计算属于集合R的划分模式M成为最佳划分模式的概率P(bm=M|M∈R);
步骤S24:在获得了所有划分模式M成为最佳划分模式的概率之后,按照概率值大小对属于R的划分模式进行排序,将其余不属于R的模式排在之后,得到最佳划分模式排序表;
步骤S25:使用划分模式排序表进行划分模式决策,若当前划分模式的RD代价值Rcur大于目前获得的最小RD代价值Rmin,则跳过其它还未测试的划分模式以减少编码复杂度,否则测试下一个模式并更新Rcur与Rmin。
进一步的,所述S的表达式如下:
S={Sref,Scur}
其中Sref及Scur分别表示位于当前帧及前一帧的CU参考集合,Sref及Scur的定义分别如下:
Sref={C(x+nw,y+mh,t-1)|-1≤n≤1,-1≤m≤1,n∈Z,m∈Z}
Scur={C(x-w,y-h,t),C(x,y-h,t),C(x+w,y-h,t),C(x-w,y,t)}
其中w和h分别表示CU的像素值长度和宽度。
进一步的,所述集合R具体为:
R={MCU|CU∈S}
其中MCU表示CU的划分模式。
进一步的,所述佳划分模式的概率具体为:
其中N(*)表示事件*发生的次数。
进一步的,所述步骤S3具体为:
步骤S31:开始当前CU编码,判断该CU的参考深度单元信息是否充足;若不充足则使用原始编码器对该CU进行编码,充足则跳到步骤S32;
步骤S32:获取参考深度单元的信息并预测当前CU的深度值;若当前CU的实际深度值大于预测深度值,结束该CU的编码流程,否则跳到步骤S33;
步骤S33:获取当前CU的参考CU划分模式信息,并使用概率模型对当前CU的划分模式进行排序并跳到步骤S34;
步骤S34:按照排序表对当前划分模式进行编码,并更新Rcur和Rmin,之后跳到步骤S35;
步骤S35:如果Rcur>Rmin或者所有划分模式都已被编码过,则结束当前CU的编码流程,否则跳到步骤S34,以测试下一个编码模式。
本发明与现有技术相比具有以下有益效果:
本发明基于集成学习与概率模型方法,在保证视频质量的前提下,有效地节省了视频编码时间。
附图说明
图1是本发明一实施例中的整体工作流程图;
图2是本发明实施例中基于集成学习的深度单元预测框架图;
图3是本发明实施例中基于概率模型用于划分模式预测的13个参考CU示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于集成学习和概率模型的快速VVC帧内预测方法,包括以下步骤:
步骤S1:基于集成学习并利用视频序列的时空域相关性,预测得到不同编码单元的深度信息,用于确定CU的最终划分深度;
步骤S2:使用时空域相邻已编码CU的划分模式对未编码CU的划分模式进行预测,并按概率大小排序得到划分模式排序表;
步骤S3:根据得到的不同编码单元的深度信息和划分模式排序表,提前终止CU的划分。
本实施例中,基于集成学习的深度单元预测框架如图2所示,网络的输入为时空域相邻的深度单元值,输出为预测深度值,具体包括以下步骤:
步骤S11:选定深度图参考单元,若当前帧的领域存在已编码CU,就选定其深度图单元信息作为参考,否则选定前一帧对应位置的深度图单元信息作为参考,具体选定参考单元的函数表达式如下:
其中X(x,y,t)表示第t帧位于(x,y)位置的深度图单元,其中Δx和Δy表示-n到n的整数;n决定了用于预测的相邻CU深度图单元数目,使用不同的n值可以得到不同尺度的参考信息;
步骤S12:读取数据集,对数据样本进行预处理,送入三个不同的卷积神经网络进行网络训练,得到基于集成学习的深度预测模型;
优选的,三个卷积神经网络均采用了3层网络结构设计,包括一层输入层、一层卷积层及一层输出层;网络的输入为时空域相邻的深度单元值,卷积层使用线性整流函数(ReLU)作为激活函数,每个卷积层使用的卷积核数目均为6,输出层采用归一化指数函数(Softmax)作为激活函数,输出每个深度的预测概率值;
步骤S13:将多尺度参考信息分别送入步骤S12训练好的三个卷积神经网络中,得到三个深度图单元预测值U1、U2及U3,使用多数投票法集成三个卷积神经网络的预测结果作为最终预测深度;
步骤S14:获得CU预测深度图后,使用预测深度图的平均值作为最终CU的预测深度(DO),函数表达式如下:
其中:表示向下取整函数;K和Uk分别表示该CU所包含的深度单元数目及该CU所包含的第k个深度单元的预测值。通过预测CU的划分深度,提前终止编码器中CU的划分过程可以节省不必要的编码时间,提高编码效率。
在本实施例中,基于概率模型用于划分模式预测的13个参考CU示意图如图3所述:在本实施例中,使用时空域相邻已编码CU的划分模式对未编码CU的划分模式进行预测,设计一个基于概率模型的划分模式选择算法来预测当前CU选择每种划分模式的概率,并按概率大小排序得到划分模式排序表,具体包括以下步骤:
步骤S21、获取参考CU的信息,选取13个时空域相邻的用于划分模式预测的参考CU构成集合S;这13个参考CU分别位于当前帧预测CU的上方、左方、左上方、右上方,以及预测CU前一帧的相应位置及其上方、下方、左方、右方与左上方、右上方、左下方、右下方,具体位置如图3所述,S的表达式如下:
S={Sref,Scur}
其中Sref及Scur分别表示位于当前帧及前一帧的CU参考集合,Sref及Scur的定义分别如下:
Sref={C(x+nw,y+mh,t-1)|-1≤n≤1,-1≤m≤1,n∈Z,m∈Z}
Scur={C(x-w,y-h,t),C(x,y-h,t),C(x+w,y-h,t),C(x-w,y,t)}
其中w和h分别表示CU的像素值长度和宽度;
步骤S22:使用参考CU的划分模式构成集合R,其定义如下:
R={MCU|CU∈S}
其中MCU表示CU的划分模式;
步骤S23:计算属于集合R的划分模式M成为最佳划分模式的概率P(bm=M|M∈R),函数表达式如下:
其中N(*)表示事件*发生的次数;
步骤S24:在获得了所有划分模式M成为最佳划分模式的概率之后,按照概率值大小对属于R的划分模式由高到低排序,将其余不属于R的模式排在之后,得到最佳划分模式排序表;
步骤S25:使用划分模式排序表进行划分模式决策,若当前划分模式的RD代价值(Rcur)大于目前获得的最小RD代价值(Rmin),则跳过其它还未测试的划分模式以减少编码复杂度,否则测试下一个模式并更新Rcur与Rmin。
在本实施例中,所述步骤S3利用集成学习得到的预测深度信息与概率模型得到的划分模式排序表指导CU划分的提前终止,从而节省视频编码时间,具体包括以下步骤:
步骤S31、开始当前CU编码,判断该CU的参考深度单元信息是否充足;若不充足则使用原始编码器对该CU进行编码,充足则跳到步骤S32。;
步骤S32、获取参考深度单元的信息并基于集成学习预测当前CU的深度值;若当前CU的实际深度值大于预测深度值,则结束该CU的编码流程,否则跳到步骤S33;
步骤S33、获取当前CU的参考CU划分模式信息,并使用概率模型对当前CU的划分模式进行预测,得到划分模式排序表,并跳到步骤S34;
步骤S34、按照划分模式排序表对当前CU的划分模式进行编码,更新Rcur和Rmin,并跳到步骤S35;
步骤S35、如果Rcur>Rmin或者所有划分模式都已被编码过,则结束当前CU的编码流程,否则跳到步骤S34,以测试下一个编码模式。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (7)
1.一种基于集成学习和概率模型的快速VVC帧内预测方法,其特征在于,包括以下步骤:
步骤S1:基于集成学习并利用视频序列的时空域相关性,预测得到不同编码单元的深度信息;
步骤S2:使用时空域相邻已编码CU的划分模式对未编码CU的划分模式进行预测,并按概率大小排序得到划分模式排序表;
步骤S3:根据得到的不同编码单元的深度信息和划分模式排序表,提前终止CU的划分;所述步骤S1具体为:
步骤S11:选定深度图参考单元,若当前帧领域存在已编码CU,就选定其深度图单元信息作为参考,否则选定前一帧相应位置的深度图单元信息作为参考;
步骤S12:读取数据集,对数据样本进行预处理,并送入三个不同的卷积神经网络进行网络训练,得到基于集成学习的深度预测模型;
步骤S13:将多尺度参考信息分别送入步骤S12训练好的三个卷积神经网络中,得到三个深度图单元预测值U1、U2及U3,使用多数投票法集成三个卷积神经网络的预测结果作为最终的输出;
步骤S14、获得CU预测深度图后,使用预测深度图的平均值作为最终CU的预测深度DO;
所述选定深度图参考单元的函数表达式如下:
其中X(x,y,t)表示第t帧位于(x,y)位置的深度图单元,其中Δx和Δy表示-n到n的整数。
3.根据权利要求1所述的基于集成学习和概率模型的快速VVC帧内预测方法,其特征在于,所述步骤S2具体为:
步骤S21:获取参考CU的信息,选取13个时空域相邻的用于划分模式预测的参考CU构成集合S;
步骤S22:选取集合S中所有参考CU的划分模式构成集合R;
步骤S23:计算属于集合R的划分模式M成为最佳划分模式的概率P(bm=M|M∈R);
步骤S24:在获得了所有划分模式M成为最佳划分模式的概率之后,按照概率值大小对属于R的划分模式进行排序,将其余不属于R的模式排在之后,得到最佳划分模式排序表;
步骤S25:使用划分模式排序表进行划分模式决策,若当前划分模式的RD代价值Rcur大于目前获得的最小RD代价值Rmin,则跳过其它还未测试的划分模式以减少编码复杂度,否则测试下一个模式并更新Rcur与Rmin。
4.根据权利要求3所述的基于集成学习和概率模型的快速VVC帧内预测方法,其特征在于,所述集合S的表达式如下:
S={Sref,Scur}
其中Sref及Scur分别表示位于当前帧及前一帧的参考CU集合,Sref及Scur的定义分别如下:
Sref={C(x+iw,y+jh,t-1)|-1≤i≤1,-1≤j≤1,i∈Z,j∈Z}
Scur={C(x-w,y-h,t),C(x,y-h,t),C(x+w,y-h,t),C(x-w,y,t)}
其中w和h分别表示CU的像素值长度和宽度。
5.根据权利要求3所述的基于集成学习和概率模型的快速VVC帧内预测方法,其特征在于,所述集合R具体为:
R={MCU|CU∈S}
其中MCU表示CU的划分模式,S为步骤S21获取的集合。
7.根据权利要求1所述的基于集成学习和概率模型的快速VVC帧内预测方法,其特征在于,所述步骤S3具体为:
步骤S31:开始当前CU编码,判断该CU的参考深度单元信息是否充足;若不充足则使用原始编码器对该CU进行编码,充足则跳到步骤S32;
步骤S32:获取参考深度单元的信息并预测当前CU的深度值;若当前CU的实际深度值大于预测深度值,结束该CU的编码流程,否则跳到步骤S33;
步骤S33:获取当前CU的参考CU划分模式信息,并使用概率模型对当前CU的划分模式进行排序并跳到步骤S34;
步骤S34:按照排序表对当前划分模式进行编码,并更新Rcur和Rmin,之后跳到步骤S35;
步骤S35:如果Rcur>Rmin或者所有划分模式都已被编码过,则结束当前CU的编码流程,否则跳到步骤S34,以测试下一个编码模式。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010618890.8A CN111711815B (zh) | 2020-06-30 | 2020-06-30 | 基于集成学习和概率模型的快速vvc帧内预测方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010618890.8A CN111711815B (zh) | 2020-06-30 | 2020-06-30 | 基于集成学习和概率模型的快速vvc帧内预测方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111711815A CN111711815A (zh) | 2020-09-25 |
| CN111711815B true CN111711815B (zh) | 2021-09-28 |
Family
ID=72544094
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010618890.8A Active CN111711815B (zh) | 2020-06-30 | 2020-06-30 | 基于集成学习和概率模型的快速vvc帧内预测方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111711815B (zh) |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113315967B (zh) * | 2021-07-28 | 2021-11-09 | 腾讯科技(深圳)有限公司 | 视频编码方法、装置、介质及电子设备 |
| CN114257808B (zh) * | 2021-11-09 | 2025-07-01 | 阿里巴巴创新公司 | 图像块划分的预测方法、系统、解码方法、设备及介质 |
| CN114219973B (zh) * | 2021-12-17 | 2025-08-22 | 南京理工大学 | 基于卷积神经网络的vvc块划分快速预测方法及系统 |
| CN116033172B (zh) * | 2022-12-18 | 2024-01-05 | 北京盛大博通文化发展有限公司 | 一种vvc帧内快速编码方法 |
| CN116456088B (zh) * | 2023-03-30 | 2024-12-10 | 国网浙江省电力有限公司台州供电公司 | 一种基于可能性大小的vvc帧内快速编码方法 |
| CN117729334B (zh) * | 2023-06-27 | 2025-09-23 | 小红书科技有限公司 | 视频编码方法、装置、电子设备及存储介质 |
| CN118018740B (zh) * | 2024-02-26 | 2024-10-11 | 重庆邮电大学 | 一种基于深度学习的360度视频帧间模式决策方法 |
| CN119052470A (zh) * | 2024-07-31 | 2024-11-29 | 重庆理工大学 | 一种基于深度学习的vvc帧内快速编码优化方法 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019001094A1 (zh) * | 2017-06-27 | 2019-01-03 | 杭州海康威视数字技术股份有限公司 | 一种视频编码方法、解码方法、装置及电子设备 |
| CN110650338A (zh) * | 2019-09-20 | 2020-01-03 | 中山大学 | 一种多功能视频编码帧内划分方法、系统及存储介质 |
| CN110691254A (zh) * | 2019-09-20 | 2020-01-14 | 中山大学 | 一种多功能视频编码的快速判决方法、系统及存储介质 |
| CN111263145A (zh) * | 2020-01-17 | 2020-06-09 | 福州大学 | 基于深度神经网络的多功能视频快速编码方法 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108174208B (zh) * | 2018-02-12 | 2020-05-12 | 杭州电子科技大学 | 一种基于特征分类的高效视频编码方法 |
| CN109684922B (zh) * | 2018-11-20 | 2023-04-07 | 浙江大学山东工业技术研究院 | 一种基于卷积神经网络的多模型对成品菜的识别方法 |
| CN110390341B (zh) * | 2019-07-26 | 2022-12-06 | 长安大学 | 基于卷积神经网络的绿通车运载货物放射源图像识别方法 |
-
2020
- 2020-06-30 CN CN202010618890.8A patent/CN111711815B/zh active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019001094A1 (zh) * | 2017-06-27 | 2019-01-03 | 杭州海康威视数字技术股份有限公司 | 一种视频编码方法、解码方法、装置及电子设备 |
| CN110650338A (zh) * | 2019-09-20 | 2020-01-03 | 中山大学 | 一种多功能视频编码帧内划分方法、系统及存储介质 |
| CN110691254A (zh) * | 2019-09-20 | 2020-01-14 | 中山大学 | 一种多功能视频编码的快速判决方法、系统及存储介质 |
| CN111263145A (zh) * | 2020-01-17 | 2020-06-09 | 福州大学 | 基于深度神经网络的多功能视频快速编码方法 |
Non-Patent Citations (2)
| Title |
|---|
| Confidence-based Fast Intra Prediction Algorithm;Hongan Wei;《2018 IEEE International Conference on Automation, Electronics and Electrical Engineering (AUTEEE)》;20190323;全文 * |
| Probability-Based Intra Encoder Optimization in High Efficiency Video Coding;Hongan Wei;《2018 IEEE Visual Communications and Image Processing (VCIP)》;20190425;全文 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111711815A (zh) | 2020-09-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111711815B (zh) | 基于集成学习和概率模型的快速vvc帧内预测方法 | |
| CN102137263B (zh) | 基于cnm关键帧分类的分布式视频编码及解码方法 | |
| CN114286093B (zh) | 一种基于深度神经网络的快速视频编码方法 | |
| CN110677644B (zh) | 一种视频编码、解码方法及视频编码帧内预测器 | |
| CN110248190B (zh) | 一种基于压缩感知的多层残差系数图像编码方法 | |
| CN108924558B (zh) | 一种基于神经网络的视频预测编码方法 | |
| CN104394409A (zh) | 基于空域相关性的hevc预测模式快速选择方法 | |
| CN112738511A (zh) | 一种结合视频分析的快速模式决策方法及装置 | |
| CN106507106A (zh) | 基于参考片的视频帧间预测编码方法 | |
| CN113132735A (zh) | 一种基于视频帧生成的视频编码方法 | |
| CN101888546A (zh) | 一种运动估计的方法及装置 | |
| WO2023024115A1 (zh) | 编码方法、解码方法、编码器、解码器和解码系统 | |
| CN102075757B (zh) | 通过边界检测作为运动估计参考的视频前景对象编码方法 | |
| KR101845622B1 (ko) | 영상에 대한 적응적 rdpcm 방법, 적응적 rdpcm에 기반한 인코딩 방법 및 적응적 rdpcm에 기반한 디코딩 방법 | |
| CN113810715B (zh) | 一种基于空洞卷积神经网络的视频压缩参考图像生成方法 | |
| CN107690069B (zh) | 一种数据驱动的级联视频编码方法 | |
| CN103888763A (zh) | 一种基于hevc的帧内编码方法 | |
| CN102592130B (zh) | 一种针对水下显微视频的目标识别系统及其视频编码方法 | |
| CN113822801B (zh) | 基于多分支卷积神经网络的压缩视频超分辨率重建方法 | |
| CN110225339A (zh) | 一种hevc视频序列编解码加速方法 | |
| CN111212292B (zh) | 基于h.266的自适应cu分区和跳过模式方法 | |
| CN113784147A (zh) | 一种基于卷积神经网络的高效视频编码方法及系统 | |
| TWI403175B (zh) | 畫面內預測模式最佳化方法與影像壓縮方法以及裝置 | |
| CN114222124B (zh) | 一种编解码方法及设备 | |
| CN113271461B (zh) | 基于自适应代价分数阈值的帧内预测模式判决方法和系统 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |