CN116801037A - 将真人主播影像投射于远程真实环境的增强现实直播方法 - Google Patents
将真人主播影像投射于远程真实环境的增强现实直播方法 Download PDFInfo
- Publication number
- CN116801037A CN116801037A CN202310599440.2A CN202310599440A CN116801037A CN 116801037 A CN116801037 A CN 116801037A CN 202310599440 A CN202310599440 A CN 202310599440A CN 116801037 A CN116801037 A CN 116801037A
- Authority
- CN
- China
- Prior art keywords
- real
- live
- anchor
- client
- augmented reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种将真人主播影像投射于远程真实环境的增强现实直播方法。其中,方法包括:三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;客户端根据采集到的多个主播人体实时图像,生成主播的实时三维虚拟影像,并利用增强现实技术根据视觉地图将主播的实时三维虚拟影像投射于真实场景中;客户端将放置在真实场景中预定位置处的视频采集设备采集的视频流与主播的实时三维虚拟影像融合,生成直播视频流,并推送至直播平台服务器;直播平台服务器将直播视频流推送至用户的终端设备。
Description
技术领域
本发明涉及增强现实技术领域,并且更具体地,涉及一种将真人主播影像投射于远程真实环境的增强现实直播方法。
背景技术
传统电视户外直播,需要记者、主持人或者主播亲自来到现场进行播报,但这种方式不够便捷、成本较高、灵活性较差。目前市面上有一部分上虚拟直播、绿幕直播可以实现主播无需改变自己位置就能实现在各种不同场景下的直播,利用人体分割算法将人体与背景相分割,抠除背景只保留人物主体,再将一些提前录制好的图像和视频放置在背景中。但是存在如下缺陷:1.这种技术方法只是将主播背后的背景在2D平面的维度抠除,因此无法轻易的变换角度,也无法将主播影像任意放置于真实环境中的各个位置,真实感有所欠缺;2.其新增的背景并非实时的真实环境,大多数一些提前录制好的图像和视频,因此也无法表达实时的现场环境,主播也同样无法根据真实环境的动态变化做实时响应,例如介绍正在变化的一些场景,甚至是远程采访路人等等;3.由于没有AR技术的增强,也无法配合一些辅助性的3D虚拟AR内容,来增强直播的效果。
发明内容
针对现有技术的不足,本发明提供一种将真人主播影像投射于远程真实环境的增强现实直播方法。
根据本发明的一个方面,提供了一种将真人主播影像投射于远程真实环境的增强现实直播方法,包括:
三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
客户端根据采集到的多个主播人体实时图像,生成主播的实时三维虚拟影像,并利用增强现实技术根据视觉地图将主播的实时三维虚拟影像投射于真实场景中;
客户端将放置在真实场景中预定位置处的视频采集设备采集的视频流与主播的实时三维虚拟影像融合,生成直播视频流,并推送至直播平台服务器;
直播平台服务器将直播视频流推送至用户的终端设备。
可选地,还包括:客户端根据视觉地图在虚拟人物场景内容中搭建AR虚拟内容。
可选地,三维重建系统包括全景相机以及客户端,其中三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图的操作,包括:
利用全景相机采集真实场景环境信息,经全景相机处理后输出三维点云信息和图像信息至客户端;
客户端根据三维点云信息和图像信息,搭建视觉地图。
可选地,客户端根据预设在真实人体周围的预定数量的预设图像采集设备采集的多个主播人体实时图像,生成实时三维虚拟影像的操作,包括:
多个图像采集设备采集真实人体的多个主播人体实时图像,并利用人体分割算法将主播人体实时图像中的主体人物与环境进行分割,得到多个人体深度图传输至客户端;
客户端将人体深度图转换为点云信息,并将多个点云信息融和后转换为MESH和纹理贴图,并根据MESH和纹理贴图,生成实时三维虚拟影像。
可选地,还包括:
在视频流的当前图片帧未匹配到相关图片的情况下,则选择下一图片帧继续匹配,直至满足匹配需求。
可选地,还包括:
采用边缘网络技术进行增强现实服务器和客户端以及用户移动端之间的通信以及数据传输。
根据本发明的另一个方面,提供了一种将真人主播影像投射于远程真实环境的增强现实直播装置,包括:
形成模块,用于三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
第一生成模块,用于客户端根据采集到的多个主播人体实时图像,生成主播的实时三维虚拟影像,并利用增强现实技术根据视觉地图将主播的实时三维虚拟影像投射于真实场景中;
第二生成模块,用于客户端将放置在真实场景中预定位置处的视频采集设备采集的视频流与主播的实时三维虚拟影像融合,生成直播视频流,并推送至直播平台服务器;
推送模块,用于直播平台服务器将直播视频流推送至用户的终端设备。
根据本发明的又一个方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行本发明上述任一方面所述的方法。
根据本发明的又一个方面,提供了一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现本发明上述任一方面所述的方法。
从而,本申请采用数个深度摄像机在各个角度对真人主播进行全景拍摄,逐帧将获取到的各个角度的深度图最终转换为三维的MESH和材质贴图,再通过增强现实技术将其投射于真实的场景中,客户端会将实时视频流与虚拟内容(真人主播的投射影像与其他相配合的AR虚拟内容)合流后传输至直播端服务器,再将直播画面推流给观众。观众便可以看到真人主播在一个真实的实时场景下进行直播或表演,此外还有一些辅助性的AR虚拟元素来增强直播效果。并且在主播端加入位置操作设备(即视频采集设备),主播可以随时变化在真实环境下的位置。
附图说明
通过参考下面的附图,可以更为完整地理解本发明的示例性实施方式:
图1是本发明一示例性实施例提供的将真人主播影像投射于远程真实环境的增强现实直播方法的流程示意图;
图2是本发明一示例性实施例提供的将真人主播影像投射于远程真实环境的增强现实直播方法的流程示意图;
图3是本发明一示例性实施例提供的将真人主播影像投射于远程真实环境的增强现实直播装置的结构示意图;
图4是本发明一示例性实施例提供的电子设备的结构。
具体实施方式
下面,将参考附图详细地描述根据本发明的示例实施例。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是本发明的全部实施例,应理解,本发明不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
本领域技术人员可以理解,本发明实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本发明实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本发明实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本发明中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本发明中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本发明对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本发明实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
示例性方法
图1是本发明一示例性实施例提供的将真人主播影像投射于远程真实环境的增强现实直播方法的流程示意图。本实施例可应用在电子设备上,如图1所示,将真人主播影像投射于远程真实环境的增强现实直播方法100包括以下步骤:
步骤101,三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
可选地,还包括:客户端根据视觉地图在虚拟人物场景内容中搭建AR虚拟内容。
可选地,客户端对真实场景进行三维重建,形成真实场景的视觉地图的操作,包括:
利用全景相机采集真实场景环境信息,经全景相机处理后输出三维点云信息和图像信息至客户端;
客户端根据三维点云信息和图像信息,搭建视觉地图。
其中,利用全景相机采集真实世界的环境信息。全景相机的摄像角度完整,可以为三维重建提供良好的素材。
具体地,为了实现虚拟信息和真实场景的无缝叠加,需要对直播现场的物理环境进行采集,在户外视频直播的场景下,需要对户外场景下的例如大楼、道路、树木等进行具体的三维空间位置进行录制,然后在增强现实系统的服务器中进行三维重建,从而形成真实世界的视觉地图,三维重建是指对三维物体建立适合计算机表示和处理的数学模型,是在计算机环境下对其进行处理、操作和分析其性质的基础,也是在计算机中建立表达客观世界的虚拟现实的关键技术。
从而,通过三维重建对真实世界进行一次尺度准确的场景复原。真实场景的照片及对应的点云信息和位置信息将都会被部署于增强现实服务器,供客户端调用。
步骤102,客户端根据采集到的多个主播人体实时图像,生成主播的实时三维虚拟影像,并利用增强现实技术根据视觉地图将主播的实时三维虚拟影像投射于真实场景中;
可选地,客户端根据采集到的多个主播人体实时图像,生成主播的实时三维虚拟影像的操作,包括:
多个图像采集设备采集真实人体的多个主播人体实时图像,并利用人体分割算法将主播人体实时图像中的主体人物与环境进行分割,得到多个人体深度图传输至客户端;
客户端将人体深度图转换为点云信息,并将多个点云信息融和后转换为MESH和纹理贴图,并根据MESH和纹理贴图,生成实时三维虚拟影像。
其中,人体分割使用的是实例分割的方法,把图片中的每一个人体都作为一个单独的实例来处理,输入是一张RGB的图片,通过调用深度学习网络将图片中的人体分割出来,通过深度摄像头内部的深度传感器得到的深度以及人体的mask信息,可以插值出人体在场景中的深度,最后综合每个人体的深度mask,可以求得当前RGB图片对应的人体深度图。
具体地,点云转化为MESH及纹理贴图即为将各个角度摄像头输入的点云信息合成后转换为MESH和纹理贴图。然后将每一帧的MESH和纹理贴图合成为三维模型并逐帧播放(例如一秒钟播放30帧),最终形成实时的动态人物三维影像。
步骤103,客户端将放置在真实场景中预定位置处的视频采集设备采集的视频流与主播的实时三维虚拟影像融合,生成直播视频流,并推送至直播平台服务器;
其中,预定位置可以是预先选定的真实场景中用于摄像机拍摄的位置,射频采集设备可以是摄像机等采集设备。客户端将实时的视频流与实时的AR虚拟内容进行合流,生成直播视频流。推送至直播视频服务器。从而在主播端加入位置操作设备(即视频采集设备),主播可以随时变化在真实环境下的位置。
步骤104直播平台服务器将直播视频流推送至用户的终端设备。
从而,用户可以在以及的终端设备上观看增强现实的任务直播效果的视频。
可选地,还包括:
在视频流的当前图片帧未匹配到相关图片的情况下,则选择下一图片帧继续匹配,直至满足匹配需求。
可选地,还包括:
采用边缘网络技术进行增强现实服务器和客户端以及用户移动端之间的通信以及数据传输。
具体地,其中边缘网络能够保证快速的完成服务器和客户端之间的通讯,一个用户基于真实物理环境做出的交互行为,产生虚拟反馈的这一过程和结果将会通过边缘网络同步给服务器,并广播给其他用户,这也为多个用户能够协同互动提供了技术基础。
从而,本申请采用数个深度摄像机在各个角度对真人主播进行全景拍摄,逐帧将获取到的各个角度的深度图最终转换为三维的MESH和材质贴图,再通过增强现实技术将其投射于真实的场景中,客户端会将实时视频流与虚拟内容(真人主播的投射影像与其他相配合的AR虚拟内容)合流后传输至直播端服务器,再将直播画面推流给观众。观众便可以看到真人主播在一个真实的实时场景下进行直播或表演,此外还有一些辅助性的AR虚拟元素来增强直播效果。例如我们可以在真实的一个街区搭建了一个虚拟的舞台,舞台上有虚拟的灯光,烟花等等,再将真人主播的影像投射于舞台上进行表演。
示例性装置
图3是本发明一示例性实施例提供的将真人主播影像投射于远程真实环境的增强现实直播装置的结构示意图。如图3所示,装置300包括:
形成模块310,用于三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
第一生成模块320,用于客户端根据采集到的多个主播人体实时图像,生成主播的实时三维虚拟影像,并利用增强现实技术根据视觉地图将主播的实时三维虚拟影像投射于真实场景中;
第二生成模块330,用于客户端将放置在真实场景中预定位置处的视频采集设备采集的视频流与主播的实时三维虚拟影像融合,生成直播视频流,并推送至直播平台服务器;
推送模块340,用于直播平台服务器将直播视频流推送至用户的终端设备。
可选地,装置300还包括:搭建模块,用于客户端根据视觉地图在虚拟人物场景内容中搭建AR虚拟内容。
可选地,三维重建系统包括全景相机以及客户端,形成模块310包括:
输出子模块,用于利用全景相机采集真实场景环境信息,经全景相机处理后输出三维点云信息和图像信息至客户端;
搭建子模块,用于客户端根据三维点云信息和图像信息,搭建视觉地图。
可选地,第一生成模块320,包括:
分割子模块,用于多个图像采集设备采集真实人体的多个主播人体实时图像,并利用人体分割算法将主播人体实时图像中的主体人物与环境进行分割,得到多个人体深度图传输至客户端;
转换子模块,用于客户端将人体深度图转换为点云信息,并将多个点云信息融和后转换为MESH和纹理贴图,并根据MESH和纹理贴图,生成实时三维虚拟影像。
可选地,装置300还包括:
选择模块,用于在视频流的当前图片帧未匹配到相关图片的情况下,则选择下一图片帧继续匹配,直至满足匹配需求。
可选地,装置300还包括:
通信模块,用于采用边缘网络技术进行增强现实服务器和客户端以及用户移动端之间的通信以及数据传输。
示例性电子设备
图4是本发明一示例性实施例提供的电子设备的结构。如图4所示,电子设备40包括一个或多个处理器41和存储器42。
处理器41可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器42可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器41可以运行所述程序指令,以实现上文所述的本发明的各个实施例的软件程序的方法以及/或者其他期望的功能。在一个示例中,电子设备还可以包括:输入装置43和输出装置44,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入装置43还可以包括例如键盘、鼠标等等。
该输出装置44可以向外部输出各种信息。该输出装置44可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图4中仅示出了该电子设备中与本发明有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本发明的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本发明各种实施例的方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本发明实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本发明的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本发明各种实施例的对历史变更记录进行信息挖掘的方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、系统或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本发明的基本原理,但是,需要指出的是,在本发明中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本发明的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本发明为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本发明中涉及的器件、系统、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、系统、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本发明的方法和系统。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明的方法和系统。用于所述方法的步骤的上述顺序仅是为了进行说明,本发明的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
还需要指出的是,在本发明的系统、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本发明。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本发明的范围。因此,本发明不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本发明的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (9)
1.一种将真人主播影像投射于远程真实环境的增强现实直播方法,其特征在于,包括:
三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
客户端根据采集到的多个主播人体实时图像,生成所述主播的实时三维虚拟影像,并利用增强现实技术根据所述视觉地图将所述主播的所述实时三维虚拟影像投射于所述真实场景中;
所述客户端将放置在所述真实场景中预定位置处的视频采集设备采集的视频流与所述主播的所述实时三维虚拟影像融合,生成直播视频流,并推送至直播平台服务器;
所述直播平台服务器将所述直播视频流推送至用户的终端设备。
2.根据权利要求1所述的方法,其特征在于,还包括:所述客户端根据所述视觉地图在所述虚拟人物场景内容中搭建AR虚拟内容。
3.根据权利要求1所述的方法,其特征在于,所述三维重建系统包括全景相机以及所述客户端,其中三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图的操作,包括:
利用所述全景相机采集所述真实场景环境信息,经所述全景相机处理后输出三维点云信息和图像信息至所述客户端;
所述客户端根据所述三维点云信息和图像信息,搭建所述视觉地图。
4.根据权利要求1所述的方法,其特征在于,客户端根据采集到的多个主播人体实时图像,生成所述主播的实时三维虚拟影像的操作,包括:
多个图像采集设备采集所述真实人体的多个主播人体实时图像,并利用人体分割算法将所述主播人体实时图像中的主体人物与环境进行分割,得到多个人体深度图传输至所述客户端;
所述客户端将所述人体深度图转换为点云信息,并将多个所述点云信息融和后转换为MESH和纹理贴图,并根据所述MESH和纹理贴图,生成所述实时三维虚拟影像。
5.根据权利要求4所述的方法,其特征在于,还包括:
在所述视频流的当前图片帧未匹配到相关图片的情况下,则选择下一图片帧继续匹配,直至满足匹配需求。
6.根据权利要求1所述的方法,其特征在于,还包括:
采用边缘网络技术进行所述增强现实服务器和所述客户端以及所述用户移动端之间的通信以及数据传输。
7.一种将真人主播影像投射于远程真实环境的增强现实直播装置,其特征在于,包括:
形成模块,用于三维重建系统对真实场景进行三维重建,形成真实场景的视觉地图并部署于增强现实服务器;
第一生成模块,用于客户端根据采集到的多个主播人体实时图像,生成所述主播的实时三维虚拟影像,并利用增强现实技术根据所述视觉地图将所述主播的实时三维虚拟影像投射于所述真实场景中;
第二生成模块,用于所述客户端将放置在所述真实场景中预定位置处的视频采集设备采集的视频流与所述主播的实时三维虚拟影像融合,生成直播视频流,并推送至直播平台服务器;
推送模块,用于所述直播平台服务器将所述直播视频流推送至用户的终端设备。
8.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-6任一所述的方法。
9.一种电子设备,其特征在于,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1-6任一所述的方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310599440.2A CN116801037A (zh) | 2023-05-25 | 2023-05-25 | 将真人主播影像投射于远程真实环境的增强现实直播方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310599440.2A CN116801037A (zh) | 2023-05-25 | 2023-05-25 | 将真人主播影像投射于远程真实环境的增强现实直播方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN116801037A true CN116801037A (zh) | 2023-09-22 |
Family
ID=88033601
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202310599440.2A Pending CN116801037A (zh) | 2023-05-25 | 2023-05-25 | 将真人主播影像投射于远程真实环境的增强现实直播方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN116801037A (zh) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN118210381A (zh) * | 2024-05-17 | 2024-06-18 | 南京维赛客网络科技有限公司 | 一种真人投影到虚拟场景的显示方法、系统及存储介质 |
| WO2025113515A1 (zh) * | 2023-12-01 | 2025-06-05 | 北京字跳网络技术有限公司 | 一种增强现实方法、装置、电子设备及存储介质 |
-
2023
- 2023-05-25 CN CN202310599440.2A patent/CN116801037A/zh active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025113515A1 (zh) * | 2023-12-01 | 2025-06-05 | 北京字跳网络技术有限公司 | 一种增强现实方法、装置、电子设备及存储介质 |
| CN118210381A (zh) * | 2024-05-17 | 2024-06-18 | 南京维赛客网络科技有限公司 | 一种真人投影到虚拟场景的显示方法、系统及存储介质 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN113436343B (zh) | 用于虚拟演播厅的画面生成方法及装置、介质及电子设备 | |
| CN106162137B (zh) | 虚拟视点合成方法及装置 | |
| CN112712487B (zh) | 一种场景视频融合方法、系统、电子设备及存储介质 | |
| CN113382275B (zh) | 直播数据的生成方法、装置、存储介质及电子设备 | |
| CN112543344B (zh) | 直播控制方法、装置、计算机可读介质及电子设备 | |
| CN116801037A (zh) | 将真人主播影像投射于远程真实环境的增强现实直播方法 | |
| KR20150129260A (ko) | 오브젝트 가상현실 콘텐츠 서비스 시스템 및 방법 | |
| CN114358112B (zh) | 视频融合方法、计算机程序产品、客户端及存储介质 | |
| EP3776480A1 (en) | Method and apparatus for generating augmented reality images | |
| CN106657719A (zh) | 一种智能虚拟演播室系统 | |
| CN114581611B (zh) | 虚拟场景构建方法以及装置 | |
| CN113132708B (zh) | 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质 | |
| CN112153472A (zh) | 一种画面特效的生成方法及装置、存储介质及电子设备 | |
| CN112312041A (zh) | 基于拍摄的图像校正方法、装置、电子设备及存储介质 | |
| KR101913623B1 (ko) | 촬영 이미지를 이용한 3차원 광고 생성 방법 | |
| CN111399655A (zh) | 一种基于vr同步的图像处理方法及装置 | |
| KR101752691B1 (ko) | 시점 선택이 가능한 3차원 가상 콘텐츠 동영상을 제공하는 장치 및 그 방법 | |
| CN114745516A (zh) | 全景视频的生成方法、装置、存储介质及电子设备 | |
| JP7296735B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
| CN116863105A (zh) | 将人体三维影像投射于真实物理场景中的方法及相关装置 | |
| CN109636917B (zh) | 三维模型的生成方法、装置、硬件装置 | |
| KR102561903B1 (ko) | 클라우드 서버를 이용한 ai 기반의 xr 콘텐츠 서비스 방법 | |
| CN206302475U (zh) | 一种智能虚拟演播室系统 | |
| US11825191B2 (en) | Method for assisting the acquisition of media content at a scene | |
| CN117274140A (zh) | 基于色度抠像的图像合成方法、装置及视频直播系统 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication |