[go: up one dir, main page]

CN112562056B - 虚拟演播室中虚拟灯光的控制方法、装置、介质与设备 - Google Patents

虚拟演播室中虚拟灯光的控制方法、装置、介质与设备 Download PDF

Info

Publication number
CN112562056B
CN112562056B CN202011411360.2A CN202011411360A CN112562056B CN 112562056 B CN112562056 B CN 112562056B CN 202011411360 A CN202011411360 A CN 202011411360A CN 112562056 B CN112562056 B CN 112562056B
Authority
CN
China
Prior art keywords
target object
virtual
picture
real scene
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011411360.2A
Other languages
English (en)
Other versions
CN112562056A (zh
Inventor
王毅
赵冰
钱骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Boguan Information Technology Co Ltd
Original Assignee
Guangzhou Boguan Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Boguan Information Technology Co Ltd filed Critical Guangzhou Boguan Information Technology Co Ltd
Priority to CN202011411360.2A priority Critical patent/CN112562056B/zh
Publication of CN112562056A publication Critical patent/CN112562056A/zh
Application granted granted Critical
Publication of CN112562056B publication Critical patent/CN112562056B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

本公开提供了一种虚拟演播室中虚拟灯光的控制方法、虚拟演播室中虚拟灯光的控制装置、计算机可读存储介质与电子设备,属于计算机技术领域。所述方法包括:获取摄像机拍摄的包含目标对象的真实场景画面;在所述真实场景画面中,提取所述目标对象的抠像画面;基于所述抠像画面,确定所述目标对象在虚拟演播室中的位置;根据所述目标对象在所述虚拟演播室中的位置确定虚拟灯光的光束位置,以控制所述虚拟灯光向所述光束位置照射。本公开可以实现虚拟演播室中虚拟灯光的控制,丰富节目制作效果。

Description

虚拟演播室中虚拟灯光的控制方法、装置、介质与设备
技术领域
本公开涉及计算机技术领域,尤其涉及一种虚拟演播室中虚拟灯光的控制方法、虚拟演播室中虚拟灯光的控制装置、计算机可读存储介质与电子设备。
背景技术
虚拟演播室是一种独特的电视节目制作技术,其实质是将计算机制作的虚拟三维场景与摄像机现场拍摄的人物活动图像进行数字化的实时合成,使人物与虚拟背景能够同步变化,实现两者的融合。通过这种方式,可以实现丰富的节目效果,节省舞台的搭建成本,并且由于虚拟三维场景可以重复利用,可以加大地减少开发人员的工作量,也有助于开发新的场景画面等。
在虚拟演播室中,灯光是非常重要的组成部分,可以用于塑造虚拟三维场景的环境气氛、人物照明、表现场景细节等。因此,需要提供一种能够有效控制虚拟演播室中虚拟灯光的方法。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供了一种虚拟演播室中虚拟灯光的控制方法、虚拟演播室中虚拟灯光的控制装置、计算机可读存储介质与电子设备,进而至少在一定程度上实现虚拟演播室中虚拟灯光的控制问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种虚拟演播室中虚拟灯光的控制方法,所述方法包括:获取摄像机拍摄的包含目标对象的真实场景画面;在所述真实场景画面中,提取所述目标对象的抠像画面;基于所述抠像画面,确定所述目标对象在虚拟演播室中的位置;根据所述目标对象在所述虚拟演播室中的位置确定虚拟灯光的光束位置,以控制所述虚拟灯光向所述光束位置照射。
在本公开的一种示例性实施方式中,所述获取摄像机拍摄的包含目标对象的真实场景画面,包括:接收由至少一个摄像机发送的所述目标对象的真实场景画面。
在本公开的一种示例性实施方式中,所述在所述真实场景画面中,提取所述目标对象的抠像画面,包括:对所述真实场景画面进行预处理,确定所述目标对象的像素区域;基于所述目标对象的像素区域,提取所述目标对象的特征信息,并通过所述特征信息提取所述目标对象的抠像画面。
在本公开的一种示例性实施方式中,所述对所述真实场景画面进行预处理,确定所述目标对象的像素区域,包括:将所述真实场景画面进行二值化处理,得到所述真实场景画面的二值画面;在所述二值画面中,确定所述目标对象的像素分布,并去除所述二值画面中的干扰点,以得到所述目标对象的像素区域。
在本公开的一种示例性实施方式中,所述基于所述目标对象的像素区域,提取所述目标对象的特征信息,并通过所述特征信息提取所述目标对象的抠像画面,包括:生成所述像素区域的像素矩阵;采用卷积神经网络模型对所述像素矩阵进行降维处理,生成所述目标对象的特征信息;通过预先训练的人工神经网络模型和所述特征信息提取所述目标对象的抠像画面。
在本公开的一种示例性实施方式中,在采用卷积神经网络模型对所述像素矩阵进行降维处理时,所述方法还包括:通过反向传播算法对所述卷积神经网络模型进行训练。
在本公开的一种示例性实施方式中,所述基于所述抠像画面,确定所述目标对象在虚拟演播室中的位置,包括:将所述抠像画面中各像素的灰度值作为各所述像素的像素权重;根据所述像素权重计算所述目标对象的重心在所述真实场景画面中的坐标;根据所述目标对象的重心在所述真实场景画面中的坐标与所述真实场景画面的中心坐标的差值,确定所述目标对象的重心在所述虚拟演播室中的位置。
在本公开的一种示例性实施方式中,所述根据所述目标对象在所述虚拟演播室中的位置确定虚拟灯光的光束位置,包括:对所述目标对象的重心在所述虚拟演播室中的位置增加预设偏移值,确定所述虚拟灯光的追光点位置;确定所述虚拟灯光的光源位置,并根据所述光源位置和所述虚拟灯光的追光点位置确定所述虚拟灯光的光束方向。
在本公开的一种示例性实施方式中,在确定所述目标对象在虚拟演播室中的位置后,所述方法还包括:获取所述虚拟演播室的虚拟场景画面;基于所述目标对象在虚拟演播室中的位置,将所述目标对象的抠像画面合成至所述虚拟场景画面,生成所述虚拟演播室的目标画面。
根据本公开的第二方面,提供一种虚拟演播室中虚拟灯光的控制装置,所述装置包括:获取模块,用于获取摄像机拍摄的包含目标对象的真实场景画面;提取模块,用于在所述真实场景画面中,提取所述目标对象的抠像画面;确定模块,用于基于所述抠像画面,确定所述目标对象在虚拟演播室中的位置;控制模块,用于根据所述目标对象在所述虚拟演播室中的位置确定虚拟灯光的光束位置,以控制所述虚拟灯光向所述光束位置照射。
在本公开的一种示例性实施方式中,所述获取模块用于接收由至少一个摄像机发送的所述目标对象的真实场景画面。
在本公开的一种示例性实施方式中,所述提取模块用于对所述真实场景画面进行预处理,确定所述目标对象的像素区域,基于所述目标对象的像素区域,提取所述目标对象的特征信息,并通过所述特征信息提取所述目标对象的抠像画面。
在本公开的一种示例性实施方式中,所述提取模块还用于将所述真实场景画面进行二值化处理,得到所述真实场景画面的二值画面,在所述二值画面中,确定所述目标对象的像素分布,并去除所述二值画面中的干扰点,以得到所述目标对象的像素区域。
在本公开的一种示例性实施方式中,所述提取模块还用于生成所述像素区域的像素矩阵,采用卷积神经网络模型对所述像素矩阵进行降维处理,生成所述目标对象的特征信息,通过预先训练的人工神经网络模型和所述特征信息提取所述目标对象的抠像画面。
在本公开的一种示例性实施方式中,在采用卷积神经网络模型对所述像素矩阵进行降维处理时,所述提取模块还用于通过反向传播算法对所述卷积神经网络模型进行训练。
在本公开的一种示例性实施方式中,所述确定模块用于将所述抠像画面中各像素的灰度值作为所述各像素的像素权重,根据所述像素权重计算所述目标对象的重心在所述真实场景画面中的坐标,根据所述目标对象的重心在所述真实场景画面中的坐标与所述真实场景画面的中心坐标的差值,确定所述目标对象的重心在所述虚拟演播室中的位置。
在本公开的一种示例性实施方式中,所述控制模块用于对所述目标对象的重心在所述虚拟演播室中的位置增加预设偏移值,确定所述虚拟灯光的追光点位置,确定所述虚拟灯光的光源位置,并根据所述光源位置和所述虚拟灯光的追光点位置确定所述虚拟灯光的光束方向。
在本公开的一种示例性实施方式中,在确定所述目标对象在虚拟演播室中的位置后,所述确定模块还用于获取所述虚拟演播室的虚拟场景画面,基于所述目标对象在虚拟演播室中的位置,将所述目标对象的抠像画面合成至所述虚拟场景画面,生成所述虚拟演播室的目标画面。
根据本公开的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一种虚拟演播室中虚拟灯光的控制方法。
根据本公开的第四方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一种虚拟演播室中虚拟灯光的控制方法。
本公开具有以下有益效果:
根据本示例性实施方式中的虚拟演播室中虚拟灯光的控制方法、虚拟演播室中虚拟灯光的控制装置、计算机可读存储介质和电子和设备,可以通过获取摄像机拍摄的目标对象的真实场景画面,在真实场景画面中提取目标对象的抠像画面,基于该抠像画面,确定目标对象在虚拟演播室中的位置,并根据目标对象在虚拟演播室中的位置确定虚拟灯光的光束位置,以控制虚拟灯光向上述光束位置照射。本示例性实施方式通过目标对象在虚拟演播室中的位置确定虚拟灯光的光束位置,控制虚拟灯光向该光束位置照射,可以在虚拟演播室中实现追光灯的效果,提高节目中的灯光丰富度,满足各式各样的节目效果需求,不需要操作人员根据节目制作需求自行设置灯光照射方式,极大地减少了操作人员的工作量。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施方式,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本示例性实施方式中一种虚拟灯光的控制方法的流程图;
图2示出本示例性实施方式中一种摄像机的机位分布示意图;
图3示出本示例性实施方式中一种抠像画面的示意图;
图4示出本示例性实施方式中一种虚拟灯光的控制的子流程图;
图5示出本示例性实施方式中一种目标对象的示意图;
图6示出本示例性实施方式中一种提取抠像画面的流程图;
图7示出本示例性实施方式中一种目标对象重心位置的示意图;
图8示出本示例性实施方式中一种虚拟灯光的显示示意图;
图9示出本示例性实施方式中一种虚拟灯光的控制装置的结构框图;
图10示出本示例性实施方式中一种用于实现上述方法的电子设备。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
本公开的示例性实施方式首先提供了一种虚拟演播室中虚拟灯光的控制方法。该方法可以应用于电子设备,使其可以在虚拟演播室中控制虚拟灯光按照相应的方式照射。其中,虚拟演播室是一种特殊的电视节目制作方法,其技术是在传统色键抠像技术的基础上,利用计算机三维图形技术和视频合成技术,根据摄像机的位置与参数,使三维虚拟场景的透视关系与前景保持一致,经过色键合成后,使得前景中的拍摄对象在视觉效果上完全浸尽于计算机所产生的三维虚拟场景中,使其呈现出逼真的、立体感很强的电视演播室效果。
图1示出了本示例性实施方式的一种流程,可以包括以下步骤S110~S140:
步骤S110.获取摄像机拍摄的包含目标对象的真实场景画面。
其中,目标对象是指真实场景画面中的角色,可以是人物、动物等;真实场景画面是指目标对象在现实场景中的画面,一般的,真实场景画面可以是通过摄像机拍摄到的演员、主持人等拍摄对象在现实场景中的拍摄画面。
本示例性实施方式中,可以通过网络或特定的数据接口,如USB(UniversalSerial Bus,通用串行总线)接口等接收摄像机拍摄到的目标对象的真实场景画面,例如,在拍摄过程中,可以通过网络实时接收摄像机发送的真实场景画面。同时,在现实环境中,摄像机可能位于单独的拍摄影棚或一些户外的拍摄地,处理真实场景画面的机器可能位于另外的场所,因此,在一些情况下,需要增加一个中间传输的计算机设备来集成和传输摄像机的视频信号。
为了确定目标对象在现实环境中的位置和姿态,使目标对象在虚拟演播室中呈现出立体感,在一种可选的实施方式中,步骤S110可以通过接收由至少一个摄像机发送的目标对象的真实场景画面来实现。具体的,当采用多个摄像机拍摄时,各摄像机可以分别位于目标对象的不同观察视角,以三个摄像机为例,各摄像机可以是普通的摄像设备,参考图2所示,各摄像机可以分别位于目标对象的正上方、正前方和左侧位置,来拍摄目标对象在各自观察视角下的真实场景画面;当采用一个摄像机或者两个摄像机进行拍摄时,为了便于确定目标对象在现实环境中的位置和姿态,摄像机可以采用具备景深功能的摄像设备,使其通过计算目标对象在空间中的位置关系拍摄得到目标对象的真实场景画面。
步骤S120.在真实场景画面中,提取目标对象的抠像画面。
其中,抠像画面是指仅包含目标对象的画面,例如,抠像画面可以是真实场景画面中位于主体前面或靠近前沿的人或物的画面。
通过识别真实场景画面中的目标对象,可以在真实场景画面中去掉目标对象以外的画面,抠取出目标对象所在的画面。
在实际应用中,为了便于抠取目标对象的画面,演员或者主持人等目标对象可以在绿幕环境中拍摄,在提取目标对象的抠像画面时,可以通过识别绿幕环境的颜色分布等将目标对象所在的背景删除。例如,参考图3所示,当演员或主持人在绿幕环境中表演时,通过去除绿幕背景,可以直接得到各摄像机视角下目标对象的抠像画面。
然而,考虑到在现实环境中,绿幕背景可能会存在干扰点或颜色分布不均匀等的情况,在这种情况下,很难通过简单的颜色区分直接提取目标对象的抠像画面。因此,在一种可选的实施方式中,参考图4所示,步骤S120可以通过以下步骤S410~S420实现:
步骤S410.对上述真实场景画面进行预处理,确定目标对象的像素区域。
步骤S420.基于上述目标对象的像素区域,提取该目标对象的特征信息,并通过该特征信息提取目标对象的抠像画面。
其中,目标对象的像素区域是指目标对象在真实场景画面中的像素分布位置;目标对象的特征信息可以包括目标对象所在画面区域内的颜色特征、纹理特征、轮廓特征等。
当真实场景画面中目标对象的区分条件不佳时,可以首先对上述真实场景画面进行预处理,如删除真实场景画面中一定范围内的背景画面,确定目标对象画面的大致范围,得到目标对象的像素区域,从而按照该像素区域,通过提取目标对象在上述像素区域中的特征信息提取出目标对象的抠像画面。
通常,真实场景画面中的像素数量是非常大的,在提取目标对象的特征信息时,若对目标对象的全部像素进行处理,则需要耗费大量的计算机资源。因此,为了提高提取抠像画面的速度,减少对计算机资源的浪费,在一种可选的实施方式中,步骤S420可以通过以下方法实现:
生成上述像素区域的像素矩阵;
采用卷积神经网络模型对该像素矩阵进行降维处理,生成目标对象的特征信息;
通过预先训练的人工神经网络模型和上述特征信息提取目标对象的抠像画面。
按照目标对象所在画面区域的像素生成上述像素区域的像素矩阵,例如,可以在对真实场景画面进行预处理后,根据目标对象所在画面区域的像素生成由0、1构成的像素矩阵,采用卷积神经网络模型对该像素矩阵进行降维处理,具体的,通过卷积神经网络模型的卷积层对像素矩阵进行处理,提取出目标对象所在画面区域的局部特征,并通过池化层降低参数数量级,完成对上述像素矩阵的降维处理,通过全连接层输出结果,得到目标对象的特征信息,最后通过预先训练的人工神经网络模型和上述特征信息提取出目标对象的抠像画面。
通过采用卷积神经网络模型对像素矩阵进行降维处理,可以将大数据量的图像降维处理成小数据量的数据,同时,能够保留目标对象所在画面区域的特征,以类似人类视觉的方式提取出目标对象的特征信息。
进一步的,在采用卷积神经网络模型对像素矩阵进行降维处理,生成目标对象的特征信息时,为了提高生成特征信息的准确率,在一种可选的实施方式中,可以通过反向传播算法对上述卷积神经网络模型进行训练。例如,可以在每次训练后,采用梯度下降算法等更新卷积神经网络模型的参数,使得通过卷积神经网络模型得到的特征信息的误差最小。
此外,在通过步骤S410对上述真实场景画面进行预处理时,为了便于确定目标对象的像素区域,在一种可选的实施方式中,可以通过以下方式对真实场景画面进行预处理:
将上述真实场景画面进行二值化处理,得到该真实场景画面的二值画面;
在上述二值画面中,确定目标对象的像素分布,并去除二值画面中的干扰点,以得到目标对象的像素区域。
对真实场景画面进行二值化处理,实际上就是使真实场景画面呈现出明显的黑白效果的过程,且相比真实场景画面,二值画面更能凸显出目标对象的关键轮廓,且数据量更小,更便于计算。具体的,在对真实场景画面进行二值化处理时,可以将真实场景画面转换为灰度画面,如可以通过以下公式(1)计算每个像素的灰度值,从而将真实场景画面转换为灰度画面:
Gray=0.299R+0.587G+0.114B (1)
其中,R、G、B分别表示对应像素在各个颜色通道上的像素值。
在得到真实场景画面的灰度画面后,可以根据灰度画面的灰度值将除0以外的像素值全部设置为255,得到真实场景画面的二值画面,进而根据该二值画面确定目标对象的像素分布,去除目标对象像素分布内的干扰点,从而得到目标对象的像素区域。
此外,为了减小计算量,在得到真实场景画面的二值画面后,还可以根据目标对象所在的画面区域,裁减掉目标对象所在画面区域以外的画面。例如,在得到如图5所示的灰度画面后,可以将灰度画面中目标对象510所在画面区域以外的画面进行删除,从而得到仅包括目标对象510的灰度画面。
图6示出了本示例性实施方式中一种提取抠像画面的流程图,如图所示,可以将真实场景画面转换为灰度画面,并将灰度画面转换为二值画面,编辑去除真实场景画面中与目标对象所在画面区域距离较远的边界画面,确定目标对象所在的画面区域,进而确定目标对象的像素分布,去除目标对象像素分布区域内的干扰点,确定目标对象的像素区域;根据目标对象的像素区域,提取目标对象的特征信息,并通过预先训练的人工神经网络模型进行特征匹配,确定画面中目标对象的画面范围,剔除画面中的背景环境等,从而提取出目标对象的抠像画面。
在通过人工神经网络模型进行特征匹配的过程中,需要通过预先建立的对象特征数据库对模型进行预训练,使模型可以准确分辨画面中是否存在目标对象,以及目标对象所在的画面区域等。
步骤S130.基于上述抠像画面,确定目标对象在虚拟演播室中的位置。
为了使画面呈现出丰富的特效,如在电影中增加怪兽特效,或者在天气预报节目中呈现暴风雨的特效等,需要将目标对象与虚拟演播室的画面进行融合,且在融合过程中,需要确定目标对象在虚拟演播室中的位置,使目标对象与虚拟演播室的场景中呈现出真实度较高的视觉效果。
为了便于确定目标对象在虚拟演播室中的位置,在一种可选的实施方式中,步骤S130可以通过以下方式实现:
将上述抠像画面中各像素的灰度值作为上述各像素的像素权重;
根据上述像素权重计算目标对象的重心在真实场景画面中的坐标;
根据上述目标对象的重心在真实场景画面中的坐标与真实场景画面的中心坐标的差值,确定目标对象的重心在虚拟演播室中的位置。
具体的,在提取出目标对象的抠像画面后,可以将抠像画面中各个像素的灰度值作为每个像素的像素权重,按照公式(2)和(3)计算目标对象在真实场景画面中的重心坐标:
其中,X和Y分别表示目标对象的重心在真实场景画面中x方向和y方向上的像素坐标,wn表示x方向上第n列中的各个像素的权重,w′n表示y方向上第n行中各个像素的权重,以w1为例,其可以表示x方向上第1列中各个像素的权重;xn表示x方向上第n列中各个像素的像素值,yn表示y方向上第n行中各个像素的像素值,以x1为例,其可以表示x方向上第1列中各个像素的像素值;w表示真实场景画面中全部像素的权重之和的平均值。在计算过程中,可以将wn、w′n和xn、yn分别表示为向量,按照向量的点积计算wnxn和w′nyn的值,进而求得X和Y的值。
此外,在确定抠像画面的灰度值时,可以将抠像画面转换为灰度画面,进而确定每个像素的灰度值,或者也可以根据抠像画面在各个颜色通道,如红、黄、蓝颜色通道上的像素值,将该像素值转换为灰度值得到,例如,可以按照公式(1)计算抠像画面中每个像素的灰度值。
如图7所示,真实场景画面的中心坐标为Center(x,y),对于目标对象510而言,其重心在真实场景画面中的坐标为G(x,y),位于目标对象的腰部位置。本示例性实施方式中,当采用多个摄像机拍摄时,可以根据每个摄像机拍摄的真实场景画面确定每个拍摄视角下的目标对象的重心在真实场景画面中的位置,将该重心的位置输入至虚拟演播室中,便可以同步得到目标对象在虚拟演播室中的重心点。
步骤S140.根据目标对象在虚拟演播室中的位置确定虚拟灯光的光束位置,并控制虚拟灯光向上述光束位置照射。
其中,虚拟灯光的光束位置是指虚拟灯光在虚拟演播室中的灯光照射位置。
为了使虚拟灯光在虚拟演播室中呈现出追光灯的效果,在确定目标对象在虚拟演播室中的位置后,可以进一步确定虚拟灯光的光束位置,使虚拟灯光可以向相应的光束位置照射。
根据目标对象的类型和在虚拟演播室中的位置,可以确定目标对象在虚拟演播室中的追光点,以在虚拟演播室中突出呈现目标对象,具体的,在一种可选的实施方式中,步骤S140可以通过以下方式实现:
对目标对象的重心在虚拟演播室中的位置增加预设偏移值,确定虚拟灯光的追光点位置;
确定虚拟灯光的光源位置,并根据该光源位置和虚拟灯光的追光点位置确定虚拟灯光的光束方向。
其中,追光点位置是虚拟灯光在目标对象所在范围内的灯光照射位置;预设偏移值是指虚拟灯光的追光点与目标对象的重心位置的距离,一般可以根据目标对象的类型等进行设置。
根据目标对象的重心在虚拟演播室中的坐标,为该坐标增加一定的预设偏移值,可以得到虚拟灯光的追光点位置,从而按照虚拟演播室中虚拟灯光的光源位置,确定光源位置到上述追光点位置的方向和距离等,得到虚拟灯光的光束方向。具体的,可以根据光源位置和追光灯位置的坐标计算得到表示虚拟灯光光束方向的向量,根据该向量控制虚拟灯光沿对应的方向照射,从而实现如图8所示的虚拟灯光在目标对象所在范围内的追光位置锁定。
在一些情况下,当目标对象在虚拟演播室中所占的区域很小时,可以直接将目标对象在虚拟演播室中的位置直接确定为虚拟灯光的光束位置,以使虚拟灯光向该光束位置照射。
此外,为了实现目标对象和虚拟演播室的融合,在一种可选的实施方式中,可以通过以下方式将目标对象的抠像画面融合至虚拟场景画面:
获取虚拟演播室的虚拟场景画面;
基于目标对象在虚拟演播室中的位置,将该目标对象的抠像画面融合至虚拟场景画面,生成虚拟演播室的目标画面。
其中,虚拟场景画面可以通过三维建模软件预先生成,例如,在直播应用中,虚拟场景画面可以在直播引擎中搭建。
按照目标对象在虚拟演播室中的位置,将目标对象的抠像画面融合至虚拟场景画面中,使目标对象在虚拟演播室中呈现浸入式的视觉效果。
综上,根据本示例性实施方式中的虚拟演播室中虚拟灯光的控制方法,可以通过获取摄像机拍摄的目标对象的真实场景画面,在真实场景画面中提取目标对象的抠像画面,基于该抠像画面,确定目标对象在虚拟演播室中的位置,并根据目标对象在虚拟演播室中的位置确定虚拟灯光的光束位置,以控制虚拟灯光向上述光束位置照射。本示例性实施方式通过目标对象在虚拟演播室中的位置确定虚拟灯光的光束位置,控制虚拟灯光向该光束位置照射,可以在虚拟演播室中实现追光灯的效果,提高节目中的灯光丰富度,满足各式各样的节目效果需求,不需要操作人员根据节目制作需求自行设置灯光照射方式,极大地减少了操作人员的工作量。
本示例性实施方式还提供了一种虚拟演播室中虚拟灯光的控制装置,参考图9所示,虚拟灯光的控制装置900包括:获取模块910,可以用于获取摄像机拍摄的包含目标对象的真实场景画面;提取模块920,可以用于在真实场景画面中,提取目标对象的抠像画面;确定模块930,可以用于基于抠像画面,确定目标对象在虚拟演播室中的位置;控制模块940,可以用于根据目标对象在虚拟演播室中的位置确定虚拟灯光的光束位置,以控制虚拟灯光向光束位置照射。
在本公开的一种示例性实施方式中,获取模块910可以用于接收由至少一个摄像机发送的目标对象的真实场景画面。
在本公开的一种示例性实施方式中,提取模块920可以用于对真实场景画面进行预处理,确定目标对象的像素区域,基于目标对象的像素区域,提取目标对象的特征信息,并通过特征信息提取目标对象的抠像画面。
在本公开的一种示例性实施方式中,提取模块920还可以用于将真实场景画面进行二值化处理,得到真实场景画面的二值画面,在二值画面中,确定目标对象的像素分布,并去除二值画面中的干扰点,以得到目标对象的像素区域。
在本公开的一种示例性实施方式中,提取模块920还可以用于生成像素区域的像素矩阵,采用卷积神经网络模型对像素矩阵进行降维处理,生成目标对象的特征信息,通过预先训练的人工神经网络模型和特征信息提取目标对象的抠像画面。
在本公开的一种示例性实施方式中,在采用卷积神经网络模型对像素矩阵进行降维处理时,提取模块920还可以用于通过反向传播算法对卷积神经网络模型进行训练。
在本公开的一种示例性实施方式中,确定模块930可以用于将抠像画面中各像素的灰度值作为各像素的像素权重,根据上述像素权重计算目标对象的重心在真实场景画面中的坐标,根据目标对象的中心在真实场景画面中的坐标与真实场景画面的中心坐标的差值,确定目标对象的重心在虚拟演播室中的位置。
在本公开的一种示例性实施方式中,控制模块940可以用于对目标对象的重心在虚拟演播室中的位置增加预设偏移值,确定虚拟灯光的追光点位置,确定虚拟灯光的光源位置,并根据光源位置和虚拟灯光的追光点位置确定虚拟灯光的光束方向。
在本公开的一种示例性实施方式中,在确定目标对象在虚拟演播室中的位置后,确定模块930还可以用于获取虚拟演播室的虚拟场景画面,基于目标对象在虚拟演播室中的位置,将目标对象的抠像画面合成至虚拟场景画面,生成虚拟演播室的目标画面。
上述装置中各模块的具体细节在方法部分实施方式中已经详细说明,未披露的方案细节内容可以参见方法部分的实施方式内容,因而不再赘述。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
本公开的示例性实施方式还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本公开的示例性实施方式还提供了一种能够实现上述方法的电子设备。下面参照图10来描述根据本公开的这种示例性实施方式的电子设备1000。图10显示的电子设备1000仅仅是一个示例,不应对本公开实施方式的功能和使用范围带来任何限制。
如图10所示,电子设备1000可以以通用计算设备的形式表现。电子设备1000的组件可以包括但不限于:上述至少一个处理单元1010、上述至少一个存储单元1020、连接不同系统组件(包括存储单元1020和处理单元1010)的总线1030和显示单元1040。
其中,存储单元1020存储有程序代码,程序代码可以被处理单元1010执行,使得处理单元1010执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,处理单元1010可以执行图1、图4和图6所示的方法步骤等。
存储单元1020可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)1021和/或高速缓存存储单元1022,还可以进一步包括只读存储单元(ROM)1023。
存储单元1020还可以包括具有一组(至少一个)程序模块1025的程序/实用工具1024,这样的程序模块1025包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1030可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1000也可以与一个或多个外部设备1100(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1000交互的设备通信,和/或与使得该电子设备1000能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1050进行。并且,电子设备1000还可以通过网络适配器1060与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1060通过总线1030与电子设备1000的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1000使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的示例性实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例性实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开示例性实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开示例性实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施方式。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施方式仅被视为示例性的,本公开的真正范围和精神由权利要求指出。

Claims (10)

1.一种虚拟演播室中虚拟灯光的控制方法,其特征在于,所述方法包括:
获取摄像机拍摄的包含目标对象的真实场景画面;
在所述真实场景画面中,提取所述目标对象的抠像画面;
将所述抠像画面中各像素的灰度值作为各所述像素的像素权重;根据所述像素权重计算所述目标对象的重心在所述真实场景画面中的坐标;根据所述目标对象的重心在所述真实场景画面中的坐标与所述真实场景画面的中心坐标的差值,确定所述目标对象的重心在虚拟演播室中的位置;
对所述目标对象的重心在所述虚拟演播室中的位置增加预设偏移值,确定虚拟灯光的追光点位置;确定所述虚拟灯光的光源位置,并根据所述光源位置和所述虚拟灯光的追光点位置确定所述虚拟灯光的光束方向,以控制所述虚拟灯光向所述虚拟灯光的光束方向照射。
2.根据权利要求1所述的控制方法,其特征在于,所述获取摄像机拍摄的包含目标对象的真实场景画面,包括:
接收由至少一个摄像机发送的所述目标对象的真实场景画面。
3.根据权利要求1所述的控制方法,其特征在于,所述在所述真实场景画面中,提取所述目标对象的抠像画面,包括:
对所述真实场景画面进行预处理,确定所述目标对象的像素区域;
基于所述目标对象的像素区域,提取所述目标对象的特征信息,并通过所述特征信息提取所述目标对象的抠像画面。
4.根据权利要求3所述的控制方法,其特征在于,所述对所述真实场景画面进行预处理,确定所述目标对象的像素区域,包括:
将所述真实场景画面进行二值化处理,得到所述真实场景画面的二值画面;
在所述二值画面中,确定所述目标对象的像素分布,并去除所述二值画面中的干扰点,以得到所述目标对象的像素区域。
5.根据权利要求3所述的控制方法,其特征在于,所述基于所述目标对象的像素区域,提取所述目标对象的特征信息,并通过所述特征信息提取所述目标对象的抠像画面,包括:
生成所述像素区域的像素矩阵;
采用卷积神经网络模型对所述像素矩阵进行降维处理,生成所述目标对象的特征信息;
通过预先训练的人工神经网络模型和所述特征信息提取所述目标对象的抠像画面。
6.根据权利要求5所述的控制方法,其特征在于,在采用卷积神经网络模型对所述像素矩阵进行降维处理时,所述方法还包括:
通过反向传播算法对所述卷积神经网络模型进行训练。
7.根据权利要求1所述的控制方法,其特征在于,在确定所述目标对象在虚拟演播室中的位置后,所述方法还包括:
获取所述虚拟演播室的虚拟场景画面;
基于所述目标对象在虚拟演播室中的位置,将所述目标对象的抠像画面合成至所述虚拟场景画面,生成所述虚拟演播室的目标画面。
8.一种虚拟演播室中虚拟灯光的控制装置,其特征在于,所述装置包括:
获取模块,用于获取摄像机拍摄的包含目标对象的真实场景画面;
提取模块,用于在所述真实场景画面中,提取所述目标对象的抠像画面;
确定模块,用于将所述抠像画面中各像素的灰度值作为各所述像素的像素权重;根据所述像素权重计算所述目标对象的重心在所述真实场景画面中的坐标;根据所述目标对象的重心在所述真实场景画面中的坐标与所述真实场景画面的中心坐标的差值,确定所述目标对象的重心在虚拟演播室中的位置;
控制模块,用于对所述目标对象的重心在所述虚拟演播室中的位置增加预设偏移值,确定虚拟灯光的追光点位置;确定所述虚拟灯光的光源位置,并根据所述光源位置和所述虚拟灯光的追光点位置确定所述虚拟灯光的光束方向,以控制所述虚拟灯光向所述虚拟灯光的光束方向照射。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述的方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-7任一项所述的方法。
CN202011411360.2A 2020-12-03 2020-12-03 虚拟演播室中虚拟灯光的控制方法、装置、介质与设备 Active CN112562056B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011411360.2A CN112562056B (zh) 2020-12-03 2020-12-03 虚拟演播室中虚拟灯光的控制方法、装置、介质与设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011411360.2A CN112562056B (zh) 2020-12-03 2020-12-03 虚拟演播室中虚拟灯光的控制方法、装置、介质与设备

Publications (2)

Publication Number Publication Date
CN112562056A CN112562056A (zh) 2021-03-26
CN112562056B true CN112562056B (zh) 2024-11-22

Family

ID=75048725

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011411360.2A Active CN112562056B (zh) 2020-12-03 2020-12-03 虚拟演播室中虚拟灯光的控制方法、装置、介质与设备

Country Status (1)

Country Link
CN (1) CN112562056B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115249262A (zh) * 2021-04-26 2022-10-28 海信集团控股股份有限公司 一种图像处理方法及设备
CN113115110B (zh) * 2021-05-20 2022-04-08 广州博冠信息科技有限公司 视频合成方法、装置、存储介质与电子设备
CN113436343B (zh) * 2021-06-21 2024-06-04 广州博冠信息科技有限公司 用于虚拟演播厅的画面生成方法及装置、介质及电子设备
CN113706719B (zh) * 2021-08-31 2024-07-12 广州博冠信息科技有限公司 虚拟场景的生成方法及装置、存储介质、电子设备
CN115996273B (zh) * 2021-10-19 2025-07-04 广州博冠信息科技有限公司 灯光控制方法及装置、电子设备、存储介质
CN114399425B (zh) * 2021-12-23 2024-08-06 北京字跳网络技术有限公司 一种图像处理方法、视频处理方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108234902A (zh) * 2017-05-08 2018-06-29 浙江广播电视集团 一种基于目标位置感知的演播室智能控制系统和方法
CN110838131A (zh) * 2019-11-04 2020-02-25 网易(杭州)网络有限公司 自动抠图的实现方法、装置、电子设备以及介质
CN111756956A (zh) * 2020-06-23 2020-10-09 网易(杭州)网络有限公司 虚拟演播厅中虚拟灯光控制方法及装置、介质及设备
CN111862348A (zh) * 2020-07-30 2020-10-30 腾讯科技(深圳)有限公司 视频显示方法、视频生成方法、装置、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140063061A1 (en) * 2011-08-26 2014-03-06 Reincloud Corporation Determining a position of an item in a virtual augmented space
CN104836938A (zh) * 2015-04-30 2015-08-12 江苏卡罗卡国际动漫城有限公司 一种基于ar技术的虚拟演播室系统
CN107770454A (zh) * 2017-09-05 2018-03-06 努比亚技术有限公司 一种图像处理方法、终端及计算机可读存储介质
CN109118497A (zh) * 2018-08-17 2019-01-01 珠海格力智能装备有限公司 确定图形的方法及装置、存储介质和处理器
CN110956063B (zh) * 2018-09-27 2024-09-20 北京小米移动软件有限公司 图像处理方法、装置、设备及存储介质
CN110264645A (zh) * 2019-04-16 2019-09-20 阿里巴巴集团控股有限公司 一种商品的自助收银方法和设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108234902A (zh) * 2017-05-08 2018-06-29 浙江广播电视集团 一种基于目标位置感知的演播室智能控制系统和方法
CN110838131A (zh) * 2019-11-04 2020-02-25 网易(杭州)网络有限公司 自动抠图的实现方法、装置、电子设备以及介质
CN111756956A (zh) * 2020-06-23 2020-10-09 网易(杭州)网络有限公司 虚拟演播厅中虚拟灯光控制方法及装置、介质及设备
CN111862348A (zh) * 2020-07-30 2020-10-30 腾讯科技(深圳)有限公司 视频显示方法、视频生成方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN112562056A (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
CN112562056B (zh) 虚拟演播室中虚拟灯光的控制方法、装置、介质与设备
US12175618B2 (en) Image processing method and apparatus, electronic device, and computer-readable storage medium
US12260572B2 (en) Single image 3D photography with soft-layering and depth-aware inpainting
CN110400363B (zh) 基于激光点云的地图构建方法和装置
CN110910486B (zh) 室内场景光照估计模型、方法、装置、存储介质以及渲染方法
CN108335353B (zh) 动态场景的三维重建方法、装置和系统、服务器、介质
US20230186550A1 (en) Optimizing generation of a virtual scene for use in a virtual display environment
US11328436B2 (en) Using camera effect in the generation of custom synthetic data for use in training an artificial intelligence model to produce an image depth map
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
CN112598780A (zh) 实例对象模型构建方法及装置、可读介质和电子设备
CN114358112B (zh) 视频融合方法、计算机程序产品、客户端及存储介质
CN113065506B (zh) 一种人体姿态识别方法及系统
CN115690382A (zh) 深度学习模型的训练方法、生成全景图的方法和装置
CN118446909A (zh) 新视角合成方法、装置、设备、介质及计算机程序产品
CN115272565A (zh) 一种头部三维模型的重建方法及电子设备
CN116012609A (zh) 一种环视鱼眼多目标跟踪方法、装置、电子设备及介质
WO2023217138A1 (zh) 一种参数配置方法、装置、设备、存储介质及产品
CN109816791B (zh) 用于生成信息的方法和装置
US11627297B1 (en) Method for image processing of image data for a two-dimensional display wall with three-dimensional objects
CN118570424B (zh) 虚拟现实导游系统
CN118447172B (zh) 数字孪生场景构建方法、设备、存储介质和程序产品
CN115018979A (zh) 图像重建方法、装置、电子设备、存储介质和程序产品
CN111192305B (zh) 用于生成三维图像的方法和装置
CN119516111A (zh) 图像重建方法、装置、设备、介质以及产品
CN118196269A (zh) 用于增强现实的光照估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant