CN111819597B - 电子装置和图像处理方法 - Google Patents
电子装置和图像处理方法 Download PDFInfo
- Publication number
- CN111819597B CN111819597B CN201980017457.4A CN201980017457A CN111819597B CN 111819597 B CN111819597 B CN 111819597B CN 201980017457 A CN201980017457 A CN 201980017457A CN 111819597 B CN111819597 B CN 111819597B
- Authority
- CN
- China
- Prior art keywords
- processor
- image data
- line
- electronic device
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Sewing Machines And Sewing (AREA)
Abstract
提供了一种电子装置。所述电子装置包括:图像传感器,被配置为包括多对图像传感器,每对图像传感器面向基本相同的方向并且产生图像数据,并且所述每对图像传感器中的每个图像传感器具有不同的视场;处理器,被配置为可操作地连接到图像传感器;以及存储器,被配置为可操作地连接到处理器。存储器存储指令,所述指令在被执行时使得处理器执行以下操作:从所述多对图像传感器接收至少一组图像数据,从所述至少一组图像数据识别至少一个对象,确定所述至少一个对象的深度信息,以及使用所述至少一个对象和所述深度信息来对所述至少一组图像数据进行拼接。
Description
技术领域
本公开涉及一种用于捕获或处理图像的电子装置及一种用于对捕获的图像进行处理的方法。
背景技术
已经使用了能够捕获照片或视频的各种类型的电子装置、成像装置或相机装置。近来,已经开发了各种类型的电子装置,所述各种类型的电子装置中的每一个包括用于捕获虚拟现实(VR)图像或三维(3D)图像的多个相机。例如,电子装置可包括被布置使得视角至少彼此部分地重叠的多个相机(或多个图像传感器)。电子装置可将由多个相机收集的图像数据拼接在一起以产生全景图像、360度图像、3D图像等。
上述信息被呈现为背景信息仅用于帮助理解本公开。关于上述内容中的任意内容是否可适用为本公开的现有技术,尚未做出确定并且也未做出断言。
发明内容
技术问题
当对借助于多个相机收集的图像数据进行拼接时,根据现有技术的电子装置可通过默认设置来产生包括组合线(例如,接合线)的拼接图像。当组合线与用户感兴趣的对象重叠时,可能引起图像的失真或差异感,从而导致用户的不便。
当用户想要对拼接图像上的组合线进行移动时,他或她应该使用单独的程序或应用手动地对组合线进行移动。
技术方案
本公开的各方面旨在至少解决上述问题和/或缺点,并且至少提供下面描述的优点。因此,本公开的一方面是提供一种用于捕获或处理图像的电子装置及一种用于对捕获的图像进行处理的方法。
另外的方面将部分地在下面的描述中阐述,并且将部分地从描述中显而易见,或者可以通过实践所呈现的实施例而获知。
根据本公开的一方面,提供了一种电子装置。所述电子装置包括:多对图像传感器,每对图像传感器面向基本相同的方向并且产生图像数据,并且所述每对图像传感器中的每个图像传感器具有不同的视场;处理器,可操作地连接到图像传感器;以及存储器,可操作地连接到处理器。存储器可存储指令,所述指令在被执行时使得处理器执行以下操作:从所述多对图像传感器接收至少一组图像数据,从所述至少一组图像数据识别至少一个对象,确定所述至少一个对象的深度信息,以及使用所述至少一个对象和所述深度信息来对所述至少一组图像数据进行拼接。
根据以下结合附图公开的本公开的各种实施例的详细描述,本公开的其他方面、优点和显著特征对于本领域技术人员将变得显而易见。
有益效果
根据本公开的各种实施例的电子装置可允许组合线不与从图像数据识别的对象重叠,以减小用户在观看拼接的图像的过程中可能感觉到的差异感。
根据本公开的各种实施例的电子装置可通过基于深度信息确定是否对组合线进行移动来减小用户感觉到的差异感。
根据本公开的各种实施例的电子装置可产生用于用户的左眼和右眼的不同的单独拼接图像。在这种情况下,电子装置可减少在每一个拼接图像上组合线与对象重叠。
附图说明
根据以下结合附图进行的描述,本公开的特定实施例的以上和其他方面、特征和优点将更加明显,其中:
图1是示出根据本公开的实施例的电子装置的配置的框图;
图2是示出根据本公开的实施例的图像处理方法的流程图;
图3是示出根据本公开的实施例的组合线根据对象的位置而移动的示图;
图4a和图4b是示出根据本公开的各种实施例的基于深度信息对组合线进行移动的示图;
图5a是示出根据本公开的实施例的基于深度信息执行拼接的处理的流程图;
图5b是示出根据本公开的实施例的基于优先级信息执行拼接的处理的流程图;
图5c是示出根据本公开的实施例的使用候选组合线执行拼接的处理的流程图;
图6是示出根据本公开的实施例的组合线的优先级的示图;
图7是示出根据本公开的实施例的面向相同方向的双相机中的图像的拼接的示图;
图8是示出根据本公开的实施例的包括多个相机的电子装置的示图,其中,所述多个相机中的每一个面向不同方向;
图9是示出根据本公开的实施例的包括多个相机的电子装置的示图,其中,所述多个相机中的至少两个相机面向相同方向;以及
图10是示出根据本公开的实施例的网络环境中的电子装置的框图。
在所有附图中,相同的附图标号用于表示相同的元件。
具体实施方式
发明模式
提供以下参照附图的描述以帮助全面理解由权利要求及其等同限定的本公开的各种实施例。其包括各种具体细节以帮助该理解,但是这些将被认为仅仅是示例性的。因此,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可以对本文所述的各种实施例进行各种改变和修改。另外,为了清楚和简洁,可以省略对公知功能和构造的描述。
在以下描述和权利要求中使用的术语和词语不限于书目含义,而是仅由发明人使用以使得能够清楚和一致地理解本公开。因此,对于本领域技术人员应当显而易见的是,提供本公开的各种实施例的以下描述仅用于说明的目的,而不是用于限制由权利要求及其等同限定的本公开的目的。
在本文所公开的公开内容中,本文所使用的表述“具有”、“可以具有”、“包括”和“包含”或“可以包括”和“可以包含”指示相应的特征(例如,诸如数值、功能、操作或组件的元素)的存在,但不排除附加特征的存在。
在本文所公开的公开内容中,本文所使用的表述“A或B”、“A或/和B中的至少一个”或“A或/和B中的一个或更多个”等可以包括相关联的所列项目中的一个或更多个的任意和所有组合。例如,术语“A或B”、“A和B中的至少一个”或“A或B中的至少一个”可以指包括至少一个A的情况(1)、包括至少一个B的情况(2)或包括至少一个A和至少一个B两者的情况(3)中的所有情况。
本文中使用的诸如“第一”、“第二”等的术语可以指本公开的各种实施例的各种元件,但不限制元件。例如,这样的术语仅用于将元件与另一元件区分开,并且不限制元件的顺序和/或优先级。例如,第一用户装置和第二用户装置可以表示不同的用户装置,而与顺序或重要性无关。例如,在不脱离本公开的范围的情况下,第一元件可以被称为第二元件,并且类似地,第二元件可以被称为第一元件。
应当理解,当元件(例如,第一元件)被称为“(可操作地或通信地)与另一元件(例如,第二元件)结合/结合到另一元件(例如,第二元件)”或“连接到另一元件(例如,第二元件)”时,其可以直接与另一元件(例如,第二元件)结合/直接结合到另一元件(例如,第二元件)或直接连接到另一元件(例如,第二元件),或者可以存在中间元件(例如,第三元件)。相反,当元件(例如,第一元件)被称为“与另一元件(例如,第二元件)直接结合/直接结合到另一元件(例如,第二元件)”或“直接连接到另一元件(例如,第二元件)”时,应当理解,不存在中间元件(例如,第三元件)。
根据情况,本文中使用的表述“被配置为”可被用作例如“适合于”、“具有……能力”、“被设计为”、“适应于”、“被制成”或“能够”的表述。术语“被配置为(或被设置为)”必须不仅仅表示在硬件中“被专门设计为”。相反,表述“被配置为……的装置”可以表示该装置“能够”与另一装置或其他组件一起操作。中央处理器(CPU)(例如,“被配置为(或被设置为)执行A、B和C的处理器”)可以表示用于执行相应操作的专用处理器(例如,嵌入式处理器)或可以通过执行存储在存储器装置中的一个或更多个软件程序来执行相应操作的通用处理器(例如,CPU或应用处理器)。
在本说明书中使用的术语用于描述本公开的特定实施例,并且不旨在限制本公开的范围。除非另有说明,否则单数形式的术语可以包括复数形式。除非本文另有定义,否则本文使用的所有术语(包括技术或科学术语)可以具有本领域技术人员通常理解的相同含义。还将理解的是,除非在本文中在本公开的各种实施例中明确地如此被定义,否则在字典中定义的并且通常使用的术语还应当被解释为相关的相关领域中的惯例,而不是理想化的或过于正式的检测。在一些情况下,即使术语是在说明书中被定义的术语,它们也可以不被解释为排除本公开的实施例。
根据本公开的各种实施例的电子装置可以包括智能电话、平板个人计算机(PC)、移动电话、视频电话、电子书阅读器、桌上型PC、膝上型PC、上网本计算机、工作站、服务器、个人数字助理(PDA)、便携式多媒体播放器、运动画面专家组(MPEG-1或MPEG-2)音频层3(MP3)播放器、移动医疗装置、相机和可穿戴装置中的至少一个。根据本公开的各种实施例,可穿戴装置可以包括附件(例如,手表、戒指、手镯、踝链、眼镜、隐形眼镜或头戴式装置(HMD))、衣物集成类型(例如,电子衣服)、身体附接类型(例如,皮肤垫或纹身)或可植入类型(例如,可植入电路)。
在下文中,将参照附图描述根据本公开的实施例的电子装置。本文使用的术语“用户”可以指代使用电子装置的人或者可以指代使用电子装置的装置(例如,人工电子装置)。
图1是示出根据本公开的实施例的电子装置的配置的框图。图1示出但不限于与图像处理相关联的配置。
参照图1,电子装置101可以包括多个相机(或多个相机模块)130、处理器160、存储器170和通信电路180。在实施例中,电子装置101还可以包括外部壳体、内部壳体、传感器、印刷电路板(PCB)、电池等。
电子装置101可以是捕获照片或视频的成像装置(例如,数字相机、用于虚拟现实(VR)的相机或三维(3D)相机)。电子装置101可以是从外部接收图像数据并对图像数据进行处理的装置(例如,服务器或桌上型PC)。电子装置101可以是安装多个相机的移动装置(例如,智能电话、平板PC、膝上型PC等)。
多个相机130中的每一个可以收集图像数据。多个相机130中的每一个可以包括镜头和图像传感器。多个相机130中的每一个可通过多个图像传感器中的每一个来收集图像数据。多个图像传感器中的每一个可将通过透镜入射的光转换成电信号。转换后的电信号可以被发送到处理器160,并且可以被存储在存储器170中。
多个相机130可以以特定的间隔距离被放置。多个相机130可依据间隔距离或布置方向来收集在相同时间内捕获的不同图像数据。
根据本公开的实施例,多个相机130可以被布置为分别面向不同的方向。例如,多个相机130可以按照圆形被布置以360度捕获图像。多个相机130可以保持特定的布置角度(例如,180度、90度或45度)(参见图8)。
根据本公开的另一实施例,多个相机130可被布置以使得多个相机130中的至少一些面向相同方向。例如,多个相机130可包括按照圆形布置的第一至第十六相机。例如,第一相机131和第四相机134可以被布置为面向第一方向。第三相机133和第六相机(未示出)可以被布置为面向与第一方向不同的第二方向(参见图9)。
多个相机130可被定位以使得多个相机130中的每一个具有与相邻相机的视角重叠的视角。由多个相机130中的每一个收集的图像数据可部分地相同或与由相邻相机收集的图像数据类似。重叠的图像数据可以在对图像进行组合的处理中被部分地去除。
处理器160可执行用于驱动电子装置101的多种数据处理和各种算术运算。处理器160可对借助于多个相机130的图像传感器收集的图像数据进行组合以产生图像(下文中称为“拼接图像”),所述图像的重叠部分被部分地去除。例如,处理器160可从每一个图像传感器收集的图像数据中去除重叠的图像区域,并且可执行依据特定线(例如,接合线)(以下称为“组合线”)对图像数据进行组合的拼接任务。
例如,当对由第一图像传感器(例如,第一相机131)收集的第一图像数据与由第二图像传感器(例如,第二相机132)收集的第二图像数据进行组合时,处理器160可产生包括关于组合线在第一方向(例如,左侧)上的第一图像数据并包括关于组合线在第二方向(例如,右侧)上的第二图像数据的拼接图像。
处理器160可从借助于多个图像传感器收集的图像数据识别用户感兴趣的对象(感兴趣对象或感兴趣区域(ROI))。对象可以是人、动物、事物、地标等。处理器160可预先存储特定的识别信息(例如,针对人的面部、颜色的范围、眼睛、鼻子或嘴的位置关系等)。处理器160可基于存储的识别信息从图像数据提取对象的位置(坐标)、对象的类型等。
处理器160可存储每一个识别的对象的深度信息。深度信息可以是对象与电子装置101之间的距离(或从电子装置101以特定距离布置的点)。处理器160可基于图像数据的对比度/颜色值等来确定对象的特征点。处理器160可提取对象表面的特征点与电子装置101之间的距离。处理器160可对包括对象的多个图像进行比较,并且可基于捕获图像的相机之间的距离、相同特征点之间的距离等来存储每一个特征点的深度信息。
处理器160可通过默认设置通过组合线执行拼接,并且可在对象的组合和坐标彼此重叠时改变组合线的位置。处理器160可依据基于识别的对象的特征的优先级信息、按照改变后的组合线的深度信息等,确定改变组合线的位置。可以参照图2至图9提供关于改变组合线的位置的附加信息。
处理器160可通过根据等矩形投影的转换将拼接的图像产生为用于VR的360度拼接图像。处理器160可将拼接图像转换为诸如正四面体、正十二面体或正二十面体的形式的图像。
存储器170可以存储电子装置101的操作所必需的多种信息。例如,存储器170可存储借助于多个相机130收集的图像数据。存储器170可存储通过处理器160的拼接处理产生的拼接图像。
存储器170可以存储处理器160的操作所必需的指令。当执行指令时,处理器160可以执行指令中定义的操作。
通信电路180可以与外部装置通信。例如,通信电路180可将通过拼接任务产生的拼接图像发送到外部装置(例如,头戴式显示(HMD)装置)。通信电路180可以从外部装置(例如,外部相机装置)接收图像数据。通信电路180可将接收的图像数据提供给处理器160或存储器170。
图1示出电子装置101包括多个相机130的示例,但不限于此。例如,电子装置101可接收由外部相机装置(例如,成像装置或智能电话)俘获的图像数据并对图像数据进行处理。处理器160可经由通信电路180接收借助于外部相机装置拍摄的第1图像数据至第16图像数据。处理器160可去除第1图像数据至第16图像数据中的重叠区域的一部分以产生一个拼接图像。处理器160可依据基于识别的对象的特征的优先级信息、深度直方图信息等来确定组合线的位置。
图2是示出根据本公开的实施例的图像处理方法的流程图。
参照图2,在操作210,图1的处理器160可从包括在图1的多个相机130中的多对图像传感器接收至少一组图像数据。
例如,多个相机130可以包括朝向第一方向定位的第一相机131和朝向第二方向定位的第二相机132。第一相机131的视角和第二相机132的视角可以彼此部分地重叠。当发生用于图像捕获的输入时,包括在第一相机131中的第一图像传感器和包括在第二相机132中的第二图像传感器可分别收集图像数据。处理器160可以从第一图像传感器接收第一图像数据,并且可以从第二图像传感器接收第二图像数据。
在操作220,处理器160可以从接收到的第一图像数据和第二图像数据识别至少一个对象。处理器160可预先存储特定的识别信息(例如,针对人的面部、像素颜色的范围、眼睛、鼻子或嘴的形式或位置关系)。处理器160可基于存储的识别信息从第一图像数据和第二图像数据存储对象的位置、对象的类型、相关信息(例如,存储在地址簿中的信息)等。
在操作230,处理器160可确定至少一个识别的对象的深度信息。深度信息可以是对象的特征与图1的电子装置101之间的距离。可选地,深度信息可以是对象的特征点与电子装置101外部的参考点(例如,与电子装置101相隔1m设置的点)之间的距离。
第一相机131的视角和第二相机132的视角可以彼此部分地重叠。处理器160可将第一图像数据与第二图像数据进行比较,以确定视角彼此重叠的区域上的对象的深度信息。
在操作240,处理器160可使用至少一个识别的对象和深度信息来对至少一组图像数据(例如,第一图像数据和第二图像数据)进行拼接。
处理器160可从视角彼此重叠的区域去除部分图像数据以产生拼接图像。通过对第一图像数据和第二图像数据进行组合而产生的拼接图像可以包括组合线(例如,接合线)。
当组合线的至少一部分与识别的对象重叠时,处理器160可移动组合线的位置。例如,处理器160可识别关于改变的组合线的深度信息,并且可确定是否对组合线进行移动。
当多个对象被识别并且当重叠的对象随着组合线的移动而改变时,处理器160可根据特定的优先级信息来确定是否对组合线进行移动。可以参照图3和图6提供关于组合线的移动的附加信息。
图3是示出根据本公开的实施例的组合线根据对象的位置而移动的示图。图3示出但不限于对由两个相机捕获的图像进行组合的示例。
参照图3,图1的处理器160可借助于多个相机(或多个图像传感器)中的每一个来收集图像数据。第一图像传感器可收集第一图像数据310。第二图像传感器可收集第二图像数据320。第一图像数据310和第二图像数据320可以是同时收集的图像。第一图像数据310可以是由图1的第一相机131(第一图像传感器)朝向第一方向捕获的图像。第二图像数据320可以是由图1的第二相机132(第二图像传感器)朝向第二方向捕获的图像。
处理器160可识别包括在每一个图像数据中的对象。处理器160可从第一图像数据310识别第一对象351和第二对象352。处理器160可存储第一对象351和第二对象352中的每一个的位置信息、类型信息(例如,人、动物或事物)等。处理器160可从第二图像数据320识别第二对象352和第三对象353。处理器160可存储第二对象352和第三对象353中的每一个的位置信息、类型信息(例如,人、动物或事物)等。
第一图像数据310和第二图像数据320可分别包括重叠区域310a和320a。在第一相机131的视角和第二相机132的视角彼此重叠的区域上,图像值可以彼此相同或相似。
处理器160可将相似度高的区域确定为第一图像数据和第二图像数据320上的重叠区域310a和320a。重叠区域310a和320a的数据可以在产生拼接图像的处理中被部分地排除。
处理器160可对第一图像数据310的一部分与第二图像数据320的一部分进行组合以产生第一拼接图像330。第一拼接图像330可在组合区域330a中包括组合线361。针对组合线361,x-方向可以被配置为第一图像数据310的重叠区域310a的数据,并且x+方向可以被配置为第二图像数据320的重叠区域320a的数据。
组合线361的外围可以是两个不同的图像数据彼此组合的区域,并且可以是当用户借助于HMD装置等观看该区域时产生差异感的区域。当在用户感兴趣的第二对象352上产生组合线361时,组合线361的外围可能导致用户的不便。例如,用户感兴趣的对象可以是靠近电子装置101的对象或用户登记的对象。
处理器160可基于布置有识别的对象351至353的区域来确定对组合线361进行移动。例如,如图3所示,当在组合线361上存在靠近成像装置的对象(或感兴趣对象)时,处理器160可改变组合线361的位置以产生第二拼接图像331。
处理器160可确定在移动了特定距离L的线(以下称为“候选组合线”)362上是否存在被识别的对象。当候选组合线362和对象351至353彼此不重叠时,处理器160可相对于候选组合线362对组合区域330a的图像数据进行配置。例如,候选组合线362在x-方向上从组合线361移动-L,由第一图像数据310占据的区域可以减小并且由第二图像数据320占据的区域可以增大。
图3示出候选组合线362在x+方向上移动的示例,但不限于此。例如,候选组合线362可以在x-方向上移动。
处理器160可基于组合线361和候选组合线362中的每一个的深度信息来确定是否对组合线进行移动。可参照图4a和图4b提供关于基于深度信息的组合线的移动的附加信息。
图4a和4b是示出根据本公开的各种实施例的基于深度信息对组合线进行移动的示图。图4a和4b是说明性的,并且实施例不限于此。
参照图4a,图1的处理器160可对借助于图1的多个相机130(或多个图像传感器)收集的图像数据进行拼接。处理器160可通过默认设置在组合区域的中心上产生组合线361。当组合线361与识别的第二对象352所在的区域重叠时,处理器160可基于深度信息对组合线361进行移动。
看到组合线361上的深度改变,第一区域I可以是不存在识别的对象的区域,并且可以是接近线性地增加的区域。第二区域II可以是第二对象352被识别并且深度的改变相对小的区域。第三区域III可以是第二对象352消失的区域,并且可以是深度急剧增加的区域。当存在深度的改变大于参考值的区域(诸如第三区域III)时,处理器160可对组合线361进行移动。
在组合线361上的深度的直方图361a中,水平轴指示深度值。例如,对于8位每像素的深度图,水平轴可具有0到255的值。垂直轴指示深度值的产生频率(例如,像素的数量)。由于第二对象352位于组合线361上,以特定间隔布置的像素的数量可相对增加,并且间隔偏差可较大。
当均具有包括在特定间隔中的深度值的像素的数量大于特定值(例如,阈值)时,处理器160可对组合线361进行移动。
参照图4b,处理器160可对与组合线361间隔特定距离的候选组合线362上的深度改变进行识别。候选组合线362可能无法与第二对象352或第三对象353所在的区域重叠,或者可能与第二对象352或第三对象353所在的区域相对较少重叠。处理器160可对候选组合线362上的深度改变进行识别。单独的对象可能无法与候选组合线362重叠,并且候选组合线362上的深度可能接近线性地增加。因此,候选组合线362上的深度改变可以在参考值内。处理器160可相对于候选组合线362对第一图像数据和第二图像数据进行拼接。
在候选组合线362上的深度的直方图362a中,水平轴指示深度值。例如,对于8位每像素的深度图,水平轴可具有0到255的值。垂直轴指示深度值的产生频率(例如,像素的数量)。当对象不位于候选组合线362上时,在整个间隔中布置的像素的数量中,间隔偏差可以相对小。
当均具有包括在特定间隔中的深度值的像素的数量小于特定值时,处理器160可相对于候选组合线362对第一图像数据和第二图像数据进行拼接。
当区域与候选组合线362上的另一对象(例如,第一对象351或第三对象353)重叠时,处理器160可对关于新组合线的深度信息进行识别。例如,当区域与x+方向的候选组合线上的另一对象重叠时,处理器160可确定在x-方向的候选组合线上是否存在与另一对象重叠的区域。
处理器160可对候选组合线移动特定次数以识别深度信息,并且可依据特定的优先级信息来确定组合线的位置。例如,处理器160可将深度改变最小的位置确定为组合位置的位置。可参照图5a至图5c以及图6提供关于使用优先级信息的组合线的改变的附加信息。
图5a是示出根据本公开的实施例的基于深度信息执行拼接的处理的流程图。
在操作501,图1的处理器160可以收集第一图像数据和第二图像数据。
在操作502,处理器160可以确定第一候选组合线。第一候选组合线可以是被配置为执行用于对第一图像数据和第二图像数据进行拼接的任务的线。
在操作503,处理器160可获得优先级信息,其中,该优先级信息包括关于对象是否与第一候选组合线重叠的信息或深度直方图信息。
在操作504,处理器160可以确定与第一候选组合线间隔特定距离(例如,像素距离)的第二候选组合线。第二候选组合线可以是与第一候选组合线平行并且保持特定像素距离的线。操作504可以早于操作503被执行或者可以与操作503同时被执行。
在操作505,处理器160可获得优先级信息,其中,该优先级信息包括关于对象是否与第二候选组合线重叠的信息或深度直方图信息。
可以存在多个第二候选组合线。在这种情况下,处理器160可获得关于对象是否与多个第二候选组合线中的每一个重叠的信息或深度直方图信息。
在操作506,处理器160可将第一候选组合线的优先级信息与至少一个第二候选组合线的优先级信息进行比较以选择一个候选组合线。例如,第一候选组合线和至少一个第二候选组合线中的不与对象重叠的候选组合线可以具有高优先级。第一候选组合线和第二候选组合线中的具有小间隔偏差的直方图的候选组合线可以具有高优先级。
在操作507,处理器160可针对选择的候选组合线对第一图像数据和第二图像数据进行组合以产生拼接图像。
图5b是示出据本公开的实施例的基于优先级信息执行拼接的处理的流程图。
参照图5b,在操作510,图1的处理器160可基于第一图像数据和第二图像数据执行第一拼接任务。例如,处理器160可通过第一拼接任务产生第一拼接图像,其中,所述第一拼接图像在组合区域的中心上具有默认设置的组合线(下文中称为“默认组合线”)。
在操作520,处理器160可确定对象是否在默认组合线上。处理器160可将识别的对象的坐标与默认组合线的坐标进行比较以确定对象是否在默认组合线上。
在操作525,当没有对象在默认组合线上时,处理器160可保持默认组合线。
当对象在默认组合线上时,在操作530,处理器160可将默认组合的优先级与候选组合线的优先级进行比较。关于优先级的信息可以在制造阶段被预先存储,或者可以通过从制造商或应用管理器提供的文件被存储。可选地,可以通过图1的电子装置101的用户输入来存储关于优先级的信息。当电子装置101包括显示器时,它可以显示用于输入优先级信息的用户界面。
候选组合线的优先级高可以指针对候选组合线执行拼接。例如,针对具有高优先级的候选组合线执行拼接可以表示在组合线上不存在对象或者将给予用户差异感的概率低。
候选组合线可以具有低优先级,其中,该候选组合线的至少一部分与识别的对象中的被聚焦的对象或具有大屏幕占用比率的对象重叠。另一方面,与失焦的对象、具有小屏幕占用比率的对象、停止的对象等重叠的候选组合线可以具有高优先级。
深度信息改变大的候选组合线可以具有低优先级。另一方面,深度信息改变小的候选组合线可以具有高优先级。
优先级可以随着识别的对象的类型而变化。与诸如人或人的面部的对象重叠的候选组合线可以具有低优先级。另一方面,与诸如动物、植物或事物的对象重叠的候选组合线可以具有高优先级。
与用户的地址簿的数据库或图库的图像匹配的对象重叠的组合线可以具有低优先级。另一方面,与如下对象重叠的组合线可以具有高优先级:所述对象不与存储在电子装置101中的数据库匹配。
与未被相邻相机识别的对象重叠的组合线可以具有低优先级。另一方面,位于视角与相邻相机的视角重叠的区域上的对象(位于重叠区域上的对象)可以具有高优先级。
在操作540,作为对优先级进行比较的结果,处理器160可确定是否有必要执行第二拼接任务。当作为对优先级进行比较的结果,默认组合线具有最高优先级时,在操作525,处理器160可保持第一拼接图像上的默认组合线。
当存在优先级高于默认组合线的优先级的候选组合线时,在操作550,处理器160可改变组合线以执行第二拼接。
处理器160可对多个候选组合线的优先级进行比较,并且可使用具有最高优先级的组合线来执行第二拼接任务。
图5c是示出根据本公开的实施例的使用候选组合线执行拼接的处理的流程图。
参照图5c,在操作555,图1的处理器160可选择第一候选组合线。第一候选组合线可以是被配置为执行对第一图像数据和第二图像数据进行拼接的任务的线。
在操作560,处理器160可确定第一候选组合线是否适合执行拼接。根据本公开的实施例,当感兴趣对象与第一候选组合线重叠时,处理器160可确定第一候选组合线不适合执行拼接。根据本公开的另一实施例,当关于第一候选组合线的深度信息的直方图的间隔偏差小于特定值时,处理器160可确定第一候选组合线适合执行拼接。
当第一候选组合线适合执行拼接时,在操作565,处理器160可选择第一候选组合线作为用于拼接任务的组合线,并且可使用选择的组合线来产生拼接图像。
当第一候选组合线不适合执行拼接时,在操作570,处理器160可选择第二候选组合线。第二候选组合线可以是以特定距离与第一候选组合线间隔开的线。
在操作575,处理器160可将第一候选组合线的优先级信息与第二候选组合线的优先级信息进行比较以选择一个候选组合线。例如,在第一候选组合线和第二候选组合线之中不与感兴趣对象重叠的候选组合线可以具有高优先级。在第一候选组合线和第二候选组合线之中具有小间隔偏差的的直方图的候选组合线可以具有高优先级。
在操作580,处理器160可确定第二候选组合线是否适合执行拼接。
当第二候选组合线适合执行拼接时,在操作585,处理器160可选择第二候选组合线作为用于拼接任务的组合线,并且可使用选择的组合线来产生拼接图像。
当第二候选组合线不适合执行拼接时,在操作590,处理器160可确定候选组合线的数量是否大于或等于特定数量。
当候选组合线的数量大于或等于特定数量时,在操作595,处理器160可选择用于产生拼接图像的一个候选组合线。例如,处理器160可选择多个第二候选组合线中的一个或第一候选组合线作为用于产生拼接图像的候选组合线,并可使用选择的候选组合线来产生拼接图像。
图6是示出根据本公开的实施例的组合线的优先级的示图。图6示出将由三个相机收集的第一图像数据610至第三图像数据630进行组合的示例,但不限于此。
参照图6,图1的处理器160可对由第一相机至第三相机收集的第一图像数据610至第三图像数据630进行组合以产生拼接图像。拼接图像可以包括第一默认组合线661和第二默认组合线662。例如,第一默认组合线661可形成在在第一图像数据610和第二图像数据620上重叠的图像数据的中心上。第二默认组合线662可形成在在第二图像数据620和第三图像数据630上重叠的图像数据的中心上。
处理器160可从第一图像数据610至第三图像数据630识别第一对象651至第三对象653。处理器160可存储关于识别的对象的位置(坐标)、对象的类型(例如,人)等的信息。处理器160可提取并存储识别的第一对象651至第三对象653中的每一个的深度信息。
与聚焦在屏幕上的对象或具有最大布置区域的对象重叠的组合线可以具有低优先级。例如,当第二对象652是被聚焦的对象或具有最大布置区域的对象时,与第二对象652重叠的候选组合线662a可以具有最低优先级。
当多个组合线中的所有组合线与相同对象重叠时,处理器160可基于关于多个组合线中的每一个的深度信息来确定用于执行拼接的组合线。例如,当第二默认组合线662和候选组合线662b两者与第三对象653重叠时,处理器160可基于第二默认组合线662和候选组合线662b中的每一个的深度信息来确定用于执行拼接的组合线。在与第三对象653重叠的间隔中,第二默认组合线662可比候选组合线662b长。因此,第二默认组合线662的深度的改变可以大于候选组合线662b的深度的改变。处理器160可将候选组合线662b确定为用于执行最终拼接的组合线。在另一示例中,当第二默认组合线662和候选组合线662b两者都与第三对象653重叠时,处理器160可对第二默认组合线662和候选组合线662b中的每一个与第三对象653的关系进行识别。当第二默认组合线662靠近第三对象653的面部时并且当候选组合线662b靠近第三对象653的手时,处理器160可将候选组合线662b确定为用于执行最终拼接的组合线。处理器160可相对于确定的组合线执行第二拼接任务。
处理器160可识别每一个组合线的优先级,并且可确定用于执行拼接的组合线。
例如,第一默认组合线661可以以相当大的部分与第一对象651重叠。第一默认组合线661可以具有最低优先级。第一候选组合线661a可以具有与第一对象651部分地重叠的间隔。第一候选组合线661a可以具有相对低的优先级。
第二候选组合线661b可以不与第一对象651至第三对象653重叠。第二候选组合线661b可以具有相对高的优先级。处理器160可将第二候选组合线661b确定为用于执行拼接的组合线。处理器160可相对于第二候选组合线661b执行第二拼接任务。
第二默认组合线662可以以相当大的部分与第三对象653重叠。第二默认组合线662可以具有相对低的优先级。第一候选组合线662a可与作为聚焦对象(例如,具有最高深度的对象或最接近的对象)的第二对象652部分地重叠。第一候选组合线662a可以具有最低优先级。
第二候选组合线662b可与第三对象653部分地重叠。在与第三对象653重叠的间隔中,第二候选组合线662b小于第二默认组合线662,从而具有相对小的深度改变比率。处理器160可将第二候选组合线662b确定为用于执行拼接的组合线。处理器160可相对于第二候选组合线662b执行第二拼接任务。
图7是示出根据本公开的实施例的面向相同方向的双相机中的图像的拼接的示图。
参照图7,电子装置701可以包括显示器710和壳体720。
显示器710可以输出诸如文本或图像的内容。显示器710可以输出在电子装置701上运行的应用被执行的屏幕。例如,显示器710可以基于借助于双相机730收集的图像数据来显示实时显示图像。用户可以在识别实时显示图像的同时捕获照片或视频。
壳体(或主体部分)720可以固定显示器710并且可以保护其中的各种组件。壳体720可以包括壳体720外部的按钮、传感器窗口或扬声器、双相机730等。
壳体(或主体部分)720可以在其中包括驱动电子装置701所需的各种组件,诸如通信电路、处理器、存储器、印刷电路板(PCB)或电池。
双相机730可以包括彼此间隔特定间隔距离的第一相机731和第二相机732。第一相机731和第二相机732中的每一个可收集图像数据。
第一相机731可具有第一视角a1。当第一对象751至第三对象753被捕获时,第一对象751和第二对象752可被包括在第一视角a1中。当第一相机731依据图像捕获输入来收集图像数据时,第一图像数据可包括第一对象751和第二对象752。
第二相机732可具有第二视角a2。当第一对象751至第三对象753被捕获时,第二对象752和第三对象753可被包括在第二视角a2中。当第二相机732根据图像捕获输入来收集图像数据时,第二图像数据可包括第二对象752和第三对象753。
电子装置701的处理器可对第一图像数据与第二图像数据进行组合以产生拼接图像。当在第二对象752上产生第一视角a1和第二视角a2共同的组合线时,处理器可对组合线进行移动。
处理器可基于在特定方向上移动的候选组合线的深度信息来确定用于执行拼接的组合线,并且可使用确定的组合线来执行第二拼接任务。
处理器可将多个候选组合线和默认组合线中具有最高优先级的组合线确定为用于执行拼接的组合线,并可使用确定的组合线来执行第二拼接任务。
图8是示出根据本公开的实施例的包括多个相机的电子装置的示图,其中,所述多个相机中的每一个面向不同的方向。图8示出包括第1相机831至第8相机838的示例,但不限于此。
参照图8,电子装置801可包括第1相机831至第8相机838。
第1相机831至第8相机838可以被布置为面向不同的方向。例如,相机镜头可按照圆形被布置以面向电子装置801外部的方向。第1相机831至第8相机838中的每一个可被定位为与相邻相机形成特定布置角度(例如,45度)。例如,第1相机831可以被定位为面向第一方向,并且第2相机832可以被定位为面向与第一方向形成45度的布置角度的第二方向。
第1相机831至第8相机838中的每一个可具有与相邻相机的视角部分重叠的视角。例如,第1相机831的视角b1可以与第2相机832的视角b2部分地重叠。第1相机831至第8相机838可以以重叠的方式捕获电子装置801周围的360度图像。
当第一对象851至第三对象853被捕获时,第一对象851和第二对象852可被包括在第一视角b1中。当第1相机831依据图像捕获输入来收集图像数据时,第一图像数据可包括第一对象851和第二对象852。第二对象852和第三对象853可被包括在第二视角b2中。当第2相机832依据图像捕获输入来收集图像数据时,第二图像数据可包括第二对象852和第三对象853。
第1相机831至第8相机838中的每一个可以具有比相机之间的布置角度更宽的范围的视角。例如,当相邻相机之间的布置角度为45度时,由第1相机831至第8相机838中的每一个收集的图像数据可具有在50度范围内的视角。
电子装置801的处理器(例如,图1的处理器160)可对第一图像和第二图像数据进行组合以产生拼接图像。当在第二对象852上产生第一视角b1和第二视角b2共同的组合线时,处理器可对组合线进行移动。
处理器可基于在特定方向上移动的候选组合线的深度信息来确定用于执行拼接的组合线,并且可使用确定的组合线来执行第二拼接任务。
处理器可将多个候选组合线和默认组合线中具有最高优先级的组合线确定为用于执行拼接的组合线,并且可使用确定的组合线来执行第二拼接任务。
图8示出相机之间的布置角度为45度的示例,但不限于此。例如,可以借助于鱼眼镜头等利用形成180度的布置角度的两个相机或形成90度的布置角度的四个相机来实现设备。
图9是示出根据本公开的实施例的包括多个相机的电子装置的示图,其中,所述多个相机中的至少两个相机面向相同的方向。图9示出包括第1相机931至第16相机946的示例,但不限于此。
参照图9,电子装置901可包括第1相机931至第16相机946。另外,电子装置901可包括捕获与第1相机931至第16相机946不同的方向(例如,向上方向或向下方向)的单独相机。
第1相机931至第16相机946可按照圆形被布置以面向外部方向。第1相机931至第16相机946中的至少两个可被布置为面向相同的方向。
第1相机931可具有与相邻的第2相机932或第3相机933不同的布置方向。第1相机931可与第3相机933形成例如45度的布置角度。
第1相机931可被定位为面向与第4相机934相同的方向。第1相机931和第4相机934可以被布置为保持与用户的两只眼睛之间的距离相应的间隔距离(例如,约10cm)。
类似地,第3相机933可具有与相邻的第4相机934或第5相机935不同的布置方向。第3相机933可与第5相机935形成例如45度的布置角度。
第3相机933可被定位为面向与第6相机936相同的方向。第3相机933和第6相机936可以被布置为保持与用户的两只眼睛之间的距离相应的间隔距离(例如,约10cm)。
第1相机931至第16相机946中的每一个可具有与相邻相机的视角部分地重叠的视角。例如,第1相机931的视角可以与第2相机932和第3相机933的视角部分地重叠。第1相机931至第16相机946可以以部分地重叠的方式来捕获电子装置901周围的360度图像。
电子装置901的处理器可对彼此不相邻的相机的图像数据进行拼接以产生两个拼接图像。例如,处理器可对由第1相机931、第3相机933、第5相机935、第7相机937、第9相机939、第11相机941、第13相机943和第15相机945收集的图像数据进行组合以产生第一拼接图像。处理器可对由第2相机932、第4相机934、第6相机936、第8相机938、第10相机940、第12相机942、第14相机944和第16相机946收集的图像数据进行组合以产生第二拼接图像。
处理器可针对第一拼接图像和第二拼接图像中的每一个,执行用于基于对象和深度信息对组合线进行移动的任务。
可以独立于在第二拼接图像上对组合线进行的移动处理来执行在第一拼接图像上对组合线进行移动的处理。
当用户使用HMD装置观看第一拼接图像和第二拼接图像时,HMD装置可在用户的左眼(或右眼)上输出第一拼接图像,并且可在右眼(或左眼)上输出第二拼接图像。
图10是根据本公开的实施例的网络环境1000中的电子装置1001的框图。
参照图10,网络环境1000中的电子装置1001可以通过第一网络1098(例如,短距离无线通信网络)与电子装置1002通信,或者可以通过第二网络1099(例如,长距离无线通信网络)与电子装置1004或服务器1008通信。根据实施例,电子装置1001可通过服务器1008与电子装置1004通信。根据实施例,电子装置1001可以包括处理器1020、存储器1030、输入装置1050、声音输出装置1055、显示装置1060、音频模块1070、传感器模块1076、接口1077、触觉模块1079、相机模块1080、电力管理模块1088、电池1089、通信模块1090、用户识别模块1096或天线模块1097。在任意实施例中,可以从电子装置1001中省略所述组件中的至少一个(例如,显示装置1060或相机模块1080),或者可以在电子装置1001中进一步包括一个或更多个其他组件。在任意实施例中,可以用单个集成电路来实现所述组件中的一些。例如,传感器模块1076(例如,指纹传感器、虹膜传感器或照度传感器)可被嵌入在显示装置1060(例如,显示器)中。
处理器1020可以运行例如软件(例如,程序1040)以控制电子装置1001的连接到处理器1020的至少一个其他组件(例如,硬件或软件组件),并且可以执行各种数据处理或运算。根据实施例,作为数据处理或运算的至少部分,处理器1020可以将从任意其他组件(例如,传感器模块1076或通信模块1090)接收的命令或数据加载到易失性存储器1032,可以对存储在易失性存储器1032中的命令或数据进行处理,并且可以将处理后的数据存储在非易失性存储器1034中。根据实施例,处理器1020可以包括主处理器1021(例如,中央处理器或应用处理器)和协处理器1023(例如,图形处理装置、图像信号处理器、传感器集线器处理器或通信处理器),协处理器1023可以独立于主处理器1021操作或与主处理器1021一起操作。另外地或可选地,协处理器1023可以被配置为使用比主处理器1021更低的电力或者被专用于特定功能。可将协处理器实现为1023与主处理器1021分离,或者实现为主处理器1021的部分。
协处理器1023可以例如在主处理器1021处于未激活(例如,睡眠)状态时代替主处理器1021控制与电子装置1001的至少一个组件(例如,显示装置1060、传感器模块1076或通信模块1090)相关联的功能或状态的至少一部分,并且在主处理器1021处于激活(例如,应用执行)状态时与主处理器1021一起控制与电子装置1001的至少一个组件(例如,显示装置1060、传感器模块1076或通信模块1090)相关联的功能或状态的至少一部分。根据实施例,协处理器1023(例如,图像信号处理器或通信处理器)可以被实现为在功能上(或操作上)与协处理器1023相关联的任意其他组件(例如,相机模块1080或通信模块1090)的一部分。
存储器1030可存储由电子装置1001的至少一个组件(例如,处理器1020或传感器模块1076)使用的各种数据。数据可以包括例如软件(例如,程序1040)或与软件的命令相关联的输入数据或输出数据。存储器1030可以包括易失性存储器1032或非易失性存储器1034。非易失性存储器1034可以包括内部存储器1036和外部存储器1038。
可将程序1040作为软件存储在存储器1030中,并且程序1040可以包括例如操作系统1042、中间件1044或应用1046。
输入装置1050可从电子装置1001的外部(例如,用户)接收将由电子装置1001的组件(例如,处理器1020)使用的命令或数据。输入装置1050可包括例如麦克风、鼠标或键盘。
声音输出装置1055可以将声音信号输出到电子装置1001的外部。声音输出装置1055可以包括例如扬声器或接收器。扬声器可以用于诸如多媒体播放或录音播放的通用目的,并且接收器可以用于接收呼入呼叫。根据实施例,可将接收器实现为与扬声器分离,或者可实现为扬声器的一部分。
显示装置1060可以向电子装置1001的外部(例如,用户)视觉地提供信息。显示装置1060可以包括例如显示器、全息装置或用于控制投影仪和相应装置的控制电路。根据实施例,显示装置1060可以包括被配置为感测触摸的触摸电路或者被配置为测量由触摸产生的力的强度的传感器电路(例如,压力传感器)。
音频模块1070可以将声音转换为电信号,或者相反地,可以将电信号转换为声音。根据实施例,音频模块1070可以通过输入装置1050获得声音,或者可以通过声音输出装置1055或者通过与电子装置1001直接或无线连接的外部电子装置(例如,电子装置1002)(例如,扬声器或耳机)输出声音。
传感器模块1076可感测电子装置1001的操作状态(例如,功率或温度)或外部环境状态(例如,用户的状态),然后产生与感测到的状态相应的电信号或数据值。根据实施例,传感器模块1076可包括例如手势传感器、握持传感器、大气压力传感器、磁性传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口1077可支持可用于将电子装置1001与外部电子装置(例如,电子装置1002)直接和无线地连接的一个或更多个特定协议。根据实施例,接口1077可以包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端1078可包括连接器,其中,连接器可允许电子装置1001与外部电子装置(例如,电子装置1002)物理连接。根据实施例,连接端1078可包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块1079可以将电信号转换为用户可以通过触摸感测或运动感测感知的机械刺激(例如,振动或运动)或电刺激。根据实施例,触觉模块1079可以包括例如电机、压电传感器或电刺激装置。
相机模块1080可拍摄静止图像和视频。根据实施例,相机模块1080可包括一个或更多个镜头、图像传感器、图像信号处理器或闪光灯(或电子闪光灯)。
电力管理模块1088可管理供应到电子装置1001的电力。根据实施例,电力管理模块1088可以被实现为例如电力管理集成电路(PMIC)的至少一部分。
电池1089可对电子装置1001的至少一个组件供电。根据实施例,电池1089可包括例如不可再充电的原电池、可再充电的蓄电池、或燃料电池。
通信模块1090可在电子装置1001与外部电子装置(例如,电子装置1002、电子装置1004或服务器1008)之间建立直接(或有线)通信信道或无线通信信道或可通过所建立的通信信道执行通信。通信模块1090可以包括独立于处理器1020(例如,应用处理器)操作并且支持直接(或有线)通信或无线通信的一个或更多个通信处理器。根据实施例,通信模块1090可以包括无线通信模块1092(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块1094(例如,局域网(LAN)通信模块或电力线通信模块)。这样的通信模块中的相应通信模块可以通过第一网络1098(例如,短距离通信网络,诸如蓝牙、Wi-Fi直连或红外数据协会(IrDA))或第二网络1099(例如,长距离通信网络,诸如蜂窝网络、互联网或计算机网络(例如,LAN或WAN))与外部电子装置通信。可将上述种类的通信模块集成在一个组件(例如,单个芯片)中,或者可以用相互独立的多个组件(例如,多个芯片)来实现。无线通信模块1092可以通过使用存储在用户识别模块1096中的用户信息(例如,国际移动用户识别码(IMSI))来对通信网络(诸如第一网络1098或第二网络1099)中的电子装置1001进行验证和认证。
天线模块1097可以向外部(例如,外部电子装置)发送信号或电力,或者可以从外部接收信号或电力。根据实施例,天线模块1097可以包括一个或更多个天线,并且可以例如由通信模块1090从一个或更多个天线中选择适合在计算机网络(诸如第一网络1098或第二网络1099)中使用的通信方案的至少一个天线。可以通过选择的至少一个天线在通信模块1090与外部电子装置之间交换信号或电力,或者可以通过选择的至少一个天线和通信模块1090从外部电子装置接收信号或电力。
组件中的至少一些可以通过外设装置之间的通信方案(例如,总线、通用输入和输出(GPIO)、串行外设接口(SPI)或移动工业处理器接口(MIPI))彼此连接,并且可以彼此交换信号(例如,命令或数据)。
根据实施例,可以通过连接到第二网络1099的服务器1008在电子装置1001与外部电子装置1004之间发送或接收(或交换)命令或数据。电子装置1002和1004中的每一个可以是种类与电子装置1001的种类相同的装置或与电子装置1001的种类不同的装置。根据实施例,将在电子装置1001中运行的操作的全部或一部分可以在外部电子装置1002、1004或服务器1008中的一个或更多个外部装置中被运行。例如,在电子装置1001应当自动地执行任意功能或服务或者响应于来自用户或任意其他装置的请求而执行任意功能或服务的情况下,电子装置1001可以请求一个或更多个外部电子装置执行功能或服务的至少一部分,而不是内部地或另外执行功能或服务。接收请求的一个或更多个外部电子装置可以运行由此请求的功能或服务或者与请求相关联的附加功能或服务的至少一部分,并且可以向电子装置1001提供执行的结果。电子装置1001可不对接收的结果进行处理或另外对接收的结果进行处理,并且可提供处理的结果作为对请求的响应的至少一部分。为此,例如,可以使用云计算技术、分布式计算技术或客户端-服务器计算技术。
根据各种实施例,一种电子装置包括:图像传感器,被配置为包括多对图像传感器,每对图像传感器面向基本相同的方向并且产生图像数据,并且所述每对图像传感器中的每个图像传感器具有不同的视场;处理器,被配置为可操作地连接到图像传感器;以及存储器,被配置为可操作地连接到处理器。存储器存储指令,所述指令在被执行时使得处理器执行以下操作:从所述多对图像传感器接收至少一组图像数据,从所述图像数据识别至少一个对象,确定所述至少一个对象的深度信息,并且使用所述至少一个对象和所述深度信息对所述至少一组图像数据进行拼接。
根据各种实施例,所述指令使得处理器执行以下操作:通过执行所述至少一组图像数据的第一拼接处理来产生第一拼接图像,确定在第一拼接图像的组合线上是否存在所述对象,至少部分地基于所述深度信息确定改变组合线的必要性,并且至少部分地基于所述必要性改变第一拼接图像的组合线。
根据各种实施例,所述指令使得处理器执行以下操作:当组合线与识别的对象彼此重叠时对与组合线间隔特定距离的候选组合线的深度信息进行识别,并且基于组合线的深度信息和候选组合线的深度信息来确定是否将组合线改变为候选组合线。
根据各种实施例,所述指令使得处理器执行以下操作:当组合线的深度信息的改变大于候选组合线的深度信息的改变时,将组合线改变为候选组合线。
根据各种实施例,所述指令使得处理器执行以下操作:依据特定的优先级信息将组合线改变为与组合线相邻布置的多个候选组合线中的一个。
根据各种实施例,所述指令使得处理器执行以下操作:降低与第一图像数据或第二图像数据上的所述至少一个对象中的聚焦的对象重叠的候选组合线的优先级。
根据各种实施例,所述指令使得处理器执行以下操作:依据对象的尺寸或类型来不同地设置优先级信息。
根据各种实施例,所述指令使得处理器执行以下操作:降低与所述至少一个对象中的大于或等于特定尺寸的对象重叠的线的优先级。
根据各种实施例,所述指令使得处理器执行以下操作:增加与所述至少一个对象中的从第一图像数据和第二图像数据共同识别出的对象重叠的候选组合线的优先级。
根据各种实施例,一种电子装置包括:通信接口,被配置为与包括被配置为包括多对图像传感器的图像传感器的外部相机装置通信,每对图像传感器面向基本相同的方向并且产生图像数据,并且所述每对图像传感器中的每个图像传感器具有不同的视场;处理器,被配置为可操作地连接到通信接口;以及存储器,其中,存储器存储指令,所述指令在被执行时使得处理器执行以下操作:通过通信接口从外部相机装置接收至少一组图像数据,从所述图像数据识别至少一个对象,确定所述至少一个对象的深度信息,并且使用所述至少一个对象和所述深度信息对所述至少一组图像数据进行拼接。
根据各种实施例,一种电子装置包括:存储器;多个图像传感器,其中,多个图像传感器中的至少一些图像传感器捕获不同的图像;以及处理器,被配置为对由所述多个图像传感器收集的图像数据进行处理,其中,所述处理器被配置为执行以下操作:分别从第一图像传感器和第二图像传感器接收第一图像数据和第二图像数据,其中,第一图像传感器和第二图像传感器包括在所述多个图像传感器中;确定第一图像数据和第二图像数据彼此重叠的区域上的第一组合线;从第一组合线获得第一优先级信息;确定与第一组合线间隔特定距离的至少一个第二组合线;从第二组合线获得第二优先级信息;将第一优先级信息与第二优先级信息进行比较并且选择一个组合线;并且针对选择的组合线对第一图像数据与第二图像数据进行拼接。
根据各种实施例,第一优先级信息包括关于对象是否与第一组合线重叠的信息或深度直方图信息,并且第二优先级信息包括关于对象是否与第二组合线重叠的信息或深度直方图信息。
根据各种实施例,处理器被配置为执行以下操作:当第一组合线或第二组合线与从第一图像数据或第二图像数据识别出的对象重叠时,降低第一优先级信息或第二优先级信息。
根据各种实施例,处理器被配置为执行以下操作:依据识别的对象的尺寸或类型来不同地设置第一优先级信息或第二优先级信息。
根据各种实施例,处理器被配置为执行以下操作:当存在与从第一图像数据和第二图像数据共同识别出的对象重叠的第一组合线或第二组合线时,降低第一优先级信息或第二优先级信息。
根据各种实施例,处理器被配置为执行以下操作:确定第一组合线或第二组合线是否与大于或等于特定尺寸的对象重叠。
根据各种实施例,所述多个图像传感器包括沿相同方向布置的至少两个图像传感器。
根据各种实施例,所述多个图像传感器包括相邻图像传感器,其中,所述相邻图像传感器的视角彼此重叠。
根据各种实施例,所述多个图像传感器中的每一个与相邻图像传感器形成特定布置角度。
根据各种实施例,所述多个图像传感器包括第1图像传感器至第16图像传感器,第1图像传感器至第16图像传感器中的每一个面向不同的方向并且被连续地定位,并且第1图像传感器和第4图像传感器被布置为面向相同的方向。
虽然已经参照本公开的各种实施例示出和描述了本公开,但是本领域技术人员将理解,在不脱离由所附权利要求及其等同限定的本公开的范围的情况下,可以在其中进行形式和细节上的各种改变。
Claims (10)
1.一种电子装置,包括:
多对图像传感器,每对图像传感器面向基本相同的方向并且产生图像数据,并且所述每对图像传感器中的每个图像传感器具有不同的视场;
处理器,可操作地连接到图像传感器;以及
存储器,可操作地连接到处理器,
其中,存储器存储指令,所述指令在被执行时使得处理器执行以下操作:
从所述多对图像传感器接收第一图像数据和第二图像数据,
从第一图像数据和第二图像数据识别至少一个对象,
确定所述至少一个对象的深度信息,
通过基于第一组合线组合第一图像数据和第二图像数据来产生第一拼接图像,
使用深度信息确定第一组合线的深度的改变,
当第一组合线的至少部分与所述至少一个对象重叠并且第一组合线的深度的改变大于预定参考值时,通过从第一组合线移动特定像素距离来确定第二组合线,以及
通过基于第二组合线组合第一图像数据和第二图像数据来产生第二拼接图像,
其中,所述指令还使得处理器执行以下操作:
依据特定的优先级信息,将多个候选组合线中的一个确定为第二组合线,
其中,所述特定的优先级信息包括所述多个候选组合线的深度直方图信息。
2.如权利要求1所述的电子装置,其中,所述指令还使得处理器执行以下操作:
当第一组合线的深度信息的改变大于第二组合线的深度信息的改变时,将第一组合线改变为第二组合线。
3.如权利要求1所述的电子装置,其中,所述指令还使得处理器执行以下操作:
降低与第一图像数据或第二图像数据上的所述至少一个对象中的聚焦的对象重叠的候选组合线的优先级。
4.如权利要求1所述的电子装置,其中,所述指令还使得处理器执行以下操作:
依据所述对象的尺寸或类型不同地设置优先级信息。
5.如权利要求4所述的电子装置,其中,所述指令还使得处理器执行以下操作:
降低与所述至少一个对象中的大于或等于特定尺寸的对象重叠的候选组合线的优先级。
6.如权利要求1所述的电子装置,其中,所述指令还使得处理器执行以下操作:
增加与所述至少一个对象中的从第一图像数据和第二图像数据共同识别出的对象重叠的候选组合线的优先级。
7.如权利要求1所述的电子装置,其中,所述指令还使得处理器执行以下操作:
确定第一图像数据和第二图像数据彼此重叠的区域上的第一组合线。
8.如权利要求1所述的电子装置,其中,所述指令还使得处理器执行以下操作:
基于第一组合线的深度直方图信息将第一组合线的深度的改变与所述参考值进行比较。
9.如权利要求1所述的电子装置,其中,处理器还被配置为执行以下操作:
当第一组合线与从第一图像数据和第二图像数据共同识别出的对象重叠时,将第一组合线的深度的改变与所述参考值进行比较。
10.如权利要求1所述的电子装置,其中,处理器还被配置为执行以下操作:
确定第一组合线是否与大于或等于特定尺寸的对象重叠。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2018-0025857 | 2018-03-05 | ||
| KR1020180025857A KR102431488B1 (ko) | 2018-03-05 | 2018-03-05 | 전자 장치 및 이미지 처리 방법 |
| PCT/KR2019/002538 WO2019172618A1 (en) | 2018-03-05 | 2019-03-05 | Electronic device and image processing method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111819597A CN111819597A (zh) | 2020-10-23 |
| CN111819597B true CN111819597B (zh) | 2024-10-22 |
Family
ID=65817721
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201980017457.4A Active CN111819597B (zh) | 2018-03-05 | 2019-03-05 | 电子装置和图像处理方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US11062426B2 (zh) |
| EP (1) | EP3537704B1 (zh) |
| KR (1) | KR102431488B1 (zh) |
| CN (1) | CN111819597B (zh) |
| WO (1) | WO2019172618A1 (zh) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11856297B1 (en) * | 2014-12-31 | 2023-12-26 | Gn Audio A/S | Cylindrical panorama hardware |
| TWI693578B (zh) * | 2018-10-24 | 2020-05-11 | 緯創資通股份有限公司 | 影像拼接處理方法以及其系統 |
| KR102680342B1 (ko) * | 2019-09-23 | 2024-07-03 | 삼성전자주식회사 | 복수의 이미지 센서들에 의해 획득되는 이미지 데이터에 기초하여 비디오 hdr 처리를 수행하기 위한 전자 장치 |
| EP4086839A1 (en) * | 2021-05-04 | 2022-11-09 | Koninklijke Philips N.V. | Stitching multiple images to create a panoramic image |
| KR20220155117A (ko) * | 2021-05-14 | 2022-11-22 | 삼성전자주식회사 | 영상을 표시하는 방법 및 장치 |
| KR102681262B1 (ko) * | 2021-06-24 | 2024-07-04 | 수퍼빈 주식회사 | 객체 인식 모델의 학습을 관리하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
| WO2023281250A1 (en) * | 2021-07-07 | 2023-01-12 | Mo-Sys Engineering Limited | Image stitching |
| GB2614051A (en) * | 2021-12-16 | 2023-06-28 | Peacock Tech Limited | Image processing |
| WO2023192752A1 (en) * | 2022-04-01 | 2023-10-05 | Nvidia Corporation | Image stitching with dynamic seam placement based on ego-vehicle state for surround view visualization |
| WO2025146939A1 (ko) * | 2024-01-05 | 2025-07-10 | 삼성전자 주식회사 | 뷰 합성을 수행하는 전자 장치 및 그 동작 방법 |
| CN119653053B (zh) * | 2025-02-17 | 2025-04-18 | 超节点创新科技(深圳)有限公司 | 低算力超高清全景监控图像拼接方法及装置 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9681046B2 (en) * | 2015-06-30 | 2017-06-13 | Gopro, Inc. | Image stitching in a multi-camera array |
Family Cites Families (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6486908B1 (en) | 1998-05-27 | 2002-11-26 | Industrial Technology Research Institute | Image-based method and system for building spherical panoramas |
| EP2385705A4 (en) * | 2008-12-30 | 2011-12-21 | Huawei Device Co Ltd | METHOD AND DEVICE FOR GENERATING STEREOSCOPIC PANORAMIC VIDEO FLOW AND METHOD AND DEVICE FOR VISIOCONFERENCE |
| US9098926B2 (en) * | 2009-02-06 | 2015-08-04 | The Hong Kong University Of Science And Technology | Generating three-dimensional façade models from images |
| US20120133639A1 (en) * | 2010-11-30 | 2012-05-31 | Microsoft Corporation | Strip panorama |
| JP5828038B2 (ja) * | 2012-06-11 | 2015-12-02 | 株式会社ソニー・コンピュータエンタテインメント | 画像撮像装置および画像撮像方法 |
| US9398264B2 (en) * | 2012-10-19 | 2016-07-19 | Qualcomm Incorporated | Multi-camera system using folded optics |
| CN104680501B (zh) * | 2013-12-03 | 2018-12-07 | 华为技术有限公司 | 图像拼接的方法及装置 |
| US9754159B2 (en) | 2014-03-04 | 2017-09-05 | Gopro, Inc. | Automatic generation of video from spherical content using location-based metadata |
| US11205305B2 (en) * | 2014-09-22 | 2021-12-21 | Samsung Electronics Company, Ltd. | Presentation of three-dimensional video |
| US10750153B2 (en) * | 2014-09-22 | 2020-08-18 | Samsung Electronics Company, Ltd. | Camera system for three-dimensional video |
| US20160191795A1 (en) * | 2014-12-30 | 2016-06-30 | Alpine Electronics, Inc. | Method and system for presenting panoramic surround view in vehicle |
| KR20180025857A (ko) | 2015-05-08 | 2018-03-09 | 웨이코 퍼시픽 엘티디 | 유도 조리 장치 및 유도 조리 장치를 제어하는 방법 |
| US20170006219A1 (en) * | 2015-06-30 | 2017-01-05 | Gopro, Inc. | Image stitching in a multi-camera array |
| US9466109B1 (en) | 2015-06-30 | 2016-10-11 | Gopro, Inc. | Image stitching in a multi-camera array |
| US9355433B1 (en) | 2015-06-30 | 2016-05-31 | Gopro, Inc. | Image stitching in a multi-camera array |
| EP3317816A4 (en) * | 2015-06-30 | 2019-02-27 | GoPro, Inc. | PICTURES OF PICTURES IN A MULTIPLE CAMERAS ARRANGEMENT |
| US9699380B2 (en) | 2015-11-03 | 2017-07-04 | Intel Corporation | Fusion of panoramic background images using color and depth data |
| US9842624B2 (en) * | 2015-11-12 | 2017-12-12 | Intel Corporation | Multiple camera video image stitching by placing seams for scene objects |
| US10212341B2 (en) * | 2015-11-20 | 2019-02-19 | Amit SONDHI | Mobile electronic device with multiple cameras |
| US10185877B2 (en) * | 2016-07-08 | 2019-01-22 | Huawei Technologies Co., Ltd. | Systems, processes and devices for occlusion detection for video-based object tracking |
-
2018
- 2018-03-05 KR KR1020180025857A patent/KR102431488B1/ko active Active
-
2019
- 2019-03-04 EP EP19160589.8A patent/EP3537704B1/en active Active
- 2019-03-05 CN CN201980017457.4A patent/CN111819597B/zh active Active
- 2019-03-05 WO PCT/KR2019/002538 patent/WO2019172618A1/en not_active Ceased
- 2019-03-05 US US16/292,981 patent/US11062426B2/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9681046B2 (en) * | 2015-06-30 | 2017-06-13 | Gopro, Inc. | Image stitching in a multi-camera array |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102431488B1 (ko) | 2022-08-12 |
| WO2019172618A1 (en) | 2019-09-12 |
| US20190272619A1 (en) | 2019-09-05 |
| KR20190105388A (ko) | 2019-09-17 |
| CN111819597A (zh) | 2020-10-23 |
| EP3537704A3 (en) | 2019-11-20 |
| EP3537704B1 (en) | 2024-07-24 |
| US11062426B2 (en) | 2021-07-13 |
| EP3537704A2 (en) | 2019-09-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111819597B (zh) | 电子装置和图像处理方法 | |
| US11138434B2 (en) | Electronic device for providing shooting mode based on virtual character and operation method thereof | |
| CN113424228B (zh) | 用于提供化身动画的电子装置及其方法 | |
| EP3779660B1 (en) | Apparatus and method for displaying graphic elements according to object | |
| CN110139028A (zh) | 一种图像处理的方法及头戴式显示设备 | |
| KR102495796B1 (ko) | 시계(field of view)가 다른 복수의 카메라를 이용하여 생체 인증을 수행하는 방법 및 이를 위한 전자 장치 | |
| KR102344104B1 (ko) | 이미지의 표시 효과를 제어할 수 있는 전자 장치 및 영상 표시 방법 | |
| US11509815B2 (en) | Electronic device and method for processing image having human object and providing indicator indicating a ratio for the human object | |
| CN113366527B (zh) | 用于处理图像的电子装置和方法 | |
| KR20190096189A (ko) | 시선에 기반한 관심 영역 검출 방법 및 이를 위한 전자 장치 | |
| CN112154436A (zh) | 在电子装置中识别对象的设备和方法 | |
| US20230043122A1 (en) | Electronic device comprising multi-camera, and photographing method | |
| KR102383134B1 (ko) | 우선 순위에 기반하여 이미지를 처리하는 전자 장치 및 그 동작 방법 | |
| KR102330264B1 (ko) | 움직임 정보에 기반하여 동영상을 재생하기 위한 장치 및 그의 동작 방법 | |
| KR20190096748A (ko) | 외부 전자 장치를 이용한 이미지 보정 방법 및 전자 장치 | |
| CN114846608A (zh) | 包括图像传感器的电子设备及其操作方法 | |
| KR102849286B1 (ko) | 디지털 영상 안정화 장치, 그것의 동작 방법, 및 그것을 갖는 전자 장치 | |
| KR20200144196A (ko) | 전자 장치 및 각막 이미지를 이용한 전자 장치의 기능 제공 방법 | |
| CN115004685B (zh) | 电子装置和用于在电子装置处显示图像的方法 | |
| KR102828435B1 (ko) | 전자 장치 및 객체 인식 방법 | |
| KR20210101713A (ko) | 카메라를 포함하는 전자 장치 및 그의 동작 방법 | |
| KR20210079956A (ko) | 네트워크를 통해 영상 처리 서비스를 제공하는 전자 장치 | |
| KR20190141866A (ko) | 사용자의 사진 촬영 의도를 식별하기 위한 전자 장치 및 방법 | |
| KR102705684B1 (ko) | 동영상 처리 방법 및 이를 지원하는 전자 장치 | |
| KR102752621B1 (ko) | 자기 이미지 캡쳐 방법 및 이를 위한 전자 장치 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |