KR20240166342A - Display apparatus for generating content and operating method for the same - Google Patents
Display apparatus for generating content and operating method for the same Download PDFInfo
- Publication number
- KR20240166342A KR20240166342A KR1020230091224A KR20230091224A KR20240166342A KR 20240166342 A KR20240166342 A KR 20240166342A KR 1020230091224 A KR1020230091224 A KR 1020230091224A KR 20230091224 A KR20230091224 A KR 20230091224A KR 20240166342 A KR20240166342 A KR 20240166342A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- shooting
- electronic device
- space
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Business, Economics & Management (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Tourism & Hospitality (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Architecture (AREA)
- Computing Systems (AREA)
- Library & Information Science (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 개시는 카메라, 디스플레이, 적어도 하나의 명령어(instruction)를 저장하는 메모리 및 메모리에 저장된 상기 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 메모리에 저장된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 획득하고, 디스플레이를 통하여 적어도 하나의 이미지에 기초한 촬영 가이드를 표시하고, 카메라를 통하여, 표시된 촬영 가이드를 따라 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 공간 정보를 획득하고, 획득된 공간 정보 및 획득된 적어도 하나의 객체에 기초하여 콘텐츠를 생성하는 전자 장치 및 그의 동작 방법을 포함한다.The present disclosure includes an electronic device including a camera, a display, a memory storing at least one instruction, and at least one processor executing the at least one instruction stored in the memory, wherein the at least one processor executes the at least one instruction to obtain at least one preset object from at least one image stored in the memory, display a shooting guide based on the at least one image through the display, and acquire spatial information by shooting a real space corresponding to a space included in the at least one image along the displayed shooting guide through the camera, and generate content based on the acquired spatial information and the acquired at least one object, and a method of operating the same.
Description
본 개시는 전자 장치 및 전자 장치의 동작 방법에 관한 것이다. 구체적으로는, 콘텐츠를 생성하는 전자 장치 및 전자 장치의 동작 방법에 관한 것이다.The present disclosure relates to an electronic device and a method of operating the electronic device. Specifically, the present disclosure relates to an electronic device for generating content and a method of operating the electronic device.
기술의 발전에 따라 미리 촬영된 복수의 이미지들을 이용하여 전자 장치의 사용자에게 서비스를 제공해주는 기술이 발전되고 있다.As technology advances, technologies are being developed to provide services to users of electronic devices using multiple pre-captured images.
특히, 복수의 이미지들이 촬영된 날짜를 기준으로 복수의 이미지들을 비슷한 날짜 혹은 반복되는 날짜에 촬영된 적어도 하나의 이미지들로 분류하거나, 혹은 GPS 정보 등을 이용하여 복수의 이미지들을 인접한 장소에 촬영된 적어도 하나의 이미지들로 분류하고, 분류된 이미지들을 전자 장치의 사용자에게 제공해주는 서비스 등이 개발되고 있다.In particular, services are being developed that classify multiple images into at least one image taken on a similar date or on repeated dates based on the date the images were taken, or classify multiple images into at least one image taken in an adjacent location using GPS information, etc., and provide the classified images to users of electronic devices.
본 개시의 일 실시예는 전자 장치를 제공한다. 전자 장치는 카메라를 포함할 수 있다. 전자 장치는 디스플레이를 포함할 수 있다. 전자 장치는 적어도 하나의 명령어(instruction)를 저장하는 메모리 및 메모리에 저장된 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서를 포함할 수 잇다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 메모리에 저장된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 검출할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 디스플레이를 통하여 적어도 하나의 이미지에 기초한 촬영 가이드를 표시할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 카메라를 통하여, 표시된 촬영 가이드를 따라 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 공간 정보를 획득할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 획득된 공간 정보 및 획득된 적어도 하나의 객체에 기초하여 콘텐츠를 생성할 수 있다.An embodiment of the present disclosure provides an electronic device. The electronic device may include a camera. The electronic device may include a display. The electronic device may include a memory storing at least one instruction and at least one processor executing at least one instruction stored in the memory. The at least one processor may detect at least one preset object from at least one image stored in the memory by executing the at least one instruction. The at least one processor may display a shooting guide based on the at least one image through the display by executing the at least one instruction. The at least one processor may acquire spatial information by shooting a real space corresponding to a space included in the at least one image along the displayed shooting guide through the camera by executing the at least one instruction. The at least one processor may generate content based on the acquired spatial information and the acquired at least one object by executing the at least one instruction.
본 개시의 일 실시예는 전자 장치의 동작 방법을 제공한다. 전자 장치의 동작 방법은 메모리에 저장된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 획득하는 단계를 포함할 수 있다. 전자 장치의 동작 방법은 디스플레이를 통하여 적어도 하나의 이미지에 기초한 촬영 가이드를 표시하는 단계를 포함할 수 있다. 전자 장치의 동작 방법은 카메라를 통하여, 표시된 촬영 가이드를 따라 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 공간 정보를 획득하는 단계를 포함할 수 있다. 전자 장치의 동작 방법은 획득된 공간 정보 및 획득된 적어도 하나의 객체에 기초하여 콘텐츠를 생성하는 단계를 포함할 수 있다.One embodiment of the present disclosure provides a method of operating an electronic device. The method of operating the electronic device may include a step of acquiring at least one preset object from at least one image stored in a memory. The method of operating the electronic device may include a step of displaying a shooting guide based on the at least one image through a display. The method of operating the electronic device may include a step of acquiring spatial information by shooting a real space corresponding to a space included in the at least one image along the displayed shooting guide through a camera. The method of operating the electronic device may include a step of generating content based on the acquired spatial information and the acquired at least one object.
본 개시의 일 실시예로, 개시된 동작 방법의 실시예 중 적어도 하나의 방법을 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다.As one embodiment of the present disclosure, a computer-readable recording medium having recorded thereon a program for performing at least one method of the disclosed operating method on a computer can be provided.
본 개시는, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 본 개시의 일 실시예에 따른 전자 장치를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.
도 3a는 본 개시의 일 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 순서도이다.
도 3b는 본 개시의 일 실시예에 따른 3D 객체와 3D 공간을 생성하고, 3D 공간에 3D 객체를 배치하여 콘텐츠를 생성하는 전자 장치의 동작 방법을 설명하기 위한 순서도이다.
도 3c는 본 개시의 일 실시예에 따른 복수의 촬영 이미지들로부터 적어도 하나의 이미지를 필터링하고, 선택 신호에 기초하여 적어도 하나의 객체를 획득하는 동작을 설명하기 위한 순서도이다.
도 4는 본 개시의 일 실시예에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
도 5a는 본 개시의 일 실시예에 따른, 적어도 하나의 이미지에서 객체 리스트에 포함된 적어도 하나의 객체를 획득하는 동작을 설명하기 위한 도면이다.
도 5b는 본 개시의 일 실시예에 따른, 적어도 하나의 이미지에서 선택 신호에 포함된 적어도 하나의 객체를 획득하는 동작을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시예에 따른, 촬영 가이드에 따라 공간 정보를 획득하는 동작을 설명하기 위한 도면이다.
도 7a는 본 개시의 일 실시예에 따른, 디스플레이에 표시되는 촬영 가이드에 따라 현실 공간을 촬영하여 공간 정보를 획득하는 동작을 설명하기 위한 도면이다.
도 7b는 본 개시의 일 실시예에 따른, 디스플레이에 표시되는 촬영 가이드에 따라 현실 공간을 촬영하여 공간 정보를 획득하는 동작을 설명하기 위한 도면이다.
도 7c는 본 개시의 일 실시예에 따른, 디스플레이에 표시되는 촬영 가이드에 따라 현실 공간을 촬영하여 공간 정보를 획득하는 동작을 설명하기 위한 도면이다.
도 7d는 본 개시의 일 실시예에 따른, 디스플레이에 표시되는 촬영 가이드에 따라 현실 공간을 촬영하여 공간 정보를 획득하는 동작을 설명하기 위한 도면이다.
도 8a는 본 개시의 일 실시예에 따른 획득한 공간 정보 및 검출된 적어도 하나의 객체에 기초하여 생성된 콘텐츠를 설명하기 위한 도면이다.
도 8b는 본 개시의 일 실시예에 따른 제어 신호에 기초하여, 콘텐츠 내에서의 획득된 적어도 하나의 객체의 위치, 형상 또는 크기 중 적어도 하나를 결정하는 동작을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시예에 따른 생성된 콘텐츠를 디스플레이에 표시하는 동작을 설명하기 위한 순서도이다.
도 10은 본 개시의 일 실시예에 따른 모바일 디바이스 형태의 전자 장치에 생성된 콘텐츠를 표시하는 동작을 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시예에 따른 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태의 전자 장치에 생성된 콘텐츠를 표시하는 동작을 설명하기 위한 도면이다.The present disclosure can be readily understood by the combination of the following detailed description and the accompanying drawings, in which reference numerals refer to structural elements.
FIG. 1 is a drawing for explaining an electronic device according to one embodiment of the present disclosure.
FIG. 2 is a block diagram illustrating the configuration of an electronic device according to one embodiment of the present disclosure.
FIG. 3a is a flowchart for explaining an operation method of an electronic device according to one embodiment of the present disclosure.
FIG. 3b is a flowchart illustrating an operation method of an electronic device for generating a 3D object and a 3D space and generating content by arranging the 3D object in the 3D space according to one embodiment of the present disclosure.
FIG. 3c is a flowchart illustrating an operation of filtering at least one image from a plurality of captured images and acquiring at least one object based on a selection signal according to one embodiment of the present disclosure.
FIG. 4 is a drawing for explaining the operation of an electronic device according to one embodiment of the present disclosure.
FIG. 5A is a diagram illustrating an operation of obtaining at least one object included in an object list from at least one image according to one embodiment of the present disclosure.
FIG. 5b is a diagram illustrating an operation of acquiring at least one object included in a selection signal in at least one image according to one embodiment of the present disclosure.
FIG. 6 is a drawing for explaining an operation of acquiring spatial information according to a shooting guide according to one embodiment of the present disclosure.
FIG. 7A is a drawing for explaining an operation of obtaining spatial information by shooting a real space according to a shooting guide displayed on a display according to one embodiment of the present disclosure.
FIG. 7b is a drawing for explaining an operation of obtaining spatial information by shooting a real space according to a shooting guide displayed on a display according to one embodiment of the present disclosure.
FIG. 7c is a drawing for explaining an operation of obtaining spatial information by shooting a real space according to a shooting guide displayed on a display according to one embodiment of the present disclosure.
FIG. 7d is a drawing for explaining an operation of obtaining spatial information by shooting a real space according to a shooting guide displayed on a display according to one embodiment of the present disclosure.
FIG. 8A is a diagram for explaining content generated based on acquired spatial information and at least one detected object according to one embodiment of the present disclosure.
FIG. 8b is a diagram for explaining an operation of determining at least one of a position, shape, or size of at least one object acquired within content based on a control signal according to one embodiment of the present disclosure.
FIG. 9 is a flowchart illustrating an operation of displaying generated content on a display according to one embodiment of the present disclosure.
FIG. 10 is a diagram for explaining an operation of displaying content generated on an electronic device in the form of a mobile device according to one embodiment of the present disclosure.
FIG. 11 is a drawing for explaining an operation of displaying content generated on an electronic device in the form of a head mounted display (HMD) according to one embodiment of the present disclosure.
본 개시에서 사용되는 용어에 대해 간략히 설명하고, 본 개시의 일 실시예에 대해 구체적으로 설명하기로 한다.Hereinafter, terms used in this disclosure will be briefly described, and an embodiment of the present disclosure will be specifically described.
본 개시에서 사용되는 용어는 본 개시의 일 실시예에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 본 개시의 실시예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in this disclosure are selected from widely used general terms as much as possible while considering the functions in one embodiment of the present disclosure, but this may vary depending on the intention or precedent of a technician working in the relevant field, the emergence of new technologies, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meanings thereof will be described in detail in the description of the embodiments of the present disclosure. Therefore, the terms used in this disclosure should be defined based on the meanings of the terms and the overall contents of the present disclosure, rather than simply the names of the terms.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 명세서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. Singular expressions may include plural expressions unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art described herein.
본 개시 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 본 개시에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Throughout this disclosure, when a part is said to "include" a certain component, this does not mean that other components are excluded, but rather that other components may be included, unless otherwise specifically stated. In addition, terms such as "part", "module", etc. described in this disclosure mean a unit that processes at least one function or operation, which may be implemented by hardware or software, or a combination of hardware and software.
본 개시에서 사용된 표현 “~하도록 구성된(또는 설정된)(configured to)”은 상황에 따라, 예를 들면, “~에 적합한(suitable for)”, “~하는 능력을 가지는(having the capacity to)”, “~하도록 설계된(designed to)”, “~하도록 변경된(adapted to)”, “~하도록 만들어진(made to)”, 또는 “~를 할 수 있는(capable of)”과 바꾸어 사용될 수 있다. 용어 “~하도록 구성된(또는 설정된)”은 하드웨어적으로 “특별히 설계된(specifically designed to)” 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, “~하도록 구성된 시스템”이라는 표현은, 그 시스템이 다른 장치 또는 부품들과 함께 “~할 수 있는” 것을 의미할 수 있다. 예를 들면, 문구 “A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서”는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression “configured to” as used herein can be used interchangeably with, for example, “suitable for,” “having the capacity to,” “designed to,” “adapted to,” “made to,” or “capable of.” The term “configured to” does not necessarily mean something that is “specifically designed to” in terms of hardware. Instead, in some contexts, the expression “a system configured to” can mean that the system is “capable of” doing something together with other devices or components. For example, the phrase “a processor configured (or set) to perform A, B, and C” can mean a dedicated processor (e.g., an embedded processor) to perform those operations, or a generic-purpose processor (e.g., a CPU or an application processor) that can perform those operations by executing one or more software programs stored in memory.
또한, 본 개시에서 일 구성요소가 다른 구성요소와 “연결된다” 거나 “접속된다” 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.In addition, when a component is referred to as being “connected” or “connected” to another component in the present disclosure, it should be understood that the component may be directly connected or directly connected to the other component, but may also be connected or connected via another component in between, unless otherwise specifically stated.
본 개시에서, '전자 장치'는 스마트 폰(smart phone) 일 수 있다. 다만, 본 개시는 이에 한정되는 것은 아니고, '전자 장치'는 TV, 모바일 디바이스, 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 장치, 노트북 컴퓨터(laptop computer), 데스크 탑, 태블릿 PC, 전자책 단말기, 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 착용형 기기(wearable device) 등과 같은 다양한 형상의 전자 장치로 구현될 수도 있다. In the present disclosure, an 'electronic device' may be a smart phone. However, the present disclosure is not limited thereto, and the 'electronic device' may be implemented as various types of electronic devices, such as a TV, a mobile device, a head mounted display (HMD) device, a laptop computer, a desktop, a tablet PC, an e-book reader, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a wearable device, etc.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시의 일 실시예는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 개시의 일 실시예를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 본 개시 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily practice the present disclosure. However, one embodiment of the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe one embodiment of the present disclosure in the drawings, parts that are not related to the description are omitted, and similar parts are given similar drawing reference numerals throughout the present disclosure.
이하에서는 도면을 참조하여 본 개시의 실시예들을 상세하게 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.
도 1은 본 개시의 일 실시예에 따른 전자 장치를 설명하기 위한 도면이다.FIG. 1 is a drawing for explaining an electronic device according to one embodiment of the present disclosure.
도 1을 참조하면, 일 실시예에서, 전자 장치(100)는 전자 장치(100)를 통하여 획득한 공간 정보 및 전자 장치(100)에 저장된 적어도 하나의 이미지(111)로부터 획득된 적어도 하나의 객체(121, 122)에 기초하여 콘텐츠(140)를 생성하기 위한 전자 장치일 수 있다. 일 실시예에서, 전자 장치(100)는 생성된 콘텐츠(140)를 전자 장치(100)를 사용하는 사용자에게 제공할 수도 있다.Referring to FIG. 1, in one embodiment, the electronic device (100) may be an electronic device for generating content (140) based on spatial information acquired through the electronic device (100) and at least one object (121, 122) acquired from at least one image (111) stored in the electronic device (100). In one embodiment, the electronic device (100) may also provide the generated content (140) to a user using the electronic device (100).
도 1에는 전자 장치(100)가 스마트 폰(smart phone)의 형상을 갖는 것으로 도시되어 있으나, 본 개시는 이에 제한되지 않는다. 전자 장치(100)는 모바일 디바이스, 착용형 기기(wearable device), 헤드 마운티드 디스플레이(Head Moundted Display, HMD) 장치, 태블릿 PC, 노트북 컴퓨터(laptop computer) 등과 같은 다양한 형상의 디스플레이 장치로 구현될 수도 있다.Although the electronic device (100) is illustrated in FIG. 1 as having a shape of a smart phone, the present disclosure is not limited thereto. The electronic device (100) may be implemented as a display device of various shapes, such as a mobile device, a wearable device, a head mounted display (HMD) device, a tablet PC, a laptop computer, etc.
일 실시예에서, 전자 장치(100)는 전자 장치(100)에 저장된 복수의 촬영 이미지들을 미리 설정된 조건에 따라 필터링하여 적어도 하나의 이미지(111)를 획득할 수 있다(110). 일 실시예에서, 복수의 촬영 이미지들은 전자 장치(100)를 통하여 미리 촬영되어 전자 장치(100)에 저장되거나, 혹은 외부의 서버 또는 주변 전자 장치로부터 전자 장치(100)로 제공된 것일 수 있다. 일 실시예에서, 미리 설정된 조건은 GPS(Global Positioning System)에 기초하여, 인접한 위치에서 촬영된 적어도 하나의 촬영 이미지를 필터링하는 것일 수 있다. 미리 설정된 조건은 각각의 촬영 이미지의 특징점(key point)를 추출하여, 동일한 특징점을 가지는 적어도 하나의 촬영 이미지를 필터링하는 것일 수 있다. 이하, 복수의 촬영 이미지들을 필터링하여 적어도 하나의 이미지(111)를 획득하는 동작(110)에 대하여는 도 4에서 후술하도록 한다.In one embodiment, the electronic device (100) may filter a plurality of captured images stored in the electronic device (100) according to a preset condition to obtain at least one image (111) (110). In one embodiment, the plurality of captured images may be captured in advance through the electronic device (100) and stored in the electronic device (100), or may be provided to the electronic device (100) from an external server or a peripheral electronic device. In one embodiment, the preset condition may be filtering at least one captured image captured at an adjacent location based on a Global Positioning System (GPS). The preset condition may be filtering at least one captured image having the same key point by extracting a key point of each captured image. Hereinafter, an operation (110) of filtering a plurality of captured images to obtain at least one image (111) will be described later with reference to FIG. 4.
일 실시예에서, 전자 장치(100)는 필터링된 적어도 하나의 이미지(111)에 포함된 적어도 하나의 객체를 획득할 수 있다(120). 일 실시예에서, 전자 장치(100)는 적어도 하나의 이미지(111)로부터 미리 설정된 적어도 하나의 객체(121)를 획득할 수 있다(120). 일 실시예에서, 미리 설정된 적어도 하나의 객체(121)에는 전자 장치(100)를 사용하는 사용자가 관심을 가질 수 있는 객체가 포함될 수 있다. 일 실시예에서, 복수의 촬영 이미지들로부터 필터링 된 이미지가 두 개 이상의 이미지일 경우, 미리 설정된 적어도 하나의 객체에는 두 개 이상의 이미지들에 각각 포함되어 중복되는 객체가 포함될 수 있다. 일 실시예에서, 미리 설정된 객체(121)는 객체 리스트의 형태로 미리 설정될 수도 있다.In one embodiment, the electronic device (100) may obtain at least one object included in at least one filtered image (111) (120). In one embodiment, the electronic device (100) may obtain at least one preset object (121) from at least one image (111) (120). In one embodiment, the at least one preset object (121) may include an object that a user using the electronic device (100) may be interested in. In one embodiment, when the filtered images from a plurality of captured images are two or more images, the at least one preset object may include an object that is included in each of the two or more images and is overlapping. In one embodiment, the preset object (121) may also be preset in the form of an object list.
일 실시예에서, 전자 장치(100)는 적어도 하나의 이미지(111)에 포함된 적어도 하나의 객체(122)를 선택하는 선택 신호를 획득할 수 있다. 전자 장치(100)는 획득한 선택 신호에 기초하여, 적어도 하나의 이미지(111)로부터 선택 신호에 포함된 적어도 하나의 객체(122)를 획득할 수 있다(120). 일 실시예에서, 선택 신호는 전자 장치(100)에 포함된 사용자 인터페이스를 통하여, 전자 장치(100)를 사용하는 사용자로부터 획득할 수 있다. 이하, 적어도 하나의 이미지(111)로부터 적어도 하나의 객체를 획득하는 동작(120)에 대하여는 도 4 내지 도 5b에서 후술하도록 한다.In one embodiment, the electronic device (100) can obtain a selection signal for selecting at least one object (122) included in at least one image (111). Based on the obtained selection signal, the electronic device (100) can obtain at least one object (122) included in the selection signal from at least one image (111) (120). In one embodiment, the selection signal can be obtained from a user using the electronic device (100) through a user interface included in the electronic device (100). Hereinafter, an operation (120) of obtaining at least one object from at least one image (111) will be described later with reference to FIGS. 4 to 5B.
일 실시예에서, 전자 장치(100)는 필터링된 적어도 하나의 이미지(111)에 기초한 촬영 가이드(131)를 사용자에게 제공할 수 있다. 일 실시예에서, 전자 장치(100)는 전자 장치(100)에 포함된 디스플레이를 통하여, 적어도 하나의 이미지(111)에 기초한 촬영 가이드(131)를 표시하여 사용자에게 제공할 수 있다. 일 실시예에서, 적어도 하나의 이미지(111)는 배경에 해당하는 공간을 포함할 수 있고, 촬영 가이드(131)는 적어도 하나의 이미지(111)의 공간에 대응되는 현실 공간(132)의 위치 등의 정보를 사용자에게 제공하기 위한 가이드일 수 있다. 일 실시예에서, 현실 공간(132)은 전자 장치(100)를 사용하는 사용자가 위치한 공간을 의미할 수 있다. In one embodiment, the electronic device (100) may provide a user with a shooting guide (131) based on at least one filtered image (111). In one embodiment, the electronic device (100) may display and provide a user with a shooting guide (131) based on at least one image (111) through a display included in the electronic device (100). In one embodiment, the at least one image (111) may include a space corresponding to a background, and the shooting guide (131) may be a guide for providing the user with information such as a location of a real space (132) corresponding to the space of the at least one image (111). In one embodiment, the real space (132) may mean a space in which a user using the electronic device (100) is located.
일 실시예에서, 전자 장치(100)는 표시된 촬영 가이드(131)를 따라, 전자 장치(100)에 포함된 카메라를 통하여, 촬영 가이드(131)에 대응되는 현실 공간(132)을 촬영하여 공간 정보를 획득할 수 있다(130). 일 실시예에서, 전자 장치(100)는 카메라를 통하여, 디스플레이에 표시된 촬영 가이드를 따라, 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 공간 정보를 획득(130)할 수 있다. 이하, 공간 정보를 획득하는 동작(130)에 대하여는 도 4 및 도 6 내지 도 7d에서 후술하도록 한다.In one embodiment, the electronic device (100) can capture a real space (132) corresponding to the capture guide (131) through a camera included in the electronic device (100) along the displayed capture guide (131) to obtain spatial information (130). In one embodiment, the electronic device (100) can capture a real space corresponding to the space included in at least one image along the capture guide displayed on the display through the camera to obtain spatial information (130). Hereinafter, the operation (130) of obtaining spatial information will be described later with reference to FIG. 4 and FIGS. 6 to 7d.
일 실시예에서, 전자 장치(100)는 획득한 공간 정보(130) 및 획득된 적어도 하나의 객체(121, 122)에 기초하여 콘텐츠(140)를 생성할 수 있다. 일 실시예에서, 전자 장치(100)는 획득한 공간 정보(130) 및 획득된 적어도 하나의 객체(121, 122)에 기초하여 3D 공간에 적어도 하나의 3D 객체가 배치된 콘텐츠(140)를 생성할 수 있다. 일 실시예에서, 전자 장치(100)는 획득한 공간 정보(130)에 기초하여 3D 공간을 생성할 수 있다. 전자 장치(100)는 획득된 적어도 하나의 객체(121, 122)에 각각 대응되는 적어도 하나의 3D 객체를 생성할 수 있다. 전자 장치(100)는 생성된 3D 공간에 생성된 적어도 하나의 3D 객체를 배치하여, 콘텐츠(140)를 생성할 수 있다. 이하, 콘텐츠(140)를 생성하는 동작에 대하여는 도 4, 도 8a 및 도 8b에서 후술하도록 한다.In one embodiment, the electronic device (100) can generate content (140) based on the acquired spatial information (130) and at least one acquired object (121, 122). In one embodiment, the electronic device (100) can generate content (140) in which at least one 3D object is arranged in a 3D space based on the acquired spatial information (130) and at least one acquired object (121, 122). In one embodiment, the electronic device (100) can generate a 3D space based on the acquired spatial information (130). The electronic device (100) can generate at least one 3D object corresponding to each of the acquired at least one object (121, 122). The electronic device (100) can generate content (140) by arranging the generated at least one 3D object in the generated 3D space. Below, the operation of generating content (140) will be described later with reference to FIG. 4, FIG. 8a, and FIG. 8b.
일 실시예에서, 전자 장치(100)는 생성된 콘텐츠(140)를 전자 장치(100)를 사용하는 사용자에게 제공할 수 있다. 일 실시예에서, 전자 장치(100)는 디스플레이를 통하여, 생성된 콘텐츠(140)를 표시하여 사용자에게 제공할 수 있다. 일 실시예에서, 생성된 콘텐츠(140)가 3D 공간 및 적어도 하나의 3D 객체를 포함하는 경우, 사용자는 전자 장치(100)의 위치를 변경하며, 전자 장치(100)에 표시되는 콘텐츠(140)가 관찰되는 시점을 변경하며 콘텐츠(140)를 볼 수 있다. 이하, 생성된 콘텐츠(140)를 사용자에게 제공하는 동작에 대하여는 도 9 내지 도 11에서 후술하도록 한다.In one embodiment, the electronic device (100) can provide the generated content (140) to a user using the electronic device (100). In one embodiment, the electronic device (100) can display the generated content (140) through a display and provide it to the user. In one embodiment, when the generated content (140) includes a 3D space and at least one 3D object, the user can change the position of the electronic device (100) and change the viewpoint from which the content (140) displayed on the electronic device (100) is observed and view the content (140). Hereinafter, an operation of providing the generated content (140) to the user will be described later with reference to FIGS. 9 to 11.
다만, 본 개시는 이에 제한되지 않고, 전자 장치(100)는 생성된 콘텐츠(140)를 외부의 서버 또는 주변 전자 장치로 제공하고, 사용자는 전자 장치(100)를 통하여 생성된 콘텐츠(140)를 다른 전자 장치를 통하여 제공받을 수도 있다. However, the present disclosure is not limited thereto, and the electronic device (100) may provide the generated content (140) to an external server or peripheral electronic device, and the user may receive the generated content (140) through the electronic device (100) through another electronic device.
도 2는 본 개시의 일 실시예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.FIG. 2 is a block diagram illustrating the configuration of an electronic device according to one embodiment of the present disclosure.
도 1 및 도 2를 참조하면, 전자 장치(100)는 디스플레이(200), 카메라(210), 메모리(220), 적어도 하나의 프로세서(230) 및 통신 인터페이스(240)를 포함할 수 있다. 그러나, 도 2에 도시된 구성 요소가 모두 필수 구성 요소인 것은 아니다. 도 2에 구성된 구성 요소보다 더 많은 구성 요소에 의하여 전자 장치(100)가 구현될 수도 있고, 그보다 적은 구성 요소에 의하여도 전자 장치(100)는 구현될 수 있다. 일 실시예에서, 전자 장치(100)는 사용자의 입력을 획득하기 위한 사용자 인터페이스를 더 포함할 수도 있다.Referring to FIGS. 1 and 2, the electronic device (100) may include a display (200), a camera (210), a memory (220), at least one processor (230), and a communication interface (240). However, not all of the components illustrated in FIG. 2 are essential components. The electronic device (100) may be implemented with more components than the components illustrated in FIG. 2, or may be implemented with fewer components. In one embodiment, the electronic device (100) may further include a user interface for obtaining a user's input.
일 실시예에서, 디스플레이(200), 카메라(210), 메모리(220), 적어도 하나의 프로세서(230) 및 통신 인터페이스(240)는 각각 전기적 및/또는 물리적으로 서로 연결될 수 있다.In one embodiment, the display (200), the camera (210), the memory (220), the at least one processor (230), and the communication interface (240) may each be electrically and/or physically connected to one another.
일 실시예에서, 디스플레이(200)는 촬영 가이드 또는 촬영 가이드 및 콘텐츠를 표시할 수 있다. 디스플레이(200)는 액정 표시(liquid crystal) 디스플레이, 플라즈마(plasma) 디스플레이, 유기 발광 다이오드(organic light emitting diodes) 디스플레이, 무기 발광 다이오드(inorganic light emitting diodes) 디스플레이 중 어느 하나의 디스플레이를 포함할 수 있다. 다만, 본 개시는 이에 제한되지 않고, 디스플레이(200)는 전자 장치(100)를 사용하는 사용자에게 촬영 가이드 및 콘텐츠를 제공할 수 있는 다른 종류의 디스플레이를 포함할 수 있다.In one embodiment, the display (200) can display a shooting guide or a shooting guide and content. The display (200) can include any one of a liquid crystal display, a plasma display, an organic light emitting diodes display, and an inorganic light emitting diodes display. However, the present disclosure is not limited thereto, and the display (200) can include other types of displays that can provide a shooting guide and content to a user using the electronic device (100).
일 실시예에서, 카메라(210)는 현실 공간(130)을 촬영하여 영상을 획득할 수 있다. 일 실시예에서, 카메라(210)는 현실 공간(130)을 촬영하여 RGB 정보를 포함하는 영상을 획득할 수 있는 RGB 카메라를 포함할 수 있다. 일 실시예에서, 카메라(210)는 복수의 RGB 카메라들을 포함할 수 있다. 적어도 하나의 프로세서(230)는 복수의 RGB 카메라들 각각에서 촬영된 RGB 정보를 포함하는 영상을 이용하여 깊이 정보를 획득할 수도 있다. 복수의 RGB 카메라들 각각은 서로 다른 위치에서 현실 공간(130)을 촬영할 수 있다. 적어도 하나의 프로세서(230)는 복수의 RGB 카메라들 각각의 위치 관계와, 복수의 RGB 카메라들 각각에서 획득된 영상 내에 포함된 동일한 지점을 촬영한 복수의 픽셀들 간의 거리 및 복수의 픽셀들 각각의 크기 등에 기초하여 현실 공간(130)의 깊이 정보를 획득할 수도 있다. 일 실시예에서, 카메라(210)는 두 개의 RGB 카메라들을 포함하는 스테레오(stereo) 카메라를 포함할 수도 있다. In one embodiment, the camera (210) can capture an image by photographing the real space (130). In one embodiment, the camera (210) can include an RGB camera capable of capturing an image including RGB information by photographing the real space (130). In one embodiment, the camera (210) can include a plurality of RGB cameras. At least one processor (230) can also capture depth information by using an image including RGB information captured by each of the plurality of RGB cameras. Each of the plurality of RGB cameras can capture the real space (130) at a different location. At least one processor (230) can capture depth information of the real space (130) based on a positional relationship between each of the plurality of RGB cameras, a distance between a plurality of pixels captured at the same point included in an image acquired by each of the plurality of RGB cameras, a size of each of the plurality of pixels, and the like. In one embodiment, the camera (210) can include a stereo camera including two RGB cameras.
또한, 카메라(210)는 현실 공간(130)을 촬영하여 RGB 정보 및 깊이 정보를 포함하는 영상을 획득하는 RGB-Depth 카메라를 포함할 수도 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 카메라(210)를 통하여 촬영되는 현실 공간(132)을 디스플레이(200)에 표시할 수 있다. Additionally, the camera (210) may include an RGB-Depth camera that photographs the real space (130) to obtain an image including RGB information and depth information. In one embodiment, at least one processor (230) may display the real space (132) photographed through the camera (210) on the display (200).
일 실시예에서, 메모리(220)에는 적어도 하나의 프로세서(230)가 판독할 수 있는 명령어들, 데이터 구조, 및 프로그램 코드(program code)가 저장될 수 있다. 일 실시예에서, 메모리(220)는 하나 이상일 수 있다. 개시된 실시예들에서, 적어도 하나의 프로세서(230)가 수행하는 동작들은 메모리(220)에 저장된 프로그램의 명령어들 또는 코드들을 실행함으로써 구현될 수 있다.In one embodiment, the memory (220) may store instructions, data structures, and program code that can be read by at least one processor (230). In one embodiment, the memory (220) may be one or more. In the disclosed embodiments, operations performed by the at least one processor (230) may be implemented by executing instructions or codes of a program stored in the memory (220).
일 실시예에서, 메모리(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 메모리(220)에는 전자 장치(100)의 기능 또는 동작들을 수행하기 위한 명령어들 또는 프로그램 코드가 저장될 수 있다. 메모리(220)에 저장되는 명령어들, 알고리즘, 데이터 구조, 프로그램 코드 및 애플리케이션 프로그램은 예를 들어, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다.In one embodiment, the memory (220) may include at least one of a flash memory type, a hard disk type, a multimedia card micro type, a memory of card type (e.g., SD or XD memory, etc.), a RAM (Random Access Memory), a SRAM (Static Random Access Memory), a ROM (Read-Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a PROM (Programmable Read-Only Memory), a Mask ROM, a Flash ROM, etc.), a hard disk drive (HDD), or a solid state drive (SSD). The memory (220) may store instructions or program codes for performing functions or operations of the electronic device (100). The instructions, algorithms, data structures, program codes, and application programs stored in the memory (220) may be implemented in a programming or scripting language such as, for example, C, C++, Java, or an assembler.
일 실시예에서, 메모리(220)에는 이미지 필터링 모듈(221), 객체 획득 모듈(222), 객체 선택 모듈(223), 가이드 제공 모듈(224), 배경 촬영 모듈(225), 3D 생성 모듈(226) 및 콘텐츠 생성 모듈(227)이 저장될 수 있다. 그러나, 도 2에 도시된 모듈 모두가 필수 모듈인 것은 아니다. 메모리(220)에는 도 2에 도시된 모듈보다 더 많은 모듈들이 저장될 수도 있고, 그보다 적은 모듈들이 저장될 수도 있다. 또한, 메모리(220)에는 미리 촬영된 복수의 촬영 이미지들이 저장될 수도 있다.In one embodiment, the memory (220) may store an image filtering module (221), an object acquisition module (222), an object selection module (223), a guide provision module (224), a background shooting module (225), a 3D generation module (226), and a content generation module (227). However, not all of the modules illustrated in FIG. 2 are essential modules. The memory (220) may store more modules than the modules illustrated in FIG. 2, or may store fewer modules. In addition, the memory (220) may store a plurality of pre-captured captured images.
일 실시예에서, 메모리(220)에 포함되는 '모듈'은 적어도 하나의 프로세서(230)에 의해 수행되는 기능이나 동작을 처리하는 단위를 의미할 수 있다. 메모리(220)에 포함되는 '모듈'은 명령어들(instructions), 알고리즘, 데이터 구조, 또는 프로그램 코드와 같은 소프트웨어로 구현될 수 있다.In one embodiment, a 'module' included in the memory (220) may mean a unit that processes a function or operation performed by at least one processor (230). The 'module' included in the memory (220) may be implemented as software such as instructions, an algorithm, a data structure, or a program code.
일 실시예에서, 이미지 필터링 모듈(221)은 메모리(220)에 저장된 복수의 촬영 이미지들을 미리 설정된 조건에 따라 필터링하여 필터링된 적어도 하나의 이미지(111)를 획득하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 적어도 하나의 프로세서(230)는 이미지 필터링 모듈(221)의 명령어들 또는 프로그램 코드를 실행함으로써, 메모리(220)에 저장된 복수의 촬영 이미지들을 미리 설정된 조건에 따라 필터링하여, 필터링된 적어도 하나의 이미지(111)를 획득할 수 있다. In one embodiment, the image filtering module (221) may be configured with instructions or program codes related to an operation or function of filtering a plurality of captured images stored in the memory (220) according to preset conditions to obtain at least one filtered image (111). At least one processor (230) may execute the instructions or program codes of the image filtering module (221) to filter a plurality of captured images stored in the memory (220) according to preset conditions to obtain at least one filtered image (111).
일 실시예에서, 이미지 필터링 모듈(221)은 메모리(220)에 저장된 복수의 촬영 이미지들 각각의 GPS 정보에 기초하여, 복수의 촬영 이미지들을 인접한 위도(latitude) 및 경도(longtitude)의 GPS 정보를 갖는 적어도 하나의 이미지로 필터링하는 명령어들 또는 프로그램 코드로 구성될 수 있다. 이때, 인접한 위도(latitude) 및 경도(longtitude)의 기준은 특정 위치의 위도 및 경도를 기준으로 수백 m, 혹은 수 km 이내에 포함된 위도 및 경도로 미리 설정될 수도 있고, 어느 하나로 제한되지 않는다. 이때, 특정 위치는 복수의 촬영 이미지들 각각의 위도 및 경도 중 중복되는 위도 및 경도 정보가 많은 위치일 수 있다. 또한, 전자 장치(100)가 위치하는 위도 및 경도일 수도 있다. 이하, 설명의 편의를 위하여, 위도 및 경도를 위치라고 지칭하도록 한다. 적어도 하나의 프로세서(230)는 이미지 필터링 모듈(221)의 명령어들 또는 프로그램 코드를 실행함으로써, 메모리(220)에 저장된 복수의 촬영 이미지들을 각각의 GPS 정보에 기초하여, 인접한 위치 정보를 갖는 것으로 필터링된 적어도 하나의 이미지들을 획득할 수 있다.In one embodiment, the image filtering module (221) may be configured with commands or program codes for filtering the plurality of captured images into at least one image having GPS information of adjacent latitude and longitude based on GPS information of each of the plurality of captured images stored in the memory (220). At this time, the criteria of the adjacent latitude and longitude may be preset as latitude and longitude included within several hundred meters or several kilometers based on the latitude and longitude of a specific location, or are not limited to either. At this time, the specific location may be a location having a lot of overlapping latitude and longitude information among the latitudes and longitudes of each of the plurality of captured images. In addition, it may be the latitude and longitude at which the electronic device (100) is located. Hereinafter, for convenience of explanation, latitude and longitude will be referred to as locations. At least one processor (230) can obtain at least one image filtered to have adjacent location information based on each GPS information among a plurality of captured images stored in the memory (220) by executing commands or program codes of the image filtering module (221).
일 실시예에서, 이미지 필터링 모듈(221)은 메모리(220)에 저장된 복수의 촬영 이미지들 각각의 특징점(key point)을 추출하고, 복수의 촬영 이미지들을 동일한 특징점을 갖는 적어도 하나의 이미지들(111)로 필터링하는 명령어들 또는 프로그램 코드로 구성될 수 있다. 이때, 특징점은 이미지 내에서 특징이 될 수 있는 부분을 의미하며, 이미지 내의 특정 픽셀과 주변 픽셀들 간의 관계에 대한 정보를 포함할 수 있다. 특징점은 특정 픽셀과 주변 픽셀들 간의 밝기, 색상, 방향, 크기, 위치 등에 대한 정보를 토대로 추출될 수 있다. In one embodiment, the image filtering module (221) may be configured with commands or program codes for extracting key points from each of a plurality of captured images stored in the memory (220) and filtering the plurality of captured images into at least one image (111) having the same key point. At this time, the key point means a part that can be a feature in the image and may include information about the relationship between a specific pixel and surrounding pixels in the image. The key point may be extracted based on information about brightness, color, direction, size, location, etc. between a specific pixel and surrounding pixels.
일 실시예에서, 이미지 필터링 모듈(221)은 SIFT(Sacle-Invariant Feature Transform), SURF(Speeded Up Robust Features), ORB(Oriented and Rotated BRIEF), Harris Corner Detector 알고리즘 등을 포함할 수 있다. 또한, 이미지 필터링 모듈(221)은 CNN(Convolutional Neutral Network), ViT(Vision Transformer), Swin(Shifted window) Transformer 등과 같은 Deep learning 기반의 모델을 이용하여 복수의 촬영 이미지들 각각의 특징점을 추출할 수 있다.In one embodiment, the image filtering module (221) may include a Sacle-Invariant Feature Transform (SIFT), a Speeded Up Robust Features (SURF), an Oriented and Rotated BRIEF (ORB), a Harris Corner Detector algorithm, etc. In addition, the image filtering module (221) may extract feature points of each of a plurality of captured images by using a deep learning-based model such as a Convolutional Neutral Network (CNN), a Vision Transformer (ViT), a Shifted window (Swin) Transformer, etc.
일 실시예에서, 이미지 필터링 모듈(221)은 K-means Clustering 또는 K-NN(K-Neartest Neighbors) 등과 같은 알고리즘을 포함할 수 있다. 이미지 필터링 모듈(221)은 상기한 알고리즘을 통하여 복수의 촬영 이미지들을 동일한 특징점을 갖는 적어도 하나의 이미지들(111)로 필터링할 수 있다.In one embodiment, the image filtering module (221) may include an algorithm such as K-means Clustering or K-NN (K-Nearest Neighbors). The image filtering module (221) may filter a plurality of captured images into at least one image (111) having the same feature point through the above-described algorithm.
일 실시예에서, 적어도 하나의 프로세서(230)는 이미지 필터링 모듈(221)의 명령어들 또는 프로그램 코드를 실행함으로써, 메모리(220)에 저장된 복수의 촬영 이미지들 각각의 특징점(key point)을 추출하고, 추출된 각각의 특징점에 기초하여 동일한 특징점을 갖는 것으로 필터링된 적어도 하나의 이미지들(111)을 획득할 수 있다. In one embodiment, at least one processor (230) may extract key points of each of a plurality of captured images stored in the memory (220) by executing instructions or program codes of the image filtering module (221), and obtain at least one image (111) filtered to have the same key point based on each of the extracted key points.
일 실시예에서, 객체 획득 모듈(222)은 메모리(220)에 저장된 적어도 하나의 이미지(111)로부터 적어도 하나의 객체를 획득하기 위한 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 객체 획득 모듈(222)은 적어도 하나의 이미지로부터 적어도 하나의 이미지에 포함된 객체를 검출(detection)하는 알고리즘을 포함할 수 있다. 다만, 본 개시는 이에 제한되지 않고, 객체 획득 모듈(222)은 적어도 하나의 이미지로부터 적어도 하나의 이미지(111)에 포함된 객체를 분할(segmentation)하는 알고리즘을 포함할 수도 있다. 적어도 하나의 프로세서(230)는 객체 획득 모듈(222)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 메모리(220)에 저장된 적어도 하나의 이미지로부터 객체를 획득할 수 있다.In one embodiment, the object acquisition module (222) may be configured with instructions or program codes regarding an operation or function for acquiring at least one object from at least one image (111) stored in the memory (220). In one embodiment, the object acquisition module (222) may include an algorithm for detecting an object included in at least one image from at least one image. However, the present disclosure is not limited thereto, and the object acquisition module (222) may also include an algorithm for segmenting an object included in at least one image (111) from at least one image. At least one processor (230) may acquire an object from at least one image stored in the memory (220) by executing the instructions, program codes, or algorithms of the object acquisition module (222).
일 실시예에서, 객체 획득 모듈(222)은 미리 설정된 적어도 하나의 객체에 기초하여, 메모리(220)에 저장된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 획득하기 위한 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 미리 설정된 적어도 하나의 객체는 객체 리스트의 형태로 저장될 수도 있다. 객체 획득 모듈(222)은 객체 리스트에 기초하여, 메모리(220)에 저장된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 획득하기 위한 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 객체 리스트는 사람(예를 들어 부모님), 애완 동물 등이 포함되도록 미리 설정될 수 있다. 그러나, 객체 리스트에 포함된 객체는 어느 하나로 제한되지 않는다. 적어도 하나의 프로세서(230)는 객체 획득 모듈(222)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 메모리(220)에 저장된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 검출할 수 있다. 적어도 하나의 프로세서(230)는 객체 획득 모듈(222)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 메모리(220)에 저장된 적어도 하나의 이미지로부터 객체 리스트에 포함된 객체를 검출할 수 있다.In one embodiment, the object acquisition module (222) may be configured with instructions or program codes related to an operation or function for acquiring at least one preset object from at least one image stored in the memory (220) based on at least one preset object. In one embodiment, the at least one preset object may be stored in the form of an object list. The object acquisition module (222) may be configured with instructions or program codes related to an operation or function for acquiring at least one preset object from at least one image stored in the memory (220) based on the object list. The object list may be preset to include people (e.g., parents), pets, etc. However, the objects included in the object list are not limited to any one. At least one processor (230) may detect at least one preset object from at least one image stored in the memory (220) by executing the instructions, program codes, or algorithms of the object acquisition module (222). At least one processor (230) can detect an object included in an object list from at least one image stored in the memory (220) by executing a command, program code or algorithm of the object acquisition module (222).
일 실시예에서, 객체 획득 모듈(222)은 이미지 필터링 모듈(221)을 이용하여, 메모리(220)에 저장된 복수의 촬영 이미지들로부터 필터링된 적어도 하나의 이미지(111)로부터 적어도 하나의 객체를 획득하기 위한 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 적어도 하나의 프로세서(230)는 객체 획득 모듈(222)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 메모리(220)에 저장된 복수의 촬영 이미지들로부터 필터링된 적어도 하나의 이미지(111)로부터 적어도 하나의 객체를 획득할 수 있다.In one embodiment, the object acquisition module (222) may be configured with commands or program codes regarding an operation or function for acquiring at least one object from at least one image (111) filtered from a plurality of captured images stored in the memory (220) by using the image filtering module (221). At least one processor (230) may acquire at least one object from at least one image (111) filtered from a plurality of captured images stored in the memory (220) by executing the commands, program codes, or algorithms of the object acquisition module (222).
일 실시예에서, 객체 선택 모듈(223)은 사용자 인터페이스를 통하여, 적어도 하나의 이미지에 포함된 객체를 선택하는 동작을 통하여 생성되는 선택 신호를 획득하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 객체 선택 모듈(223)은 메모리(220)에 저장된 적어도 하나의 이미지(111)에 포함된 적어도 하나의 객체를 선택하는 선택 신호를 획득하고, 획득한 선택 신호에 기초하여 적어도 하나의 이미지로부터 선택 신호에 포함된 적어도 하나의 객체를 획득하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 적어도 하나의 프로세서(230)는 객체 선택 모듈(223)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 사용자 인터페이스를 통하여 적어도 하나의 이미지에 포함된 객체를 선택하는 동작을 통하여 생성되는 선택 신호를 획득할 수 있다. 적어도 하나의 프로세서(230)는 획득한 선택 신호에 기초하여, 적어도 하나의 이미지로부터 선택 신호에 포함된 적어도 하나의 객체를 획득할 수 있다.In one embodiment, the object selection module (223) may be configured with instructions or program codes regarding an operation or function of obtaining a selection signal generated through an operation of selecting an object included in at least one image via a user interface. In one embodiment, the object selection module (223) may be configured with instructions or program codes regarding an operation or function of obtaining a selection signal for selecting at least one object included in at least one image (111) stored in a memory (220), and obtaining at least one object included in the selection signal from at least one image based on the obtained selection signal. At least one processor (230) may obtain a selection signal generated through an operation of selecting an object included in at least one image via a user interface by executing the instructions, program codes, or algorithms of the object selection module (223). At least one processor (230) may obtain at least one object included in the selection signal from at least one image based on the obtained selection signal.
일 실시예에서, 객체 선택 모듈(223)은 이미지 필터링 모듈(221)을 이용하여, 메모리(220)에 저장된 복수의 촬영 이미지들로부터 필터링된 적어도 하나의 이미지(111)로부터 적어도 하나의 객체를 선택하는 동작을 통하여 생성되는 선택 신호를 획득하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 객체 선택 모듈(223)은 메모리(220)에 저장된 복수의 촬영 이미지들로부터 필터링된 적어도 하나의 이미지(111)에 포함된 적어도 하나의 객체를 선택하는 선택 신호를 획득하고, 획득한 선택 신호에 기초하여 필터링된 적어도 하나의 이미지(111)로부터 선택 신호에 포함된 적어도 하나의 객체를 검출하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 적어도 하나의 프로세서(230)는 획득한 선택 신호에 기초하여, 필터링된 적어도 하나의 이미지(111)로부터 선택 신호에 포함된 적어도 하나의 객체를 검출할 수 있다.In one embodiment, the object selection module (223) may be configured with instructions or program codes regarding an operation or function of obtaining a selection signal generated through an operation of selecting at least one object from at least one image (111) filtered from a plurality of captured images stored in the memory (220) using the image filtering module (221). In one embodiment, the object selection module (223) may be configured with instructions or program codes regarding an operation or function of obtaining a selection signal for selecting at least one object included in at least one image (111) filtered from a plurality of captured images stored in the memory (220), and detecting at least one object included in the selection signal from at least one filtered image (111) based on the obtained selection signal. At least one processor (230) may detect at least one object included in the selection signal from at least one filtered image (111) based on the obtained selection signal.
다만, 본 개시는 이에 제한되지 않고, 객체 선택 모듈(223)은 사용자 인터페이스를 통하여, 적어도 하나의 이미지 또는 필터링된 적어도 하나의 이미지(111)에 포함된 객체를 선택하는 동작을 통하여 생성되는 선택 신호를 획득하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성되고, 선택 신호에 기초하여 적어도 하나의 이미지 또는 필터링된 적어도 하나의 이미지(111) 중 선택 신호에 포함된 적어도 하나의 객체를 획득하는 동작이나 기능은 객체 획득 모듈(222)을 통하여 수행될 수도 있다.However, the present disclosure is not limited thereto, and the object selection module (223) is configured with commands or program codes regarding an operation or function of obtaining a selection signal generated through an operation of selecting an object included in at least one image or at least one filtered image (111) through a user interface, and the operation or function of obtaining at least one object included in the selection signal among at least one image or at least one filtered image (111) based on the selection signal may be performed through the object obtaining module (222).
일 실시예에서, 가이드 제공 모듈(224)은 메모리(220)에 저장된 적어도 하나의 이미지 또는 메모리(220)에 저장된 복수의 촬영 이미지들 중 필터링된 적어도 하나의 이미지(111)에 기초한 촬영 가이드(131)를 제공하기 위한 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 가이드 제공 모듈(224)은 메모리(220)에 저장된 적어도 하나의 이미지 또는 메모리(220)에 저장된 복수의 촬영 이미지들 중 필터링된 적어도 하나의 이미지(111)에 기초한 촬영 가이드(131)를 디스플레이(200)에 표시하기 위한 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 적어도 하나의 프로세서(230)는 가이드 제공 모듈(224)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 촬영 가이드(131)를 사용자에게 제공할 수 있다. 적어도 하나의 프로세서(230)는 가이드 제공 모듈(224)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 디스플레이(200)를 통하여 촬영 가이드(131)를 사용자에게 제공할 수 있다. 이하, 설명의 편의를 위하여, 촬영 가이드(131)는 디스플레이(200)에 표시되어 사용자에게 제공되는 것으로 설명한다.In one embodiment, the guide providing module (224) may be configured with commands or program codes regarding an operation or function for providing a shooting guide (131) based on at least one image stored in the memory (220) or at least one filtered image (111) among a plurality of captured images stored in the memory (220). In one embodiment, the guide providing module (224) may be configured with commands or program codes regarding an operation or function for displaying a shooting guide (131) based on at least one image stored in the memory (220) or at least one filtered image (111) among a plurality of captured images stored in the memory (220) on the display (200). At least one processor (230) may provide the shooting guide (131) to the user by executing the commands, program codes, or algorithms of the guide providing module (224). At least one processor (230) can provide a shooting guide (131) to a user through a display (200) by executing a command, program code or algorithm of a guide providing module (224). Hereinafter, for convenience of explanation, the shooting guide (131) is described as being provided to a user by being displayed on the display (200).
일 실시예에서, 적어도 하나의 이미지 또는 복수의 촬영 이미지들 각각이 촬영 가이드(131)로서 디스플레이(200)에 표시될 수 있다. 일 실시예에서, 촬영 가이드(131)는 반투명(translucent)하게 디스플레이(200)에 표시될 수 있다. 일 실시예에서, 디스플레이(200)에는 카메라(210)를 통하여 촬영되는 현실 공간(132)이 표시될 수 있다. 촬영 가이드(131)는 디스플레이(200)에 표시되는 현실 공간(132)과 중첩되도록 디스플레이(200)에 표시될 수 있다. 촬영 가이드(131)는 반투명하여, 중첩되는 현실 공간(132)과 함께 디스플레이(200)에 표시될 수 있다.In one embodiment, at least one image or each of a plurality of captured images may be displayed as a shooting guide (131) on the display (200). In one embodiment, the shooting guide (131) may be displayed translucently on the display (200). In one embodiment, the display (200) may display a real space (132) captured by the camera (210). The shooting guide (131) may be displayed on the display (200) so as to overlap with the real space (132) displayed on the display (200). The shooting guide (131) may be translucent and may be displayed on the display (200) together with the overlapping real space (132).
일 실시예에서, 적어도 하나의 이미지 또는 복수의 촬영 이미지들로부터 필터링된 적어도 하나의 이미지가 복수의 이미지들을 포함할 때, 촬영 가이드(131)는 복수의 이미지들 각각에 대응되는 복수의 서브 촬영 가이드들을 포함할 수 있다. 일 실시예에서, 가이드 제공 모듈(224)은 복수의 서브 촬영 가이드들을 디스플레이(200)에 순차적으로 표시하기 위한 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다.In one embodiment, when at least one image or at least one image filtered from a plurality of captured images includes a plurality of images, the shooting guide (131) may include a plurality of sub-shooting guides corresponding to each of the plurality of images. In one embodiment, the guide providing module (224) may be configured with commands or program codes related to an operation or function for sequentially displaying the plurality of sub-shooting guides on the display (200).
일 실시예에서, 배경 촬영 모듈(225)은 카메라(210)를 통하여, 디스플레이(200)에 표시된 촬영 가이드(131)를 따라, 촬영 가이드(131)에 대응되는 현실 공간(132)을 촬영하여 공간 정보를 획득하기 위한 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 적어도 하나의 프로세서(230)는 배경 촬영 모듈(225)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 촬영 가이드(131)에 대응되는 현실 공간(132)을 촬영하여 공간 정보를 획득할 수 있다. 일 실시예에서, 공간 정보는 공간을 촬영하여 획득된 RGB 정보 또는 RGB 정보 및 깊이 정보를 포함할 수 있다. 일 실시예에서, 공간 정보는 촬영 가이드(131)에 대응되는 현실 공간(132)을 촬영하여 생성되는 정보일 수 있다.In one embodiment, the background shooting module (225) may be configured with commands or program codes regarding operations or functions for capturing a real space (132) corresponding to the shooting guide (131) displayed on the display (200) through the camera (210) and obtaining spatial information. At least one processor (230) may execute the commands, program codes or algorithms of the background shooting module (225) to capture a real space (132) corresponding to the shooting guide (131) and obtain spatial information. In one embodiment, the spatial information may include RGB information or RGB information and depth information obtained by capturing a space. In one embodiment, the spatial information may be information generated by capturing a real space (132) corresponding to the shooting guide (131).
일 실시예에서, 적어도 하나의 이미지 또는 필터링된 적어도 하나의 이미지가 촬영 가이드(131)로서 디스플레이(200)에 표시되는 경우, 배경 촬영 모듈(225)은 카메라(210)를 통하여, 촬영 가이드(131)를 따라, 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간(132)을 촬영하여 공간 정보를 획득하기 위한 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 적어도 하나의 프로세서(230)는 배경 촬영 모듈(225)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간(132)을 촬영하여 생성되는 공간 정보를 획득할 수 있다. 이때, 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간(132)은, 전자 장치(100)를 사용하는 사용자가 위치한 주변 현실 공간 중 일부로서, 주변 현실 공간 중 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간을 의미할 수 있다.In one embodiment, when at least one image or at least one filtered image is displayed on the display (200) as a shooting guide (131), the background shooting module (225) may be configured with commands or program codes regarding an operation or function for capturing a real space (132) corresponding to a space included in the at least one image by following the shooting guide (131) through the camera (210) to obtain spatial information. At least one processor (230) may acquire spatial information generated by capturing the real space (132) corresponding to the space included in the at least one image by executing the commands, program codes, or algorithms of the background shooting module (225). In this case, the real space (132) corresponding to the space included in the at least one image may mean a real space corresponding to a space included in at least one image among a part of the surrounding real space where a user using the electronic device (100) is located.
일 실시예에서, 복수의 서브 촬영 가이드들이 디스플레이(200)에 순차적으로 표시되는 경우, 적어도 하나의 프로세서(230)는 배경 촬영 모듈(225)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 순차적으로 표시되는 복수의 서브 촬영 가이드들 각각을 따라, 복수의 서브 촬영 가이드들 각각에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 생성되는 복수의 서브 공간 정보들을 포함하는 공간 정보를 획득할 수 있다.In one embodiment, when a plurality of sub-shooting guides are sequentially displayed on the display (200), at least one processor (230) may execute a command, program code, or algorithm of the background shooting module (225) to obtain spatial information including a plurality of sub-space information generated by shooting a real space corresponding to a space included in an image corresponding to each of the plurality of sub-shooting guides, following each of the plurality of sub-shooting guides that are sequentially displayed.
일 실시예에서, 3D 생성 모듈(226)은 객체 획득 모듈(222) 또는 객체 선택 모듈(223)을 통하여 검출된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 3D 객체를 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 3D 생성 모듈(226)은 배경 촬영 모듈(225)을 통하여 획득된 공간 정보에 기초하여 3D 공간을 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. In one embodiment, the 3D generation module (226) may be configured with commands or program codes related to an operation or function of generating at least one 3D object corresponding to at least one object detected through the object acquisition module (222) or the object selection module (223). In one embodiment, the 3D generation module (226) may be configured with commands or program codes related to an operation or function of generating a 3D space based on spatial information acquired through the background shooting module (225).
일 실시예에서, 3D 생성 모듈(226)은 공간 정보에 포함된 RGB 정보 또는 RGB 정보 및 깊이 정보에 기초하여 3D 모델을 생성하는 모델을 포함할 수 있다. 일 실시예에서, 3D 생성 모듈(226)은 GAN(Generative Adversarial Networks), VAE(Variational Auto-Encoder), 멀티 모달(multi-modal)에 기초한 Diffusion 모델(예를 들어, SDFusion 모델) 등을 포함할 수 있고, 어느 하나로 제한되지 않는다. In one embodiment, the 3D generation module (226) may include a model that generates a 3D model based on RGB information or RGB information and depth information included in the spatial information. In one embodiment, the 3D generation module (226) may include, but is not limited to, a Generative Adversarial Networks (GAN), a Variational Auto-Encoder (VAE), a Diffusion model based on multi-modal (e.g., a SDFusion model), and the like.
일 실시예에서, 적어도 하나의 프로세서(230)는 3D 생성 모듈(226)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 객체 획득 모듈(222) 또는 객체 선택 모듈(223)을 통하여 검출된 적어도 하나의 객체에 각각 대응되는 적어도 3D 객체를 생성할 수 있다. 적어도 하나의 프로세서(230)는 3D 생성 모듈(226)의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 획득된 공간 정보에 대응되는 3D 공간을 생성할 수 있다.In one embodiment, at least one processor (230) can generate at least one 3D object corresponding to at least one object detected through the object acquisition module (222) or the object selection module (223) by executing a command, program code or algorithm of the 3D generation module (226). At least one processor (230) can generate a 3D space corresponding to the acquired spatial information by executing a command, program code or algorithm of the 3D generation module (226).
일 실시예에서, 콘텐츠 생성 모듈(227)은 획득된 공간 정보 및 검출된 적어도 하나의 객체에 기초하여 콘텐츠(140)를 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 콘텐츠 생성 모듈(227)은 획득된 공간 정보에 기초하여 생성된 공간에 획득된 적어도 하나의 객체를 배치하여 콘텐츠(140)를 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 콘텐츠 생성 모듈(227)은 3D 생성 모듈(226)을 통하여 생성된 3D 공간에, 3D 생성 모듈(226)을 통하여 생성된 적어도 하나의 3D 객체를 배치하여 콘텐츠(140)를 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 이때, 3D 공간에 적어도 하나의 3D 객체를 배치하여 생성된 콘텐츠(140)는 3D 정보를 포함하는 3D 콘텐츠일 수 있다.In one embodiment, the content creation module (227) may be configured with commands or program codes related to an operation or function of creating content (140) based on acquired spatial information and at least one detected object. In one embodiment, the content creation module (227) may be configured with commands or program codes related to an operation or function of arranging at least one acquired object in a space created based on acquired spatial information to create content (140). In one embodiment, the content creation module (227) may be configured with commands or program codes related to an operation or function of arranging at least one 3D object created through the 3D creation module (226) in a 3D space created through the 3D creation module (226) to create content (140). In this case, the content (140) created by arranging at least one 3D object in the 3D space may be 3D content including 3D information.
일 실시예에서, 메모리(220)에는 콘텐츠 제공 모듈이 저장될 수도 있다. 콘텐츠 제공 모듈은 생성된 콘텐츠를 디스플레이(200)를 통해 표시하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성될 수 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 콘텐츠 제공 모듈의 명령어, 프로그램 코드 또는 알고리즘을 실행함으로써, 생성된 콘텐츠를 디스플레이(200)에 표시할 수 있다.In one embodiment, the memory (220) may store a content providing module. The content providing module may be configured with instructions or program codes related to an operation or function of displaying the generated content through the display (200). In one embodiment, at least one processor (230) may display the generated content on the display (200) by executing the instructions, program codes, or algorithms of the content providing module.
일 실시예에서, 메모리(220)에는 사용자 인터페이스를 통하여, 생성된 3D 공간 내에서의 생성된 적어도 하나의 3D 객체의 위치, 형상 또는 크기 중 적어도 하나에 대한 정보를 포함하는 제어 신호를 획득하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성된 제어 신호 모듈이 더 저장될 수도 있다.In one embodiment, the memory (220) may further store a control signal module comprising instructions or program codes for an operation or function of obtaining a control signal including information about at least one of a position, shape, or size of at least one generated 3D object within the generated 3D space through a user interface.
일 실시예에서, 콘텐츠 생성 모듈(227)은 획득한 제어 신호에 기초하여, 생성된 3D 공간 내에서의 생성된 적어도 하나의 3D 객체의 위치, 형상 또는 크기 중 적어도 하나를 결정하여 콘텐츠(140)를 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드를 포함할 수 있다.In one embodiment, the content generation module (227) may include instructions or program codes relating to an operation or function of generating content (140) by determining at least one of a position, shape, or size of at least one generated 3D object within the generated 3D space based on the acquired control signal.
일 실시예에서, 적어도 하나의 프로세서(230)는 중앙 처리 장치(Central Processing Unit), 마이크로 프로세서(microprocessor), 그래픽 프로세서(Graphic Processing Unit), 애플리케이션 프로세서(Application Processor, AP), ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays) 및 뉴럴 프로세서(Neural Processing Unit) 또는 인공지능 모델(Artificial Intelligence, AI)의 학습 및 처리에 특화된 하드웨어 구조로 설계된 인공지능 전용 프로세서 중 적어도 하나로 구성될 수 있으나, 이에 제한되는 것은 아니다.In one embodiment, at least one processor (230) may be configured as, but is not limited to, at least one of a Central Processing Unit, a microprocessor, a Graphic Processing Unit, an Application Processor (AP), an Application Specific Integrated Circuits (ASICs), a Digital Signal Processors (DSPs), a Digital Signal Processing Devices (DSPDs), a Programmable Logic Devices (PLDs), a Field Programmable Gate Arrays (FPGAs), and a Neural Processing Unit or an Artificial Intelligence (AI) dedicated processor designed with a hardware structure specialized for learning and processing an artificial intelligence (AI) model.
일 실시예에서, 적어도 하나의 프로세서(230)는 메모리(220)에 저장된 적어도 하나의 명령어를 실행함으로써, 콘텐츠(140)를 생성하는 전자 장치(100)의 동작을 제어할 수 있다.In one embodiment, at least one processor (230) may control the operation of an electronic device (100) that generates content (140) by executing at least one instruction stored in memory (220).
일 실시예에서, 통신 인터페이스(240)는 적어도 하나의 프로세서(230)의 제어에 의해 외부의 서버와 데이터 통신을 수행할 수 있다. 또한, 통신 인터페이스(240)는 외부의 서버뿐 아니라, 다른 주변 전자 장치들과도 데이터 통신을 수행할 수 있다. In one embodiment, the communication interface (240) can perform data communication with an external server under the control of at least one processor (230). In addition, the communication interface (240) can perform data communication not only with an external server but also with other peripheral electronic devices.
일 실시예로, 통신 인터페이스(240)는 예를 들어, 유선 랜, 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(zigbee), WFD(Wi-Fi Direct), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication), 와이브로(Wireless Broadband Internet, Wibro), 와이맥스(World Interoperability for Microwave Access, WiMAX), SWAP(Shared Wireless Access Protocol), 와이기그(Wireless Gigabit Allicance, WiGig) 및 RF 통신을 포함하는 데이터 통신 방식 중 적어도 하나를 이용하여 서버 또는 다른 주변 전자 장치들과 데이터 통신을 수행할 수 있다. In one embodiment, the communication interface (240) may perform data communication with servers or other peripheral electronic devices using at least one of data communication methods, including, for example, wired LAN, wireless LAN, Wi-Fi, Bluetooth, zigbee, WFD (Wi-Fi Direct), infrared Data Association (IrDA), Bluetooth Low Energy (BLE), Near Field Communication (NFC), Wireless Broadband Internet (Wibro), World Interoperability for Microwave Access (WiMAX), Shared Wireless Access Protocol (SWAP), Wireless Gigabit Alliance (WiGig), and RF communication.
일 실시예에서, 적어도 하나의 프로세서(230)는 통신 인터페이스(240)를 통하여 외부의 서버 또는 주변 전자 장치들로부터 미리 촬영된 복수의 촬영 이미지들을 제공받을 수 있다. 적어도 하나의 프로세서(230)는 통신 인터페이스(240)를 통하여 생성된 콘텐츠(140)를 외부의 서버 또는 주변 전자 장치들에 제공할 수도 있다.In one embodiment, at least one processor (230) may receive a plurality of pre-captured captured images from an external server or peripheral electronic devices through a communication interface (240). At least one processor (230) may also provide generated content (140) to external servers or peripheral electronic devices through the communication interface (240).
일 실시예에서, 전자 장치(100)는 사용자 인터페이스를 더 포함할 수도 있다. 일 실시예에서, 사용자 인터페이스는 터치부, 푸쉬 버튼, 음성 인식부, 동작 인식부 등을 포함할 수 있다. 일 실시예에서, 전자 장치(100)는 사용자 인터페이스를 통하여 사용자가 제공하는 사용자 입력을 획득할 수 있다. 일 실시예에서, 전자 장치(100)는 사용자 인터페이스를 터치하거나, 누르거나, 음성을 제공하거나, 혹은 손짓 등의 동작을 수행하는 사용자로부터 사용자 입력을 획득할 수 있다. 일 실시예에서, 사용자는 사용자 인터페이스를 통하여 객체 리스트에 새로운 객체를 추가 등록하거나, 혹은 객체 리스트에 포함된 객체를 삭제할 수 있다. 또한, 사용자는 사용자 인터페이스를 통하여 적어도 하나의 이미지로부터 검출할 적어도 하나의 객체를 선택하기 위한 입력을 제공할 수 있다. 전자 장치(100)는 사용자 인터페이스를 통하여 제공된 사용자 입력에 기초하여, 적어도 하나의 이미지로부터 검출할 적어도 하나의 객체를 선택하는 정보를 포함하는 선택 신호를 생성하여 획득할 수 있다.In one embodiment, the electronic device (100) may further include a user interface. In one embodiment, the user interface may include a touch unit, a push button, a voice recognition unit, a motion recognition unit, etc. In one embodiment, the electronic device (100) may obtain a user input provided by a user through the user interface. In one embodiment, the electronic device (100) may obtain a user input from a user who touches, presses, provides a voice, or performs a gesture, etc. on the user interface. In one embodiment, the user may add a new object to an object list or delete an object included in the object list through the user interface. In addition, the user may provide an input for selecting at least one object to be detected from at least one image through the user interface. The electronic device (100) may generate and obtain a selection signal including information for selecting at least one object to be detected from at least one image based on the user input provided through the user interface.
도 3a는 본 개시의 일 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 순서도이다. 도 3b는 본 개시의 일 실시예에 따른 3D 객체와 3D 공간을 생성하고, 3D 공간에 3D 객체를 배치하여 콘텐츠를 생성하는 전자 장치의 동작 방법을 설명하기 위한 순서도이다. 도 3c는 본 개시의 일 실시예에 따른 복수의 촬영 이미지들로부터 적어도 하나의 이미지를 필터링하고, 선택 신호에 기초하여 적어도 하나의 객체를 획득하는 동작을 설명하기 위한 순서도이다.FIG. 3A is a flowchart for explaining an operation method of an electronic device according to an embodiment of the present disclosure. FIG. 3B is a flowchart for explaining an operation method of an electronic device for generating a 3D object and a 3D space and for arranging the 3D object in the 3D space to generate content according to an embodiment of the present disclosure. FIG. 3C is a flowchart for explaining an operation of filtering at least one image from a plurality of captured images and acquiring at least one object based on a selection signal according to an embodiment of the present disclosure.
도 1, 도 2 및 도 3a를 참조하면, 일 실시예에서, 전자 장치(100)의 동작 방법은 적어도 하나의 이미지(111)로부터 미리 설정된 적어도 하나의 객체(121)를 획득하는 단계(S100)를 포함할 수 있다. 일 실시예에서, 적어도 하나의 이미지(111)로부터 적어도 하나의 객체(121, 122)를 획득하는 단계(S100)에서, 적어도 하나의 프로세서(230)는 객체 획득 모듈(222)의 명령어들 또는 프로그램 코드를 실행함으로써, 적어도 하나의 이미지(111)로부터 객체 리스트에 포함된 적어도 하나의 객체(121)를 검출할 수 있다. 이때, 미리 설정된 적어도 하나의 객체(121) 또는 객체 리스트는 전자 장치(100)에 포함된 카메라(210)에 의하여 미리 촬영되어 메모리(220)에 저장되어 있거나, 혹은 통신 인터페이스(240)를 통하여 외부의 서버 또는 주변의 전자 장치로부터 제공받아 메모리(220)에 저장된 것일 수 있다.Referring to FIGS. 1, 2, and 3A, in one embodiment, the operating method of the electronic device (100) may include a step (S100) of acquiring at least one preset object (121) from at least one image (111). In one embodiment, in the step (S100) of acquiring at least one object (121, 122) from at least one image (111), at least one processor (230) may detect at least one object (121) included in an object list from at least one image (111) by executing commands or program codes of an object acquiring module (222). At this time, the at least one preset object (121) or object list may be captured in advance by a camera (210) included in the electronic device (100) and stored in the memory (220), or may be provided from an external server or a peripheral electronic device through a communication interface (240) and stored in the memory (220).
일 실시예에서, 전자 장치(100)의 동작 방법은 디스플레이(200)를 통해, 적어도 하나의 이미지(111)에 기초한 촬영 가이드(131)를 표시하는 단계(S200)를 포함할 수 있다. 일 실시예에서, 촬영 가이드(131)를 표시하는 단계(S200)에서, 적어도 하나의 프로세서(230)는 가이드 제공 모듈(224)의 명령어들 또는 프로그램 코드를 실행함으로써, 촬영 가이드(131)를 디스플레이(200)에 표시할 수 있다.In one embodiment, the operating method of the electronic device (100) may include a step (S200) of displaying a shooting guide (131) based on at least one image (111) through the display (200). In one embodiment, in the step (S200) of displaying the shooting guide (131), at least one processor (230) may display the shooting guide (131) on the display (200) by executing commands or program codes of the guide providing module (224).
일 실시예에서, 전자 장치(100)의 동작 방법은 카메라(210)를 통하여, 표시된 촬영 가이드(131)에 따라 적어도 하나의 이미지(111)에 포함된 공간에 대응되는 현실 공간(132)을 촬영하여 공간 정보를 획득하는 단계(S300)를 포함할 수 있다. 일 실시예에서, 공간 정보를 획득하는 단계(S300)에서, 적어도 하나의 프로세서(230)는 배경 촬영 모듈(225)의 명령어들 또는 프로그램 코드를 실행함으로써, 디스플레이(200)에 표시되는 촬영 가이드(131)와 카메라(210)를 통하여 촬영되는 현실 공간을 대응시킨 후, 해당 공간을 촬영하여 생성된 공간 정보를 획득할 수 있다.In one embodiment, the operating method of the electronic device (100) may include a step (S300) of obtaining spatial information by photographing a real space (132) corresponding to a space included in at least one image (111) according to a displayed photographing guide (131) through a camera (210). In one embodiment, in the step (S300) of obtaining spatial information, at least one processor (230) may execute commands or program codes of a background photographing module (225) to correspond a real space photographed through the camera (210) with a photographing guide (131) displayed on a display (200), and then obtain spatial information generated by photographing the corresponding space.
일 실시예에서, 전자 장치(100)의 동작 방법은, 획득한 공간 정보 및 획득된 적어도 하나의 객체(121)에 기초하여 콘텐츠(140)를 생성하는 단계(S400)를 포함할 수 있다. 일 실시예에서, 콘텐츠(140)를 생성하는 단계(S400)에서, 적어도 하나의 프로세서(230)는 콘텐츠 생성 모듈(227)의 명령어들 또는 프로그램 코드를 실행함으로써, 획득한 공간 정보에 기초하여 공간을 모델링하고, 모델링된 공간에 획득된 적어도 하나의 객체를 배치함으로서 콘텐츠(140)를 생성할 수 있다.In one embodiment, the operating method of the electronic device (100) may include a step (S400) of generating content (140) based on acquired spatial information and at least one object (121). In one embodiment, in the step (S400) of generating content (140), at least one processor (230) may execute commands or program codes of a content generating module (227) to model a space based on acquired spatial information and place at least one object acquired in the modeled space, thereby generating content (140).
도 3b에는, 본 개시의 일 실시예에 따른 획득된 적어도 하나의 객체를 이용하여 생성된 3D 객체와 획득한 공간 정보에 기초하여 생성된 3D 공간을 이용하여 콘텐츠를 생성하는 전자 장치의 동작 방법이 도시되어 있다. 이하, 도 3a에서 설명한 단계들과 동일한 단계들에 대하여는 동일한 도면 부호를 부여하고, 중복되는 설명은 생략하도록 한다.FIG. 3b illustrates an operation method of an electronic device for generating content using a 3D object generated using at least one acquired object according to one embodiment of the present disclosure and a 3D space generated based on acquired spatial information. Hereinafter, steps identical to those described in FIG. 3a are given the same reference numerals, and redundant descriptions are omitted.
도 2, 도 3a 및 도 3b를 참조하면, 전자 장치(100)의 동작 방법은, 적어도 하나의 객체(121)를 획득하는 단계(S100)에서 획득된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 3D 객체를 생성하는 단계(S150)를 포함할 수 있다. 일 실시예에서, 적어도 하나의 3D 객체를 생성하는 단계(S150)에서, 적어도 하나의 프로세서(230)는 3D 생성 모듈(226)의 명령어들 또는 프로그램 코드를 실행함으로써, 획득된 적어도 하나의 객체(121)에 각각 대응되는 적어도 하나의 3D 객체를 생성할 수 있다. Referring to FIGS. 2, 3A, and 3B, the operating method of the electronic device (100) may include a step (S150) of generating at least one 3D object corresponding to at least one object acquired in the step (S100) of acquiring at least one object (121). In one embodiment, in the step (S150) of generating at least one 3D object, at least one processor (230) may generate at least one 3D object corresponding to at least one acquired object (121) by executing instructions or program codes of a 3D generating module (226).
일 실시예에서, 전자 장치(100)의 동작 방법은, 공간 정보를 획득하는 단계(S300)에서 획득한 공간 정보에 기초하여, 3D 공간을 생성하는 단계(S350)를 포함할 수 있다. 일 실시예에서, 3D 공간을 생성하는 단계(S350)에서, 적어도 하나의 프로세서(230)는 3D 생성 모듈(226)의 명령어들 또는 프로그램 코드를 실행함으로써, 획득한 공간 정보에 기초하여 3D 공간을 생성할 수 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 3D 생성 모듈(226)을 이용하여, 카메라(210)의 종류에 따라 RGB 정보 또는 RGB 정보 및 깊이 정보를 포함하는 공간 정보에 기초하여 3D 공간을 생성할 수 있다.In one embodiment, the operating method of the electronic device (100) may include a step (S350) of generating a 3D space based on the spatial information acquired in the step (S300) of acquiring spatial information. In one embodiment, in the step (S350) of generating the 3D space, at least one processor (230) may generate the 3D space based on the acquired spatial information by executing instructions or program codes of the 3D generating module (226). In one embodiment, at least one processor (230) may generate the 3D space based on spatial information including RGB information or RGB information and depth information depending on the type of the camera (210) by using the 3D generating module (226).
일 실시예에서, 전자 장치(100)의 동작 방법은, 생성된 3D 공간에 생성된 적어도 하나의 3D 객체를 배치한 콘텐츠를 생성하는 단계(S410)를 포함할 수 있다. 일 실시예에서, 공간 정보 및 검출된 객체에 기초하여 콘텐츠를 생성하는 단계(S400)에서, 3D 공간을 생성하는 단계(S350)에서 생성된 3D 공간에 3D 객체를 생성하는 단계(S150)에서 생성된 3D 객체를 배치하여 콘텐츠를 생성할 수 있다. 이때, 3D 공간에 3D 객체가 배치된 콘텐츠는 3D 정보를 포함하는 3D 콘텐츠일 수 있다. 일 실시예에서, 생성된 3D 공간에 생성된 적어도 하나의 3D 객체를 배치한 콘텐츠를 생성하는 단계(S410)에서, 적어도 하나의 프로세서(230)는 콘텐츠 생성 모듈(227)의 명령어들 또는 프로그램 코드를 실행함으로써, 생성된 3D 공간에 생성된 3D 객체를 배치하여 콘텐츠를 생성할 수 있다.In one embodiment, the operating method of the electronic device (100) may include a step (S410) of generating content by arranging at least one 3D object generated in the generated 3D space. In one embodiment, in the step (S400) of generating content based on the spatial information and the detected object, the content may be generated by arranging the 3D object generated in the step (S150) of generating the 3D object in the 3D space generated in the step (S350) of generating the 3D space. At this time, the content in which the 3D object is arranged in the 3D space may be 3D content including 3D information. In one embodiment, in the step (S410) of generating content by arranging at least one 3D object generated in the generated 3D space, at least one processor (230) may generate content by arranging the 3D object generated in the generated 3D space by executing commands or program codes of the content generation module (227).
도 3c에는 본 개시의 일 실시예에 따른 복수의 촬영 이미지들로부터 미리 설정된 조건에 따라 적어도 하나의 이미지를 필터링하고, 적어도 하나의 이미지로부터 객체를 선택하는 선택 신호에 포함된 객체를 획득하는 전자 장치의 동작 방법에 도시되어 있다. 이하, 도 3a 및 도 3b에서 설명한 단계들과 동일한 단계들에 대하여는 동일한 도면 부호를 부여하고, 중복되는 설명은 생략하도록 한다.FIG. 3C illustrates an operation method of an electronic device for filtering at least one image from a plurality of captured images according to preset conditions and obtaining an object included in a selection signal for selecting an object from at least one image according to an embodiment of the present disclosure. Hereinafter, steps identical to those described in FIGS. 3A and 3B are given the same reference numerals, and redundant descriptions are omitted.
도 2, 도 3b 및 도 3c를 참조하면, 전자 장치(100)의 동작 방법은, 메모리(220)에 저장된 복수의 촬영 이미지들로부터 미리 설정된 조건에 따라 적어도 하나의 이미지를 필터링하는 단계(S50)를 포함할 수 있다. 일 실시예에서, 복수의 촬영 이미지들은, 카메라(210)를 통하여 미리 촬영되어 메모리(220)에 저장된 이미지들일 수 있다. 또한, 복수의 촬영 이미지들은 외부의 서버 또는 주변 전자 장치들로부터 제공받아 메모리(220)에 저장된 이미지들일 수 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 이미지 필터링 모듈(221)의 명령어들 또는 프로그램 코드를 실행함으로써, 복수의 촬영 이미지들로부터 미리 설정된 조건에 따라 적어도 하나의 이미지를 필터링할 수 있다.Referring to FIGS. 2, 3b, and 3c, the operating method of the electronic device (100) may include a step (S50) of filtering at least one image from a plurality of captured images stored in a memory (220) according to a preset condition. In one embodiment, the plurality of captured images may be images captured in advance through a camera (210) and stored in the memory (220). In addition, the plurality of captured images may be images provided from an external server or peripheral electronic devices and stored in the memory (220). In one embodiment, at least one processor (230) may filter at least one image from a plurality of captured images according to a preset condition by executing commands or program codes of an image filtering module (221).
일 실시예에서, 미리 설정된 조건은 복수의 촬영 이미지들 중 인접한 위치에서 촬영된 적어도 하나의 이미지를 필터링하도록 하는 조건일 수 있다. 이때, 복수의 촬영 이미지들 각각이 촬영된 위치는 GPS 정보 등을 이용하여 획득될 수 있다. 또한, 미리 설정된 조건은 복수의 촬영 이미지들 중 동일한 특징점을 포함하는 적어도 하나의 이미지를 필터링하는 조건일 수 있다.In one embodiment, the preset condition may be a condition for filtering at least one image captured at an adjacent location among a plurality of captured images. At this time, the location at which each of the plurality of captured images was captured may be obtained using GPS information, etc. In addition, the preset condition may be a condition for filtering at least one image that includes the same feature point among the plurality of captured images.
일 실시예에서, 복수의 촬영 이미지들로부터 미리 설정된 조건에 따라 적어도 하나의 이미지를 필터링하는 단계(S50)는 복수의 촬영 이미지들 각각의 GPS 정보에 기초하여, 복수의 촬영 이미지들을 인접한 위치를 갖는 적어도 하나의 이미지로 필터링하는 단계를 포함할 수 있다. 복수의 촬영 이미지들로부터 미리 설정된 조건에 따라 적어도 하나의 이미지를 필터링하는 단계(S50)는 복수의 촬영 이미지들 각각의 특징점에 기초하여, 동일한 특징점을 갖는 적어도 하나의 이미지로 필터링하는 단계를 포함할 수 있다. In one embodiment, the step (S50) of filtering at least one image from the plurality of captured images according to a preset condition may include a step of filtering the plurality of captured images into at least one image having an adjacent location based on GPS information of each of the plurality of captured images. The step (S50) of filtering at least one image from the plurality of captured images according to a preset condition may include a step of filtering at least one image having the same feature point based on feature points of each of the plurality of captured images.
일 실시예에서, 특징점에 기초하여 복수의 촬영 이미지들을 필터링하는 단계는, GPS 정보에 기초하여 복수의 촬영 이미지들을 필터링하는 단계 이후에 수행될 수도 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 GPS 정보에 기초하여 복수의 촬영 이미지들을 인접한 위치를 갖는 복수의 이미지로 필터링 한 후, 필터링된 복수의 이미지들 각각의 특징점에 기초하여, 동일한 특징점을 갖는 적어도 하나의 이미지로 필터링할 수도 있다. 그러나, 본 개시는 이에 제한되지 않고 복수의 촬영 이미지들로부터 미리 설정된 조건에 따라 적어도 하나의 이미지를 필터링하는 단계(S50)는 GPS 정보에 기초하여 필터링을 수행하거나, 혹은 특징점에 기초하여 필터링을 수행할 수도 있다.In one embodiment, the step of filtering the plurality of captured images based on the feature points may be performed after the step of filtering the plurality of captured images based on the GPS information. In one embodiment, at least one processor (230) may filter the plurality of captured images into a plurality of images having adjacent locations based on the GPS information, and then filter the plurality of filtered images into at least one image having the same feature point based on the feature points of each of the plurality of filtered images. However, the present disclosure is not limited thereto, and the step (S50) of filtering at least one image from the plurality of captured images according to a preset condition may perform filtering based on the GPS information or may perform filtering based on the feature points.
일 실시예에서, 전자 장치(100)의 동작 방법은 복수의 촬영 이미지들에 포함된 적어도 하나의 객체를 선택하는 선택 신호를 획득하는 단계를 포함할 수 있다. 전자 장치(100)의 동작 방법은 선택 신호에 기초하여, 복수의 촬영 이미지들로부터 선택 신호에 포함된 적어도 하나의 객체를 획득하는 단계(S60)를 포함할 수 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 객체 선택 모듈(223)의 명령어들 또는 프로그램 코드를 실행함으로써, 사용자 인터페이스를 통하여, 복수의 촬영 이미지들에 포함된 적어도 하나의 객체를 선택하는 사용자의 입력에 따라 생성되는 선택 신호를 획득할 수 있다. 일 실시예에서, 선택 신호는 사용자가 선택한 적어도 하나의 객체에 대한 정보를 포함할 수 있다. 선택 신호에 포함된 적어도 하나의 객체는, 미리 설정된 적어도 하나의 객체 또는 객체 리스트에 포함되지 않은 객체일 수도 있다. 다만 본 개시는 이에 제한되지 않고, 선택 신호에 포함된 적어도 하나의 객체는, 미리 설정된 적어도 하나의 객체 또는 객체 리스트에 포함된 객체와 동일할 수도 있다.In one embodiment, the operating method of the electronic device (100) may include a step of obtaining a selection signal for selecting at least one object included in a plurality of captured images. The operating method of the electronic device (100) may include a step (S60) of obtaining at least one object included in the selection signal from the plurality of captured images based on the selection signal. In one embodiment, at least one processor (230) may obtain a selection signal generated according to a user's input for selecting at least one object included in the plurality of captured images through a user interface by executing instructions or program codes of the object selection module (223). In one embodiment, the selection signal may include information about at least one object selected by the user. The at least one object included in the selection signal may be at least one object that is preset or an object that is not included in an object list. However, the present disclosure is not limited thereto, and the at least one object included in the selection signal may be the same as at least one object that is preset or an object included in an object list.
일 실시예에서, 선택 신호에 포함된 적어도 하나의 객체를 획득하는 단계(S60)에서 적어도 하나의 프로세서(230)는, 객체 획득 모듈(222) 또는 객체 선택 모듈(223)의 명령어들 또는 프로그램 코드를 실행함으로써, 복수의 촬영 이미지들로부터 선택 신호에 포함된 적어도 하나의 객체를 획득할 수 있다.In one embodiment, in the step (S60) of acquiring at least one object included in the selection signal, at least one processor (230) may acquire at least one object included in the selection signal from a plurality of captured images by executing commands or program codes of the object acquiring module (222) or the object selecting module (223).
일 실시예에서, 전자 장치(100)의 동작 방법은 적어도 하나의 이미지를 필터링하는 단계(S50)에서 필터링된 적어도 하나의 이미지에 포함된 적어도 하나의 객체를 선택하는 선택 신호를 획득하는 단계를 포함할 수 있다. 전자 장치(100)의 동작 방법은 선택 신호에 기초하여, 필터링된 적어도 하나의 이미지로부터 선택 신호에 포함된 적어도 하나의 객체를 획득하는 단계(S110)를 포함할 수 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 객체 선택 모듈(223)의 명령어들 또는 프로그램 코드를 실행함으로써, 사용자 인터페이스를 통하여, 필터링된 적어도 하나의 이미지에 포함된 적어도 하나의 객체를 선택하는 사용자의 입력에 따라 생성되는 선택 신호를 획득할 수 있다. In one embodiment, the operating method of the electronic device (100) may include a step of obtaining a selection signal for selecting at least one object included in the at least one filtered image in the step (S50) of filtering at least one image. The operating method of the electronic device (100) may include a step (S110) of obtaining at least one object included in the selection signal from the at least one filtered image based on the selection signal. In one embodiment, at least one processor (230) may obtain a selection signal generated according to a user's input for selecting at least one object included in the at least one filtered image through a user interface by executing instructions or program codes of the object selection module (223).
일 실시예에서, 적어도 하나의 3D 객체를 생성하는 단계(S150)에서, 적어도 하나의 프로세서(230)는 복수의 촬영 이미지들로부터 획득된, 선택 신호에 포함된 적어도 하나의 객체에 대응되는 3D 객체를 생성할 수 있다. 적어도 하나의 프로세서(230)는 필터링된 적어도 하나의 이미지로부터 획득된, 선택 신호에 포함된 적어도 하나의 객체에 대응되는 3D 객체를 생성할 수 있다. 적어도 하나의 프로세서(230)는 필터링된 적어도 하나의 이미지로부터 획득된, 미리 설정된 적어도 하나의 객체 또는 객체 리스트에 포함된 적어도 하나의 객체에 대응되는 3D 객체를 생성할 수 있다.In one embodiment, in the step (S150) of generating at least one 3D object, at least one processor (230) may generate a 3D object corresponding to at least one object included in a selection signal obtained from a plurality of captured images. At least one processor (230) may generate a 3D object corresponding to at least one object included in a selection signal obtained from at least one filtered image. At least one processor (230) may generate a 3D object corresponding to at least one preset object or at least one object included in an object list obtained from at least one filtered image.
일 실시예에서, 콘텐츠를 생성하는 단계(S410)에서는, 생성된 3D 공간에 적어도 하나의 3D 객체를 생성하는 단계(S150)에서 생성된 3D 객체를 배치하여 콘텐츠를 생성할 수 있다.In one embodiment, in the step of generating content (S410), content can be generated by arranging a 3D object generated in the step of generating at least one 3D object (S150) in the generated 3D space.
일 실시예에서, 전자 장치(100)의 동작 방법은 3D 공간을 생성하는 단계(S350)에서 생성된 3D 공간 내에, 3D 객체를 생성하는 단계(S150)에서 생성된 3D 객체의 위치, 형상 또는 크기 중 적어도 하나에 대한 정보를 포함하는 제어 신호를 획득하는 단계를 포함할 수 있다. 일 실시예에서, 제어 신호는 사용자 인터페이스를 통하여 3D 공간 내에 3D 객체를 배치하거나, 3D 객체의 형상이나 크기를 조절하는 사용자 입력에 의하여 생성되는 신호일 수 있다.In one embodiment, the operating method of the electronic device (100) may include a step of obtaining a control signal including information on at least one of a position, a shape, or a size of a 3D object generated in a step of generating a 3D object (S150), within a 3D space generated in a step of generating a 3D space (S350). In one embodiment, the control signal may be a signal generated by a user input for arranging a 3D object within the 3D space or adjusting a shape or size of the 3D object through a user interface.
일 실시예에서, 콘텐츠를 생성하는 단계(S410)에서는, 획득한 제어 신호에 기초하여 생성된 3D 공간 내에서의 생성된 적어도 하나의 3D 객체의 위치, 형상 또는 크기 중 적어도 하나를 결정하여 콘텐츠를 생성할 수도 있다.In one embodiment, in the step of generating content (S410), the content may be generated by determining at least one of the position, shape, or size of at least one 3D object generated within the generated 3D space based on the acquired control signal.
이하, 설명의 편의를 위하여, 도 4 내지 도 8b에서는 전자 장치(100)가 도 3c에 도시된 방법으로 동작하는 것으로 설명한다. 그러나, 본 개시는 이에 제한되지는 않는다.Hereinafter, for convenience of explanation, FIGS. 4 to 8b describe the electronic device (100) as operating in the manner illustrated in FIG. 3c. However, the present disclosure is not limited thereto.
도 4는 본 개시의 일 실시예에 따른 전자 장치의 동작을 설명하기 위한 도면이다. 이하, 도 2에서 설명한 구성과 동일한 구성에 대하여는 동일한 도면 부호를 부여하고, 중복되는 설명은 생략하도록 한다.FIG. 4 is a drawing for explaining the operation of an electronic device according to one embodiment of the present disclosure. Hereinafter, the same components as those described in FIG. 2 are given the same drawing reference numerals, and redundant descriptions are omitted.
도 2, 도 3c 및 도 4를 참조하면, 일 실시예에서, 적어도 하나의 프로세서(230)는 이미지 필터링 모듈(221)의 명령어들 또는 프로그램 코드를 실행함으로써, 메모리(220)에 저장된 복수의 촬영 이미지들을 미리 설정된 조건에 따라 필터링할 수 있다. 일 실시예에서, 메모리(220)는 미리 촬영된 복수의 촬영 이미지들을 저장하는 갤러리(gallery) 등을 의미할 수 있다. 일 실시예에서, 이미지 필터링 모듈(221)은 GPS에 기초하여 복수의 촬영 이미지들을 인접한 위치에서 촬영된 적어도 하나의 이미지로 필터링하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성된 GPS 기반 필터링 모듈(400)을 포함할 수 있다. 이미지 필터링 모듈(221)은 특징점에 기초하여 복수의 촬영 이미지들을 동일한 특징점을 갖는 적어도 하나의 이미지로 필터링하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성된 특징점 기반 필터링 모듈(410)을 포함할 수 있다. Referring to FIGS. 2, 3C, and 4, in one embodiment, at least one processor (230) may filter a plurality of captured images stored in a memory (220) according to preset conditions by executing commands or program codes of an image filtering module (221). In one embodiment, the memory (220) may mean a gallery or the like that stores a plurality of captured images that have been captured in advance. In one embodiment, the image filtering module (221) may include a GPS-based filtering module (400) configured with commands or program codes related to an operation or function of filtering a plurality of captured images into at least one image captured at an adjacent location based on GPS. The image filtering module (221) may include a feature-based filtering module (410) configured with commands or program codes related to an operation or function of filtering a plurality of captured images into at least one image having the same feature point based on feature points.
일 실시예에서, 적어도 하나의 프로세서(230)는 GPS 기반 필터링 모듈(400)의 명령어들 또는 프로그램 코드를 실행함으로써, GPS에 기초하여 복수의 촬영 이미지들을 인접한 위치에서 촬영된 복수의 이미지들로 필터링할 수 있다. 적어도 하나의 프로세서(230)는 GPS에 기초하여 필터링된 복수의 이미지들을, 특징점 기반 필터링 모듈(410)의 명령어들 또는 프로그램 코드를 실행함으로써 동일한 특징점을 갖는 적어도 하나의 이미지로 필터링할 수 있다. 도 4에는 복수의 촬영 이미지들을 GPS 기반 필터링 모듈(400)에 의하여 필터링하고, 특징점 기반 필터링 모듈(410)에 의하여 필터링하는 것으로 도시되었으나, 본 개시는 이에 제한되지 않는다. 이미지 필터링 모듈(221)은 GPS 기반 필터링 모듈(400) 및 특징점 기반 필터링 모듈(410) 중 어느 하나의 모듈 만을 포함할 수도 있고, 두 개의 모듈을 이용한 동작 순서도 변경될 수 있다.In one embodiment, at least one processor (230) may filter a plurality of captured images into a plurality of images captured at adjacent locations based on GPS by executing commands or program codes of the GPS-based filtering module (400). At least one processor (230) may filter a plurality of images filtered based on GPS into at least one image having the same feature point by executing commands or program codes of the feature point-based filtering module (410). Although FIG. 4 illustrates filtering a plurality of captured images by the GPS-based filtering module (400) and by the feature point-based filtering module (410), the present disclosure is not limited thereto. The image filtering module (221) may include only one module among the GPS-based filtering module (400) and the feature point-based filtering module (410), and the operation order using the two modules may also be changed.
일 실시예에서, 적어도 하나의 프로세서(230)는 객체 획득 모듈(223)의 명령어들 또는 프로그램 코드를 실행함으로써, 이미지 필터링 모듈(221)에 의하여 필터링된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체에 포함된 적어도 하나의 객체를 획득할 수 있다.In one embodiment, at least one processor (230) can acquire at least one object included in at least one preset object from at least one image filtered by the image filtering module (221) by executing instructions or program codes of the object acquisition module (223).
일 실시예에서, 적어도 하나의 프로세서(230)는 객체 선택 모듈(223)의 명령어들 또는 프로그램 코드를 실행함으로써, 메모리(220)에 저장된 복수의 촬영 이미지들 또는 이미지 필터링 모듈(221)에 의하여 필터링된 적어도 하나의 이미지로부터 선택 신호에 포함된 적어도 하나의 객체를 획득할 수 있다.In one embodiment, at least one processor (230) may obtain at least one object included in a selection signal from a plurality of captured images stored in the memory (220) or at least one image filtered by the image filtering module (221) by executing instructions or program codes of the object selection module (223).
일 실시예에서, 적어도 하나의 프로세서(230)는 가이드 제공 모듈(224)의 명령어들 또는 프로그램 코드를 실행함으로써, 이미지 필터링 모듈(221)에 의하여 필터링된 적어도 하나의 이미지에 기초한 촬영 가이드를 디스플레이(200)에 표시할 수 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 필터링된 적어도 하나의 이미지를 촬영 가이드로서, 반투명하게 디스플레이(200)에 표시할 수 있다.In one embodiment, at least one processor (230) can display a shooting guide based on at least one image filtered by the image filtering module (221) on the display (200) by executing instructions or program codes of the guide providing module (224). In one embodiment, at least one processor (230) can display at least one filtered image as a shooting guide on the display (200) semitransparently.
일 실시예에서, 적어도 하나의 프로세서(230)는 배경 촬영 모듈(225)의 명령어들 또는 프로그램 코드를 실행함으로써, 디스플레이(200)에 표시된 촬영 가이드(131)를 따라 카메라(210)를 통하여 디스플레이(200)에 표시되는 현실 공간 중 촬영 가이드(131)에 대응되는 공간을 촬영하여 공간 정보를 획득할 수 있다. 일 실시예에서, 필터링된 적어도 하나의 이미지가 촬영 가이드(131)로서 디스플레이(200)에 표시되는 경우, 디스플레이(200)에 표시되는 주변 현실 공간 중 촬영 가이드(131)에 대응되는 현실 공간은 필터링된 적어도 하나의 이미지에 포함된 공간에 대응되는 공간일 수 있다.In one embodiment, at least one processor (230) may acquire spatial information by executing commands or program codes of the background shooting module (225) to capture a space corresponding to the shooting guide (131) among the real spaces displayed on the display (200) through the camera (210) along the shooting guide (131) displayed on the display (200). In one embodiment, when at least one filtered image is displayed on the display (200) as the shooting guide (131), the real space corresponding to the shooting guide (131) among the surrounding real spaces displayed on the display (200) may be a space corresponding to a space included in at least one filtered image.
일 실시예에서, 적어도 하나의 프로세서(230)는 3D 생성 모듈(226)의 명령어들 또는 프로그램 코드를 실행함으로써, 획득된 적어도 하나의 객체에 대응되는 적어도 하나의 3D 객체를 생성할 수 있다. 적어도 하나의 프로세서(230)는 3D 생성 모듈(226)의 명령어들 또는 프로그램 코드를 실행함으로써, 획득한 공간 정보에 기초하여 3D 공간을 생성할 수 있다.In one embodiment, at least one processor (230) can generate at least one 3D object corresponding to at least one acquired object by executing instructions or program code of the 3D generation module (226). At least one processor (230) can generate a 3D space based on the acquired spatial information by executing instructions or program code of the 3D generation module (226).
일 실시예에서, 3D 생성 모듈(226)은 획득된 적어도 하나의 객체에 대응되는 3D 객체를 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성된 3D 객체 생성 모듈(430)을 포함할 수 있다. 3D 생성 모듈(226)은 획득한 공간 정보에 기초하여 3D 공간을 생성하는 동작이나 기능에 관한 명령어들 또는 프로그램 코드로 구성된 3D 배경 생성 모듈(440)을 포함할 수 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 3D 객체 생성 모듈(430)의 명령어들 또는 프로그램 코드를 실행함으로써, 획득된 적어도 하나의 객체에 대응되는 적어도 하나의 3D 객체를 생성할 수 있다. 적어도 하나의 프로세서(230)는 3D 배경 생성 모듈(440)의 명령어들 또는 프로그램 코드를 실행함으로써, 획득한 공간 정보에 기초하여 3D 공간을 생성할 수 있다. 다만, 본 개시는 이에 제한되지 않고, 3D 객체와 3D 공간은 하나의 모듈을 이용하여 생성될 수도 있다.In one embodiment, the 3D generation module (226) may include a 3D object generation module (430) configured with instructions or program codes related to an operation or function of generating a 3D object corresponding to at least one acquired object. The 3D generation module (226) may include a 3D background generation module (440) configured with instructions or program codes related to an operation or function of generating a 3D space based on the acquired spatial information. In one embodiment, at least one processor (230) may generate at least one 3D object corresponding to at least one acquired object by executing instructions or program codes of the 3D object generation module (430). At least one processor (230) may generate a 3D space based on the acquired spatial information by executing instructions or program codes of the 3D background generation module (440). However, the present disclosure is not limited thereto, and a 3D object and a 3D space may be generated using one module.
일 실시예에서, 적어도 하나의 프로세서(230)는 콘텐츠 생성 모듈(227)의 명령어들 또는 프로그램 코드를 실행함으로써, 생성된 3D 공간 내에 생성된 적어도 하나의 3D 객체를 배치하여 콘텐츠를 생성할 수 있다. 일 실시예에서, 획득된 적어도 하나의 객체가 포함된 이미지의 공간 내에서의 객체의 위치, 객체의 형상 및 크기에 따라, 3D 공간 내에서의 적어도 하나의 3D 객체의 위치, 3D 객체의 형상 및 크기가 결정될 수 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 획득된 적어도 하나의 객체가 포함된 이미지의 공간 내에서의 객체의 위치, 객체의 형상 및 크기에 따라, 3D 공간에 3D 객체를 배치하여 콘텐츠를 생성할 수 있다.In one embodiment, at least one processor (230) can generate content by arranging at least one 3D object generated in the generated 3D space by executing instructions or program codes of the content generation module (227). In one embodiment, the position, shape and size of the at least one 3D object in the 3D space can be determined according to the position, shape and size of the object in the space of the image including the acquired at least one object. In one embodiment, at least one processor (230) can generate content by arranging the 3D object in the 3D space according to the position, shape and size of the object in the space of the image including the acquired at least one object.
일 실시예에서, 제어 신호를 획득한 경우, 적어도 하나의 프로세서(230)는 획득한 제어 신호에 기초하여 3D 공간 내에서의 3D 객체의 위치, 형상 또는 크기 중 적어도 하나를 결정하여 배치하여 콘텐츠를 생성할 수 있다. 제어 신호에 포함되지 않은 정보의 경우, 획득된 적어도 하나의 객체가 포함된 이미지의 공간 내에서의 객체의 위치, 객체의 형상 및 크기의 정보에 기초하여 3D 객체를 배치할 수도 있다.In one embodiment, when a control signal is acquired, at least one processor (230) can determine and place at least one of a position, shape, or size of a 3D object in a 3D space based on the acquired control signal to generate content. In the case of information not included in the control signal, the 3D object can also be placed based on information on the position of the object, the shape, and the size of the object in the space of an image including at least one acquired object.
도 5a는 본 개시의 일 실시예에 따른, 적어도 하나의 이미지에서 객체 리스트에 포함된 적어도 하나의 객체를 획득하는 동작을 설명하기 위한 도면이다. 도 5b는 본 개시의 일 실시예에 따른, 적어도 하나의 이미지에서 선택 신호에 포함된 적어도 하나의 객체를 획득하는 동작을 설명하기 위한 도면이다.FIG. 5A is a diagram for explaining an operation of obtaining at least one object included in an object list from at least one image according to one embodiment of the present disclosure. FIG. 5B is a diagram for explaining an operation of obtaining at least one object included in a selection signal from at least one image according to one embodiment of the present disclosure.
도 2, 도 4 및 도 5a를 참조하면, 일 실시예에서, 도 5a에는 이미지 필터링 모듈(221)을 통하여 필터링된 적어도 하나의 이미지가 도시되어 있다. 일 실시예에서, 적어도 하나의 이미지는 복수의 이미지들을 포함할 수 있다. 도 5a에는 세 개의 이미지들(500, 510, 520)이 도시되어 있으나, 본 개시는 이에 제한되지 않는다. 메모리(220)에 저장된 복수의 촬영 이미지들의 종류 및 미리 설정된 조건에 따라, 두 개의 이미지들 또는 네 개 이상의 이미지들이 복수의 촬영 이미지들로부터 필터링될 수 있다.Referring to FIGS. 2, 4, and 5A, in one embodiment, at least one image filtered through an image filtering module (221) is illustrated in FIG. 5A. In one embodiment, the at least one image may include multiple images. Although three images (500, 510, 520) are illustrated in FIG. 5A, the present disclosure is not limited thereto. Depending on the types of the multiple captured images stored in the memory (220) and preset conditions, two images or four or more images may be filtered from the multiple captured images.
일 실시예에서, 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)는 복수의 촬영 이미지들로부터 인접한 GPS 정보를 갖는 이미지들로 필터링되어 획득된 이미지일 수 있다. 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)는 복수의 촬영 이미지들로부터 인접한 GPS 정보를 갖는 이미지들로 필터링 된 후, 동일한 특징점을 갖는 이미지들로 필터링 되어 획득된 이미지일 수 있다.In one embodiment, the first image (500), the second image (510), and the third image (520) may be images obtained by filtering images having adjacent GPS information from a plurality of captured images. The first image (500), the second image (510), and the third image (520) may be images obtained by filtering images having adjacent GPS information from a plurality of captured images, and then filtering images having the same feature points.
일 실시예에서, 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(530)는 특정 위치(예를 들어, '집')를 기준으로 수십 m 또는 수백 m 이내에 포함된 위치 정보를 갖는 이미지일 수 있다. 또한, 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(530)는 동일한 특징점(예를 들어, '쇼파')을 갖는 이미지일 수 있다. 이를 통하여, 복수의 촬영 이미지들 중에서 동일한 공간(예를 들어, '집 안에 쇼파가 위치한 공간')에서 촬영된 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(530)가 필터링될 수 있다.In one embodiment, the first image (500), the second image (510), and the third image (530) may be images having location information included within tens or hundreds of meters based on a specific location (e.g., 'house'). In addition, the first image (500), the second image (510), and the third image (530) may be images having the same feature point (e.g., 'sofa'). Through this, among the multiple captured images, the first image (500), the second image (510), and the third image (530) captured in the same space (e.g., 'the space in the house where the sofa is located') may be filtered.
일 실시예에서, 미리 설정된 적어도 하나의 객체는 전자 장치(100)를 사용하는 사용자의 관심을 유도할 수 있다고 판단되는 객체를 포함할 수 있다. 일 실시예에서, 미리 설정된 적어도 하나의 객체는 복수의 촬영 이미지들을 필터링할 때 사용되는 미리 설정된 기준에 따라 다르게 설정될 수도 있다. 일 실시예에서, 미리 설정된 적어도 하나의 객체는 GPS 정보에 기초하여, 특정 위치에 대응되는 객체를 포함할 수 있다. 미리 설정된 적어도 하나의 객체는 특징점 정보에 기초하여, 특징점에 대응되는 객체를 포함할 수 있다.In one embodiment, the at least one preset object may include an object that is determined to attract the interest of a user using the electronic device (100). In one embodiment, the at least one preset object may be set differently according to a preset criterion used when filtering a plurality of captured images. In one embodiment, the at least one preset object may include an object corresponding to a specific location based on GPS information. The at least one preset object may include an object corresponding to a feature point based on feature point information.
일 실시예에서, 복수의 촬영 이미지들을 '집'의 위치를 기준으로 인접한 위치의 GPS 정보를 갖는 이미지들로 필터링하는 경우, 미리 설정된 적어도 하나의 객체는 '집'에서 사용자의 관심을 유도할 수 있다고 판단되는 객체를 포함할 수 있다. 일 실시예에서, 미리 설정된 적어도 하나의 객체는 '사람', '사진', '애완 동물' 등을 포함하도록 설정될 수 있다. 다만, 본 개시는 이에 제한되지 않고, 필터링의 기준이 되는 특정 위치에 대응되어 미리 설정된 적어도 하나의 객체가 달라질 수도 있다. 일 실시예에서, 복수의 촬영 이미지들을 '공원'의 위치를 기준으로 인접한 위치의 GPS 정보를 갖는 이미지들로 필터링하는 경우, 미리 설정된 적어도 하나의 객체는 '공원'에서 사용자의 관심을 유도할 수 있다고 판단되는 객체를 포함할 수 있다. 일 실시예에서, 미리 설정된 적어도 하나의 객체는 '사람', '나무', '애완 동물', '놀이터', '축구공' 등을 포함하도록 설정될 수도 있다.In one embodiment, when filtering a plurality of captured images to images having GPS information of adjacent locations based on a location of a 'house', the at least one preset object may include an object determined to be capable of attracting the user's interest in the 'house'. In one embodiment, the at least one preset object may be set to include a 'person', a 'picture', a 'pet', etc. However, the present disclosure is not limited thereto, and the at least one preset object may vary depending on a specific location that serves as a criterion for filtering. In one embodiment, when filtering a plurality of captured images to images having GPS information of adjacent locations based on a location of a 'park', the at least one preset object may include an object determined to be capable of attracting the user's interest in the 'park'. In one embodiment, the at least one preset object may be set to include a 'person', a 'tree', a 'pet', a 'playground', a 'soccer ball', etc.
일 실시예에서, 복수의 촬영 이미지들을 '쇼파'와 동일한 특징점을 갖는 이미지를 기준으로 필터링하는 경우, 미리 설정된 적어도 하나의 객체는 '쇼파'에서 사용자의 관심을 유도할 수 있다고 판단되는 객체를 포함할 수 있다. 일 실시예에서, 미리 설정된 적어도 하나의 객체는 '쇼파에 앉아있는 사람', '쇼파에 앉아있는 애완 동물', '쇼파 주변의 사람', '쇼파 주변의 애완 동물' 등을 포함하도록 설정될 수도 있다. 다만, 본 개시는 이에 제한되지 않고, 필터링의 기준이 되는 특징점에 대응되어 미리 설정된 적어도 하나의 객체가 달라질 수도 있다. 일 실시예에서, 복수의 촬영 이미지들을 '식탁'과 동일한 특징점을 기준으로 필터링하는 경우, 미리 설정된 적어도 하나의 객체는 '식탁'에서 사용자의 관심을 유도할 수 있다고 판단되는 객체를 포함할 수 있다. 일 실시예에서, 미리 설정된 적어도 하나의 객체는 '사람', '음식', '컵', '꽃병'등을 포함하도록 설정될 수도 있다.In one embodiment, when filtering a plurality of captured images based on an image having the same feature as a 'sofa', the at least one preset object may include an object that is determined to attract the user's attention in the 'sofa'. In one embodiment, the at least one preset object may be set to include 'a person sitting on a sofa', 'a pet sitting on a sofa', 'a person around the sofa', 'a pet around the sofa', etc. However, the present disclosure is not limited thereto, and the at least one preset object may vary depending on the feature that serves as the basis for filtering. In one embodiment, when filtering a plurality of captured images based on the same feature as a 'table', the at least one preset object may include an object that is determined to attract the user's attention in the 'table'. In one embodiment, the at least one preset object may be set to include 'a person', 'food', 'a cup', 'a vase', etc.
다만, 본 개시는 이에 제한되지 않고, 미리 설정된 적어도 하나의 객체는 GPS 정보나 특징점 정보와 무관하게,'사람', '사진', '애완 동물' 등을 포함하도록 설정될 수 있다. However, the present disclosure is not limited thereto, and at least one preset object may be set to include a 'person', a 'photo', a 'pet', etc., regardless of GPS information or feature point information.
일 실시예에서, 객체 획득 모듈(222)을 통하여, 제1 이미지(500)에서 제1 사람(501) 및 애완 동물(502)이 획득될 수 있다. 이때, 쇼파(530)는 미리 설정된 적어도 하나의 객체에 포함되지 않아, 제1 이미지(500)으로부터 획득되지 않을 수도 있다. 일 실시예에서, 객체 획득 모듈(222)을 통하여, 제2 이미지(510)에서 제2 사람(511)이 획득될 수 있다. 객체 획득 모듈(222)을 통하여, 제3 이미지(520)에서 제3 사람(521)이 획득될 수 있다.In one embodiment, a first person (501) and a pet (502) may be acquired from a first image (500) through an object acquisition module (222). At this time, a sofa (530) may not be acquired from the first image (500) because it is not included in at least one preset object. In one embodiment, a second person (511) may be acquired from a second image (510) through an object acquisition module (222). A third person (521) may be acquired from a third image (520) through an object acquisition module (222).
일 실시예에서, 복수의 촬영 이미지들은 서로 촬영된 날짜 또는 시점이 다를 수 있다. 따라서, 복수의 촬영 이미지들로부터 필터링된 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)에서 각각 검출된 제1 사람(501), 제2 사람(511) 및 제3 사람(521)이 동일한 인물이여도, 제1 사람(501), 제2 사람(511) 및 제3 사람(521)의 나이, 포즈, 의상 등은 서로 다를 수 있다. 일 실시예에서, 제1 이미지(500)이 촬영된 날짜가 가장 최근의 날짜이고, 제3 이미지(520)이 촬영된 날짜가 가장 오래 전 날짜이고, 제2 이미지(510)이 촬영된 날짜가 제1 이미지(500)과 제3 이미지(520)이 촬영된 날짜의 사이일 수 있다. 일 실시예에서, 제1 사람(501), 제2 사람(511) 및 제3 사람(521)이 동일한 인물일 경우, 제1 사람(501)의 나이가 가장 많고, 제3 사람(521)의 나이가 가장 어리고, 제2 사람(511)의 나이가 제1 사람(501)과 제3 사람(521)의 중간 나이일 수 있다.In one embodiment, the plurality of captured images may have different capture dates or times. Accordingly, even if the first person (501), the second person (511), and the third person (521) detected in the first image (500), the second image (510), and the third image (520) filtered from the plurality of captured images are the same person, the ages, poses, clothing, etc. of the first person (501), the second person (511), and the third person (521) may be different from each other. In one embodiment, the capture date of the first image (500) may be the most recent date, the capture date of the third image (520) may be the oldest date, and the capture date of the second image (510) may be between the capture dates of the first image (500) and the third image (520). In one embodiment, if a first person (501), a second person (511), and a third person (521) are the same person, the first person (501) may be the oldest, the third person (521) may be the youngest, and the second person (511) may be the middle age between the first person (501) and the third person (521).
일 실시예에서, 시간에 흐름에 따라 찰영되어 메모리(220)에 저장된 복수의 촬영 이미지들을 필터링한 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)으로부터, 같은 공간 내에 위치한 동일한 사람을 획득함에 따라, 시간에 흐름에 의한 사람의 변화를 사용자에게 제공할 수 있다.In one embodiment, by obtaining the same person located in the same space from the first image (500), the second image (510), and the third image (520) by filtering a plurality of captured images captured over time and stored in the memory (220), the change in the person over time can be provided to the user.
또한, 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)이 촬영된 시점이 서로 다른 경우에, 같은 공간 내에서 동일한 인물의 다양한 포즈를 갖는 객체들을 획득할 수 있다.In addition, when the first image (500), the second image (510), and the third image (520) are captured at different times, objects having various poses of the same person within the same space can be acquired.
일 실시예에서, 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)에 포함된 사람이 서로 다른 인물인 경우에, 같은 공간 내에 위치했던 서로 다른 인물들을 획득함에 따라, 해당 공간에서의 여러 인물들과의 추억을 사용자에게 제공할 수도 있다.In one embodiment, if the people included in the first image (500), the second image (510), and the third image (520) are different people, by acquiring different people located in the same space, memories with multiple people in that space may be provided to the user.
도 5b를 참조하면, 일 실시예에서, 도 5b에는 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)이 도시되어 있다. 도 5b에서는 제1 이미지(500)에 포함된 제1 사람(501) 및 애완 동물(502)이 획득되고, 제2 이미지(510)에 포함된 제2 사람(511)이 획득되고, 제3 이미지(520)에 포함된 제3 사람(521)이 획득된 것이 도시되어 있다. 또한, 도 5b에서는 도 5a와 비교하여 제1 이미지(500)에 포함된 놀이기구(503)가 더 획득된 것이 도시되어 있다.Referring to FIG. 5B, in one embodiment, a first image (500), a second image (510), and a third image (520) are illustrated in FIG. 5B. FIG. 5B illustrates that a first person (501) and a pet (502) included in the first image (500) are acquired, a second person (511) included in the second image (510) is acquired, and a third person (521) included in the third image (520) is acquired. In addition, FIG. 5B illustrates that an amusement device (503) included in the first image (500) is further acquired compared to FIG. 5A.
일 실시예에서, 놀이기구(503)는 제1 이미지(500)에서 놀이기구(503)를 선택하는 사용자의 입력(540)에 의하여 생성되는 선택 신호에 포함된 객체일 수 있다. 일 실시예에서, 전자 장치(100)는 사용자 인터페이스를 통하여 제1 이미지(500)에서 획득하고 싶은 놀이기구(503)를 선택하는 입력을 제공받아 선택 신호를 생성할 수 있다. 전자 장치(100)는 선택 신호에 기초하여 제1 이미지(500)으로부터 놀이기구(503)를 획득할 수 있다. 일 실시예에서, 사용자는 미리 설정된 객체에 놀이기구(503)가 포함되지 않아, 제1 이미지(500)으로부터 놀이기구(503)가 획득되지 않은 경우, 놀이기구(503)를 선택하는 사용자 입력을 제공하여 제1 이미지(500)으로부터 놀이기구(503)가 획득되도록 할 수 있다.In one embodiment, the amusement device (503) may be an object included in a selection signal generated by a user's input (540) for selecting the amusement device (503) from the first image (500). In one embodiment, the electronic device (100) may receive an input for selecting the amusement device (503) to be acquired from the first image (500) through a user interface and generate a selection signal. The electronic device (100) may acquire the amusement device (503) from the first image (500) based on the selection signal. In one embodiment, if the amusement device (503) is not included in the preset objects and thus the amusement device (503) is not acquired from the first image (500), the user may provide a user input for selecting the amusement device (503) so that the amusement device (503) is acquired from the first image (500).
도 6은 본 개시의 일 실시예에 따른, 촬영 가이드에 따라 공간 정보를 획득하는 동작을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining an operation of acquiring spatial information according to a shooting guide according to one embodiment of the present disclosure.
도 2, 도 4 및 도 6을 참조하면, 일 실시예에서, 도 6에는 주변 현실 공간(600) 및 가이드 제공 모듈(224)을 통하여 제공되는 촬영 가이드(610, 620, 630)가 도시되어 있다. 주변 현실 공간(600)은 전자 장치(100)를 사용하는 사용자가 위치한 공간을 의미할 수 있다. 주변 현실 공간(600)은 전자 장치(100)를 사용하는 사용자와 인접한 공간을 의미할 수 있다. Referring to FIGS. 2, 4, and 6, in one embodiment, FIG. 6 illustrates a surrounding reality space (600) and a shooting guide (610, 620, 630) provided through a guide providing module (224). The surrounding reality space (600) may refer to a space where a user using the electronic device (100) is located. The surrounding reality space (600) may refer to a space adjacent to a user using the electronic device (100).
일 실시예에서, 사용자는 전자 장치(100)를 이용하여 주변 현실 공간(600)을 촬영할 수 있다. 일 실시예에서, 사용자는 카메라(210)를 통하여 주변 현실 공간(600)을 촬영할 수 있다. 이때, 디스플레이(200)에는 카메라(210)를 통하여 촬영되는 주변 현실 공간(600) 중 일부 현실 공간이 표시될 수 있다. 사용자는 주변 현실 공간(600) 중 디스플레이(200)에 표시되는 현실 공간을 다르게 하기 위하여, 전자 장치(100)의 위치를 변경할 수 있다. 사용자는 디스플레이(200)에 주변 현실 공간(600) 중 원하는 현실 공간이 표시되는 경우, 카메라(210)를 통하여 해당 현실 공간을 촬영하여 공간 정보를 획득할 수 있다.In one embodiment, a user can capture a surrounding reality space (600) using an electronic device (100). In one embodiment, the user can capture a surrounding reality space (600) through a camera (210). At this time, a part of the surrounding reality space (600) captured through the camera (210) can be displayed on the display (200). The user can change the position of the electronic device (100) to display a different reality space on the display (200) among the surrounding reality spaces (600). When a desired reality space among the surrounding reality spaces (600) is displayed on the display (200), the user can capture the corresponding reality space through the camera (210) to obtain spatial information.
일 실시예에서, 디스플레이(200)에는 촬영 가이드(610, 620, 630)가 표시될 수 있다. 일 실시예에서, 촬영 가이드(610, 620, 630)는 적어도 하나의 이미지가 촬영된 공간, 즉 공간에 대한 정보를 사용자에게 제공하기 위한 가이드일 수 있다. 일 실시예에서, 촬영 가이드(610, 620, 630)는 적어도 하나의 이미지가 반투명하게 표시되는 것일 수 있다. 이하, 촬영 가이드(610, 620, 630)에 대응되는 이미지는, 복수의 촬영 이미지들 중 필터링된 적어도 하나의 이미지들 각각을 의미할 수 있다.In one embodiment, the display (200) may display a shooting guide (610, 620, 630). In one embodiment, the shooting guide (610, 620, 630) may be a guide for providing a user with information about a space in which at least one image is captured, i.e., a space. In one embodiment, the shooting guide (610, 620, 630) may be a guide in which at least one image is displayed semitransparently. Hereinafter, an image corresponding to the shooting guide (610, 620, 630) may mean each of at least one filtered image among a plurality of captured images.
일 실시예에서, 복수의 촬영 이미지들로부터 필터링된 적어도 하나의 이미지가 복수의 이미지들을 포함하는 경우, 촬영 가이드(610, 620, 630)는 복수의 이미지들 각각에 대응되는 복수의 서브 촬영 가이드들을 포함할 수 있다. 일 실시예에서, 복수의 서브 촬영 가이드들 각각은 복수의 이미지들 각각의 공간에 대한 정보를 포함할 수 있다.In one embodiment, if at least one image filtered from a plurality of captured images includes a plurality of images, the shooting guide (610, 620, 630) may include a plurality of sub-shooting guides corresponding to each of the plurality of images. In one embodiment, each of the plurality of sub-shooting guides may include information about the space of each of the plurality of images.
일 실시예에서, 도 6에는 세 개의 서브 촬영 가이드들(610, 620, 630)이 도시되어 있다. 다만, 본 개시는 이에 제한되지 않고, 서브 촬영 가이드들의 개수는 필터링된 복수의 이미지들의 개수에 따라 달라질 수 있다.In one embodiment, three sub-shooting guides (610, 620, 630) are illustrated in FIG. 6. However, the present disclosure is not limited thereto, and the number of sub-shooting guides may vary depending on the number of filtered multiple images.
일 실시예에서, 제1 서브 촬영 가이드(610), 제2 서브 촬영 가이드(620) 및 제3 서브 촬영 가이드(630)는 각각 전자 장치(100)에 포함된 디스플레이(200)에 표시되는 것일 수 있다. 일 실시예에서, 도 6은 전자 장치(100)의 위치 또는 카메라(210)의 촬영 시점을 변경해가며 카메라(210)를 통하여 주변 현실 공간(600)을 촬영함에 따라, 디스플레이(200)에서 표시되는 주변 현실 공간(600)의 적어도 일부의 현실 공간에서 필터링된 세 개의 이미지들의 공간 정보를 획득하기 위하여 디스플레이(200)에 표시되는 제1 서브 촬영 가이드(610), 제2 서브 촬영 가이드(620) 및 제3 서브 촬영 가이드(630)를 도시한 것일 수 있다. 일 실시예에서, 제1 서브 촬영 가이드(610), 제2 서브 촬영 가이드(620) 및 제3 서브 촬영 가이드(630)는 각각 서로 다른 전자 장치(100)의 위치 또는 카메라(210)의 촬영 시점에서 디스플레이(200)에 표시되는 촬영 가이드일 수 있다.In one embodiment, the first sub-shooting guide (610), the second sub-shooting guide (620), and the third sub-shooting guide (630) may be displayed on the display (200) included in the electronic device (100), respectively. In one embodiment, FIG. 6 illustrates the first sub-shooting guide (610), the second sub-shooting guide (620), and the third sub-shooting guide (630) displayed on the display (200) to obtain spatial information of three images filtered in at least a part of the surrounding real space (600) displayed on the display (200) by shooting the surrounding real space (600) through the camera (210) while changing the position of the electronic device (100) or the shooting time point of the camera (210). In one embodiment, the first sub-shooting guide (610), the second sub-shooting guide (620), and the third sub-shooting guide (630) may be shooting guides displayed on the display (200) at different locations of the electronic device (100) or shooting points of the camera (210), respectively.
일 실시예에서, 전자 장치(100)는 카메라(210)를 통하여 제1 서브 촬영 가이드(610), 제2 서브 촬영 가이드(620) 및 제3 서브 촬영 가이드(630)를 따라 주변 현실 공간(600) 중 제1 서브 촬영 가이드(610), 제2 서브 촬영 가이드(620) 및 제3 서브 촬영 가이드(630) 각각에 대응되는 필터링된 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 생성된 공간 정보를 획득할 수 있다. 일 실시예에서, 공간 정보는 제1 서브 촬영 가이드(610)에 대응되는 필터링된 이미지에 포함된 공간(예를 들어, 에어컨과 쇼파의 좌측을 포함하는 공간)에 대응되는 제1 서브 공간 정보를 포함할 수 있다. 공간 정보는 제2 서브 촬영 가이드(620)에 대응되는 필터링된 이미지에 포함된 공간(예를 들어, 쇼파의 중간을 포함하는 공간)에 대응되는 제2 서브 공간 정보를 포함할 수 있다. 공간 정보는 제3 서브 촬영 가이드(630)에 대응되는 필터링된 이미지에 포함된 공간(예를 들어, 쇼파의 우측을 포함하는 공간)에 대응되는 제3 서브 공간 정보를 포함할 수 있다.In one embodiment, the electronic device (100) may capture a real space corresponding to a space included in a filtered image corresponding to each of the first sub-shooting guide (610), the second sub-shooting guide (620), and the third sub-shooting guide (630) among the surrounding real space (600) along the first sub-shooting guide (610), the second sub-shooting guide (620), and the third sub-shooting guide (630) through the camera (210), thereby obtaining generated spatial information. In one embodiment, the spatial information may include first sub-space information corresponding to a space included in the filtered image corresponding to the first sub-shooting guide (610) (for example, a space including an air conditioner and the left side of a sofa). The spatial information may include second sub-space information corresponding to a space included in the filtered image corresponding to the second sub-shooting guide (620) (for example, a space including the middle of a sofa). The spatial information may include third sub-spatial information corresponding to a space (e.g., a space including the right side of the sofa) included in a filtered image corresponding to the third sub-shooting guide (630).
일 실시예에서, 전자 장치(100)는 획득한 공간 정보에 기초하여 3D 공간을 생성할 수 있다. 일 실시예에서, 공간 정보는 주변 현실 공간(600) 중 제1 서브 촬영 가이드(610), 제2 서브 촬영 가이드(620) 및 제3 서브 촬영 가이드(630)에 각각 대응되는 필터링된 이미지에 포함된 공간에 대응되는 현실 공간에 대한 정보를 포함할 수 있다. 전자 장치(100)는 획득한 공간 정보에 기초하여 필터링된 적어도 하나의 이미지에 포함된 공간에 대응되는 3D 공간을 생성할 수 있다.In one embodiment, the electronic device (100) can generate a 3D space based on the acquired spatial information. In one embodiment, the spatial information can include information about a real space corresponding to a space included in a filtered image corresponding to each of the first sub-capture guide (610), the second sub-capture guide (620), and the third sub-capture guide (630) among the surrounding real space (600). The electronic device (100) can generate a 3D space corresponding to a space included in at least one filtered image based on the acquired spatial information.
도 7a는 본 개시의 일 실시예에 따른, 디스플레이에 표시되는 촬영 가이드에 따라 현실 공간을 촬영하여 공간 정보를 획득하는 동작을 설명하기 위한 도면이다. 도 7b는 본 개시의 일 실시예에 따른, 디스플레이에 표시되는 촬영 가이드에 따라 현실 공간을 촬영하여 공간 정보를 획득하는 동작을 설명하기 위한 도면이다. 도 7c는 본 개시의 일 실시예에 따른, 디스플레이에 표시되는 촬영 가이드에 따라 현실 공간을 촬영하여 공간 정보를 획득하는 동작을 설명하기 위한 도면이다.FIG. 7A is a diagram for explaining an operation of obtaining spatial information by photographing a real space according to a photographing guide displayed on a display, according to one embodiment of the present disclosure. FIG. 7B is a diagram for explaining an operation of obtaining spatial information by photographing a real space according to a photographing guide displayed on a display, according to one embodiment of the present disclosure. FIG. 7C is a diagram for explaining an operation of obtaining spatial information by photographing a real space according to a photographing guide displayed on a display, according to one embodiment of the present disclosure.
도 2, 도 4, 도 5a, 도 6 및 도 7a를 참조하면, 일 실시예에서, 도 7a에는 전자 장치(100), 이미지 필터링 모듈(221)을 통하여 필터링된 세 개의 이미지들(500, 510, 520), 제1 이미지(500)에 기초한 제1 서브 촬영 가이드(610) 및 전자 장치(100)를 사용하는 사용자(700)가 도시되어 있다.Referring to FIGS. 2, 4, 5A, 6 and 7A, in one embodiment, FIG. 7A illustrates an electronic device (100), three images (500, 510, 520) filtered through an image filtering module (221), a first sub-capture guide (610) based on the first image (500), and a user (700) using the electronic device (100).
일 실시예에서, 필터링된 이미지가 복수의 이미지들인 경우, 촬영 가이드는 복수의 이미지들에 각각 대응되는 복수의 서브 촬영 가이드들을 포함할 수 있다. 적어도 하나의 프로세서(230)는 가이드 제공 모듈(224)의 명령어들 또는 프로그램 코드를 실행함으로써, 복수의 서브 촬영 가이드들을 디스플레이(200)에 순차적으로 표시할 수 있다. 적어도 하나의 프로세서(230)는 카메라(210)를 통하여, 디스플레이(200)에 순차적으로 표시되는 복수의 서브 촬영 가이드들 중 어느 하나의 서브 촬영 가이드를 따라, 주변 현실 공간(600) 중 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 생성된 서브 공간 정보를 획득할 수 있다. In one embodiment, when the filtered image is a plurality of images, the shooting guide may include a plurality of sub-shooting guides corresponding to each of the plurality of images. At least one processor (230) may sequentially display the plurality of sub-shooting guides on the display (200) by executing commands or program codes of the guide providing module (224). At least one processor (230) may acquire sub-space information generated by shooting a real space corresponding to a space included in an image corresponding to one of the sub-shooting guides among the plurality of sub-shooting guides sequentially displayed on the display (200) through the camera (210) along with one of the sub-shooting guides.
일 실시예에서, 적어도 하나의 프로세서(230)는 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)에 각각 대응되는 제1 서브 촬영 가이드(610), 제2 서브 촬영 가이드(620) 및 제3 서브 촬영 가이드(630)를 디스플레이(200)에 순차적으로 표시할 수 있다. 사용자(700)는 디스플레이(200)에 순차적으로 표시되는 제1 서브 촬영 가이드(610), 제2 서브 촬영 가이드(620) 및 제3 서브 촬영 가이드(630)를 따라서 주변 현실 공간(600) 중 제1 서브 촬영 가이드(610), 제2 서브 촬영 가이드(620) 및 제3 서브 촬영 가이드(630)에 각각 대응되는 현실 공간을 촬영할 수 있다. 전자 장치(100)는 주변 현실 공간(600) 중 제1 서브 촬영 가이드(610), 제2 서브 촬영 가이드(620) 및 제3 서브 촬영 가이드(630)에 각각 대응되도록 촬영하여 생성된 복수의 서브 공간 정보들을 획득할 수 있다.In one embodiment, at least one processor (230) may sequentially display a first sub-capture guide (610), a second sub-capture guide (620), and a third sub-capture guide (630) corresponding to the first image (500), the second image (510), and the third image (520) on the display (200). The user (700) may follow the first sub-capture guide (610), the second sub-capture guide (620), and the third sub-capture guide (630) sequentially displayed on the display (200) to capture a real space corresponding to the first sub-capture guide (610), the second sub-capture guide (620), and the third sub-capture guide (630) among the surrounding real space (600). The electronic device (100) can acquire a plurality of sub-space information generated by shooting corresponding to the first sub-shooting guide (610), the second sub-shooting guide (620), and the third sub-shooting guide (630) among the surrounding real space (600).
일 실시예에서, 사용자(700)는 디스플레이(200)에 표시되는 현실 공간이 제1 서브 촬영 가이드(610)에 대응되도록 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점을 변경할 수 있다. 사용자(700)는 디스플레이(200)에 표시되는 주변 현실 공간(600)의 일부 현실 공간이 제1 서브 촬영 가이드(610)에 대응됨에 따라, 해당 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점에서 촬영을 할 수 있다. 해당 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점에서 촬영된 이미지는 현실 공간(600) 중 제1 서브 촬영 가이드(610)에 포함된 공간에 대응되는 현실 공간에 대한 공간 정보를 포함할 수 있다. 제1 이미지(500)가 제1 서브 촬영 가이드(610)로서 제공된 경우, 해당 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점에서 촬영된 이미지는 현실 공간(600) 중 제1 이미지(500)에 포함된 공간에 대응되는 현실 공간에 대한 공간 정보를 포함할 수 있다.In one embodiment, the user (700) can change the position of the electronic device (100) or the shooting point of the camera (210) so that the real space displayed on the display (200) corresponds to the first sub-shooting guide (610). The user (700) can take a picture at the position of the electronic device (100) or the shooting point of the camera (210) as a part of the real space of the surrounding real space (600) displayed on the display (200) corresponds to the first sub-shooting guide (610). An image captured at the position of the electronic device (100) or the shooting point of the camera (210) can include spatial information about the real space corresponding to the space included in the first sub-shooting guide (610) among the real spaces (600). When the first image (500) is provided as the first sub-shooting guide (610), the image captured at the location of the electronic device (100) or at the shooting time of the camera (210) may include spatial information about a real space corresponding to the space included in the first image (500) among the real space (600).
도 7b를 참조하면, 일 실시예에서, 도 7b에는 제2 이미지(510)에 기초한 제2 서브 촬영 가이드(620)가 도시되어 있다. 사용자(700)는 디스플레이(200)에 표시되는 주변 현실 공간(600)의 일부 공간이 제2 서브 촬영 가이드(620)에 대응되도록, 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점을 변경할 수 있다. 사용자(700)는 디스플레이(200)에 표시되는 주변 현실 공간(600)의 일부 공간이 제2 서브 촬영 가이드(620)에 대응됨에 따라, 해당 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점에서 촬영을 할 수 있다. 해당 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점에서 촬영된 이미지는 주변 현실 공간(600) 중 제2 서브 촬영 가이드(620)에 포함된 공간에 대응되는 현실 공간에 대한 공간 정보를 포함할 수 있다. 제2 이미지(510)가 제2 서브 촬영 가이드(620)로서 제공된 경우, 해당 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점에서 촬영된 이미지는 주변 현실 공간(600) 중 제2 이미지(510)에 포함된 공간에 대응되는 현실 공간에 대한 공간 정보를 포함할 수 있다.Referring to FIG. 7B, in one embodiment, a second sub-shooting guide (620) based on a second image (510) is illustrated in FIG. 7B. The user (700) can change the position of the electronic device (100) or the shooting point of the camera (210) so that a part of the surrounding real space (600) displayed on the display (200) corresponds to the second sub-shooting guide (620). As a part of the surrounding real space (600) displayed on the display (200) corresponds to the second sub-shooting guide (620), the user (700) can take a picture at the position of the electronic device (100) or the shooting point of the camera (210). An image captured at the position of the electronic device (100) or the shooting point of the camera (210) can include spatial information about a real space corresponding to a space included in the second sub-shooting guide (620) among the surrounding real space (600). When the second image (510) is provided as a second sub-shooting guide (620), the image captured at the location of the electronic device (100) or at the shooting time of the camera (210) may include spatial information about a real space corresponding to the space included in the second image (510) among the surrounding real space (600).
도 7c를 참조하면, 일 실시예에서, 도 7c에는 제3 이미지(520)에 기초한 제3 서브 촬영 가이드(630)가 도시되어 있다. 사용자(700)는 디스플레이(200)에 표시되는 주변 현실 공간(600)의 일부 공간이 제3 서브 촬영 가이드(630)에 대응되도록, 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점을 변경할 수 있다. 사용자(700)는 디스플레이(200)에 표시되는 주변 현실 공간(600)의 일부 공간이 제3 서브 촬영 가이드(630)에 대응됨에 따라, 해당 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점에서 촬영을 할 수 있다. 해당 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점에서 촬영된 이미지는 현실 공간(600) 중 제3 서브 촬영 가이드(630)에 포함된 공간에 대응되는 현실 공간에 대한 공간 정보를 포함할 수 있다. 제3 이미지(520)가 제3 서브 촬영 가이드(630)로서 제공된 경우, 해당 전자 장치(100)의 위치 혹은 카메라(210)의 촬영 시점에서 촬영된 이미지는 주변 현실 공간(600) 중 제3 이미지(520)에 포함된 공간에 대응되는 현실 공간에 대한 공간 정보를 포함할 수 있다.Referring to FIG. 7C, in one embodiment, a third sub-shooting guide (630) based on a third image (520) is illustrated in FIG. 7C. The user (700) can change the position of the electronic device (100) or the shooting point of the camera (210) so that a part of the surrounding real space (600) displayed on the display (200) corresponds to the third sub-shooting guide (630). As a part of the surrounding real space (600) displayed on the display (200) corresponds to the third sub-shooting guide (630), the user (700) can take a picture at the position of the electronic device (100) or the shooting point of the camera (210). An image captured at the position of the electronic device (100) or the shooting point of the camera (210) can include spatial information on a real space corresponding to a space included in the third sub-shooting guide (630) among the real space (600). When the third image (520) is provided as a third sub-shooting guide (630), the image captured at the location of the electronic device (100) or at the shooting time of the camera (210) may include spatial information about a real space corresponding to the space included in the third image (520) among the surrounding real space (600).
일 실시예에서, 제2 서브 촬영 가이드(620)는 제1 서브 촬영 가이드(610)에 대응되는 공간이 촬영된 이후에 디스플레이(200)에 표시될 수 있다. 제3 서브 촬영 가이드(630)는 제2 서브 촬영 가이드(620)에 대응되는 공간이 촬영된 이후에 디스플레이(200)에 표시될 수 있다. 사용자(700)는 순차적으로 디스플레이(200)에 표시되는 제1 내지 제3 서브 촬영 가이드들(610, 620, 630)에 따라서, 현실 공간(600) 중 필터링된 복수의 이미지들에 포함된 공간에 대응되는 공간을 용이하게 촬영할 수 있다.In one embodiment, the second sub-shooting guide (620) may be displayed on the display (200) after a space corresponding to the first sub-shooting guide (610) is captured. The third sub-shooting guide (630) may be displayed on the display (200) after a space corresponding to the second sub-shooting guide (620) is captured. The user (700) may easily capture a space corresponding to a space included in a plurality of filtered images among the real space (600) according to the first to third sub-shooting guides (610, 620, 630) sequentially displayed on the display (200).
도 7d를 참조하면, 일 실시예에서, 적어도 하나의 프로세서(230)는 디스플레이(200)에 복수의 서브 촬영 가이드들을 함께 표시할 수도 있다. 일 실시예에서, 복수의 서브 촬영 가이드들이 디스플레이(200)에 표시됨에 따라, 사용자(700)는 복수의 서브 촬영 가이드들 중 어느 하나의 서브 촬영 가이드를 따라 촬영을 시작하고, 복수의 서브 촬영 가이드들 중 다른 서브 촬영 가이드를 따라 촬영을 종료할 수 있다. 일 실시예에서, 사용자(700)는 현실 공간(600) 중 복수의 서브 촬영 가이드들 중 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간에서 촬영을 시작하고, 복수의 서브 촬영 가이드들 중 다른 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간에서 촬영을 종료할 수 있다. 이때, 촬영은 카메라(210)를 통하여 복수의 프레임들 동안 현실 공간을 촬영하는 동영상 촬영을 의미할 수 있다.Referring to FIG. 7d , in one embodiment, at least one processor (230) may display a plurality of sub-shooting guides together on the display (200). In one embodiment, as the plurality of sub-shooting guides are displayed on the display (200), the user (700) may start shooting by following one of the plurality of sub-shooting guides and end shooting by following another of the plurality of sub-shooting guides. In one embodiment, the user (700) may start shooting in a real space corresponding to a space included in an image corresponding to one of the plurality of sub-shooting guides in the real space (600), and end shooting in a real space corresponding to a space included in an image corresponding to another of the plurality of sub-shooting guides. In this case, shooting may mean video shooting that shoots a real space for a plurality of frames through the camera (210).
일 실시예에서, 적어도 하나의 프로세서(230)는 디스플레이(200)에 표시하는 복수의 서브 촬영 가이드들에 촬영 순서를 함께 표시하여 사용자(700)에게 제공할 수 있다. 일 실시예에서, 사용자(700)는 복수의 서브 촬영 가이드들 중 처음으로 촬영하라는 순서가 표시된 어느 하나의 서브 촬영 가이드에서 촬영을 시작하고, 마지막으로 촬영하라는 순서가 표시된 다른 서브 촬영 가이드에서 촬영을 종료할 수 있다. 적어도 하나의 프로세서(230)는 카메라(210)를 통하여 주변 현실 공간(600) 중 촬영이 시작된 어느 하나의 서브 촬영 가이드에 대응되는 현실 공간부터 촬영이 종료된 다른 서브 촬영 가이드에 대응되는 현실 공간까지의 공간 정보를 획득할 수 있다. 적어도 하나의 프로세서(230)는 카메라(210)를 통하여 현실 공간(600) 중 촬영이 시작된 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간부터 촬영이 종료된 다른 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간까지의 공간 정보를 획득할 수 있다.In one embodiment, at least one processor (230) may display a shooting order together in a plurality of sub-shooting guides displayed on the display (200) and provide the same to the user (700). In one embodiment, the user (700) may start shooting in one of the sub-shooting guides in which the shooting order is indicated first among the plurality of sub-shooting guides, and end shooting in another sub-shooting guide in which the shooting order is indicated last. The at least one processor (230) may obtain spatial information from a real space corresponding to one of the sub-shooting guides in which shooting has started among the surrounding real space (600) through the camera (210) to a real space corresponding to another sub-shooting guide in which shooting has ended. The at least one processor (230) may obtain spatial information from a real space corresponding to a space included in an image corresponding to one of the sub-shooting guides in which shooting has started among the surrounding real space (600) to a real space corresponding to a space included in an image corresponding to another sub-shooting guide in which shooting has ended, through the camera (210).
일 실시예에서, 적어도 하나의 프로세서(230)는 복수의 촬영 이미지들 중 미리 설정된 조건에 따라 복수의 이미지들이 필터링된 경우에, 복수의 이미지들 각각에 대응되는 복수의 서브 촬영 가이드들 중 일부만을 디스플레이(200)를 통하여 표시할 수 있다. 일 실시예에서, 적어도 하나의 프로세서(230)는 필터링된 복수의 이미지들 각각의 GPS 정보에 기초하여, 서로 간의 위치가 가장 많이 이격된 두 장의 이미지들에 대응되는 두 개의 서브 촬영 가이드들을 디스플레이(200)에 표시할 수 있다. 적어도 하나의 프로세서(230)는 필터링된 복수의 이미지들 각각의 특징점 정보에 기초하여, 이미지 내에 서로 중복되지 않은 특징점을 가장 많이 포함한 두 장의 이미지들에 대응되는 두 개의 서브 촬영 가이드들을 디스플레이(200)에 표시할 수 있다. 적어도 하나의 프로세서(230)는 두 개의 서브 촬영 가이드들 중 하나의 서브 촬영 가이드에 처음으로 촬영하라는 순서를 함께 표시하고, 다른 하나의 서브 촬영 가이드에 마지막으로 촬영하라는 순서를 함께 표시할 수 있다. 적어도 하나의 프로세서(230)는 카메라(210)를 통하여 주변 현실 공간(600) 중 촬영이 시작된 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간부터 촬영이 종료된 다른 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간까지의 공간 정보를 획득할 수 있다.In one embodiment, at least one processor (230) may display only some of the plurality of sub-shooting guides corresponding to each of the plurality of images through the display (200) when the plurality of images are filtered according to preset conditions among the plurality of captured images. In one embodiment, at least one processor (230) may display, on the display (200), two sub-shooting guides corresponding to two images whose locations are the most separated from each other based on GPS information of each of the plurality of filtered images. At least one processor (230) may display, on the display (200), two sub-shooting guides corresponding to two images which include the most non-overlapping feature points in the images based on feature point information of each of the plurality of filtered images. At least one processor (230) may display an order to shoot first on one of the two sub-shooting guides and an order to shoot last on the other sub-shooting guide. At least one processor (230) can obtain spatial information from a space corresponding to a space included in an image corresponding to one sub-shooting guide where shooting has started among surrounding real spaces (600) through a camera (210) to a space corresponding to a space included in an image corresponding to another sub-shooting guide where shooting has ended.
일 실시예에서, 도 7d에는 필터링된 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520) 중 서로 중복되지 않은 특징점이 가장 많이 포함된 제1 이미지(500) 및 제3 이미지(520)에 각각 대응되는 제1 서브 촬영 가이드(610) 및 제3 서브 촬영 가이드(630)가 디스플레이(200)에 표시되어 있다. 일 실시예에서, 제1 이미지(500)와 제3 이미지(520)는 위치 상으로 가장 이격되어 있어, 각각의 이미지에 포함된 특징점들 중 중복되지 않은 특징점이 많을 수 있다.In one embodiment, FIG. 7d shows a first sub-capture guide (610) and a third sub-capture guide (630) corresponding to the first image (500) and the third image (520), which contain the most non-overlapping feature points among the filtered first image (500), the second image (510), and the third image (520), respectively, displayed on the display (200). In one embodiment, the first image (500) and the third image (520) are positionally most separated from each other, so that the feature points included in each image may contain the most non-overlapping feature points.
일 실시예에서, 사용자(700)는 표시된 제1 서브 촬영 가이드(610)에서 촬영을 시작하고, 제3 서브 촬영 가이드(630)에서 촬영을 종료할 수 있다. 이를 통하여 적어도 하나의 프로세서(230)는 주변 현실 공간(600) 중 제1 이미지(500)에 포함된 공간과 제3 이미지(520)에 포함된 공간뿐만 아니라, 제1 이미지(500)와 제3 이미지(520) 사이의 공간, 예를 들어 제2 이미지(510)에 포함된 공간에 대한 공간 정보를 획득할 수 있다.In one embodiment, the user (700) can start shooting at the displayed first sub-shooting guide (610) and end shooting at the displayed third sub-shooting guide (630). Through this, at least one processor (230) can obtain spatial information about the space included in the first image (500) and the space included in the third image (520) among the surrounding real space (600), as well as the space between the first image (500) and the third image (520), for example, the space included in the second image (510).
일 실시예에서, 적어도 하나의 프로세서(230)는 제1 서브 촬영 가이드(610)와 제3 서브 촬영 가이드(630)를 연결하는 촬영 가이드 라인(640)을 디스플레이(200)에 표시할 수도 있다. 일 실시예에서, 사용자(700)는 제1 서브 촬영 가이드(610)에서 촬영을 시작하고, 촬영 가이드 라인(640)을 따라 이동하며 제3 서브 촬영 가이드(630)에서 촬영을 종료할 수도 있다. 이때, 촬영 가이드 라인(640)은 제1 서브 촬영 가이드(610)와 제3 서브 촬영 가이드(630) 각각의 대응되는 모서리 간에 이어지도록 생성된 라인일 수 있다. 다만, 본 개시는 이에 제한되지 않고, 촬영 가이드 라인(640)은 필터링된 복수의 이미지들에 포함된 공간에 기초하여, 디스플레이(200)에 표시되지 않은 서브 촬영 가이드(예를 들어, 제2 서브 촬영 가이드(620))에 대응되는 현실 공간을 지나도록 생성된 라인일 수도 있다.In one embodiment, at least one processor (230) may display a shooting guide line (640) connecting the first sub-shooting guide (610) and the third sub-shooting guide (630) on the display (200). In one embodiment, the user (700) may start shooting at the first sub-shooting guide (610), move along the shooting guide line (640), and end shooting at the third sub-shooting guide (630). At this time, the shooting guide line (640) may be a line generated to connect the corresponding edges of each of the first sub-shooting guide (610) and the third sub-shooting guide (630). However, the present disclosure is not limited thereto, and the shooting guide line (640) may be a line generated to pass through a real space corresponding to a sub-shooting guide (for example, the second sub-shooting guide (620)) that is not displayed on the display (200) based on a space included in a plurality of filtered images.
도 8a는 본 개시의 일 실시예에 따른 획득한 공간 정보 및 검출된 적어도 하나의 객체에 기초하여 생성된 콘텐츠를 설명하기 위한 도면이다. 도 8b는 본 개시의 일 실시예에 따른 제어 신호에 기초하여, 콘텐츠 내에서의 검출된 적어도 하나의 객체의 위치, 형상 또는 크기 중 적어도 하나를 결정하는 동작을 설명하기 위한 도면이다.FIG. 8A is a diagram for explaining content generated based on acquired spatial information and at least one detected object according to one embodiment of the present disclosure. FIG. 8B is a diagram for explaining an operation of determining at least one of a position, a shape, or a size of at least one detected object in content based on a control signal according to one embodiment of the present disclosure.
도 2, 도 4, 도 5b 및 도 8a를 참조하면, 일 실시예에서, 도 8a에는 콘텐츠 생성 모듈(227)을 통하여 생성된 콘텐츠(140)가 도시되어 있다. 콘텐츠(140)에는 3D 배경 생성 모듈(440)을 통하여 생성된 3D 공간(800)에 3D 객체 생성 모듈(430)을 통하여 생성된 복수의 3D 객체들(801, 802, 803, 811, 821)이 배치되어 있다.Referring to FIGS. 2, 4, 5B, and 8A, in one embodiment, FIG. 8A illustrates content (140) generated through a content generation module (227). In the content (140), a plurality of 3D objects (801, 802, 803, 811, 821) generated through a 3D object generation module (430) are arranged in a 3D space (800) generated through a 3D background generation module (440).
일 실시예에서, 획득된 공간 정보에는 제1 이미지(500)에 포함된 공간에 대응되는 현실 공간, 제2 이미지(510)에 포함된 공간에 대응되는 현실 공간 및 제3 이미지(520)에 포함된 공간에 대응되는 현실 공간에 대한 정보가 포함될 수 있다. 3D 공간(800)은 획득한 공간 정보에 기초하여, 제1 이미지(500)에 포함된 공간에 대응되는 현실 공간, 제2 이미지(510)에 포함된 공간에 대응되는 현실 공간 및 제3 이미지(520)에 포함된 공간에 대응되는 현실 공간을 3D로 모델링하여 생성된 공간일 수 있다.In one embodiment, the acquired spatial information may include information about a real space corresponding to a space included in the first image (500), a real space corresponding to a space included in the second image (510), and a real space corresponding to a space included in the third image (520). The 3D space (800) may be a space created by modeling the real space corresponding to the space included in the first image (500), the real space corresponding to the space included in the second image (510), and the real space corresponding to the space included in the third image (520) in 3D based on the acquired spatial information.
일 실시예에서, 제1 이미지(500)에서 획득된 제1 사람(501)에 대응되는 제1 사람 3D 객체(801), 애완 동물(502)에 대응되는 애완 동물 3D 객체(802) 및 놀이기구(503)에 대응되는 놀이기구 3D 객체(803)는 3D 공간(800) 중 제1 이미지(500)의 공간에 대응되는 공간에 배치될 수 있다. 제2 이미지(510)에서 획득된 제2 사람(511)에 대응되는 제2 사람 3D 객체(811)는 3D 공간(800) 중 제2 이미지(510)의 공간에 대응되는 공간에 배치될 수 있다. 제3 이미지(520)에서 획득된 제3 사람(521)에 대응되는 제3 사람 3D 객체(821)는 3D 공간(800) 중 제3 이미지(520)의 공간에 대응되는 공간에 배치될 수 있다.In one embodiment, a first person 3D object (801) corresponding to a first person (501) acquired from a first image (500), a pet 3D object (802) corresponding to a pet (502), and an amusement device 3D object (803) corresponding to an amusement device (503) may be placed in a space corresponding to the space of the first image (500) in the 3D space (800). A second person 3D object (811) corresponding to a second person (511) acquired from a second image (510) may be placed in a space corresponding to the space of the second image (510) in the 3D space (800). A third person 3D object (821) corresponding to a third person (521) acquired from a third image (520) may be placed in a space corresponding to the space of the third image (520) in the 3D space (800).
일 실시예에서, 콘텐츠(140)에 포함된 복수의 3D 객체들(801, 802, 803, 811, 821) 각각의 3D 공간(800) 내에서의 위치, 크기 및 형상 등은 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520) 각각의 공간 내에서의 객체 사이의 위치, 크기 및 형상에 의하여 결정될 수 있다.In one embodiment, the position, size, and shape of each of the plurality of 3D objects (801, 802, 803, 811, 821) included in the content (140) within the 3D space (800) may be determined by the position, size, and shape between objects within the space of each of the first image (500), the second image (510), and the third image (520).
일 실시예에서, 3D 공간(800)에 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520) 각각에서 획득된 객체들에 대응되는 제1 사람 3D 객체(801), 애완 동물 3D 객체(802), 놀이기구 3D 객체(803), 제2 사람 3D 객체(811) 및 제3 사람 3D 객체(821)가 배치된 콘텐츠(140)를 생성함에 따라, 사용자(1010)에게 콘텐츠(140)를 통하여 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)를 함께 볼 수 있는 경험을 제공할 수 있다. In one embodiment, by generating content (140) in which a first person 3D object (801), a pet 3D object (802), an amusement device 3D object (803), a second person 3D object (811), and a third person 3D object (821) corresponding to objects acquired from a first image (500), a second image (510), and a third image (520) are arranged in a 3D space (800), it is possible to provide a user (1010) with an experience of viewing the first image (500), the second image (510), and the third image (520) together through the content (140).
일 실시예에서, 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)가 촬영된 날짜가 모두 다른 경우에는, 사용자(1010)에게 여러 기간에 걸쳐 3D 공간(800)에 대응되는 공간에서 발생한 일들에 대한 경험 및 추억을 제공할 수 있다. 일 실시예에서, 제1 사람(501), 제2 사람(511) 및 제3 사람(521)이 모두 동일한 사람인 경우, 본 개시에 의하여 생성되는 콘텐츠(140)에 의하여 사용자(1010)는 긴 시간에 걸쳐 동일한 사람이 3D 공간에 대응되는 공간에서의 활동을 볼 수 있다.In one embodiment, if the first image (500), the second image (510), and the third image (520) are all captured on different dates, the user (1010) may be provided with experiences and memories of events that occurred in the space corresponding to the 3D space (800) over multiple periods of time. In one embodiment, if the first person (501), the second person (511), and the third person (521) are all the same person, the content (140) generated by the present disclosure may allow the user (1010) to view activities of the same person in the space corresponding to the 3D space over a long period of time.
일 실시예에서, 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)가 촬영된 시점(view)이 모두 다른 경우에는, 사용자(1010)에게 3D 공간(800)에 대응되는 공간에서 발생한 일들을 복수의 시점들(views)에서 관찰할 수 있도록 할 수 있다. In one embodiment, if the first image (500), the second image (510), and the third image (520) are all captured at different times (views), the user (1010) may be able to observe events occurring in a space corresponding to the 3D space (800) from multiple times (views).
도 2, 도 4, 도 5b 및 도 8b를 참조하면, 일 실시예에서, 도 8b에는 도 8a와 비교하여 3D 공간(800) 내에서 제1 사람 3D 객체(804)와 애완 동물 3D 객체(805)의 위치가 변경되어 배치되어 있다. 또한, 3D 공간(800) 내에서의 놀이기구(503)의 위치 및 크기가 변경되어 배치되어 있다.Referring to FIGS. 2, 4, 5b and 8b, in one embodiment, in FIG. 8b, the positions of the first person 3D object (804) and the pet 3D object (805) within the 3D space (800) are changed and arranged compared to FIG. 8a. In addition, the position and size of the amusement device (503) within the 3D space (800) are changed and arranged.
일 실시예에서, 콘텐츠(141)에 포함된 3D 공간(800) 내에서의 제1 사람 3D 객체(804)의 위치와 애완 동물 3D 객체(805)의 위치는 제1 이미지(500)의 공간 내에서의 제1 사람(501)의 위치와 애완 동물(502)의 위치와 상이할 수 있다. 콘텐츠(141)에 포함된 3D 공간(800) 내에서의 놀이기구 3D 객체(806)의 위치 및 크기는 제1 이미지(500)의 공간 내에서의 놀이기구(503)의 위치 및 크기와 상이할 수 있다. In one embodiment, the position of the first person 3D object (804) and the position of the pet 3D object (805) within the 3D space (800) included in the content (141) may be different from the position of the first person (501) and the position of the pet (502) within the space of the first image (500). The position and size of the amusement ride 3D object (806) within the 3D space (800) included in the content (141) may be different from the position and size of the amusement ride (503) within the space of the first image (500).
일 실시예에서, 도 8b에 도시된 콘텐츠(141)는 3D 공간(800) 내에서의 복수의 3D 객체들(804, 805, 806, 811, 821)의 위치, 형상 또는 크기 중 적어도 하나에 대한 정보를 포함하는 제어 신호에 기초하여, 3D 공간(800) 내에서의 복수의 3D 객체들(804, 805, 806, 811, 821)의 위치, 형상 또는 크기 중 적어도 하나를 결정하여 생성된 콘텐츠(141)일 수 있다. 일 실시예에서, 사용자(700)는 사용자 인터페이스를 통하여, 3D 공간(800) 내에서 제1 사람 3D 객체(804), 애완 동물 3D 객체(805) 및 놀이기구 3D 객체(806)의 위치 및 크기를 조절하는 사용자 입력을 제공하고, 제어 신호는 획득한 사용자 입력에 기초하여 생성된 신호일 수 있다.In one embodiment, the content (141) illustrated in FIG. 8B may be content (141) generated by determining at least one of the positions, shapes, or sizes of the plurality of 3D objects (804, 805, 806, 811, 821) in the 3D space (800) based on a control signal including information about at least one of the positions, shapes, or sizes of the plurality of 3D objects (804, 805, 806, 811, 821) in the 3D space (800). In one embodiment, a user (700) provides a user input for adjusting the positions and sizes of a first person 3D object (804), a pet 3D object (805), and an amusement device 3D object (806) in the 3D space (800) through a user interface, and the control signal may be a signal generated based on the acquired user input.
일 실시예에서, 콘텐츠(141)에는 복수의 3D 객체들(804, 805, 806, 811, 821) 각각에 표시된 날짜를 포함할 수 있다. 복수의 3D 객체들(804, 805, 806, 811, 821) 각각에 표시된 날짜는 복수의 3D 객체들(804, 805, 806, 811, 821) 각각에 대응되는 객체를 포함하는 이미지가 촬영된 날짜를 의미할 수 있다. 일 실시예에서, 제1 사람 3D 객체(804)에는 제1 사람(501)이 포함된 제1 이미지(500)가 촬영된 날짜(예를 들어, 2021.07)가 표시될 수 있다. 제2 사람 3D 객체(811)에는 제2 사람(511)이 포함된 제2 이미지(510)가 촬영된 날짜(예를 들어, 2018.04)가 표시될 수 있다. 제3 사람 3D 객체(821)에는 제3 사람(521)이 포함된 제3 이미지(520)가 촬영된 날짜(예를 들어, 2017.03)가 표시될 수 있다.In one embodiment, the content (141) may include a date displayed on each of the plurality of 3D objects (804, 805, 806, 811, 821). The date displayed on each of the plurality of 3D objects (804, 805, 806, 811, 821) may mean a date on which an image including an object corresponding to each of the plurality of 3D objects (804, 805, 806, 811, 821) was captured. In one embodiment, the first person 3D object (804) may display a date on which a first image (500) including a first person (501) was captured (e.g., 2021.07). The second person 3D object (811) may display a date on which a second image (510) including a second person (511) was captured (e.g., 2018.04). The third person 3D object (821) may display the date (e.g., 2017.03) on which the third image (520) containing the third person (521) was captured.
일 실시예에서, 사용자(1010)는 사용자 인터페이스를 통하여 입력되는 사용자 입력에 기초한 선택 신호를 통하여 제1 이미지(500), 제2 이미지(510) 및 제3 이미지(520)에서 획득하고자 하는 객체를 선택할 수 있어, 원하는 객체를 포함하는 콘텐츠(140)를 생성할 수 있다.In one embodiment, a user (1010) can select an object to be acquired from the first image (500), the second image (510), and the third image (520) through a selection signal based on user input input through a user interface, thereby generating content (140) including the desired object.
일 실시예에서, 사용자(1010)는 사용자 인터페이스를 통하여 입력되는 사용자 입력에 기초한 제어 신호를 통하여, 3D 공간(800) 내에서의 3D 객체의 위치, 형상 또는 크기 중 적어도 하나를 결정할 수 있어, 원하는 3D 객체의 위치, 형상 또는 크기를 갖는 콘텐츠(140)를 생성할 수 있다.In one embodiment, a user (1010) can determine at least one of a position, shape, or size of a 3D object within a 3D space (800) through a control signal based on user input input through a user interface, thereby generating content (140) having the desired position, shape, or size of the 3D object.
도 9는 본 개시의 일 실시예에 따른 생성된 콘텐츠를 디스플레이에 표시하는 동작을 설명하기 위한 순서도이다. 이하, 도 3c에서 설명한 단계와 동일한 단계에 대하여는 동일한 도면 부호를 부여하고, 중복되는 설명은 생략하도록 한다.FIG. 9 is a flowchart for explaining an operation of displaying generated content on a display according to one embodiment of the present disclosure. Hereinafter, steps identical to those described in FIG. 3c are given the same drawing reference numerals, and redundant descriptions are omitted.
도 2, 도 3c 및 도 9를 참조하면, 일 실시예에서, 전자 장치(100)의 동작 방법은 디스플레이(200)를 통하여, 생성된 콘텐츠를 표시하는 단계(S500)를 포함할 수 있다. 일 실시예에서, 전자 장치(100)의 동작 방법은 콘텐츠를 생성하는 단계(S410) 이후에, 디스플레이(200)를 통하여 생성된 콘텐츠를 표시하는 단계(S500)를 포함할 수 있다.Referring to FIGS. 2, 3c, and 9, in one embodiment, the operating method of the electronic device (100) may include a step (S500) of displaying generated content through the display (200). In one embodiment, the operating method of the electronic device (100) may include a step (S500) of displaying generated content through the display (200) after the step (S410) of generating content.
일 실시예에서, 적어도 하나의 프로세서(230)는 콘텐츠 제공 모듈의 명령어들 또는 프로그램 코드를 실행함으로서 생성된 콘텐츠를 디스플레이(200)에 표시할 수 있다. In one embodiment, at least one processor (230) can display content generated by executing instructions or program code of a content providing module on a display (200).
도 10은 본 개시의 일 실시예에 따른 모바일 디바이스 형태의 전자 장치에 생성된 콘텐츠를 표시하는 동작을 설명하기 위한 도면이다.FIG. 10 is a diagram for explaining an operation of displaying content generated on an electronic device in the form of a mobile device according to one embodiment of the present disclosure.
도 2, 도 8a, 도 9 및 도 10을 참조하면, 일 실시예에서, 모바일 디바이스 형태의 전자 장치(1000)는 생성된 콘텐츠(140)를 디스플레이에 표시하여 사용자(1010)에게 제공할 수 있다. 사용자(1010)는 전자 장치(1000)를 통하여 콘텐츠(140)를 제공받을 수 있다. 사용자(1010)는 모바일 디바이스 형태의 전자 장치(1000)를 손으로 쥐고, 디스플레이에 표시되는 콘텐츠(140)를 볼 수 있다. Referring to FIGS. 2, 8A, 9, and 10, in one embodiment, an electronic device (1000) in the form of a mobile device can display generated content (140) on a display and provide it to a user (1010). The user (1010) can receive the content (140) through the electronic device (1000). The user (1010) can hold the electronic device (1000) in the form of a mobile device in his/her hand and view the content (140) displayed on the display.
일 실시예에서, 콘텐츠(140)가 3D 배경과 3D 객체를 포함하는 경우, 사용자(1010)는 전자 장치(1000)의 위치를 변경하여 디스플레이에 표시되는 콘텐츠(140)의 관찰되는 시점을 변경할 수 있다. 일 실시예에서, 사용자(1010)는 전자 장치(1000)를 위, 아래, 오른쪽 혹은 왼쪽으로 움직여 디스플레이에 표시되는 콘텐츠(140)에 포함된 3D 배경과 3D 객체의 관찰되는 시점을 변경할 수 있다.In one embodiment, when the content (140) includes a 3D background and a 3D object, the user (1010) can change the viewing point of the content (140) displayed on the display by changing the position of the electronic device (1000). In one embodiment, the user (1010) can change the viewing point of the 3D background and the 3D object included in the content (140) displayed on the display by moving the electronic device (1000) up, down, right, or left.
일 실시예에서, 도 10에 기재된 전자 장치(1000)는 도 1 내지 도 8b에 기재된, 콘텐츠(140)를 생성하는 전자 장치(100)와 동일한 전자 장치이거나, 혹은 다른 전자 장치일 수도 있다. 일 실시예에서, 도 10에 기재된 전자 장치(1000)가 콘텐츠(140)를 생성하는 전자 장치(100)와 동일한 전자 장치인 경우, 사용자(1010)는 콘텐츠(140)를 생성하는 과정에서는 카메라(210)를 통하여 현실 공간을 촬영하는 동작을 수행할 수 있다. 그 후, 사용자(1010)는 생성된 콘텐츠(140)를 제공받는 경우, 카메라(210)를 통하여 현실 공간을 촬영하지 않고도 콘텐츠(140)를 통하여 3D 공간 및 3D 객체를 볼 수 있다.In one embodiment, the electronic device (1000) described in FIG. 10 may be the same electronic device as the electronic device (100) that generates the content (140) described in FIGS. 1 to 8B, or may be a different electronic device. In one embodiment, if the electronic device (1000) described in FIG. 10 is the same electronic device as the electronic device (100) that generates the content (140), the user (1010) may perform an operation of photographing a real space through the camera (210) in the process of generating the content (140). Thereafter, when the user (1010) is provided with the generated content (140), the user (1010) may view a 3D space and a 3D object through the content (140) without photographing the real space through the camera (210).
일 실시예에서, 도 10에 기재된 전자 장치(1000)가 콘텐츠(140)를 생성하는 전자 장치(100)와 다른 전자 장치인 경우, 도 10에 기재된 전자 장치(1000)는 전자 장치(100)로부터 생성된 콘텐츠(140)를 제공받아 사용자(1010)에게 제공할 수 있다.In one embodiment, if the electronic device (1000) described in FIG. 10 is a different electronic device from the electronic device (100) that generates the content (140), the electronic device (1000) described in FIG. 10 can receive the content (140) generated from the electronic device (100) and provide it to the user (1010).
일 실시예에서, 적어도 하나의 이미지들이 특징 위치를 기준으로 복수의 촬영 이미지들로부터 필터링 된 경우, 촬영 가이드는 전자 장치(100)를 사용하는 사용자가 필터링된 적어도 하나의 이미지들이 촬영된 위치(예를 들어, 특정 위치)와 인접한 위치에 위치할 때 디스플레이(200)에 표시될 수 있다. 또한, 촬영 가이드는 사용자가 본 개시에 따른 콘텐츠(140)를 생성하기 위한 프로그램 또는 어플리케이션(application) 등을 실행할 때 디스플레이(200)에 표시될 수도 있다.In one embodiment, when at least one image is filtered from a plurality of captured images based on a feature location, a shooting guide may be displayed on the display (200) when a user using the electronic device (100) is located at a location adjacent to a location (e.g., a specific location) where at least one of the filtered images was captured. In addition, the shooting guide may be displayed on the display (200) when a user executes a program or application for generating content (140) according to the present disclosure.
또한, 촬영 가이드는 전자 장치(100)를 사용하는 사용자가 필터링된 적어도 하나의 이미지들이 촬영된 특정 위치로부터 다른 위치에 위치하더라도, 디스플레이(200)에 표시되어 사용자에게 제공될 수 있다. 이 경우, 촬영 가이드는 사용자가 특정 위치로 이동하여 촬영 가이드에 따라 주변 현실 공간을 촬영하도록 할 수 있으므로, 특정 위치에 위치한 상점, 관광지, 물건, 전시회, 콘서트 등을 광고하기 위하여 사용될 수도 있다.Additionally, the shooting guide can be provided to the user by being displayed on the display (200) even when the user using the electronic device (100) is located at a different location from the specific location where at least one filtered image was captured. In this case, the shooting guide can enable the user to move to the specific location and capture the surrounding real space according to the shooting guide, and thus can be used to advertise stores, tourist attractions, objects, exhibitions, concerts, etc. located at the specific location.
도 11은 본 개시의 일 실시예에 따른 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태의 전자 장치에 생성된 콘텐츠를 표시하는 동작을 설명하기 위한 도면이다.FIG. 11 is a drawing for explaining an operation of displaying content generated on an electronic device in the form of a head mounted display (HMD) according to one embodiment of the present disclosure.
도 2, 도 8a, 도 9 및 도 11을 참조하면, 일 실시예에서, 헤드 마운티드 디스플레이 형태의 전자 장치(1100)는 생성된 콘텐츠(140)를 디스플레이에 표시하여 사용자(1110)에게 제공할 수 있다. 사용자(1110)는 전자 장치(1100)를 통하여 콘텐츠(140)를 제공받을 수 있다. 사용자(1110)는 헤드 마운티드 디스플레이 형태의 전자 장치(1100)를 두부(頭部)에 착용한 상태에서, 디스플레이에 표시되는 콘텐츠(140)를 볼 수 있다. Referring to FIGS. 2, 8A, 9, and 11, in one embodiment, an electronic device (1100) in the form of a head-mounted display can display generated content (140) on a display and provide it to a user (1110). The user (1110) can receive the content (140) through the electronic device (1100). The user (1110) can view the content (140) displayed on the display while wearing the electronic device (1100) in the form of a head-mounted display on his/her head.
일 실시예에서, 콘텐츠(140)가 3D 배경과 3D 객체를 포함하는 경우, 사용자(1110)는 전자 장치(1100)를 착용한 두부의 위치를 변경하여 디스플레이에 표시되는 콘텐츠(140)의 관찰되는 시점을 변경할 수 있다. 일 실시예에서, 사용자(1010)는 머리를 위, 아래, 왼쪽 혹은 오른쪽으로 움직이거나, 혹은 회전하여 디스플레이에 표시되는 콘텐츠(140)에 포함된 3D 배경과 3D 객체의 관찰되는 시점을 변경할 수 있다.In one embodiment, when the content (140) includes a 3D background and a 3D object, the user (1110) can change the viewing point of the content (140) displayed on the display by changing the position of the head wearing the electronic device (1100). In one embodiment, the user (1010) can change the viewing point of the 3D background and the 3D object included in the content (140) displayed on the display by moving the head up, down, left, or right, or by rotating the head.
일 실시예에서, 도 11에 기재된 전자 장치(1100)는 도 1 내지 도 8b에 기재된, 콘텐츠(140)를 생성하는 전자 장치(100)와 동일한 전자 장치이거나, 혹은 다른 전자 장치일 수도 있다. 일 실시예에서, 도 11에 기재된 전자 장치(1100)가 콘텐츠(140)를 생성하는 전자 장치(100)와 동일한 전자 장치인 경우, 사용자(1110)는 콘텐츠(140)를 생성하는 과정에서는 카메라(210)를 통하여 현실 공간을 촬영하는 동작을 수행할 수 있다. 콘텐츠(140)가 생성됨에 따라, 사용자(1100)는 카메라(210)를 통하여 현실 공간을 촬영하지 않고도 콘텐츠(140)를 통하여 3D 공간 및 3D 객체를 볼 수 있다.In one embodiment, the electronic device (1100) described in FIG. 11 may be the same electronic device as the electronic device (100) that generates the content (140) described in FIGS. 1 to 8B, or may be a different electronic device. In one embodiment, if the electronic device (1100) described in FIG. 11 is the same electronic device as the electronic device (100) that generates the content (140), the user (1110) may perform an operation of photographing a real space through the camera (210) in the process of generating the content (140). As the content (140) is generated, the user (1100) may view a 3D space and a 3D object through the content (140) without photographing the real space through the camera (210).
일 실시예에서, 도 11에 기재된 전자 장치(1100)가 콘텐츠(140)를 생성하는 전자 장치(100)와 다른 전자 장치인 경우, 도 11에 기재된 전자 장치(1100)는 전자 장치(100)로부터 생성된 콘텐츠(140)를 제공받아 사용자(1110)에게 제공할 수 있다.In one embodiment, if the electronic device (1100) described in FIG. 11 is a different electronic device from the electronic device (100) that generates the content (140), the electronic device (1100) described in FIG. 11 can receive the content (140) generated from the electronic device (100) and provide it to the user (1110).
도 10 및 도 11에는 모바일 디바이스 형태 및 헤드 마운티드 디스플레이 형태의 전자 장치를 이용하여 사용자에게 콘텐츠를 제공하는 것을 도시하였으나, 본 개시는 이에 제한되지 않는다. 본 개시에 따른 콘텐츠(140)의 생성 및 생성된 콘텐츠(140)를 제공하는 전자 장치는 다양한 형상을 포함할 수 있고, 어느 하나로 제한되지 않는다.Although FIGS. 10 and 11 illustrate providing content to a user using an electronic device in the form of a mobile device and a head-mounted display, the present disclosure is not limited thereto. The electronic device for generating content (140) and providing the generated content (140) according to the present disclosure may include various shapes and is not limited to any one.
상술한 기술적 과제를 해결하기 위하여, 일 실시예에서, 전자 장치를 제공한다. 전자 장치는 카메라를 포함할 수 있다. 전자 장치는 디스플레이를 포함할 수 있다. 전자 장치는 적어도 하나의 명령어(instruction)를 저장하는 메모리 및 메모리에 저장된 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서를 포함할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 메모리에 저장된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 획득할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 디스플레이를 통하여 적어도 하나의 이미지에 기초한 촬영 가이드를 표시할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 카메라를 통하여 표시된 촬영 가이드를 따라 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 공간 정보를 획득할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 획득된 공간 정보 및 획득된 적어도 하나의 객체에 기초하여 콘텐츠를 생성할 수 있다. In order to solve the above-described technical problem, in one embodiment, an electronic device is provided. The electronic device may include a camera. The electronic device may include a display. The electronic device may include a memory storing at least one instruction and at least one processor executing at least one instruction stored in the memory. The at least one processor may obtain at least one preset object from at least one image stored in the memory by executing the at least one instruction. The at least one processor may display a shooting guide based on the at least one image through the display by executing the at least one instruction. The at least one processor may obtain spatial information by photographing a real space corresponding to a space included in the at least one image along the shooting guide displayed through the camera by executing the at least one instruction. The at least one processor may generate content based on the obtained spatial information and the obtained at least one object by executing the at least one instruction.
일 실시예에서 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 획득된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 3D 객체를 생성할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 획득된 공간 정보에 기초하여 3D 공간을 생성할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 생성된 3D 공간에 생성된 적어도 하나의 3D 객체가 배치된 콘텐츠를 생성할 수 있다. In one embodiment, at least one processor can generate at least one 3D object corresponding to each of the acquired at least one object by executing at least one command. At least one processor can generate a 3D space based on the acquired spatial information by executing at least one command. At least one processor can generate content in which at least one 3D object generated is placed in the generated 3D space by executing at least one command.
일 실시예에서, 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써 생성된 3D 공간 내에서의 생성된 적어도 하나의 3D 객체의 위치, 형상 또는 크기 중 적어도 하나에 대한 정보를 포함하는 제어 신호를 획득할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 획득된 제어 신호에 기초하여 생성된 3D 공간 내에서의 생성된 적어도 하나의 3D 객체의 위치, 형상 또는 크기 중 적어도 하나를 결정하여 콘텐츠를 생성할 수 있다.In one embodiment, at least one processor can obtain a control signal including information about at least one of a position, a shape, or a size of at least one generated 3D object within the generated 3D space by executing at least one command. At least one processor can generate content by determining at least one of a position, a shape, or a size of at least one generated 3D object within the generated 3D space based on the obtained control signal by executing at least one command.
일 실시예에서, 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 적어도 하나의 이미지에 포함된 적어도 하나의 객체를 선택하는 선택 신호를 획득할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 획득된 선택 신호에 기초하여 적어도 하나의 이미지로부터 선택 신호에 포함된 적어도 하나의 객체를 획득할 수 있다.In one embodiment, at least one processor can obtain a selection signal for selecting at least one object included in at least one image by executing at least one command. At least one processor can obtain at least one object included in the selection signal from at least one image based on the obtained selection signal by executing at least one command.
일 실시예에서, 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 메모리에 저장된 복수의 촬영 이미지들로부터 미리 설정된 조건에 따라 적어도 하나의 이미지를 필터링(filtering)할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 필터링된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 획득할 수 있다.In one embodiment, at least one processor can filter at least one image from a plurality of captured images stored in a memory according to a preset condition by executing at least one command. At least one processor can obtain at least one preset object from the at least one filtered image by executing at least one command.
일 실시예에서, 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 디스플레이를 통하여 카메라를 통하여 촬영되는 현실 공간을 표시할 수 잇다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 디스플레이를 통하여 적어도 하나의 이미지를 촬영 가이드로서 표시할 수 있다.In one embodiment, at least one processor can display a real space captured by a camera through a display by executing at least one command. At least one processor can display at least one image as a shooting guide through the display by executing at least one command.
일 실시예에서, 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써 디스플레이를 통하여 촬영 가이드를 현실 공간과 중첩되도록 표시할 수 있다. 촬영 가이드는 반투명(translucent)하여 중첩되는 현실 공간과 함께 디스플레이에 표시될 수 있다.In one embodiment, at least one processor may execute at least one instruction to display a shooting guide overlapping a real space through a display. The shooting guide may be translucent and may be displayed on the display together with the overlapping real space.
일 실시예에서, 적어도 하나의 이미지는 복수의 이미지들을 포함할 수 있다. 촬영 가이드는 복수의 이미지들에 각각 대응되는 복수의 서브 촬영 가이드들을 포함할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 디스플레이를 통하여 복수의 서브 촬영 가이드들을 순차적으로 표시할 수 있다. 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써, 카메라를 통하여 디스플레이에 순차적으로 표시되는 복수의 서브 촬영 가이드들 중 어느 하나의 서브 촬영 가이드를 따라 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 서브 공간 정보를 획득할 수 있다. 공간 정보는 복수의 서브 촬영 가이드들 각각을 따라 생성된 복수의 서브 공간 정보들을 포함할 수 있다.In one embodiment, at least one image may include a plurality of images. The shooting guide may include a plurality of sub-shooting guides corresponding to the plurality of images, respectively. At least one processor may sequentially display the plurality of sub-shooting guides through the display by executing at least one command. At least one processor may acquire sub-space information by shooting a real space corresponding to a space included in an image corresponding to one of the sub-shooting guides, along one of the plurality of sub-shooting guides sequentially displayed on the display, through the camera, by executing at least one command. The spatial information may include a plurality of pieces of sub-space information generated along each of the plurality of sub-shooting guides.
일 실시예에서, 상기 복수의 서브 공간 정보들은 디스플레이에 복수의 서브 촬영 가이드들 중 어느 하나의 서브 촬영 가이드가 표시됨에 따라, 카메라를 통하여 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 공간에서 촬영을 시작하고, 디스플레이에 복수의 서브 촬영 가이드들 중 다른 서브 촬영 가이드가 표시됨에 따라, 카메라를 통하여 다른 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 공간에서 촬영을 종료하여 획득된 공간 정보일 수 있다.In one embodiment, the plurality of sub-space information may be space information obtained by starting shooting in a space corresponding to a space included in an image corresponding to one of the plurality of sub-shooting guides through the camera as one of the plurality of sub-shooting guides is displayed on the display, and ending shooting in a space corresponding to a space included in an image corresponding to another sub-shooting guide through the camera as another of the plurality of sub-shooting guides is displayed on the display.
일 실시예에서, 적어도 하나의 프로세서는 적어도 하나의 명령어를 실행함으로써 디스플레이를 통하여 생성된 콘텐츠를 표시할 수 있다.In one embodiment, at least one processor may display content generated through a display by executing at least one instruction.
상술한 기술적 과제를 해결하기 위하여 본 개시의 일 실시예는 전자 장치의 동작 방법을 제공한다. 전자 장치의 동작 방법은 메모리에 저장된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 획득하는 단계를 포함할 수 있다. 전자 장치의 동작 방법은 디스플레이를 통하여 적어도 하나의 이미지에 기초한 촬영 가이드를 표시하는 단계를 포함할 수 있다. 전자 장치의 동작 방법은 카메라를 통하여 표시된 촬영 가이드를 따라 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 생성된 공간 정보를 획득하는 단계를 포함할 수 있다. 전자 장치의 동작 방법은 획득된 공간 정보 및 획득된 적어도 하나의 객체에 기초하여 콘텐츠를 생성하는 단계를 포함할 수 있다.In order to solve the above-described technical problem, one embodiment of the present disclosure provides an operating method of an electronic device. The operating method of the electronic device may include a step of acquiring at least one preset object from at least one image stored in a memory. The operating method of the electronic device may include a step of displaying a shooting guide based on the at least one image through a display. The operating method of the electronic device may include a step of acquiring spatial information generated by shooting a real space corresponding to a space included in the at least one image along the displayed shooting guide through a camera. The operating method of the electronic device may include a step of generating content based on the acquired spatial information and the acquired at least one object.
일 실시예에서, 전자 장치의 동작 방법은 획득된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 3D 객체를 생성하는 단계를 포함할 수 있다. 전자 장치의 동작 방법은 획득된 공간 정보에 기초하여 3D 공간을 생성하는 단계를 포함할 수 있다. 콘텐츠를 생성하는 단계에서는, 생성된 3D 공간에 생성된 적어도 하나의 3D 객체가 배치하여 콘텐츠를 생성할 수 있다.In one embodiment, the method of operating the electronic device may include a step of generating at least one 3D object corresponding to each of the acquired at least one object. The method of operating the electronic device may include a step of generating a 3D space based on the acquired spatial information. In the step of generating content, the content may be generated by arranging the generated at least one 3D object in the generated 3D space.
일 실시예에서, 전자 장치의 동작 방법은 적어도 하나의 이미지에 포함된 적어도 하나의 객체를 선택하는 선택 신호를 획득하는 단계를 포함할 수 있다. 전자 장치의 동작 방법은 획득된 선택 신호에 기초하여, 적어도 하나의 이미지로부터 선택 신호에 포함된 적어도 하나의 객체를 획득하는 단계를 포함할 수 있다.In one embodiment, a method of operating an electronic device may include a step of obtaining a selection signal for selecting at least one object included in at least one image. The method of operating the electronic device may include a step of obtaining at least one object included in the selection signal from at least one image based on the obtained selection signal.
일 실시예에서, 전자 장치의 동작 방법은 메모리에 저장된 복수의 촬영 이미지들로부터 미리 설정된 조건에 따라 적어도 하나의 이미지를 필터링(filtering) 하는 단계를 포함할 수 있다. 전자 장치의 동작 방법은 필터링된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 획득하는 단계를 포함할 수 있다.In one embodiment, a method of operating an electronic device may include a step of filtering at least one image from a plurality of captured images stored in a memory according to a preset condition. The method of operating the electronic device may include a step of obtaining at least one preset object from the at least one filtered image.
일 실시예에서, 전자 장치의 동작 방법은 디스플레이를 통하여 카메라를 통하여 촬영되는 현실 공간을 표시하는 단계를 포함할 수 있다. 디스플레이를 통하여 촬영 가이드를 표시하는 단계에서는, 디스플레이를 통하여 적어도 하나의 이미지를 촬영 가이드로서 표시할 수 있다.In one embodiment, a method of operating an electronic device may include a step of displaying a real space captured by a camera through a display. In the step of displaying a shooting guide through the display, at least one image may be displayed as a shooting guide through the display.
일 실시예에서, 디스플레이를 통하여 촬영 가이드를 표시하는 단계에서는 디스플레이를 통하여 촬영 가이드를 현실 공간과 중첩되도록 표시할 수 있다. 촬영 가이드는 반투명(translucent)하여 중첩되는 현실 공간과 함께 디스플레이에 표시될 수 있다.In one embodiment, in the step of displaying the shooting guide through the display, the shooting guide may be displayed through the display so as to be superimposed on the real space. The shooting guide may be translucent and displayed on the display together with the overlapping real space.
일 실시예에서, 적어도 하나의 이미지는 복수의 이미지들을 포함할 수 있다. 촬영 가이드는 복수의 이미지들에 각각 대응되는 복수의 서브 촬영 가이드들을 포함할 수 있다. 디스플레이를 통하여 촬영 가이드를 표시하는 단계에서는, 디스플레이를 통하여 복수의 서브 촬영 가이드들을 순차적으로 표시할 수 있다. 공간 정보를 획득하는 단계에서는, 카메라를 통하여 디스플레이에 순차적으로 표시되는 복수의 서브 촬영 가이드들 중 어느 하나의 서브 촬영 가이드를 따라, 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 서브 공간 정보를 획득할 수 있다. 공간 정보는 복수의 서브 촬영 가이드들 각각에 따라 생성된 복수의 서브 공간 정보들을 포함할 수 있다.In one embodiment, at least one image may include a plurality of images. The shooting guide may include a plurality of sub-shooting guides corresponding to the plurality of images, respectively. In the step of displaying the shooting guide through the display, the plurality of sub-shooting guides may be sequentially displayed through the display. In the step of obtaining spatial information, a real space corresponding to a space included in an image corresponding to one of the sub-shooting guides may be photographed along one of the plurality of sub-shooting guides sequentially displayed on the display through the camera, thereby obtaining sub-space information. The spatial information may include a plurality of pieces of sub-space information generated according to each of the plurality of sub-shooting guides.
일 실시예에서, 공간 정보를 획득하는 단계는 디스플레이 상에 복수의 서브 촬영 가이드들 중 어느 하나의 서브 촬영 가이드가 표시됨에 따라, 카메라를 통하여 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간에서 촬영을 시작하는 단계를 포함할 수 있다. 공간 정보를 획득하는 단계는 디스플레이 상에 복수의 서브 촬영 가이드들 중 다른 서브 촬영 가이드가 표시됨에 따라, 카메라를 통하여 다른 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간에서 촬영을 종료하여 복수의 서브 공간 정보들을 획득하는 단계를 포함할 수 있다.In one embodiment, the step of obtaining spatial information may include a step of starting to photograph in a real space corresponding to a space included in an image corresponding to one of the plurality of sub-shooting guides through the camera as one of the plurality of sub-shooting guides is displayed on the display. The step of obtaining spatial information may include a step of terminating to photograph in a real space corresponding to a space included in an image corresponding to another sub-shooting guide through the camera as another of the plurality of sub-shooting guides is displayed on the display, thereby obtaining a plurality of pieces of sub-space information.
일 실시예에서, 전자 장치의 동작 방법은 디스플레이를 통하여 생성된 콘텐츠를 표시하는 단계를 포함할 수 있다. In one embodiment, a method of operating an electronic device may include displaying generated content via a display.
상술한 기술적 과제를 해결하기 위하여, 일 실시예에서 개시된 전자 장치의 동작 방법의 실시예 중 적어도 하나의 방법을 컴퓨터에서 수행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다.In order to solve the above-described technical problem, a computer-readable recording medium having recorded thereon a program for performing at least one method of an operating method of an electronic device disclosed in one embodiment on a computer can be provided.
본 개시에서 설명된 전자 장치에 의해 실행되는 프로그램은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 프로그램은 컴퓨터로 읽을 수 있는 명령어들을 수행할 수 있는 모든 시스템에 의해 수행될 수 있다.The program executed by the electronic device described in the present disclosure may be implemented as hardware components, software components, and/or a combination of hardware components and software components. The program may be executed by any system capable of executing computer-readable instructions.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령어(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing device to perform a desired operation or may independently or collectively command the processing device.
소프트웨어는, 컴퓨터로 읽을 수 있는 저장 매체(computer-readable storage media)에 저장된 명령어를 포함하는 컴퓨터 프로그램으로 구현될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체로는, 예를 들어 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 기록 매체는 컴퓨터에 의해 판독 가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.The software may be implemented as a computer program including instructions stored on a computer-readable storage medium. Examples of the computer-readable storage medium include magnetic storage media (e.g., read-only memory (ROM), random-access memory (RAM), floppy disks, hard disks, etc.) and optical readable media (e.g., CD-ROMs, DVDs (Digital Versatile Discs)). The computer-readable storage medium may be distributed across network-connected computer systems so that the computer-readable code may be stored and executed in a distributed manner. The storage medium may be readable by a computer, stored in a memory, and executed by a processor.
컴퓨터로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.A computer-readable storage medium may be provided in the form of a non-transitory storage medium. Here, the term "non-transitory storage medium" means only that it is a tangible device and does not contain signals (e.g., electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently in the storage medium and cases where data is stored temporarily. For example, a "non-transitory storage medium" may include a buffer in which data is temporarily stored.
또한, 본 명세서에 개시된 실시예들에 따른 프로그램은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. In addition, a program according to the embodiments disclosed in this specification may be provided as a computer program product. The computer program product may be traded between sellers and buyers as a commodity.
컴퓨터 프로그램 제품은 소프트웨어 프로그램, 소프트웨어 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치(100)의 제조사 또는 전자 마켓(예를 들어, 삼성 갤럭시 스토어)을 통해 전자적으로 배포되는 소프트웨어 프로그램 형태의 상품(예를 들어, 다운로드 가능한 애플리케이션(downloadable application))을 포함할 수 있다. 전자적 배포를 위하여, 소프트웨어 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 전자 장치(100)의 제조사의 서버, 전자 마켓의 서버, 또는 소프트웨어 프로그램을 임시적으로 저장하는 중계 서버의 저장 매체가 될 수 있다.The computer program product may include a software program, a computer-readable storage medium having the software program stored thereon. For example, the computer program product may include a product in the form of a software program (e.g., a downloadable application) distributed electronically by a manufacturer of the electronic device (100) or through an electronic market (e.g., Samsung Galaxy Store). For electronic distribution, at least a portion of the software program may be stored in a storage medium or temporarily generated. In this case, the storage medium may be a storage medium of a server of the manufacturer of the electronic device (100), a server of the electronic market, or a relay server that temporarily stores the software program.
Claims (20)
카메라(210);
디스플레이(200);
적어도 하나의 명령어(instruction)를 저장하는 메모리(220); 및
상기 메모리(220)에 저장된 상기 적어도 하나의 명령어를 실행하는 적어도 하나의 프로세서(230)를 포함하고,
상기 적어도 하나의 프로세서(230)는 상기 적어도 하나의 명령어를 실행함으로써,
상기 메모리(220)에 저장된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 획득하고,
상기 디스플레이(200)를 통하여, 상기 적어도 하나의 이미지에 기초한 촬영 가이드(131)를 표시하고,
상기 카메라(210)를 통하여, 상기 표시된 촬영 가이드(131)를 따라 상기 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간(132)을 촬영하여 공간 정보를 획득하고,
상기 획득된 공간 정보 및 상기 획득된 적어도 하나의 객체에 기초하여 콘텐츠(140)를 생성하는 전자 장치(100).In an electronic device (100),
Camera (210);
display (200);
A memory (220) storing at least one instruction; and
At least one processor (230) that executes at least one command stored in the memory (220),
The at least one processor (230) executes the at least one instruction,
Obtaining at least one preset object from at least one image stored in the above memory (220),
Through the above display (200), a shooting guide (131) based on at least one image is displayed,
Through the above camera (210), spatial information is acquired by photographing a real space (132) corresponding to a space included in at least one image along the above-mentioned photographing guide (131),
An electronic device (100) that generates content (140) based on the acquired spatial information and at least one acquired object.
상기 적어도 하나의 프로세서(230)는 상기 적어도 하나의 명령어를 실행함으로써,
상기 획득된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 3D 객체를 생성하고,
상기 획득된 공간 정보에 기초하여 3D 공간을 생성하고,
상기 생성된 3D 공간에 상기 생성된 적어도 하나의 3D 객체가 배치된 상기 콘텐츠(140)를 생성하는 전자 장치(100).In the first paragraph,
The at least one processor (230) executes the at least one instruction,
Generating at least one 3D object corresponding to at least one object obtained above,
Generate a 3D space based on the acquired spatial information,
An electronic device (100) that generates the content (140) in which at least one 3D object generated is placed in the generated 3D space.
상기 적어도 하나의 프로세서(230)는 상기 적어도 하나의 명령어를 실행함으로써,
상기 생성된 3D 공간 내에서의 상기 생성된 적어도 하나의 3D 객체의 위치, 형상 또는 크기 중 적어도 하나에 대한 정보를 포함하는 제어 신호를 획득하고,
상기 획득된 제어 신호에 기초하여, 상기 생성된 3D 공간 내에서의 상기 생성된 적어도 하나의 3D 객체의 위치, 형상 또는 크기 중 적어도 하나를 결정하여 상기 콘텐츠(140)를 생성하는 전자 장치(100).In the second paragraph,
The at least one processor (230) executes the at least one instruction,
Obtaining a control signal including information on at least one of the position, shape, or size of at least one generated 3D object within the generated 3D space,
An electronic device (100) that generates the content (140) by determining at least one of the position, shape, or size of at least one generated 3D object within the generated 3D space based on the acquired control signal.
상기 적어도 하나의 프로세서(230)는 상기 적어도 하나의 명령어를 실행함으로써,
상기 적어도 하나의 이미지에 포함된 적어도 하나의 객체를 선택하는 선택 신호를 획득하고,
상기 획득된 선택 신호에 기초하여, 상기 적어도 하나의 이미지로부터 상기 선택 신호에 포함된 상기 적어도 하나의 객체를 획득하는 전자 장치(100).In any one of claims 1 to 3,
The at least one processor (230) executes the at least one instruction,
Obtaining a selection signal for selecting at least one object included in at least one image,
An electronic device (100) that acquires at least one object included in the selection signal from at least one image based on the acquired selection signal.
상기 적어도 하나의 프로세서(230)는 상기 적어도 하나의 명령어를 실행함으로써,
상기 메모리(220)에 저장된 복수의 촬영 이미지들로부터 미리 설정된 조건에 따라 상기 적어도 하나의 이미지를 필터링(filtering)하고,
상기 필터링된 적어도 하나의 이미지로부터 상기 미리 설정된 적어도 하나의 객체를 획득하는 전자 장치(100).In any one of claims 1 to 4,
The at least one processor (230) executes the at least one instruction,
Filtering at least one image from a plurality of captured images stored in the above memory (220) according to preset conditions,
An electronic device (100) for obtaining at least one preset object from at least one filtered image.
상기 적어도 하나의 프로세서(230)는 상기 적어도 하나의 명령어를 실행함으로써,
상기 디스플레이(200)를 통하여, 상기 카메라(210)를 통하여 촬영되는 상기 현실 공간을 표시하고,
상기 디스플레이(200)를 통하여, 상기 적어도 하나의 이미지를 상기 촬영 가이드(131)로서 표시하는 전자 장치(100).In any one of claims 1 to 5,
The at least one processor (230) executes the at least one instruction,
Through the above display (200), the real space captured through the camera (210) is displayed,
An electronic device (100) that displays at least one image as a shooting guide (131) through the display (200).
상기 적어도 하나의 프로세서(230)는 상기 적어도 하나의 명령어를 실행함으로써,
상기 디스플레이(200)를 통하여 상기 촬영 가이드(131)를 상기 현실 공간과 중첩되도록 표시하고,
상기 촬영 가이드(131)는 반투명(translucent)하여 상기 중첩되는 현실 공간과 함께 상기 디스플레이(200)에 표시되는 전자 장치(100).In Article 6,
The at least one processor (230) executes the at least one instruction,
The shooting guide (131) is displayed so as to overlap with the real space through the display (200).
The above shooting guide (131) is an electronic device (100) that is translucent and displayed on the display (200) together with the overlapping real space.
상기 적어도 하나의 이미지는 복수의 이미지들을 포함하고,
상기 촬영 가이드(131)는 상기 복수의 이미지들에 각각 대응되는 복수의 서브 촬영 가이드들을 포함하고,
상기 적어도 하나의 프로세서(230)는 상기 적어도 하나의 명령어를 실행함으로써,
상기 디스플레이(200)를 통하여 상기 복수의 서브 촬영 가이드들을 순차적으로 표시하고,
상기 카메라(210)를 통하여, 상기 디스플레이(200)에 순차적으로 표시되는 상기 복수의 서브 촬영 가이드들 중 어느 하나의 서브 촬영 가이드를 따라, 상기 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 서브 공간 정보를 획득하고,
상기 공간 정보는, 상기 복수의 서브 촬영 가이드들 각각을 따라 생성된 복수의 서브 공간 정보들을 포함하는 전자 장치(100).In any one of claims 1 to 7,
wherein at least one image comprises a plurality of images,
The above shooting guide (131) includes a plurality of sub shooting guides each corresponding to the plurality of images,
The at least one processor (230) executes the at least one instruction,
The plurality of sub-shooting guides are sequentially displayed through the above display (200),
Through the camera (210), the real space corresponding to the space included in the image corresponding to one of the plurality of sub-shooting guides sequentially displayed on the display (200) is photographed to obtain sub-space information, following one of the sub-shooting guides among the plurality of sub-shooting guides.
An electronic device (100) wherein the above spatial information includes a plurality of sub-spatial information generated along each of the plurality of sub-shooting guides.
상기 복수의 서브 공간 정보들은,
상기 디스플레이(200)에 상기 복수의 서브 촬영 가이드들 중 상기 어느 하나의 서브 촬영 가이드가 표시됨에 따라, 상기 카메라(210)를 통하여 상기 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 공간에서 촬영을 시작하고,
상기 디스플레이(200)에 상기 복수의 서브 촬영 가이드들 중 다른 서브 촬영 가이드가 표시됨에 따라, 상기 카메라(210)를 통하여 상기 다른 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 공간에서 촬영을 종료하여 획득된 공간 정보인 전자 장치(100).In Article 8,
The above multiple sub-space information is,
As one of the plurality of sub-shooting guides is displayed on the display (200), shooting begins in a space corresponding to a space included in an image corresponding to one of the sub-shooting guides through the camera (210).
An electronic device (100) that is spatial information obtained by terminating shooting in a space corresponding to a space included in an image corresponding to the other sub-shooting guide through the camera (210) as another sub-shooting guide among the plurality of sub-shooting guides is displayed on the display (200).
상기 적어도 하나의 프로세서(230)는 상기 적어도 하나의 명령어를 실행함으로써,
상기 디스플레이(200)를 통하여 상기 생성된 콘텐츠를 표시하는 전자 장치(100).In any one of claims 1 to 9,
The at least one processor (230) executes the at least one instruction,
An electronic device (100) that displays the generated content through the display (200).
메모리에 저장된 적어도 하나의 이미지로부터 미리 설정된 적어도 하나의 객체를 획득하는 단계(S100);
디스플레이를 통하여, 상기 적어도 하나의 이미지에 기초한 촬영 가이드를 표시하는 단계(S200);
카메라를 통하여, 상기 표시된 촬영 가이드를 따라 상기 적어도 하나의 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 생성된 공간 정보를 획득하는 단계(S300); 및
상기 획득된 공간 정보 및 상기 획득된 적어도 하나의 객체에 기초하여 콘텐츠를 생성하는 단계(S400)를 포함하는 전자 장치의 동작 방법.In a method of operating an electronic device,
A step (S100) of obtaining at least one preset object from at least one image stored in memory;
A step (S200) of displaying a shooting guide based on at least one image through a display;
Step (S300) of obtaining spatial information generated by photographing a real space corresponding to a space included in at least one image along the above-mentioned shooting guide through a camera; and
An operating method of an electronic device, comprising a step (S400) of generating content based on the acquired spatial information and at least one object acquired.
상기 전자 장치의 동작 방법은,
상기 획득된 적어도 하나의 객체에 각각 대응되는 적어도 하나의 3D 객체를 생성하는 단계(S150); 및
상기 획득된 공간 정보에 기초하여 3D 공간을 생성하는 단계(S350)를 포함하고,
상기 콘텐츠를 생성하는 단계(S410)에서는, 상기 생성된 3D 공간에 상기 생성된 적어도 하나의 3D 객체가 배치하여 상기 콘텐츠를 생성하는 전자 장치의 동작 방법.In Article 11,
The method of operation of the above electronic device is:
Step (S150) of generating at least one 3D object corresponding to at least one object obtained above; and
It includes a step (S350) of generating a 3D space based on the acquired spatial information,
In the step of generating the content (S410), an operation method of an electronic device for generating the content by arranging at least one generated 3D object in the generated 3D space.
상기 전자 장치의 동작 방법은,
상기 적어도 하나의 이미지에 포함된 적어도 하나의 객체를 선택하는 선택 신호를 획득하는 단계; 및
상기 획득된 선택 신호에 기초하여, 상기 적어도 하나의 이미지로부터 상기 선택 신호에 포함된 상기 적어도 하나의 객체를 획득하는 단계(S110)를 포함하는 전자 장치의 동작 방법.In either of paragraphs 11 or 12,
The method of operation of the above electronic device is:
A step of obtaining a selection signal for selecting at least one object included in at least one image; and
An operating method of an electronic device, comprising a step (S110) of acquiring at least one object included in the selection signal from at least one image based on the acquired selection signal.
상기 전자 장치의 동작 방법은,
상기 메모리에 저장된 복수의 촬영 이미지들로부터 미리 설정된 조건에 따라 상기 적어도 하나의 이미지를 필터링(filtering) 하는 단계(S50); 및
상기 필터링된 적어도 하나의 이미지로부터 상기 미리 설정된 적어도 하나의 객체를 획득하는 단계(S100)를 포함하는 전자 장치의 동작 방법.In any one of claims 11 to 13,
The method of operation of the above electronic device is:
A step (S50) of filtering at least one image from a plurality of captured images stored in the memory according to preset conditions; and
An operating method of an electronic device, comprising a step (S100) of obtaining at least one preset object from at least one filtered image.
상기 전자 장치의 동작 방법은,
상기 디스플레이를 통하여, 상기 카메라를 통하여 촬영되는 상기 현실 공간을 표시하는 단계(S200)를 포함하고,
상기 디스플레이를 통하여 상기 촬영 가이드를 표시하는 단계(S200)에서는,
상기 디스플레이를 통하여 상기 적어도 하나의 이미지를 상기 촬영 가이드로서 표시하는 전자 장치의 동작 방법.In any one of claims 11 to 14,
The method of operation of the above electronic device is:
A step (S200) of displaying the real space captured by the camera through the display is included.
In the step (S200) of displaying the shooting guide through the above display,
An operating method of an electronic device for displaying at least one image as a shooting guide through the display.
상기 디스플레이를 통하여 상기 촬영 가이드를 표시하는 단계(S200)에서는,
상기 디스플레이를 통하여 상기 촬영 가이드를 상기 현실 공간과 중첩되도록 표시하고, 상기 촬영 가이드는 반투명(translucent)하여 상기 중첩되는 현실 공간과 함께 상기 디스플레이에 표시되는 전자 장치의 동작 방법.In Article 15,
In the step (S200) of displaying the shooting guide through the above display,
An operating method of an electronic device that displays the shooting guide so as to overlap the real space through the display, and the shooting guide is translucent and displayed on the display together with the overlapping real space.
상기 적어도 하나의 이미지는 복수의 이미지들을 포함하고,
상기 촬영 가이드는 상기 복수의 이미지들에 각각 대응되는 복수의 서브 촬영 가이드들을 포함하고,
상기 디스플레이를 통하여 상기 촬영 가이드를 표시하는 단계(S200)에서는,
상기 디스플레이를 통하여 상기 복수의 서브 촬영 가이드들을 순차적으로 표시하고,
상기 공간 정보를 획득하는 단계(S300)에서는,
상기 카메라를 통하여, 상기 디스플레이에 순차적으로 표시되는 상기 복수의 서브 촬영 가이드들 중 어느 하나의 서브 촬영 가이드를 따라, 상기 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간을 촬영하여 서브 공간 정보를 획득하고,
상기 공간 정보는, 상기 복수의 서브 촬영 가이드들 각각에 따라 생성된 복수의 서브 공간 정보들을 포함하는 전자 장치의 동작 방법.In any one of claims 11 to 16,
wherein at least one image comprises a plurality of images,
The above shooting guide includes a plurality of sub-shooting guides each corresponding to the plurality of images,
In the step (S200) of displaying the shooting guide through the above display,
The plurality of sub-shooting guides are sequentially displayed through the above display,
In the step (S300) of obtaining the above spatial information,
Through the above camera, by following one of the plurality of sub-shooting guides sequentially displayed on the display, a real space corresponding to a space included in an image corresponding to one of the sub-shooting guides is photographed to obtain sub-space information,
An operating method of an electronic device, wherein the above spatial information includes a plurality of sub-spatial information generated according to each of the plurality of sub-shooting guides.
상기 공간 정보를 획득하는 단계(S300)는,
상기 디스플레이 상에 상기 복수의 서브 촬영 가이드들 중 상기 어느 하나의 서브 촬영 가이드가 표시됨에 따라, 상기 카메라를 통하여 상기 어느 하나의 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간에서 촬영을 시작하는 단계; 및
상기 디스플레이 상에 상기 복수의 서브 촬영 가이드들 중 다른 서브 촬영 가이드가 표시됨에 따라, 상기 카메라를 통하여 상기 다른 서브 촬영 가이드에 대응되는 이미지에 포함된 공간에 대응되는 현실 공간에서 촬영을 종료하여 상기 복수의 서브 공간 정보들을 획득하는 단계를 포함하는 전자 장치의 동작 방법.In Article 17,
The step (S300) of obtaining the above spatial information is as follows:
A step of starting shooting in a real space corresponding to a space included in an image corresponding to one of the plurality of sub-shooting guides, through the camera, when one of the plurality of sub-shooting guides is displayed on the display; and
An operating method of an electronic device, comprising the step of obtaining information on the plurality of sub spaces by terminating shooting in a real space corresponding to a space included in an image corresponding to the other sub-shooting guide through the camera as another sub-shooting guide among the plurality of sub-shooting guides is displayed on the display.
상기 전자 장치의 동작 방법은,
상기 디스플레이를 통하여, 상기 생성된 콘텐츠를 표시하는 단계(S500)를 더 포함하는 전자 장치의 동작 방법.In any one of claims 11 to 18,
The method of operation of the above electronic device is:
An operating method of an electronic device further comprising a step (S500) of displaying the generated content through the display.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/KR2024/006641 WO2024237694A1 (en) | 2023-05-16 | 2024-05-16 | Electronic device for generating content, and operating method of electronic device |
| US18/773,025 US20240386689A1 (en) | 2023-05-16 | 2024-07-15 | Electronic apparatus for generating content and operation method for the same |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR20230063361 | 2023-05-16 | ||
| KR1020230063361 | 2023-05-16 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20240166342A true KR20240166342A (en) | 2024-11-26 |
Family
ID=93703889
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020230091224A Pending KR20240166342A (en) | 2023-05-16 | 2023-07-13 | Display apparatus for generating content and operating method for the same |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20240166342A (en) |
-
2023
- 2023-07-13 KR KR1020230091224A patent/KR20240166342A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102635705B1 (en) | Interfaces for organizing and sharing destination locations | |
| CN108475326B (en) | Method, storage medium and electronic device for providing services associated with images | |
| US20190220664A1 (en) | Method and apparatus for recognition and matching of objects depicted in images | |
| KR102728598B1 (en) | Augmented reality content generator for destination activities | |
| US11836826B2 (en) | Augmented reality content generators for spatially browsing travel destinations | |
| US12008811B2 (en) | Machine learning-based selection of a representative video frame within a messaging application | |
| US9972113B2 (en) | Computer-readable recording medium having stored therein album producing program, album producing method, and album producing device for generating an album using captured images | |
| CN116671121A (en) | AR content for multi-video clip capture | |
| US12039499B2 (en) | Augmented reality content generators for identifying destination geolocations and planning travel | |
| US9317738B2 (en) | Intelligent cropping of images based on multiple interacting variables | |
| CN114730483A (en) | Generate 3D data in a messaging system | |
| CN109816745A (en) | Human body heat map display method and related products | |
| KR20240118764A (en) | Computing device that displays image convertibility information | |
| US20170256072A1 (en) | Information processing system, information processing method, and non-transitory computer-readable storage medium | |
| JP6686547B2 (en) | Image processing system, program, image processing method | |
| US8866953B2 (en) | Mobile device and method for controlling the same | |
| US20180012073A1 (en) | Method, electronic device, and recording medium for notifying of surrounding situation information | |
| CN119045659A (en) | Visual search refinement for computer-generated rendering environments | |
| US10701220B2 (en) | Image print proposal device, method, and program | |
| JP2017108356A (en) | Image management system, image management method, and program | |
| CN116710978A (en) | Selecting representative video frames through machine learning | |
| KR20240166342A (en) | Display apparatus for generating content and operating method for the same | |
| US8996616B2 (en) | Cross-linking from composite images to the full-size version | |
| US20240386689A1 (en) | Electronic apparatus for generating content and operation method for the same | |
| CN119547105A (en) | Progressive scanning of custom landmarks |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20230713 |
|
| PG1501 | Laying open of application |