[go: up one dir, main page]

WO2019216630A1 - 영상 편집 방법 및 이를 지원하는 전자 장치 - Google Patents

영상 편집 방법 및 이를 지원하는 전자 장치 Download PDF

Info

Publication number
WO2019216630A1
WO2019216630A1 PCT/KR2019/005468 KR2019005468W WO2019216630A1 WO 2019216630 A1 WO2019216630 A1 WO 2019216630A1 KR 2019005468 W KR2019005468 W KR 2019005468W WO 2019216630 A1 WO2019216630 A1 WO 2019216630A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
query
processor
memory
effect filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2019/005468
Other languages
English (en)
French (fr)
Inventor
박미지
오영학
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to US17/050,002 priority Critical patent/US11233953B2/en
Publication of WO2019216630A1 publication Critical patent/WO2019216630A1/ko
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • G06F16/90344Query processing by using string matching techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/18Commands or executable codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Definitions

  • the electronic device may be equipped with a high-definition image capturing device to support an image (eg, still image or video) of an operating environment.
  • the electronic device may support image editing that provides various moods or highlights by processing the captured image based on the designated application.
  • the electronic device may provide an image effect filter that provides, for example, a black and white, sepia or negative effect to the captured image.
  • the image effect filter is provided in a formal form by an application developer or an electronic device manufacturer that supports image editing, and the type thereof may be limited and may not meet user's own taste.
  • Various embodiments disclosed in the present disclosure may provide an image editing method for determining and recommending a video effect filter preferred by a user and an electronic device supporting the same, based on a user's operation history of the electronic device.
  • An electronic device may include a communication circuit, at least one camera device, a memory, a display, and a processor electrically connected to the communication circuit, the at least one camera device, the memory, and the display. .
  • the processor may determine a query based on user activity related to the operation of the electronic device, and determine at least one external device or the memory connected through the communication circuit. It is determined whether the image filter includes an effect filter corresponding to the query, and when it is determined that the at least one external device or the memory includes the image effect filter corresponding to the query, the at least one external device Or obtaining an image effect filter corresponding to the query from the memory, outputting an image photographed by the at least one camera device through the display, and obtaining the event when an event related to editing of the output image occurs.
  • An image effect filter may be provided.
  • a video effect filter related to a user's taste, interest, or preference may be recommended.
  • the recommended image effect filter is cumulatively managed to build an image editing platform optimized for a user.
  • FIG. 1 is a diagram illustrating an example of an operation of an electronic device according to an exemplary embodiment.
  • FIG. 2 is a diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • 3A is a diagram illustrating a form of determining an image effect filter of a user relationship of an electronic device according to a first embodiment.
  • FIG. 3B is a diagram illustrating a form of determining an image effect filter of a user relationship of an electronic device according to the second embodiment.
  • FIG. 3C is a diagram illustrating a form of determining an image effect filter of a user relationship of an electronic device according to a third embodiment of the present disclosure.
  • FIG. 3D is a diagram illustrating a form of determining an image effect filter of a user relationship of an electronic device according to a fourth embodiment.
  • FIG. 4 is a diagram illustrating an image effect filter application form of an electronic device according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating an image effect filter application form of an electronic device according to another exemplary embodiment.
  • FIG. 6 is a diagram illustrating an image editing support method of an electronic device according to an exemplary embodiment.
  • FIG. 7 is a diagram illustrating an electronic device in a network environment, according to an exemplary embodiment.
  • expressions such as “have”, “may have”, “include”, or “may contain” include the presence of a corresponding feature (e.g., numerical, functional, operational, or component such as a component). Does not exclude the presence of additional features.
  • expressions such as “A or B”, “at least one of A or / and B”, or “one or more of A or / and B” may include all possible combinations of items listed together.
  • “A or B”, “at least one of A and B”, or “at least one of A or B” includes (1) at least one A, (2) at least one B, Or (3) both of cases including at least one A and at least one B.
  • first,” “second,” “first,” or “second,” as used herein may modify various components, regardless of order and / or importance, and may modify one component to another. It is used to distinguish a component and does not limit the components.
  • the first user device and the second user device may represent different user devices regardless of the order or importance.
  • the first component may be called a second component, and similarly, the second component may be renamed to the first component.
  • One component (such as a first component) is "(functionally or communicatively) coupled with / to" to another component (such as a second component) or " When referred to as “connected to”, it should be understood that any component may be directly connected to the other component or may be connected through another component (eg, a third component).
  • a component e.g., a first component
  • another component e.g., a second component
  • the expression “configured to” used in this document is, for example, “suitable for”, “having the capacity to” depending on the situation. It may be used interchangeably with “designed to”, “adapted to”, “made to”, or “capable of”.
  • the term “configured to” may not necessarily mean only “specifically designed to” in hardware. Instead, in some situations, the expression “device configured to” may mean that the device “can” along with other devices or components.
  • the phrase “processor configured (or set up) to perform A, B, and C” may execute a dedicated processor (eg, an embedded processor) to perform the operation, or one or more software programs stored in a memory device. By doing so, it may mean a general-purpose processor (for example, a CPU or an application processor) capable of performing the corresponding operations.
  • An electronic device may include, for example, a smartphone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, Desktop PCs, laptop PCs, netbook computers, workstations, servers, personal digital assistants, portable multimedia players, MP3 players, mobile medical devices, It may include at least one of a camera or a wearable device.
  • a wearable device may be an accessory type (for example, a watch, a ring, a bracelet, an anklet, a necklace, glasses, a contact lens, or a head-mounted-device (HMD)), a fabric, or a clothing type (for example, it may include at least one of an electronic garment, a body attachment type (eg, a skin pad or a tattoo), or a living implantable type (eg, an implantable circuit).
  • HMD head-mounted-device
  • the electronic device may be a home appliance.
  • Home appliances are, for example, televisions, digital video disk players, audio, refrigerators, air conditioners, cleaners, ovens, microwave ovens, washing machines, air cleaners, set-top boxes, home automation Home automation control panel, security control panel, TV box (e.g. Samsung HomeSync TM, Apple TV TM, or Google TV TM), game console (e.g. Xbox TM, PlayStation TM), electronics It may include at least one of a dictionary, an electronic key, a camcorder, or an electronic picture frame.
  • the electronic device may include various medical devices (eg, various portable medical measuring devices (such as blood glucose meters, heart rate monitors, blood pressure monitors, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Such as computed tomography (CT), imaging equipment, or ultrasound; ) Devices, ship's electronic equipment (e.g. ship's navigational devices, gyro compasses, etc.), avionics, security devices, vehicle head units, industrial or home robots, automatic teller's machines (financial institutions) Point of sales, point of sales, or Internet of things (e.g. light bulbs, sensors, electricity or gas meters, sprinkler devices, fire alarms, thermostats, street lights, It may include at least one of (toaster), exercise equipment, hot water tank, heater, boiler.
  • various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure monitors, or body temperature meters
  • MRA magnetic resonance angiography
  • MRI magnetic resonance imaging
  • CT computed tomography
  • an electronic device may be a furniture or part of a building / structure, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, Water, electricity, gas, or radio wave measuring instrument).
  • the electronic device may be one or a combination of the aforementioned various devices.
  • An electronic device according to an embodiment may be a flexible electronic device.
  • the electronic device according to an embodiment of the present disclosure is not limited to the above-described devices, and may include a new electronic device according to technology development.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) that uses an electronic device.
  • FIG. 1 is a diagram illustrating an example of an operation of an electronic device according to an exemplary embodiment.
  • the electronic device 100 may capture an image (eg, still image or video) of an operating environment of the electronic device 100 based on at least one mounted camera device. For example, the electronic device 100 captures at least a part of the user's body by using at least one first camera device disposed in one front area of the electronic device 100, or at the rear of the electronic device 100. Any background or object may be photographed using at least one second camera device disposed in the area.
  • an image eg, still image or video
  • the electronic device 100 captures at least a part of the user's body by using at least one first camera device disposed in one front area of the electronic device 100, or at the rear of the electronic device 100. Any background or object may be photographed using at least one second camera device disposed in the area.
  • the electronic device 100 may provide a captured image in a preview form through at least one designated application.
  • the electronic device 100 may provide a preview of an image captured on an execution screen of an application (eg, a camera application) supporting the image capturing.
  • the electronic device 100 captures images on an execution screen of an application (eg, a gallery application, a photo editor application, or a video player application) that supports management (eg, editing, sharing, or deleting) or playback of the captured image.
  • a preview may be provided for at least one image which has been stored (or stored in a memory area).
  • the electronic device 100 displays (eg, enlarges and displays) the preview image selected by the user on the execution screen 10 of the application, and at least one tool related to editing the displayed image.
  • a menu for example, an adjustment menu, a color tone menu, an effect menu, or a decoration menu
  • the electronic device 100 may execute the execution screen 10.
  • At least one image effect filter 11 having mutually different directing effect characteristics may be provided as one region of).
  • the at least one image effect filter 11 may be manufactured from a source of the application (for example, a manufacturer of the electronic device 100 or a third party application developer). It can be included as some data at installation time.
  • At least one image effect filter 11 provided on the execution screen 10 of the application may be limited in quantity or type.
  • the at least one image effect filter 11 may be provided with only some of the image effect filters produced by the application supplier according to the policy of the application supplier or the specification of the application execution screen 10. Can be.
  • the at least one image effect filter 11 provided on the application execution screen 10 may not include a newly created or updated image effect filter in real time.
  • the at least one image effect filter 11 may be provided in a predetermined form for a predetermined period (for example, before updating of an application) or in the same or similar form in a plurality of electronic devices. May not be satisfied with the user's preferences.
  • the electronic device 100 may recommend an image effect filter that is at least partially related to a user's preference in an image editing operation on at least one captured image.
  • the electronic device 100 may include at least one user activity history (eg, web page search history, dialog history, electronic payment history, or social network service execution history) related to the operation of the electronic device 100. ) May predict the user's preferences, and recommend an image effect filter corresponding at least in part to the predicted preferences.
  • user activity history eg, web page search history, dialog history, electronic payment history, or social network service execution history
  • FIG. 2 is a diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 may include a communication circuit 110, a camera device 120, a memory 130, a display 140, and a processor 150.
  • the electronic device 100 may omit at least one of the above-described components or may further include other components.
  • the electronic device 100 may be a power supply device (eg, a battery) that supplies power to the components, or a sensor device (eg, a proximity sensor, or the like) that senses various information about an operating environment of the electronic device 100.
  • An illumination sensor, an acceleration sensor, a fingerprint sensor, or an iris sensor, etc. may be further included.
  • the electronic device 100 may further include components of the electronic device 701 to be described with reference to FIG. 7 described below.
  • the communication circuit 110 may support communication between the electronic device 100 and at least one external device 200 and / or 300.
  • the communication circuit 110 performs wired communication or wireless communication in accordance with a prescribed protocol with at least one of the server 200 of the manufacturer of the electronic device 100 and the server 300 of the third party application developer. can do.
  • the communication circuit 110 establishes a network 400 with the at least one external device 200 and / or 300, and at least one based on a network 400 connection through the wired or wireless communication.
  • a signal or data may be transmitted / received with an external device 200 and / or 300.
  • the camera device 120 may capture an image (eg, still image or video) of an operating environment of the electronic device 100.
  • the electronic device 100 may include a plurality of camera devices 120 having different angles of view (or at least partially overlapping angles of view).
  • at least one first camera device of the plurality of camera devices 120 is disposed on one front surface of the electronic device 100 so as to photograph a front area of the electronic device 100, and at least one second camera device.
  • the camera device may be disposed in one area of the rear surface of the electronic device 100 to photograph the rear area of the electronic device 100.
  • the image photographed by the camera device 120 may be stored in the memory 130 according to user control or designated scheduling information, or may be designated by an external device (eg, a cloud) through the communication circuit 110. (Not shown)).
  • the memory 130 may store at least one data related to the operation of the electronic device 100 or at least one command related to the function operation control of the components of the electronic device 100.
  • the memory 130 may store various log information (eg, app usage information or displaying information) according to the operation of the electronic device 100.
  • the memory 130 may store at least one image photographed by the camera device 120 or downloaded or streamed from an external device under user control.
  • the memory 130 may be loaded in a preloaded form when the electronic device 100 is manufactured, or may download at least one application 131 downloaded from an online market (eg, an app store). Can be stored.
  • the at least one application 131 may be an application (eg, a camera application, a gallery application, a photo editor application, or an application) that supports recording, managing (eg, editing, sharing, or deleting) or playing an image.
  • a video player application, and so on, may be referred to as a first application), and the first application may include at least one image effect filter related to editing of a captured image.
  • the at least one application 131 may perform a machine learning algorithm based analysis on at least one designated image and generate an image effect filter corresponding to a feature of the at least one designated image derived as a result of the analysis. It can include an application.
  • the memory 130 may store at least one image effect filter included in the first application in the database 133.
  • the memory 130 may include at least one image effect filter that is newly downloaded or updated from the supplier of the first application (for example, the manufacturer of the electronic device 100 or the third party application developer), to the database 133. Can be included.
  • the at least one image effect filter on the database 133 may include attribute information of the image effect filter (for example, image effect filter identification information, effect information, design information, or artist information referenced in production). Mapped and stored.
  • At least one image effect filter on the database 133 may be stored in the form of a filter set under the control of the processor 150.
  • at least one image effect filter having similar property information may be grouped into one filter set.
  • the configured filter set may be given higher attribute information (eg, filter set identifier) having a concept including attribute information of at least one image effect filter included in the filter set.
  • the display 140 may output various contents. For example, the display 140 outputs an operation screen (eg, a home screen or an execution screen of the application 131) of the electronic device 100 in response to user control or designated scheduling information, or outputs the memory 130 to the memory 130. At least one stored image may be output. Alternatively, when a specific image effect filter is selected by the user in the image editing operation on the output image, the display 140 may convert the output image into an image to which the selected image effect filter is applied and output the image.
  • an operation screen eg, a home screen or an execution screen of the application 131
  • the display 140 may convert the output image into an image to which the selected image effect filter is applied and output the image.
  • the display 140 may be implemented as a touch screen display including a display panel, a cover glass, and a touch panel (or a touch sensor).
  • the display panel may receive a driving signal corresponding to the image information at a specified frame rate and output a related screen based on the driving signal.
  • the cover glass may be disposed above the display panel to transmit light according to the screen output of the display panel.
  • a user input eg, touch, drag, press, or hovering
  • a user body eg, a finger
  • an electronic pen may be applied to at least one area of the cover glass.
  • the touch panel detects a signal according to a user input (for example, capacitive detection, pressure-sensitive detection, infrared ray detection, or ultrasonic wave detection, etc.) and outputs an electrical signal, and transmits information on the electrical signal to the processor 150.
  • a user input for example, capacitive detection, pressure-sensitive detection, infrared ray detection, or ultrasonic wave detection, etc.
  • the processor 150 may be implemented as at least one of a central processing unit, an application processor, and a communication processor, such as a component (eg, a communication circuit) of the electronic device 100 described above. 110, the camera device 120, the memory 130, the display 140, and the like.
  • the processor 150 may be electrically or functionally connected to at least one component, and may transmit at least one instruction related to a functional operation to the component, or perform various communication operations or data processing. .
  • the processor 150 edits at least a portion of an image photographed by the camera apparatus 110 (or an image stored in the memory 130) in response to user control. ), Such as taste, interests, or preferences, may be provided (or recommended).
  • the processor 150 may refer to at least one log information (for example, app usage information or displaying information, etc.) stored in the memory 130 at a specified period, and may determine at least one user activity within the specified period. You can check it.
  • the processor 150 may detect at least one information resource that satisfies a specified condition among information resources related to the at least one user activity.
  • the processor 150 may determine that the detected at least one information resource is related to a user's preference, and generate a query for each detected information resource. For example, when a specific text is detected as an information resource that satisfies the specified condition, the processor 150 may generate a query for collecting a video effect filter related to the specific text.
  • the processor 150 transmits the generated at least one query to at least one external device 200 and / or 300 so that the at least one external device 200 and / or 300 is generated. It may be inquired whether or not a video effect filter corresponding to at least one query is included. If at least some of the at least one external device 200 and / or 300 includes a video effect filter corresponding to the at least one query, the processor 150 responds to the inquiry to the corresponding external device 200. And / or 300, data of the image effect filter corresponding to the at least one query may be received. The processor 150 may store the image effect filter (or data of the image effect filter) received from the at least one external device 200 and / or 300 in the database 133 of the memory 130.
  • the processor 150 may determine whether the image effect filter corresponding to the at least one query is included in the database 133 of the memory 130. As a result of determination, when the image effect filter corresponding to the at least one query is included in the database 133, the processor 150 may load data of the image effect filter into the memory 130.
  • the processor 150 may include at least one image effect filter or memory received from the at least one external device 200 and / or 300. By displaying at least one image effect filter loaded in 130 on the execution screen of the first application, the image effect filter corresponding to at least part of the determined user preference may be provided (or recommended).
  • 3A, 3B, 3C, and 3D are diagrams illustrating examples of determining an image effect filter of a user related to an electronic device according to various embodiments of the present disclosure.
  • the processor of the electronic device 100 is at least a part of an operation of confirming at least one user activity within the above-described designated period, and includes at least one application (FIG. 2 of FIG. 2).
  • the search history of the user may be checked.
  • the search history is based on text information entered in an input field 21 (eg, an address bar or a search window) included in the execution screen 20 of the application, or a search for the text.
  • the search result screen 30 outputted according to the information may be included.
  • the processor 150 may collect at least one text information input to the input field 21 within the designated period, and detect text 23 having a predetermined threshold amount or more based on the collected text information. Can be. Alternatively, the processor 150 may detect texts 31 and / or 33 appearing above a predetermined threshold amount on the search result screen 30 outputted according to the search of the text input to the input field 21.
  • the processor 150 of the electronic device 100 is at least part of an operation of identifying at least one user activity within the specified period, and is performed by at least one application (131 of FIG. 2). You can check the history of the dialog.
  • the dialog history may include text information received from a dialog counterpart (or an external device of the dialog counterpart), text information input through a software input panel (SIP) keyboard on the dialog screen 40, or user speech ( 50 may include text information included in the voice data according to 50).
  • the processor 150 may receive at least one text information received from a dialog counterpart (or an external device of the dialog counterpart) and output on the dialog screen 40 (eg, a message screen) within the specified period.
  • the processor 150 collects voice data of the user speech 50 according to the operation of a dialog related application (eg, a call application or a personal assistant application) executed within the designated period, and collects the collected voice data. It is possible to detect the text 51 contained above the designated threshold amount on the data.
  • a dialog related application eg, a call application or a personal assistant application
  • the processor 150 of the electronic device 100 is at least a part of an operation of identifying at least one user activity within the specified period, and is performed by at least one application (131 of FIG. 2). You can check the history of payment service operation.
  • the electronic payment service may be understood as a concept encompassing, for example, any ticket reservation service and an online shopping service.
  • the processor 150 checks at least one electronic payment screen 60 output in relation to the electronic payment service operation within the designated period, and at least one included in the electronic payment screen 60. Can collect textual information.
  • the processor 150 may detect the text 61 corresponding to the specified threshold amount or more based on the collected text information.
  • the processor 150 of the electronic device 100 is at least a part of an operation of identifying at least one user activity within the specified period, and the user is displayed on the execution screen of at least one application (131 of FIG. 2).
  • the content history includes at least one content 71 selected (eg, like, collecting or sharing) from a user on an execution screen 70 of an application supporting a social networking service. It may include.
  • the content history may include at least one content 81 downloaded through the designated menu 83 on the execution screen 80 of the web browsing application.
  • processor 150 collects the at least one content 71 and / or 81 of the selected or downloaded content, and includes metadata (eg, location information) or tags of the collected content. You can check the information.
  • the processor 150 may detect text above a predetermined threshold amount based on at least one text information included in the metadata or tag information.
  • the processor 150 may separately detect text above a specified threshold amount for histories according to the activities described above. For example, the processor 150 may detect text above the specified threshold amount from each of a search history, a dialog history, an electronic payment service operation history, and / or a content history.
  • the processor 150 may comprehensively detect text corresponding to the above-described predetermined threshold amount of histories according to the above-described activities. For example, the processor 150 collects at least one text information from each of a search history, a dialog history, an electronic payment service operation history, and / or a content history, and detects text of a specified threshold amount or more on the collected at least one text information. can do. In this operation, the processor 150 according to the same text information, if the same text information is collected from each of a plurality of different history, even if there is no text above a specified threshold amount on the collected at least one text information. The text may be determined to be text above a specified threshold amount.
  • first text 23 eg, your name
  • second text 61 same as the first text 23 information
  • the processor 150 may detect the first text 23 and the second text 61 as a text having a predetermined threshold amount or more regardless of the collection amount.
  • the processor 150 may manage at least one text for excluding the detection in a list in relation to the detection of the text above the designated threshold amount.
  • the processor 150 may manage at least one text (for example, text that is commonly used frequently or text that is habitually used without special meaning) in a list of everyday attributes set by a user.
  • the processor 150 may exclude the detection of the text included in the list by referring to the list when the text of the predetermined threshold amount or more is detected.
  • the processor 150 determines that the detected text above the threshold amount is related to the preference of the user of the electronic device 100, and the query for collecting at least one image effect filter related to the text above the threshold amount. You can create a query.
  • the processor 150 may include at least one external device (for example, the server of the manufacturer of the electronic device 100 (200 of FIG. 2)) and / or a third party application developer providing the generated query to the electronic device 100. To the side server (300 in FIG. 2).
  • the processor 150 queries the at least one external device 200 and / or 300 whether the image effect filter corresponding to the query is included with the transmission of the query, and in response thereto, the image effect corresponding to the query. Can receive data from the filter.
  • the processor 150 may store a database (eg, a video effect filter) including at least one application (for example, a camera application, a gallery application, a photo editor application, or a video player application) mounted or installed in the electronic device 100 (FIG. 133 of 2 may be accessed to determine whether the image effect filter corresponding to the query is included. As a result of determination, when the image effect filter corresponding to the query is included in the database 133, the processor 150 may load the image effect filter into the memory 130 of FIG. 2. According to various embodiments of the present disclosure, when the query corresponds to higher attribute information (eg, filter set identifier) of a specific filter set configured in the database 133, the processor 150 may include at least one video effect included in the specific filter set. All of the filters may be loaded into the memory 130 or randomly extracted and loaded.
  • a database eg, a video effect filter
  • the processor 150 may include at least one video effect included in the specific filter set. All of the filters may be loaded into the memory 130 or randomly extracted and loaded.
  • the processor 150 may generate an image effect filter using at least one content 71 and / or 81 selected or downloaded as described above with reference to FIG. 3D.
  • the processor 150 may collect the selected or downloaded at least one content 71 and / or 81 and deliver it to a designated application.
  • the designated application may include, for example, a machine learning algorithm associated with image processing, and may perform analysis on at least one content 71 and / or 81 using the machine learning algorithm.
  • the designated application analyzes each of the at least one content 71 and / or 81 received from the processor 150 to designate a design pattern or graphic included in the at least one content 71 and / or 81.
  • Enemy parameters e.g., hue, depth, contrast, inversion, distortion, pattern or design template.
  • the designated application may derive a comprehensive design pattern or a comprehensive graphical parameter by combining design patterns or graphical parameters derived from each of the at least one content 71 and / or 81.
  • the processor 150 may control the designated application to generate an image effect filter in which the derived design pattern or graphic parameter may be visually represented (or applied).
  • FIG. 4 is a diagram illustrating an example of applying an image effect filter to an electronic device
  • FIG. 5 is a diagram illustrating an example of applying an image effect filter to an electronic device.
  • the processor of the electronic device 100 may be an application (eg, a camera application, a gallery application, etc.) that supports image capture, management (eg, editing, sharing, or deleting) or playback.
  • An image 13a selected by the user may be displayed on the execution screen 10a of the first application, such as a photo editor application or a video player application.
  • the processor 150 may apply at least one image effect filter to one region of the execution screen 10a to give various display effects to the displayed image 13a according to a user's menu manipulation with respect to the first application. Can provide.
  • the processor 150 is obtained from at least one external device (eg, the electronic device 100 manufacturer side server (200 in FIG.
  • the processor 150 may obtain (or recommend) at least one image effect filter from an application related to image effect filter generation.
  • any one of the user preference related image effect filters 15a and / or 17a may be selected (eg, touched) from the user.
  • the processor 150 may apply the selected image effect filter 15a or 17a to the displayed image 13a.
  • the processor 150 may refer to the attribute information (eg, effect information or design information, etc.) of the selected image effect filter 15a or 17a, such as graphic parameters (eg, color tone, depth, etc.) of the displayed image 13a. , Contrast, inversion, distortion, patterns, or design templates).
  • the processor 150 displays an image 13b to which the selected image effect filter 15a or 17a is applied on the execution screen 10a of the first application, and at least one menu related to operation of the image 13b. (E.g., cancel, share, or save) (not shown).
  • the processor 150 of the electronic device 100 may provide at least one image effect filter that may apply a directing effect to the image 13c displayed on the execution screen 10a of the first application.
  • a property eg, a person image or a background image
  • the processor 150 determines whether the image 13c includes a feature point or a contour related to the face of the human body based on the image analysis of the displayed image 13c. You can judge the property.
  • the processor 150 may determine the image of the at least one user preference related image effect filter acquired from the at least one external device 200 and / or 300 or the database 133 of the memory 130. Only at least one image effect filter 15b and / or 17b corresponding to the attribute of 13c may be provided. For example, when the displayed image 13c is an image of a person attribute, the processor 150 may provide only an image effect filter made exclusively for the person image among the obtained at least one user preference related image effect filter. Alternatively, the processor 150 may provide all of the obtained at least one user preference related image effect filter 15b and / or 17b regardless of the attribute of the displayed image 13c.
  • the processor 150 may partially apply the selected background-only image effect filter to the displayed image 13c.
  • the processor 150 may apply the selected image-only image effect filter to a background region other than the face (or body) region on the displayed image 13c detected based on image analysis, and apply the applied image ( 13d) can be displayed.
  • the processor 150 in operation of displaying an image (13b of FIG. 4 or 13d of FIG. 5) to which the image effect filter is applied, the processor 150 provides a menu (not shown) for accumulating and managing the applied image effect filter. can do.
  • the processor 150 manages the applied image effect filter in a separate database in response to a user input to the menu, and subsequently accumulates (or manages in a separate database) the cumulative management in a video editing operation for any image. At least one image effect filter may be provided (or recommended).
  • An electronic device may include a communication circuit, at least one camera device, a memory, a display, and a processor electrically connected to the communication circuit, the at least one camera device, the memory, and the display. Can be.
  • the processor may determine a query based on user activity related to the operation of the electronic device, and determine at least one external device or the memory connected through the communication circuit. Determine whether to include an effect filter corresponding to the query, and if it is determined that the at least one external device or the memory includes the image effect filter corresponding to the query, the at least one external device or Obtaining at least one image effect filter corresponding to the query from the memory, outputting an image photographed by the at least one camera device through the display, and generating an event related to editing the output image At least one obtained image effect filter may be provided.
  • the memory may include at least one editing application that supports editing of an image photographed by the at least one camera device.
  • the processor may provide the obtained image effect filter to an execution screen of the at least one editing application.
  • the processor may map the acquired at least one image effect filter with attribute information of the obtained at least one image effect filter and store it in the memory.
  • the processor may check at least one log information stored in the memory at a specified period in order to identify the user activity.
  • the processor may be configured to detect at least one threshold from a search history of a user performed within the designated period in at least one application included in the memory as at least part of an operation of determining the query.
  • the text of can be determined by the query.
  • the processor may perform at least a part of the operation of determining the query, and may perform the user's dialog history, which is performed within the specified period through at least one application included in the memory, to a predetermined threshold amount or more. At least one text detected may be determined by the query.
  • the processor may detect at least a predetermined threshold amount from an electronic payment service operation history performed within the designated period through at least one application included in the memory as at least part of the operation of determining the query. At least one text may be determined by the query.
  • the processor may be configured to detect at least one threshold value from a content history selected by a user within the designated period through at least one application included in the memory as at least part of an operation of determining the query.
  • the text of can be determined by the query.
  • the processor may individually perform text detection of the specified threshold amount or more with respect to at least one of the search history, the dialog history, the electronic payment service operation history, and the content history.
  • the processor may collect at least one text from at least one of the search history, the dialog history, the electronic payment service operation history, and the content history, and for the collected at least one text. Text detection above a specified threshold amount can be performed.
  • the processor may manage, as a list, at least one text to be excluded from detecting text above the designated threshold amount.
  • the processor may at least partially apply an image effect filter selected from a user among the one or more image effect filters provided to the image output through the display.
  • the processor may determine an attribute of an image output through the display and provide at least one image effect filter corresponding to the attribute of the image among the obtained at least one image effect filter. have.
  • FIG. 6 is a diagram illustrating an image editing support method of an electronic device according to an exemplary embodiment.
  • the processor (150 of FIG. 2) of the electronic device 100 of FIG. 2 may determine a query based on user activity.
  • the processor 150 refers to at least one log information (for example, app usage information or displaying information, etc.) stored in the memory 130 (refer to FIG. 2) at a specified period, and thus, at least one user activity within the specified period ( For example: search history, dialog history, electronic payment service operation history, or content history.
  • the processor 150 may detect at least one information resource that satisfies a predetermined threshold amount or more among information resources (for example, text data) related to the at least one user activity.
  • the processor 150 may determine that the detected at least one information resource is related to a user's preference, and generate a query for obtaining an image effect filter corresponding to each information resource.
  • the processor 150 may determine whether to include an image effect filter corresponding to the determined query in the memory 130 or at least one external device (200 and / or 300 of FIG. 2). For example, the processor 150 may transmit the generated query to at least one external device 200 and / or 300 and may inquire whether the image effect filter corresponding to the query is included. Alternatively, the processor 150 may determine whether the image effect filter corresponding to the query is included in the database (133 of FIG. 2) of the memory 130 constructed to include at least one image effect filter.
  • the processor 150 may determine the at least one.
  • the image effect filter corresponding to the query may be obtained from the external device 200 and / or 300 or the memory 130 of the.
  • the processor 150 may determine an application (eg, a camera application, a gallery application, a photo editor application, or a video player application) that supports capturing, managing (eg, editing, sharing, or deleting) an image, or playing back an image.
  • an image editing operation based on execution, at least one image effect filter acquired from the at least one external device 200 and / or 300 or the memory 130 may be provided (or recommended).
  • the processor 150 may at least partially apply an image effect filter selected from a user among the one or more image effect filters provided to the image to be edited.
  • an image editing support method of an electronic device may include determining a query based on user activity related to operation of the electronic device, at least one external device, or the electronic device. Determining whether an image filter includes an effect filter corresponding to the query, and when the at least one external device or the memory is determined to include the image effect filter corresponding to the query, the at least Obtaining at least one image effect filter corresponding to the query from one external device or the memory, outputting an image stored in the memory through a display of the electronic device, and editing the output image When the event occurs, the at least one image effect filter to provide May include an operation.
  • the determining of the query may include checking at least one log information stored in the memory at a predetermined period in order to identify the user activity.
  • the determining of the query may include determining, as the query, at least one text detected from a search history of a user performed within the specified period in at least one application included in the memory by a predetermined amount or more.
  • the operation may further include.
  • the operation of determining the query may include at least one text detected from a dialog history of a user performed within the designated period through at least one application included in the memory.
  • the method may further include determining by the query.
  • the operation of determining the query may include: querying at least one text detected from the electronic payment service operation history performed within the designated period through at least one application included in the memory by a predetermined amount or more.
  • the operation may further include determining.
  • the determining of the query may include determining, by the query, at least one text detected from a content history selected by a user within the specified period through at least one application included in the memory, in a specified threshold amount or more.
  • the operation may further include.
  • the image editing support method may further include at least partially applying an image effect filter selected from a user among at least one provided image effect filter to an image output through the display. .
  • FIG. 7 is a diagram illustrating an electronic device in a network environment, according to an exemplary embodiment.
  • the electronic device 701 communicates with the electronic device 702 through a first network 798 (for example, short-range wireless communication), or the second network 799 ( For example, it may communicate with the electronic device 704 or the server 708 through remote wireless communication.
  • the electronic device 701 may communicate with the electronic device 704 through the server 708.
  • the electronic device 701 may include a processor 720, a memory 730, an input device 750, an audio output device 755, a display device 760, an audio module 770, and a sensor module.
  • the components may be included.
  • at least one of the components may be omitted or another component may be added to the electronic device 701.
  • some components such as in the case of a sensor module 776 (eg, fingerprint sensor, iris sensor, or illuminance sensor) embedded in the display device 760 (eg, display), may be It can be integrated.
  • the processor 720 may, for example, drive software (eg, the program 740) to drive at least one other component (eg, hardware or software component) of the electronic device 701 connected to the processor 720. It can control and perform various data processing and operations. Processor 720 loads and processes instructions or data received from another component (eg, sensor module 776 or communication module 790) into volatile memory 732, and processes the resulting data into non-volatile memory 734.
  • drive software eg, the program 740
  • Processor 720 loads and processes instructions or data received from another component (eg, sensor module 776 or communication module 790) into volatile memory 732, and processes the resulting data into non-volatile memory 734.
  • the processor 720 operates independently of the main processor 721 (eg, a central processing unit or an application processor), and additionally or alternatively, uses less power than the main processor 721, Or a coprocessor 723 specialized to a designated function (eg, a graphics processing unit, an image signal processor, a sensor hub processor, or a communication processor).
  • the coprocessor 723 may be operated separately from the main processor 721 or embedded.
  • the coprocessor 723 may, for example, replace the main processor 721 while the main processor 721 is in an inactive (eg, sleep) state, or the main processor 721 may be active (eg At least one of the components of the electronic device 701 (eg, the display device 760, the sensor module 776, or the communication module) together with the main processor 721 while in the application execution state. 790) at least some of the functions or states associated with it.
  • coprocessor 723 eg, an image signal processor or communication processor
  • is implemented as some component of another functionally related component eg, camera module 780 or communication module 790. Can be.
  • the memory 730 may include various data used by at least one component of the electronic device 701 (eg, the processor 720 or the sensor module 776), for example, software (eg, the program 740). ), And input data or output data for a command related thereto.
  • the memory 730 may include a volatile memory 732 or a nonvolatile memory 734.
  • the program 740 is software stored in the memory 730, and may include, for example, an operating system 742, middleware 744, or an application 746.
  • the input device 750 is a device for receiving an instruction or data to be used in a component (for example, the processor 720) of the electronic device 701 from the outside (for example, a user) of the electronic device 701.
  • a component for example, the processor 720
  • the input device 750 may include a microphone, a mouse, or a keyboard.
  • the sound output device 755 is a device for outputting a sound signal to the outside of the electronic device 701.
  • the sound output device 755 may include a speaker used for general purposes such as multimedia playback or recording playback, and a receiver used only for receiving a call. It may include. According to one embodiment, the receiver may be formed integrally or separately from the speaker.
  • the display device 760 is a device for visually providing information to a user of the electronic device 701.
  • the display device 760 may include a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display device 760 may include a pressure sensor capable of measuring the intensity of the pressure on the touch circuitry or the touch.
  • the audio module 770 may bidirectionally convert a sound and an electrical signal. According to an embodiment of the present disclosure, the audio module 770 acquires sound through the input device 750, or an external electronic device (for example, a wired or wireless connection with the sound output device 755) or the electronic device 701. Sound may be output through the electronic device 702 (for example, a speaker or a headphone).
  • an external electronic device for example, a wired or wireless connection with the sound output device 755
  • Sound may be output through the electronic device 702 (for example, a speaker or a headphone).
  • the sensor module 776 may generate an electrical signal or data value corresponding to an operating state (eg, power or temperature) inside the electronic device 701 or an external environmental state.
  • the sensor module 776 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, Or an illumination sensor.
  • the interface 777 may support a specified protocol that may be connected to an external electronic device (for example, the electronic device 702) by wire or wirelessly.
  • the interface 777 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 778 may be a connector for physically connecting the electronic device 701 and an external electronic device (for example, the electronic device 702), for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
  • an HDMI connector for example, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
  • the haptic module 779 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that can be perceived by the user through tactile or kinesthetic sense.
  • the haptic module 779 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 780 may capture a still image and a video. According to an embodiment of the present disclosure, the camera module 780 may include one or more lenses, an image sensor, an image signal processor, or a flash.
  • the power management module 788 is a module for managing power supplied to the electronic device 701, and may be configured, for example, as at least part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 789 is a device for powering at least one component of the electronic device 701, and may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 790 may establish a wired or wireless communication channel between the electronic device 701 and an external electronic device (for example, the electronic device 702, the electronic device 704, or the server 708), and the established communication channel. It can support to perform communication through.
  • the communication module 790 may include one or more communication processors that support wired or wireless communication that operate independently of the processor 720 (eg, an application processor).
  • the communication module 790 may be a wireless communication module 792 (eg, a cellular communication module, a near field communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 794 (eg A local area network (LAN) communication module, or a power line communication module, comprising a local area network such as a Bluetooth, WiFi direct, or infrared data association (IrDA) using a corresponding communication module. Communication with an external electronic device via a communication network) or a second network 799 (eg, a telecommunication network such as a cellular network, the Internet, or a computer network (eg, a LAN or a WAN)).
  • the various types of communication modules 790 described above may be implemented as one chip or may be implemented as separate chips.
  • the wireless communication module 792 may distinguish and authenticate the electronic device 701 in the communication network by using user information stored in the subscriber identification module 796.
  • the antenna module 797 may include one or more antennas for transmitting or receiving signals or power from the outside.
  • the communication module 790 eg, the wireless communication module 792
  • peripheral devices eg, a bus, a general purpose input / output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input / output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 701 and the external electronic device 704 through the server 708 connected to the second network 799.
  • Each of the electronic devices 702 and 704 may be the same or different type of device as the electronic device 701.
  • all or part of operations executed in the electronic device 701 may be executed in another or a plurality of external electronic devices.
  • the electronic device 701 when the electronic device 701 needs to perform a function or service automatically or by request, the electronic device 701 may instead or additionally execute the function or service by itself. At least some associated functions may be requested to the external electronic device.
  • the external electronic device may execute the requested function or the additional function and transmit the result to the electronic device 701.
  • the electronic device 701 may process the received result as it is or additionally to provide the requested function or service.
  • cloud computing distributed computing, or client-server computing technology may be used.
  • Electronic devices may be various types of devices.
  • the electronic device may include, for example, at least one of a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smartphone
  • a computer device e.g., a laptop, a desktop, a tablet, or a smart bracelet
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a portable medical device
  • a home appliance e.g., a portable medical device, a portable medical device, a camera, a wearable device, or a home appliance.
  • An electronic device according to an embodiment of the present disclosure is not limited to the above-described devices.
  • any (eg first) component is said to be “connected (functionally or communicatively)” or “connected” to another (eg second) component
  • the other component is said other
  • the component may be directly connected or connected through another component (eg, a third component).
  • module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits.
  • the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
  • the module may be configured as an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of this document include instructions stored in a machine-readable storage media (eg, internal memory 736 or external memory 738) that can be read by a machine (eg, a computer). It may be implemented in software (eg, program 740).
  • the device may be a device capable of calling a stored command from a storage medium and operating in accordance with the called command, and may include an electronic device (eg, the electronic device 701) according to the disclosed embodiments.
  • the processor for example, the processor 720
  • the processor may perform a function corresponding to the command directly or by using other components under the control of the processor.
  • the instructions can include code generated or executed by a compiler or interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-temporary' means that the storage medium does not include a signal and is tangible, and does not distinguish that data is stored semi-permanently or temporarily on the storage medium.
  • a method according to various embodiments of the present disclosure may be included in a computer program product.
  • the computer program product may be traded between the seller and the buyer as a product.
  • the computer program product may be distributed online in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)) or via an application store (eg play store TM ).
  • a device-readable storage medium eg compact disc read only memory (CD-ROM)
  • an application store eg play store TM
  • at least a portion of the computer program product may be stored at least temporarily on a storage medium such as a server of a manufacturer, a server of an application store, or a relay server, or may be temporarily created.
  • Each component for example, a module or a program
  • some components eg, modules or programs
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least some operations may be executed in a different order, omitted, or another operation may be added. Can be.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명의 일 실시 예는, 통신 회로, 적어도 하나의 카메라 장치, 메모리, 디스플레이, 및 상기 통신 회로, 상기 적어도 하나의 카메라 장치, 상기 메모리 및 상기 디스플레이와 전기적으로 연결되는 프로세서를 포함하고, 상기 프로세서는, 상기 전자 장치의 운용과 관계되는 사용자 액티비티(activity)에 기초하여 쿼리(query)를 결정하고, 상기 통신 회로를 통하여 연결되는 적어도 하나의 외부 장치 또는 상기 메모리에 상기 쿼리에 대응하는 영상 효과 필터(effect filter) 포함 여부를 판단하고, 상기 적어도 하나의 외부 장치 또는 상기 메모리가 상기 쿼리에 대응하는 영상 효과 필터를 포함하는 것으로 판단되는 경우, 상기 적어도 하나의 외부 장치 또는 상기 메모리로부터 상기 쿼리에 대응하는 영상 효과 필터를 획득하고, 상기 적어도 하나의 카메라 장치에 의하여 촬영된 영상을 상기 디스플레이를 통해 출력하고, 상기 출력된 영상의 편집과 관계되는 이벤트 발생 시 상기 획득된 영상 효과 필터를 제공하도록 설정된 전자 장치를 개시한다. 이 외에도, 명세서를 통하여 파악되는 다양한 실시 예가 가능하다.

Description

영상 편집 방법 및 이를 지원하는 전자 장치
본 문서에서 개시되는 다양한 실시 예들은, 영상 편집 기술과 관련된다.
독자적 운영체제가 탑재된 전자 장치의 보급이 급속도로 확산되면서, 전자 장치는 다양한 기능 또는 인포테인먼트(infotainment) 서비스가 집약된 매체로 진화하고 있다. 예를 들어, 전자 장치는 고사양의 영상 촬영 장치를 탑재하여 운용 환경에 대한 영상(예: still image 또는 video 등) 촬영을 지원할 수 있다. 나아가, 전자 장치는 지정된 어플리케이션을 기반으로 촬영된 영상을 가공하여 다채로운 분위기 또는 하이라이트 등을 부여하는 영상 편집을 지원할 수 있다.
전자 장치는 영상 편집의 일환으로 예컨대, 촬영된 영상에 대하여 흑백, 세피아 또는 네거티브 등의 연출 효과를 부여하는 영상 효과 필터(effect filter)를 제공할 수 있다. 그러나, 상기 영상 효과 필터는 영상 편집을 지원하는 어플리케이션 개발사 또는 전자 장치 제조사 등에 의하여 정형화된 형태로 제공되는 바, 그 종류가 한정적일 수 있으며, 사용자 고유의 취향에 부합되지 않을 수 있다.
본 문서에서 개시되는 다양한 실시 예들은, 사용자의 전자 장치 운용 이력에 근거하여, 사용자가 선호할만한 영상 효과 필터를 판단 및 추천할 수 있는 영상 편집 방법 및 이를 지원하는 전자 장치를 제공할 수 있다.
일 실시 예에 따른 전자 장치는, 통신 회로, 적어도 하나의 카메라 장치, 메모리, 디스플레이, 및 상기 통신 회로, 상기 적어도 하나의 카메라 장치, 상기 메모리 및 상기 디스플레이와 전기적으로 연결되는 프로세서를 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서는, 상기 전자 장치의 운용과 관계되는 사용자 액티비티(activity)에 기초하여 쿼리(query)를 결정하고, 상기 통신 회로를 통하여 연결되는 적어도 하나의 외부 장치 또는 상기 메모리에 상기 쿼리에 대응하는 영상 효과 필터(effect filter) 포함 여부를 판단하고, 상기 적어도 하나의 외부 장치 또는 상기 메모리가 상기 쿼리에 대응하는 영상 효과 필터를 포함하는 것으로 판단되는 경우, 상기 적어도 하나의 외부 장치 또는 상기 메모리로부터 상기 쿼리에 대응하는 영상 효과 필터를 획득하고, 상기 적어도 하나의 카메라 장치에 의하여 촬영된 영상을 상기 디스플레이를 통해 출력하고, 상기 출력된 영상의 편집과 관계되는 이벤트 발생 시 상기 획득된 영상 효과 필터를 제공할 수 있다.
다양한 실시 예에 따르면, 영상 편집 시, 사용자의 취향, 관심사 또는 선호 분야 등에 유관되는 영상 효과 필터가 추천될 수 있다.
다양한 실시 예에 따르면, 추천된 영상 효과 필터가 누적 관리됨으로써, 사용자에게 최적화된 영상 편집 플랫폼이 구축될 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른 전자 장치의 운용 일례를 도시한 도면이다.
도 2는 일 실시 예에 따른 전자 장치의 구성을 도시한 도면이다.
도 3a는 제1 실시 예에 따른 전자 장치의 사용자 유관의 영상 효과 필터 판단 형태를 도시한 도면이다.
도 3b는 제2 실시 예에 따른 전자 장치의 사용자 유관의 영상 효과 필터 판단 형태를 도시한 도면이다.
도 3c는 제3 실시 예에 따른 전자 장치의 사용자 유관의 영상 효과 필터 판단 형태를 도시한 도면이다.
도 3d는 제4 실시 예에 따른 전자 장치의 사용자 유관의 영상 효과 필터 판단 형태를 도시한 도면이다.
도 4는 일 실시 예에 따른 전자 장치의 영상 효과 필터 적용 형태를 도시한 도면이다.
도 5는 다른 실시 예에 따른 전자 장치의 영상 효과 필터 적용 형태를 도시한 도면이다.
도 6은 일 실시 예에 따른 전자 장치의 영상 편집 지원 방법을 도시한 도면이다.
도 7은 일 실시 예에 따른 네트워크 환경 내의 전자 장치를 도시한 도면이다.
도면의 설명과 관련하여, 동일 또는 대응되는 구성요소에 대해서는 동일한 참조 번호가 부여될 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크톱 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라, 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면 웨어러블 장치는 엑세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체 형(예: 전자 의복), 신체 부착 형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식 형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD 플레이어(Digital Video Disk player), 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 내비게이션(navigation) 장치, 위성 항법 시스템(GNSS(Global Navigation Satellite System)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시 예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 일 실시 예에 따른 전자 장치의 운용 일례를 도시한 도면이다.
도 1을 참조하면, 전자 장치(100)는 탑재된 적어도 하나의 카메라 장치를 기반으로 상기 전자 장치(100)의 운용 환경에 대한 영상(예: still image 또는 video 등)을 촬영할 수 있다. 예를 들어, 전자 장치(100)는 상기 전자 장치(100)의 전면 일 영역에 배치되는 적어도 하나의 제1 카메라 장치를 이용하여 사용자 신체의 적어도 일부를 촬영하거나, 전자 장치(100)의 후면 일 영역에 배치되는 적어도 하나의 제2 카메라 장치를 이용하여 임의의 배경 또는 오브젝트(object)를 촬영할 수 있다.
일 실시 예에서, 전자 장치(100)는 촬영된 영상을 지정된 적어도 하나의 어플리케이션을 통하여 프리뷰(preview) 형태로 제공할 수 있다. 예를 들어, 전자 장치(100)는 상기 영상 촬영을 지원하는 어플리케이션(예: 카메라 어플리케이션 등)의 실행 화면 상에 촬영된 영상을 프리뷰로 제공할 수 있다. 또는, 전자 장치(100)는 촬영된 영상의 관리(예: 편집, 공유 또는 삭제 등) 또는 재생을 지원하는 어플리케이션(예: 갤러리 어플리케이션, 포토 에디터 어플리케이션 또는 비디오 플레이어 어플리케이션 등)의 실행 화면 상에 촬영된(또는, 메모리 영역에 저장된) 적어도 하나의 영상에 대한 프리뷰를 제공할 수 있다. 이 동작에서, 전자 장치(100)는 사용자로부터 선택되는 프리뷰의 영상을 상기 어플리케이션의 실행 화면(10)에 표시(예: 확대 표시)하고, 표시된 영상의 편집과 관계되는 적어도 하나의 툴(tool) 메뉴(예: 조절 메뉴, 색조 메뉴, 효과 메뉴 또는 꾸미기 메뉴 등)를 상기 실행 화면(10)의 일 영역으로 제공할 수 있다.
일 실시 예에서, 사용자로부터 상기 적어도 하나의 툴 메뉴 중 표시된 영상에 다양한 연출 효과를 부여할 수 있는 메뉴(예: 효과 메뉴(1))가 선택되는 경우, 전자 장치(100)는 실행 화면(10)의 일 영역으로 상호 상이한 연출 효과 특성을 갖는 적어도 하나의 영상 효과 필터(11)를 제공할 수 있다. 다양한 실시 예에 따르면, 상기 적어도 하나의 영상 효과 필터(11)는 상기 어플리케이션의 공급처(예: 전자 장치(100) 제조사 또는 서드 파티(third party) 어플리케이션 개발사 등)로부터 제작될 수 있으며, 상기 어플리케이션의 인스톨(install) 시 일부 데이터로써 포함될 수 있다.
다양한 실시 예에서, 상기 어플리케이션의 실행 화면(10)에 제공되는 적어도 하나의 영상 효과 필터(11)는 그 수량 또는 종류에 있어 한정적일 수 있다. 예를 들어, 적어도 하나의 영상 효과 필터(11)는 상기 어플리케이션 공급처의 정책(policy) 또는 상기 어플리케이션 실행 화면(10)의 규격에 따라, 상기 어플리케이션 공급처가 제작한 영상 효과 필터들 중 일부만이 제공될 수 있다. 또는, 어플리케이션 실행 화면(10)에 제공되는 적어도 하나의 영상 효과 필터(11)는 상기 어플리케이션 공급처가 신규 제작하거나, 업데이트한 영상 효과 필터를 실시간으로 포함하지 못할 수 있다. 이에 따르면, 상기 적어도 하나의 영상 효과 필터(11)는 소정의 기간(예: 어플리케이션의 업데이트 이전 기간 등) 동안 일정한 형태로 제공되거나, 복수의 전자 장치에서 동일 또는 유사한 형태로 제공될 수 있으며, 다양한 사용자들의 프리퍼런스(preference)에 충족되지 않을 수 있다.
상술과 관련하여, 일 실시 예에 따른 전자 장치(100)는 촬영된 적어도 하나의 영상에 대한 영상 편집 동작에서, 사용자의 프리퍼런스와 적어도 일부 관계되는 영상 효과 필터를 추천할 수 있다. 예를 들어, 전자 장치(100)는 상기 전자 장치(100)의 운용과 관련한 적어도 하나의 사용자 액티비티(activity) 이력(예: 웹 페이지 검색 이력, 다이얼로그 이력, 전자 결제 이력 또는 소셜 네트워크 서비스 실행 이력 등)에 기초하여 사용자의 프리퍼런스를 예측하고, 예측된 프리퍼런스에 적어도 일부 대응하는 영상 효과 필터를 추천할 수 있다. 이하에서는, 상기 영상 효과 필터 추천과 관련한 다양한 실시 예 및 이를 구현하는 전자 장치(100) 구성요소들의 기능 동작에 대하여 살펴보기로 한다.
도 2는 일 실시 예에 따른 전자 장치의 구성을 도시한 도면이다.
도 2를 참조하면, 전자 장치(100)는 통신 회로(110), 카메라 장치(120), 메모리(130), 디스플레이(140) 및 프로세서(150)를 포함할 수 있다. 다양한 실시 예에 따르면, 전자 장치(100)는 상술한 구성요소들 중 적어도 하나를 생략하거나, 다른 구성요소를 추가적으로 포함할 수 있다. 예를 들어, 전자 장치(100)는 상기 구성요소들로 전력을 공급하는 전원 공급 장치(예: 배터리) 또는 전자 장치(100) 운용 환경에 대한 각종 정보를 센싱하는 센서 장치(예: 근접 센서, 조도 센서, 가속도 센서, 지문 인식 센서 또는 홍채 인식 센서 등) 등을 더 포함할 수 있다. 또는, 전자 장치(100)는 후술되는 도 7을 통하여 언급될 전자 장치(701)의 구성요소들을 더 포함할 수 있다.
상기 통신 회로(110)는 전자 장치(100)와 적어도 하나의 외부 장치(200 및/또는 300) 간의 통신을 지원할 수 있다. 예를 들어, 통신 회로(110)는 전자 장치(100) 제조사 측 서버(200) 및 서드 파티 어플리케이션 개발사 측 서버(300) 중 적어도 하나와 규정된 프로토콜(protocol)에 따른 유선 통신 또는 무선 통신을 수행할 수 있다. 이와 관련하여, 통신 회로(110)는 상기 적어도 하나의 외부 장치(200 및/또는 300)와 네트워크(400)를 구축하고, 상기 유선 통신 또는 무선 통신을 통한 네트워크(400) 접속을 기반으로 적어도 하나의 외부 장치(200 및/또는 300)와 신호 또는 데이터를 송수신할 수 있다.
상기 카메라 장치(120)는 전자 장치(100) 운용 환경에 대한 영상(예: still image 또는 video 등)을 촬영할 수 있다. 일 실시 예에서, 전자 장치(100)는 상호 상이한 화각(angle of view)(또는, 적어도 일부 중첩되는 화각)을 갖는 복수의 카메라 장치(120)를 포함할 수 있다. 예를 들어, 복수의 카메라 장치(120) 중 적어도 하나의 제1 카메라 장치는 전자 장치(100)의 전방 영역을 촬영하도록 상기 전자 장치(100)의 전면 일 영역으로 배치되고, 적어도 하나의 제2 카메라 장치는 전자 장치(100)의 후방 영역을 촬영하도록 상기 전자 장치(100)의 후면 일 영역에 배치될 수 있다. 다양한 실시 예에서, 카메라 장치(120)에 의하여 촬영된 영상은 사용자 제어 또는 지정된 스케줄링 정보에 따라 메모리(130)에 저장되거나, 상기 통신 회로(110)를 통하여 지정된 외부 장치(예: 클라우드(cloud)(미도시))로 전송될 수 있다.
상기 메모리(130)는 전자 장치(100)의 운용과 관계되는 적어도 하나의 데이터를 저장하거나, 전자 장치(100) 구성요소들의 기능 동작 제어와 관계되는 적어도 하나의 명령을 저장할 수 있다. 예를 들어, 메모리(130)는 전자 장치(100) 운용에 따른 각종 로그 정보(예: app usage 정보 또는 displaying 정보 등)를 저장할 수 있다. 또는, 메모리(130)는 상기 카메라 장치(120)에 의하여 촬영되거나, 사용자 제어에 따라 임의의 외부 장치로부터 다운로드 또는 스트리밍(streaming) 받는 적어도 하나의 영상을 저장할 수 있다.
일 실시 예에서, 메모리(130)는 전자 장치(100) 제조 시 프리로드(preloaded) 형태로 탑재되거나, 온라인 마켓(예: 앱 스토어(app store))으로부터 다운로드 받는 적어도 하나의 어플리케이션(131)을 저장할 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 어플리케이션(131)은 영상의 촬영, 관리(예: 편집, 공유 또는 삭제 등) 또는 재생 등을 지원하는 어플리케이션(예: 카메라 어플리케이션, 갤러리 어플리케이션, 포토 에디터 어플리케이션 또는 비디오 플레이어 어플리케이션 등, 이하 제1 어플리케이션이라 칭함)을 포함할 수 있으며, 상기 제1 어플리케이션은 촬영된 영상의 편집과 관계되는 적어도 하나의 영상 효과 필터를 포함할 수 있다. 또는, 상기 적어도 하나의 어플리케이션(131)은 지정된 적어도 하나의 영상에 대하여 기계 학습 알고리즘 기반의 분석을 수행하고, 분석 결과 도출되는 상기 지정된 적어도 하나의 영상의 특징에 대응되는 영상 효과 필터를 생성할 수 있는 어플리케이션을 포함할 수 있다.
일 실시 예에서, 메모리(130)는 상기 제1 어플리케이션이 포함하는 적어도 하나의 영상 효과 필터를 데이터베이스(133)로 저장할 수 있다. 또한, 메모리(130)는 상기 제1 어플리케이션의 공급처(예: 전자 장치(100) 제조사 또는 서드 파티 어플리케이션 개발사 등)로부터 신규하게 다운로드 받거나, 업데이트 받는 적어도 하나의 영상 효과 필터를 상기 데이터베이스(133)에 포함시킬 수 있다. 일 실시 예에 따르면, 상기 데이터베이스(133) 상에서 적어도 하나의 영상 효과 필터는 해당 영상 효과 필터의 속성 정보(예: 영상 효과 필터 식별 정보, 효과 정보, 디자인 정보 또는 제작 시 참조된 아티스트 정보 등)와 매핑되어 저장될 수 있다.
다양한 실시 예에 따르면, 상기 데이터베이스(133) 상에서 적어도 하나의 영상 효과 필터는 프로세서(150)의 제어 하에, 필터 셋(set) 형태로 저장될 수 있다. 예를 들어, 상기 데이터베이스(133) 구축 시(또는, 데이터베이스(133) 업데이트 시), 상호 유사한 속성 정보를 갖는 적어도 하나의 영상 효과 필터가 그룹핑되어 하나의 필터 셋으로 구성될 수 있다. 일 실시 예에서, 구성된 필터 셋에는 상기 필터 셋에 포함되는 적어도 하나의 영상 효과 필터의 속성 정보를 포괄하는 개념의 상위 속성 정보(예: 필터 셋 식별자)가 부여될 수 있다.
상기 디스플레이(140)는 각종 콘텐츠를 출력할 수 있다. 예를 들어, 디스플레이(140)는 사용자 제어 또는 지정된 스케줄링 정보에 대응하여 전자 장치(100)의 운용 화면(예: 홈 화면 또는 어플리케이션(131)의 실행 화면 등)을 출력하거나, 메모리(130)에 저장된 적어도 하나의 영상을 출력할 수 있다. 또는, 디스플레이(140)는 상기 출력된 영상에 대한 영상 편집 동작에서, 사용자로부터 특정 영상 효과 필터가 선택되는 경우, 출력된 영상을 상기 선택된 영상 효과 필터가 적용된 영상으로 전환하여 출력할 수 있다.
다양한 실시 예에서, 디스플레이(140)는 디스플레이 패널, 커버 글라스 및 터치 패널(또는, 터치 센서)을 포함하는 터치스크린 디스플레이로 구현될 수 있다. 상기 디스플레이 패널은 영상 정보에 대응하는 구동 신호를 지정된 프레임률(frame rate)로 수신하고, 상기 구동 신호에 기초하여 관련 화면을 출력할 수 있다. 상기 커버 글라스는 디스플레이 패널의 상부로 배치되어 상기 디스플레이 패널의 화면 출력에 따른 광을 투과시킬 수 있다. 또한, 상기 커버 글라스의 적어도 일 영역에는 사용자 신체(예: 손가락) 또는 전자 펜에 의한 사용자 입력(예: 터치, 드래그, 프레스 또는 호버링 등)이 인가될 수 있다. 상기 터치 패널은 사용자 입력에 따른 신호를 검출(예: 정전식 검출, 감압식 검출, 적외선 방식 검출 또는 초음파 방식 검출 등)하여 전기적 신호로 출력하고, 상기 전기적 신호에 대한 정보를 프로세서(150)로 전달할 수 있다.
상기 프로세서(150)는 중앙처리장치(central processing unit), 어플리케이션 프로세서(application processor) 및 커뮤니케이션 프로세서(communication processor) 중 적어도 하나로 구현되어, 상술된 전자 장치(100)의 구성요소(예: 통신 회로(110), 카메라 장치(120), 메모리(130) 또는 디스플레이(140) 등)를 제어할 수 있다. 예를 들어, 프로세서(150)는 적어도 하나의 구성요소와 전기적 또는 기능적으로 연결되어, 구성요소로 기능 동작과 관계되는 적어도 하나의 명령어를 전달하거나, 각종 통신 연산 또는 데이터 처리 등을 수행할 수 있다.
일 실시 예에서, 프로세서(150)는 카메라 장치(110)에 의하여 촬영된 영상(또는, 메모리(130)에 저장된 영상)의 적어도 일부를 사용자 제어에 대응하여 편집하는 동작에서, 사용자의 프리퍼런스(preference)(예: 취향, 관심사 또는 선호 분야 등)와 적어도 일부 관계되는 영상 효과 필터를 제공(또는, 추천)할 수 있다. 이와 관련하여, 프로세서(150)는 메모리(130)에 저장된 적어도 하나의 로그 정보(예: app usage 정보 또는 displaying 정보 등)를 지정된 주기로 참조하여, 상기 지정된 주기 내의 적어도 하나의 사용자 액티비티(activity)를 확인할 수 있다. 프로세서(150)는 상기 적어도 하나의 사용자 액티비티와 관계되는 정보 자원 중 지정된 조건을 충족하는 적어도 하나의 정보 자원을 검출할 수 있다. 프로세서(150)는 상기 검출된 적어도 하나의 정보 자원을 사용자의 프리퍼런스와 관계되는 것으로 판단하고, 검출된 각각의 정보 자원에 대한 쿼리(query)를 생성할 수 있다. 일례를 들면, 상기 지정된 조건을 충족하는 정보 자원으로써 특정 텍스트가 검출된 경우, 프로세서(150)는 상기 특정 텍스트와 관계된 영상 효과 필터를 수집하기 위한 쿼리를 생성할 수 있다.
일 실시 예에서, 프로세서(150)는 생성된 적어도 하나의 쿼리를 적어도 하나의 외부 장치(200 및/또는 300)로 전송하여, 상기 적어도 하나의 외부 장치(200 및/또는 300)가 상기 생성된 적어도 하나의 쿼리에 대응하는 영상 효과 필터를 포함하는지 여부를 문의할 수 있다. 만일, 적어도 하나의 외부 장치(200 및/또는 300) 중 적어도 일부가 상기 적어도 하나의 쿼리에 대응하는 영상 효과 필터를 포함하는 경우, 프로세서(150)는 상기 문의에 대한 응답으로써 해당 외부 장치(200 및/또는 300)로부터 상기 적어도 하나의 쿼리에 대응하는 영상 효과 필터의 데이터를 수신할 수 있다. 프로세서(150)는 적어도 하나의 외부 장치(200 및/또는 300)로부터 수신한 영상 효과 필터(또는, 영상 효과 필터의 데이터)를 메모리(130)의 데이터베이스(133)에 저장할 수 있다. 다른 실시 예에서, 프로세서(150)는 메모리(130)의 데이터베이스(133)에 상기 적어도 하나의 쿼리에 대응하는 영상 효과 필터가 포함되었는지 여부를 판단할 수 있다. 판단 결과, 데이터베이스(133)에 상기 적어도 하나의 쿼리에 대응하는 영상 효과 필터가 포함된 경우, 프로세서(150)는 해당 영상 효과 필터의 데이터를 메모리(130)에 로드할 수 있다.
일 실시 예에 따르면, 상기 제1 어플리케이션의 실행을 기반으로 하는 영상 편집 동작에서, 프로세서(150)는 상기 적어도 하나의 외부 장치(200 및/또는 300)로부터 수신한 적어도 하나의 영상 효과 필터 또는 메모리(130)에 로드된 적어도 하나의 영상 효과 필터를 상기 제1 어플리케이션의 실행 화면에 표시함으로써, 판단된 사용자 프리퍼런스에 적어도 일부 대응하는 영상 효과 필터를 제공(또는, 추천)할 수 있다.
도 3a, 도 3b, 도 3c 및 도 3d는 다양한 실시 예에 따른 전자 장치의 사용자 유관의 영상 효과 필터 판단 형태를 도시한 도면이다.
도 3a를 참조하면, 전자 장치(100)의 프로세서(도 2의 150)는 전술된 지정된 주기 내의 적어도 하나의 사용자 액티비티(activity)를 확인하는 동작의 적어도 일부로써, 적어도 하나의 어플리케이션(도 2의 131)에서 수행된 사용자의 검색 이력을 확인할 수 있다. 일 실시 예에서, 상기 검색 이력은 어플리케이션의 실행 화면(20)이 포함하는 입력 필드(21)(input field)(예: 주소 창 또는 검색 창 등)에 입력된 텍스트 정보 또는 상기 텍스트에 대한 검색에 따라 출력되는 검색 결과 화면(30) 정보를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(150)는 상기 지정된 주기 내에서 입력 필드(21)에 입력된 적어도 하나의 텍스트 정보를 수집하고, 수집된 텍스트 정보에 기초하여 지정된 임계량 이상의 텍스트(23)를 검출할 수 있다. 또는, 프로세서(150)는 상기 입력 필드(21)에 입력된 텍스트의 검색에 따라 출력되는 검색 결과 화면(30) 상에서 지정된 임계량 이상으로 출현하는 텍스트(31 및/또는 33)를 검출할 수 있다.
도 3b를 참조하면, 전자 장치(100)의 프로세서(150)는 상기 지정된 주기 내의 적어도 하나의 사용자 액티비티를 확인하는 동작의 적어도 일부로써, 적어도 하나의 어플리케이션(도 2의 131)을 통하여 수행된 사용자의 다이얼로그(dialog) 이력을 확인할 수 있다. 일 실시 예에서, 상기 다이얼로그 이력은 다이얼로그 상대방(또는, 다이얼로그 상대의 외부 장치)으로부터 수신하는 텍스트 정보, 다이얼로그 화면(40) 상에서 SIP(software input panel) 자판을 통하여 입력되는 텍스트 정보, 또는 사용자 발화(50)에 따른 음성 데이터에 포함된 텍스트 정보를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(150)는 상기 지정된 주기 내에서 다이얼로그 상대방(또는, 다이얼로그 상대의 외부 장치)으로부터 수신하여 다이얼로그 화면(40)(예: 메시지 화면) 상에 출력된 적어도 하나의 텍스트 정보 또는 상기 SIP 자판을 통한 입력에 따라 다이얼로그 화면(40) 상에 출력된 적어도 하나의 텍스트 정보를 수집하고, 수집된 텍스트 정보에 기초하여 지정된 임계량 이상으로 출력된 텍스트(41 및/또는 43)를 검출할 수 있다. 또는, 프로세서(150)는 상기 지정된 주기 내에서 실행된 다이얼로그 관련 어플리케이션(예: 통화 어플리케이션 또는 개인 어시스턴트(assistant) 어플리케이션 등)의 운용에 따른 사용자 발화(50)의 음성 데이터를 수집하고, 수집된 음성 데이터 상에서 지정된 임계량 이상으로 포함된 텍스트(51)를 검출할 수 있다.
도 3c를 참조하면, 전자 장치(100)의 프로세서(150)는 상기 지정된 주기 내의 적어도 하나의 사용자 액티비티를 확인하는 동작의 적어도 일부로써, 적어도 하나의 어플리케이션(도 2의 131)을 통하여 수행된 전자 결제 서비스 운용 이력을 확인할 수 있다. 상기 전자 결제 서비스는 예컨대, 임의의 티켓 예매 서비스 및 온라인 쇼핑 서비스를 포괄하는 개념으로 이해될 수 있다. 일 실시 예에 따르면, 프로세서(150)는 상기 지정된 주기 내에서 전자 결제 서비스 운용과 관련하여 출력된 적어도 하나의 전자 결제 화면(60)을 확인하고, 상기 전자 결제 화면(60)에 포함된 적어도 하나의 텍스트 정보를 수집할 수 있다. 프로세서(150) 수집된 적어도 하나의 텍스트 정보에 기초하여 지정된 임계량 이상에 해당하는 텍스트(61)를 검출할 수 있다.
도 3d를 참조하면, 전자 장치(100)의 프로세서(150)는 상기 지정된 주기 내의 적어도 하나의 사용자 액티비티를 확인하는 동작의 적어도 일부로써, 적어도 하나의 어플리케이션(도 2의 131)의 실행 화면 상에서 사용자로부터 선택된 콘텐츠(예: still image 또는 video 등)의 이력을 확인할 수 있다. 일 실시 예에서, 상기 콘텐츠 이력은 소셜 네트워킹 서비스(social networking service)를 지원하는 어플리케이션의 실행 화면(70) 상에서 사용자로부터 선택(예: like, collecting 또는 sharing 등)된 적어도 하나의 콘텐츠(71)를 포함할 수 있다. 또는, 상기 콘텐츠 이력은 웹 브라우징 어플리케이션의 실행 화면(80) 상에서 지정된 메뉴(83)를 통하여 다운로드된 적어도 하나의 콘텐츠(81)를 포함할 수 있다. 일 실시 예에서, 프로세서(150)는 상기 선택 또는 다운로드된 적어도 하나의 콘텐츠(71 및/또는 81)를 수집하고, 수집된 콘텐츠의 메타데이터(예: 로케이션(location) 정보) 또는 태그(tag) 정보를 확인할 수 있다. 프로세서(150)는 상기 메타데이터 또는 태그 정보에 포함된 적어도 하나의 텍스트 정보에 기초하여 지정된 임계량 이상의 텍스트를 검출할 수 있다.
일 실시 예에서, 프로세서(150)는 지정된 임계량 이상의 텍스트를 상술한 액티비티들에 따른 이력들에 대하여 개별적으로 검출할 수 있다. 예를 들어, 프로세서(150)는 검색 이력, 다이얼로그 이력, 전자 결제 서비스 운용 이력 및/또는 콘텐츠 이력 각각으로부터 상기 지정된 임계량 이상의 텍스트를 검출할 수 있다.
다른 실시 예에서, 프로세서(150)는 상기 지정된 임계량 이상의 텍스트를 상술한 액티비티들에 따른 이력들에 대하여 종합적으로 검출할 수 있다. 예를 들어, 프로세서(150)는 검색 이력, 다이얼로그 이력, 전자 결제 서비스 운용 이력 및/또는 콘텐츠 이력 각각으로부터 적어도 하나의 텍스트 정보를 수집하고, 수집된 적어도 하나의 텍스트 정보 상에서 지정된 임계량 이상의 텍스트를 검출할 수 있다. 이 동작에서, 프로세서(150)는 상기 수집된 적어도 하나의 텍스트 정보 상에 지정된 임계량 이상의 텍스트가 존재하지 않더라도, 상호 상이한 복수의 이력들 각각으로부터 동일한 텍스트 정보가 수집된 경우, 상기 동일한 텍스트 정보에 따른 텍스트를 지정된 임계량 이상의 텍스트로 판단할 수 있다. 예를 들어, 상기 검색 이력으로부터 제1 텍스트(23)(예: 너의 이름은) 정보가 수집되고, 상기 전자 결제 서비스 운용 이력으로부터 상기 제1 텍스트(23) 정보와 동일한 제2 텍스트(61)(예: 너의 이름은) 정보가 수집된 경우, 프로세서(150)는 제1 텍스트(23) 및 제2 텍스트(61)를 수집 양과 관계없이 지정된 임계량 이상의 텍스트로 판단하여 검출할 수 있다.
다양한 실시 예에서, 프로세서(150)는 상기 지정된 임계량 이상의 텍스트 검출과 관련하여, 검출을 배제하기 위한 적어도 하나의 텍스트를 리스트로 관리할 수 있다. 예를 들어, 프로세서(150)는 사용자로부터 설정되는 일상적 속성의 적어도 하나의 텍스트(예: 평시 빈번하게 사용되는 텍스트 또는 특별한 의미 없이 습관적으로 사용되는 텍스트 등)를 리스트로 관리할 수 있다. 프로세서(150)는 상기 지정된 임계량 이상의 텍스트 검출 시, 상기 리스트를 참조하여 리스트에 포함된 텍스트의 검출을 배제할 수 있다.
일 실시 예에서, 프로세서(150)는 검출된 상기 임계량 이상의 텍스트를 전자 장치(100) 사용자의 프리퍼런스와 관계되는 것으로 판단하고, 상기 임계량 이상의 텍스트와 관계되는 적어도 하나의 영상 효과 필터를 수집하기 위한 쿼리(query)를 생성할 수 있다. 프로세서(150)는 생성된 쿼리를 전자 장치(100)로 영상 효과 필터를 제공하는 적어도 하나의 외부 장치(예: 전자 장치(100) 제조사 측 서버(도 2의 200) 및/또는 서드 파티 어플리케이션 개발사 측 서버(도 2의 300) 등)로 전송할 수 있다. 프로세서(150)는 쿼리의 전송과 함께, 적어도 하나의 외부 장치(200 및/또는 300)로 상기 쿼리에 대응하는 영상 효과 필터의 포함 여부를 문의하고, 이에 대한 응답으로 상기 쿼리에 대응하는 영상 효과 필터의 데이터를 수신할 수 있다.
또는, 프로세서(150)는 전자 장치(100)에 탑재 또는 인스톨된 적어도 하나의 어플리케이션(예: 카메라 어플리케이션, 갤러리 어플리케이션, 포토 에디터 어플리케이션 또는 비디오 플레이어 어플리케이션 등)이 포함하는 영상 효과 필터가 저장된 데이터베이스(도 2의 133)에 액세스하여, 상기 쿼리에 대응하는 영상 효과 필터의 포함 여부를 판단할 수 있다. 판단 결과, 데이터베이스(133)에 상기 쿼리에 대응하는 영상 효과 필터가 포함된 경우, 프로세서(150)는 해당 영상 효과 필터를 메모리(도 2의 130)에 로드할 수 있다. 다양한 실시 예에서, 상기 쿼리가 데이터베이스(133)에 구성된 특정 필터 셋의 상위 속성 정보(예: 필터 셋 식별자)에 대응하는 경우, 프로세서(150)는 상기 특정 필터 셋에 포함된 적어도 하나의 영상 효과 필터 모두를 메모리(130)에 로드하거나, 랜덤(random)하게 추출하여 로드할 수 있다.
다양한 실시 예에 따르면, 프로세서(150)는 도 3d를 통하여 전술한 선택 또는 다운로드된 적어도 하나의 콘텐츠(71 및/또는 81)를 이용하여 영상 효과 필터를 생성할 수 있다. 이와 관련하여, 프로세서(150)는 상기 선택 또는 다운로드된 적어도 하나의 콘텐츠(71 및/또는 81)를 수집하여 지정된 어플리케이션으로 전달할 수 있다. 상기 지정된 어플리케이션은 예컨대, 이미지 프로세싱과 관계되는 기계 학습 알고리즘을 포함할 수 있으며, 상기 기계 학습 알고리즘을 이용하여 적어도 하나의 콘텐츠(71 및/또는 81)에 대한 분석을 수행할 수 있다. 예를 들어, 상기 지정된 어플리케이션은 프로세서(150)로부터 전달받은 적어도 하나의 콘텐츠(71 및/또는 81) 각각을 분석하여, 상기 적어도 하나의 콘텐츠(71 및/또는 81)가 포함하는 디자인 패턴 또는 그래픽적 파라미터(예: 색조, 깊이, 명암, 반전, 왜곡, 패턴 또는 디자인 템플릿 등) 등을 도출할 수 있다. 또는, 상기 지정된 어플리케이션은 상기 적어도 하나의 콘텐츠(71 및/또는 81) 각각으로부터 도출되는 디자인 패턴 또는 그래픽적 파라미터들을 조합하여 종합적인 디자인 패턴 또는 종합적인 그래픽적 파라미터를 도출할 수 있다. 프로세서(150)는 상기 지정된 어플리케이션으로 하여금, 상기 도출된 디자인 패턴 또는 그래픽적 파라미터가 시각적으로 표현될 수 있는(또는, 적용된) 영상 효과 필터를 생성하도록 제어할 수 있다.
도 4는 일 실시 예에 따른 전자 장치의 영상 효과 필터 적용 형태를 도시한 도면이고, 도 5는 다른 실시 예에 따른 전자 장치의 영상 효과 필터 적용 형태를 도시한 도면이다.
도 4를 참조하면, 전자 장치(100)의 프로세서(도 2의 150)는 영상의 촬영, 관리(예: 편집, 공유 또는 삭제 등) 또는 재생 등을 지원하는 어플리케이션(예: 카메라 어플리케이션, 갤러리 어플리케이션, 포토 에디터 어플리케이션 또는 비디오 플레이어 어플리케이션 등, 이하 제1 어플리케이션이라 칭함)의 실행 화면(10a)에 사용자로부터 선택되는 영상(13a)을 표시할 수 있다. 또한, 프로세서(150)는 상기 제1 어플리케이션에 대한 사용자의 메뉴 조작에 따라, 표시된 영상(13a)에 다양한 연출 효과를 부여할 수 있는 적어도 하나의 영상 효과 필터를 실행 화면(10a)의 일 영역으로 제공할 수 있다. 이 동작에서, 프로세서(150)는 적어도 하나의 외부 장치(예: 전자 장치(100) 제조사 측 서버(도 2의 200) 및/또는 서드 파티 어플리케이션 개발사 측 서버(도 2의 300) 등)로부터 획득되거나, 메모리(도 2의 130)의 데이터베이스(도 2의 133)로부터 획득되는 적어도 하나의 사용자 프리퍼런스 관련 영상 효과 필터(15a 및/또는 17a)를 제공(또는, 추천)할 수 있다. 또는, 프로세서(150)는 영상 효과 필터 생성과 관련한 어플리케이션으로부터 적어도 하나의 영상 효과 필터를 획득하여 제공(또는, 추천)할 수 있다.
일 실시 예에서, 상기 사용자 프리퍼런스 관련 영상 효과 필터(15a 및/또는 17a) 중 어느 하나가 사용자로부터 선택(예: 터치)될 수 있다. 이 경우, 프로세서(150)는 표시된 영상(13a)에 상기 선택된 영상 효과 필터(15a 또는 17a)를 적용할 수 있다. 예를 들어, 프로세서(150)는 상기 선택된 영상 효과 필터(15a 또는 17a)의 속성 정보(예: 효과 정보 또는 디자인 정보 등)를 참조하여 표시된 영상(13a)의 그래픽적 파라미터(예: 색조, 깊이, 명암, 반전, 왜곡, 패턴 또는 디자인 템플릿 등)를 조정할 수 있다. 프로세서(150)는 제1 어플리케이션의 실행 화면(10a) 상에 상기 선택된 영상 효과 필터(15a 또는 17a)가 적용된 영상(13b)을 표시하고, 해당 영상(13b)의 운용과 관계되는 적어도 하나의 메뉴(예: 취소, 공유 또는 저장 등)(미도시)를 제공할 수 있다.
도 5를 참조하면, 전자 장치(100)의 프로세서(150)는 제1 어플리케이션의 실행 화면(10a)에 표시된 영상(13c)에 연출 효과를 부여할 수 있는 적어도 하나의 영상 효과 필터를 제공하는 동작에서, 상기 표시된 영상(13c)에 대한 속성(예: 인물 영상 또는 배경 영상)을 판단할 수 있다. 예를 들어, 프로세서(150)는 상기 표시된 영상(13c)에 대한 이미지 분석을 기반으로, 상기 영상(13c)에 인체의 안면과 관계되는 특징점 또는 윤곽의 포함 여부를 확인함으로써, 영상(13c)의 속성을 판단할 수 있다.
일 실시 예에서, 프로세서(150)는 상기 적어도 하나의 외부 장치(200 및/또는 300) 또는 메모리(130)의 데이터베이스(133)로부터 획득된 적어도 하나의 사용자 프리퍼런스 관련 영상 효과 필터 중 상기 판단된 영상(13c)의 속성에 대응하는 적어도 하나의 영상 효과 필터(15b 및/또는 17b)만을 제공할 수 있다. 예를 들어, 상기 표시된 영상(13c)이 인물 속성의 영상인 경우, 프로세서(150)는 획득된 적어도 하나의 사용자 프리퍼런스 관련 영상 효과 필터 중 인물 영상 전용으로 제작된 영상 효과 필터만을 제공할 수 있다. 또는, 프로세서(150)는 상기 표시된 영상(13c)의 속성과 관계없이, 획득된 적어도 하나의 사용자 프리퍼런스 관련 영상 효과 필터(15b 및/또는 17b) 모두를 제공할 수 있다.
다양한 실시 예에서, 사용자로부터 배경 전용의 영상 효과 필터가 선택되는 경우, 프로세서(150)는 표시된 영상(13c)에 상기 선택된 배경 전용의 영상 효과 필터를 부분적으로 적용할 수 있다. 예를 들어, 프로세서(150)는 이미지 분석을 기반으로 검출되는 상기 표시된 영상(13c) 상의 안면(또는, 신체) 영역을 제외한 배경 영역에 상기 선택된 배경 전용의 영상 효과 필터를 적용하고, 적용된 영상(13d)을 표시할 수 있다.
다양한 실시 예에서, 프로세서(150)는 영상 효과 필터가 적용된 영상(도 4의 13b 또는 도 5의 13d)을 표시하는 동작에서, 상기 적용된 영상 효과 필터를 누적 관리하기 위한 메뉴(미도시)를 제공할 수 있다. 프로세서(150)는 상기 메뉴에 대한 사용자 입력에 대응하여 상기 적용된 영상 효과 필터를 별도의 데이터베이스로 관리하고, 추후 임의의 영상에 대한 영상 편집 동작에서 상기 누적 관리된(또는, 별도의 데이터베이스로 관리된) 적어도 하나의 영상 효과 필터를 제공(또는, 추천)할 수 있다.
전술된 다양한 실시 예에 따른 전자 장치는, 통신 회로, 적어도 하나의 카메라 장치, 메모리, 디스플레이, 및 상기 통신 회로, 상기 적어도 하나의 카메라 장치, 상기 메모리 및 상기 디스플레이와 전기적으로 연결되는 프로세서를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 전자 장치의 운용과 관계되는 사용자 액티비티(activity)에 기초하여 쿼리(query)를 결정하고, 상기 통신 회로를 통하여 연결되는 적어도 하나의 외부 장치 또는 상기 메모리에 상기 쿼리에 대응하는 영상 효과 필터(effect filter) 포함 여부를 판단하고, 상기 적어도 하나의 외부 장치 또는 상기 메모리가 상기 쿼리에 대응하는 영상 효과 필터를 포함하는 것으로 판단되는 경우 상기 적어도 하나의 외부 장치 또는 상기 메모리로부터 상기 쿼리에 대응하는 적어도 하나의 영상 효과 필터를 획득하고, 상기 적어도 하나의 카메라 장치에 의하여 촬영된 영상을 상기 디스플레이를 통해 출력하고, 상기 출력된 영상의 편집과 관계되는 이벤트 발생 시 상기 획득된 적어도 하나의 영상 효과 필터를 제공할 수 있다.
다양한 실시 예에 따르면, 상기 메모리는, 상기 적어도 하나의 카메라 장치에 의하여 촬영된 영상의 편집을 지원하는 적어도 하나의 편집 어플리케이션을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 적어도 하나의 편집 어플리케이션의 실행 화면에 상기 획득된 영상 효과 필터를 제공할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 획득된 적어도 하나의 영상 효과 필터를 상기 획득된 적어도 하나의 영상 효과 필터의 속성 정보와 매핑하여 상기 메모리에 저장할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 사용자 액티비티를 확인하기 위하여, 상기 메모리에 저장된 적어도 하나의 로그 정보를 지정된 주기로 확인할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 쿼리를 결정하는 동작의 적어도 일부로써, 상기 메모리가 포함하는 적어도 하나의 어플리케이션에서 상기 지정된 주기 내에 수행된 사용자의 검색 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 쿼리를 결정하는 동작의 적어도 일부로써, 상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 수행된 사용자의 다이얼로그(dialog) 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 쿼리를 결정하는 동작의 적어도 일부로써, 상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 수행된 전자 결제 서비스 운용 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 쿼리를 결정하는 동작의 적어도 일부로써, 상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 사용자로부터 선택된 콘텐츠 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 검색 이력, 상기 다이얼로그 이력, 상기 전자 결제 서비스 운용 이력 및 상기 콘텐츠 이력 중 적어도 하나에 대하여 상기 지정된 임계량 이상의 텍스트 검출을 개별적으로 수행할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 검색 이력, 상기 다이얼로그 이력, 상기 전자 결제 서비스 운용 이력 및 상기 콘텐츠 이력 중 적어도 하나로부터 적어도 하나의 텍스트를 수집하고, 상기 수집된 적어도 하나의 텍스트에 대하여 상기 지정된 임계량 이상의 텍스트 검출을 수행할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 지정된 임계량 이상의 텍스트 검출에 배제되기 위한 적어도 하나의 텍스트를 리스트로 관리할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 제공되는 적어도 하나의 영상 효과 필터 중 사용자로부터 선택된 영상 효과 필터를 상기 디스플레이를 통해 출력한 영상에 적어도 부분적으로 적용할 수 있다.
다양한 실시 예에 따르면, 상기 프로세서는, 상기 디스플레이를 통해 출력한 영상의 속성을 판단하고, 상기 획득된 적어도 하나의 영상 효과 필터 중 상기 영상의 속성에 대응하는 적어도 하나의 영상 효과 필터를 제공할 수 있다.
도 6은 일 실시 예에 따른 전자 장치의 영상 편집 지원 방법을 도시한 도면이다.
도 6을 참조하면, 동작 601에서, 전자 장치(도 2의 100)의 프로세서(도 2의 150)는 사용자 액티비티(activity)에 기초하여 쿼리(query)를 결정할 수 있다. 이와 관련하여, 프로세서(150)는 메모리(도 2의 130)에 저장된 적어도 하나의 로그 정보(예: app usage 정보 또는 displaying 정보 등)를 지정된 주기로 참조하여, 상기 지정된 주기 내의 적어도 하나의 사용자 액티비티(예: 검색 이력, 다이얼로그 이력, 전자 결제 서비스 운용 이력 또는 콘텐츠 이력 등)를 확인할 수 있다. 프로세서(150)는 상기 적어도 하나의 사용자 액티비티와 관계되는 정보 자원(예: 텍스트 데이터 등) 중 지정된 임계량 이상을 충족하는 적어도 하나의 정보 자원을 검출할 수 있다. 프로세서(150)는 상기 검출된 적어도 하나의 정보 자원을 사용자의 프리퍼런스와 관계되는 것으로 판단하고, 각각의 정보 자원에 대응하는 영상 효과 필터를 획득하기 위한 쿼리(query)를 생성할 수 있다.
동작 603에서, 프로세서(150)는 메모리(130) 또는 적어도 하나의 외부 장치(도 2의 200 및/또는 300)에 상기 결정된 쿼리에 대응하는 영상 효과 필터의 포함 여부를 판단할 수 있다. 예를 들어, 프로세서(150)는 상기 생성된 쿼리를 적어도 하나의 외부 장치(200 및/또는 300)로 전송하며 상기 쿼리에 대응하는 영상 효과 필터의 포함 여부를 문의할 수 있다. 또는, 프로세서(150)는 적어도 하나의 영상 효과 필터를 포함하도록 구축되는 메모리(130)의 데이터베이스(도 2의 133) 상에 상기 쿼리에 대응하는 영상 효과 필터가 포함되었는지 여부를 판단할 수 있다.
동작 605에서, 적어도 하나의 외부 장치(200 및/또는 300) 또는 데이터베이스(133)에 상기 쿼리에 대응하는 영상 효과 필터가 포함된 것으로 판단되는 경우, 동작 607에서, 프로세서(150)는 상기 적어도 하나의 외부 장치(200 및/또는 300) 또는 메모리(130)로부터 상기 쿼리에 대응하는 영상 효과 필터를 획득할 수 있다.
동작 609에서, 프로세서(150)는 영상의 촬영, 관리(예: 편집, 공유 또는 삭제 등) 또는 재생 등을 지원하는 어플리케이션(예: 카메라 어플리케이션, 갤러리 어플리케이션, 포토 에디터 어플리케이션 또는 비디오 플레이어 어플리케이션 등)의 실행을 기반으로 하는 영상 편집 동작에서, 상기 적어도 하나의 외부 장치(200 및/또는 300) 또는 메모리(130)로부터 획득한 적어도 하나의 영상 효과 필터를 제공(또는, 추천)할 수 있다. 일 실시 예에서, 프로세서(150)는 상기 제공된 적어도 하나의 영상 효과 필터 중 사용자로부터 선택되는 영상 효과 필터를 상기 영상 편집의 대상이 되는 영상에 적어도 부분적으로 적용할 수 있다.
전술된 다양한 실시 예에 따른 전자 장치의 영상 편집 지원 방법은, 상기 전자 장치의 운용과 관계되는 사용자 액티비티(activity)에 기초하여 쿼리(query)를 결정하는 동작, 적어도 하나의 외부 장치 또는 상기 전자 장치의 메모리에 상기 쿼리에 대응하는 영상 효과 필터(effect filter)의 포함 여부를 판단하는 동작, 상기 적어도 하나의 외부 장치 또는 상기 메모리가 상기 쿼리에 대응하는 영상 효과 필터를 포함하는 것으로 판단되는 경우 상기 적어도 하나의 외부 장치 또는 상기 메모리로부터 상기 쿼리에 대응하는 적어도 하나의 영상 효과 필터를 획득하는 동작, 상기 메모리에 저장된 영상을 상기 전자 장치의 디스플레이를 통해 출력하는 동작, 및 상기 출력된 영상의 편집과 관계되는 이벤트 발생 시, 상기 획득된 적어도 하나의 영상 효과 필터를 제공하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 쿼리를 결정하는 동작은, 상기 사용자 액티비티를 확인하기 위하여, 상기 메모리에 저장된 적어도 하나의 로그 정보를 지정된 주기로 확인하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 쿼리를 결정하는 동작은, 상기 메모리가 포함하는 적어도 하나의 어플리케이션에서 상기 지정된 주기 내에 수행된 사용자의 검색 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 쿼리를 결정하는 동작은, 상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 수행된 사용자의 다이얼로그(dialog) 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 쿼리를 결정하는 동작은, 상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 수행된 전자 결제 서비스 운용 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 쿼리를 결정하는 동작은, 상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 사용자로부터 선택된 콘텐츠 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 영상 편집 지원 방법은, 상기 제공되는 적어도 하나의 영상 효과 필터 중 사용자로부터 선택된 영상 효과 필터를 상기 디스플레이를 통해 출력한 영상에 적어도 부분적으로 적용하는 동작을 더 포함할 수 있다.
도 7은 일 실시 예에 따른 네트워크 환경 내의 전자 장치를 도시한 도면이다.
도 7을 참조하면, 네트워크 환경(700)에서 전자 장치(701)는 제1 네트워크(798)(예: 근거리 무선 통신)를 통하여 전자 장치(702)와 통신하거나, 또는 제2 네트워크(799)(예: 원거리 무선 통신)를 통하여 전자 장치(704) 또는 서버(708)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(701)는 서버(708)를 통하여 전자 장치(704)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(701)는 프로세서(720), 메모리(730), 입력 장치(750), 음향 출력 장치(755), 표시 장치(760), 오디오 모듈(770), 센서 모듈(776), 인터페이스(777), 햅틱 모듈(779), 카메라 모듈(780), 전력 관리 모듈(788), 배터리(789), 통신 모듈(790), 가입자 식별 모듈(796), 및 안테나 모듈(797)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(701)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(760) 또는 카메라 모듈(780))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 예를 들면, 표시 장치(760)(예: 디스플레이)에 임베디드된 센서 모듈(776)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.
프로세서(720)는, 예를 들면, 소프트웨어(예: 프로그램(740))를 구동하여 프로세서(720)에 연결된 전자 장치(701)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(720)는 다른 구성요소(예: 센서 모듈(776) 또는 통신 모듈(790))로부터 수신된 명령 또는 데이터를 휘발성 메모리(732)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(734)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(720)는 메인 프로세서(721)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(721)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(723)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(723)는 메인 프로세서(721)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(723)는, 예를 들면, 메인 프로세서(721)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(721)를 대신하여, 또는 메인 프로세서(721)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(721)와 함께, 전자 장치(701)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(760), 센서 모듈(776), 또는 통신 모듈(790))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(723)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(780) 또는 통신 모듈(790))의 일부 구성 요소로서 구현될 수 있다. 메모리(730)는, 전자 장치(701)의 적어도 하나의 구성요소(예: 프로세서(720) 또는 센서모듈(776))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(740)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(730)는, 휘발성 메모리(732) 또는 비휘발성 메모리(734)를 포함할 수 있다.
프로그램(740)은 메모리(730)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(742), 미들 웨어(744) 또는 어플리케이션(746)을 포함할 수 있다.
입력 장치(750)는, 전자 장치(701)의 구성요소(예: 프로세서(720))에 사용될 명령 또는 데이터를 전자 장치(701)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(755)는 음향 신호를 전자 장치(701)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(760)는 전자 장치(701)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(760)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(770)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(770)은, 입력 장치(750)를 통해 소리를 획득하거나, 음향 출력 장치(755), 또는 전자 장치(701)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(702)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(776)은 전자 장치(701)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(776)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(777)는 외부 전자 장치(예: 전자 장치(702))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(777)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(778)는 전자 장치(701)와 외부 전자 장치(예: 전자 장치(702))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(779)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(779)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(780)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(780)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(788)은 전자 장치(701)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(789)는 전자 장치(701)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(790)은 전자 장치(701)와 외부 전자 장치(예: 전자 장치(702), 전자 장치(704), 또는 서버(708))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(790)은 프로세서(720)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(790)은 무선 통신 모듈(792)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(794)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제1 네트워크(798)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(799)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(790)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
일 실시 예에 따르면, 무선 통신 모듈(792)은 가입자 식별 모듈(796)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(701)를 구별 및 인증할 수 있다.
안테나 모듈(797)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(790)(예: 무선 통신 모듈(792))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제2 네트워크(799)에 연결된 서버(708)를 통해서 전자 장치(701)와 외부의 전자 장치(704)간에 송신 또는 수신될 수 있다. 전자 장치(702, 704) 각각은 전자 장치(701)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(701)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일 실시 예에 따르면, 전자 장치(701)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(701)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(701)로 전달할 수 있다. 전자 장치(701)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(736) 또는 외장 메모리(738))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(740))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(701))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(720))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
본 문서에 개시된 실시 예는, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 발명의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    통신 회로;
    적어도 하나의 카메라 장치;
    메모리;
    디스플레이; 및
    상기 통신 회로, 상기 적어도 하나의 카메라 장치, 상기 메모리 및 상기 디스플레이와 전기적으로 연결되는 프로세서;를 포함하고,
    상기 프로세서는,
    상기 전자 장치의 운용과 관계되는 사용자 액티비티(activity)에 기초하여 쿼리(query)를 결정하고,
    상기 통신 회로를 통하여 연결되는 적어도 하나의 외부 장치 또는 상기 메모리에 상기 쿼리에 대응하는 영상 효과 필터(effect filter) 포함 여부를 판단하고,
    상기 적어도 하나의 외부 장치 또는 상기 메모리가 상기 쿼리에 대응하는 영상 효과 필터를 포함하는 것으로 판단되는 경우, 상기 적어도 하나의 외부 장치 또는 상기 메모리로부터 상기 쿼리에 대응하는 적어도 하나의 영상 효과 필터를 획득하고,
    상기 적어도 하나의 카메라 장치에 의하여 촬영된 영상을 상기 디스플레이를 통해 출력하고,
    상기 출력된 영상의 편집과 관계되는 이벤트 발생 시, 상기 획득된 적어도 하나의 영상 효과 필터를 제공하도록 설정된, 전자 장치.
  2. 제1항에 있어서,
    상기 메모리는,
    상기 적어도 하나의 카메라 장치에 의하여 촬영된 영상의 편집을 지원하는 적어도 하나의 편집 어플리케이션을 포함하고,
    상기 프로세서는,
    상기 적어도 하나의 편집 어플리케이션의 실행 화면에 상기 획득된 영상 효과 필터를 제공하도록 설정된, 전자 장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 획득된 적어도 하나의 영상 효과 필터를 상기 획득된 적어도 하나의 영상 효과 필터의 속성 정보와 매핑하여 상기 메모리에 저장하도록 설정된, 전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 쿼리를 결정하는 동작의 적어도 일부로써, 상기 메모리가 포함하는 적어도 하나의 어플리케이션에서 상기 지정된 주기 내에 수행된 사용자의 검색 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하도록 설정된, 전자 장치.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 쿼리를 결정하는 동작의 적어도 일부로써, 상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 수행된 사용자의 다이얼로그(dialog) 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하도록 설정된, 전자 장치.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 쿼리를 결정하는 동작의 적어도 일부로써, 상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 수행된 전자 결제 서비스 운용 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하도록 설정된, 전자 장치.
  7. 제6항에 있어서,
    상기 프로세서는,
    상기 쿼리를 결정하는 동작의 적어도 일부로써, 상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 사용자로부터 선택된 콘텐츠 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하도록 설정된, 전자 장치.
  8. 제7항에 있어서,
    상기 프로세서는,
    상기 검색 이력, 상기 다이얼로그 이력, 상기 전자 결제 서비스 운용 이력 및 상기 콘텐츠 이력 중 적어도 하나에 대하여 상기 지정된 임계량 이상의 텍스트 검출을 개별적으로 수행하도록 설정된, 전자 장치.
  9. 제7항에 있어서,
    상기 프로세서는,
    상기 검색 이력, 상기 다이얼로그 이력, 상기 전자 결제 서비스 운용 이력 및 상기 콘텐츠 이력 중 적어도 하나로부터 적어도 하나의 텍스트를 수집하고, 상기 수집된 적어도 하나의 텍스트에 대하여 상기 지정된 임계량 이상의 텍스트 검출을 수행하도록 설정된, 전자 장치.
  10. 제7항에 있어서,
    상기 프로세서는,
    상기 지정된 임계량 이상의 텍스트 검출에 배제되기 위한 적어도 하나의 텍스트를 리스트로 관리하도록 설정된, 전자 장치.
  11. 제1항에 있어서,
    상기 프로세서는,
    상기 제공되는 적어도 하나의 영상 효과 필터 중 사용자로부터 선택된 영상 효과 필터를 상기 디스플레이를 통해 출력한 영상에 적어도 부분적으로 적용하도록 설정된, 전자 장치.
  12. 제1항에 있어서,
    상기 프로세서는,
    상기 디스플레이를 통해 출력한 영상의 속성을 판단하고,
    상기 획득된 적어도 하나의 영상 효과 필터 중 상기 영상의 속성에 대응하는 적어도 하나의 영상 효과 필터를 제공하도록 설정된, 전자 장치.
  13. 전자 장치의 영상 편집 지원 방법에 있어서,
    상기 전자 장치의 운용과 관계되는 사용자 액티비티(activity)에 기초하여 쿼리(query)를 결정하는 동작;
    적어도 하나의 외부 장치 또는 상기 전자 장치의 메모리에 상기 쿼리에 대응하는 영상 효과 필터(effect filter)의 포함 여부를 판단하는 동작;
    상기 적어도 하나의 외부 장치 또는 상기 메모리가 상기 쿼리에 대응하는 영상 효과 필터를 포함하는 것으로 판단되는 경우, 상기 적어도 하나의 외부 장치 또는 상기 메모리로부터 상기 쿼리에 대응하는 적어도 하나의 영상 효과 필터를 획득하는 동작;
    상기 메모리에 저장된 영상을 상기 전자 장치의 디스플레이를 통해 출력하는 동작; 및
    상기 출력된 영상의 편집과 관계되는 이벤트 발생 시, 상기 획득된 적어도 하나의 영상 효과 필터를 제공하는 동작;을 포함하는, 영상 편집 지원 방법.
  14. 제13항에 있어서,
    상기 쿼리를 결정하는 동작은,
    상기 메모리가 포함하는 적어도 하나의 어플리케이션에서 상기 지정된 주기 내에 수행된 사용자의 검색 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하는 동작;
    상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 수행된 사용자의 다이얼로그(dialog) 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하는 동작;
    상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 수행된 전자 결제 서비스 운용 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하는 동작; 및
    상기 메모리가 포함하는 적어도 하나의 어플리케이션을 통하여 상기 지정된 주기 내에 사용자로부터 선택된 콘텐츠 이력으로부터 지정된 임계량 이상으로 검출되는 적어도 하나의 텍스트를 상기 쿼리로 결정하는 동작; 중 적어도 하나를 포함하는, 영상 편집 지원 방법.
  15. 제13항에 있어서,
    상기 제공되는 적어도 하나의 영상 효과 필터 중 사용자로부터 선택된 영상 효과 필터를 상기 디스플레이를 통해 출력한 영상에 적어도 부분적으로 적용하는 동작;을 더 포함하는, 영상 편집 지원 방법.
PCT/KR2019/005468 2018-05-11 2019-05-08 영상 편집 방법 및 이를 지원하는 전자 장치 Ceased WO2019216630A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/050,002 US11233953B2 (en) 2018-05-11 2019-05-08 Image editing method and electronic device supporting same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180054086A KR102495008B1 (ko) 2018-05-11 2018-05-11 영상 편집 지원 방법 및 이를 지원하는 전자 장치
KR10-2018-0054086 2018-05-11

Publications (1)

Publication Number Publication Date
WO2019216630A1 true WO2019216630A1 (ko) 2019-11-14

Family

ID=68468038

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/005468 Ceased WO2019216630A1 (ko) 2018-05-11 2019-05-08 영상 편집 방법 및 이를 지원하는 전자 장치

Country Status (3)

Country Link
US (1) US11233953B2 (ko)
KR (1) KR102495008B1 (ko)
WO (1) WO2019216630A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022006279A1 (en) * 2020-06-30 2022-01-06 Snap Inc. Camera user interface to generate content

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102763586B1 (ko) 2020-05-15 2025-02-07 삼성전자주식회사 영상을 제공하는 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011901A (ja) * 2005-07-01 2007-01-18 Matsushita Electric Ind Co Ltd 情報推薦装置、情報推薦方法、及びプログラム
KR20120072103A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 개인 휴대 단말에서 개인 전자 프로그램 가이드 서비스 제공 장치 및 방법
US20150116529A1 (en) * 2013-10-28 2015-04-30 Htc Corporation Automatic effect method for photography and electronic apparatus
JP2015154244A (ja) * 2014-02-14 2015-08-24 セイコーエプソン株式会社 画像処理装置、画像処理システム、および画像処理方法
KR20150119801A (ko) * 2014-04-16 2015-10-26 삼성전자주식회사 컨텐츠 추천 장치 및 그의 제어 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101467293B1 (ko) 2008-04-22 2014-12-02 삼성전자주식회사 촬영될 영상에 관련된 메뉴를 표시하는 ui 제공방법 및이를 적용한 촬영장치
JP5601567B2 (ja) 2010-02-24 2014-10-08 日本電気株式会社 画像閲覧機能付き携帯電話装置
US20110213795A1 (en) * 2010-03-01 2011-09-01 Kenneth Kun Lee Automatic creation of alternative layouts using the same selected photos by applying special filters and/or changing photo locations in relation to creating the photobook
US20110292221A1 (en) * 2010-05-26 2011-12-01 Micorsoft Corporation Automatic camera
US9154709B2 (en) 2012-12-21 2015-10-06 Google Inc. Recommending transformations for photography
CN104700353B (zh) * 2015-02-11 2017-12-05 小米科技有限责任公司 图像滤镜生成方法及装置
US10425593B2 (en) * 2017-10-19 2019-09-24 Paypal, Inc. Digital image filtering and post-capture processing using user specific data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011901A (ja) * 2005-07-01 2007-01-18 Matsushita Electric Ind Co Ltd 情報推薦装置、情報推薦方法、及びプログラム
KR20120072103A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 개인 휴대 단말에서 개인 전자 프로그램 가이드 서비스 제공 장치 및 방법
US20150116529A1 (en) * 2013-10-28 2015-04-30 Htc Corporation Automatic effect method for photography and electronic apparatus
JP2015154244A (ja) * 2014-02-14 2015-08-24 セイコーエプソン株式会社 画像処理装置、画像処理システム、および画像処理方法
KR20150119801A (ko) * 2014-04-16 2015-10-26 삼성전자주식회사 컨텐츠 추천 장치 및 그의 제어 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022006279A1 (en) * 2020-06-30 2022-01-06 Snap Inc. Camera user interface to generate content
US11758264B2 (en) 2020-06-30 2023-09-12 Snap Inc. Camera user interface to generate content for third-party applications

Also Published As

Publication number Publication date
KR20190129435A (ko) 2019-11-20
KR102495008B1 (ko) 2023-02-06
US20210185243A1 (en) 2021-06-17
US11233953B2 (en) 2022-01-25

Similar Documents

Publication Publication Date Title
WO2020171385A1 (en) Electronic device supporting avatar recommendation and download
WO2020171621A1 (en) Method of controlling display of avatar and electronic device therefor
WO2019013594A1 (en) ELECTRONIC DEVICE FOR DISPLAYING INFORMATION AND ITS METHOD
WO2017209560A1 (ko) 화면 출력 방법 및 이를 지원하는 전자 장치
CN111340482B (zh) 冲突检测方法、装置、节点设备及存储介质
WO2019156414A1 (ko) 차량 식별 정보에 기반하여 결정된 그래픽 사용자 인터페이스를 차량으로 전송하는 방법 및 이를 지원하는 전자 장치
EP3547107B1 (en) Method for providing information mapped between a plurality of inputs and electronic device for supporting the same
WO2018124633A1 (ko) 전자 장치 및 그의 메시지 전달 방법
CN112116690A (zh) 视频特效生成方法、装置及终端
WO2017034225A1 (en) Electronic apparatus and method of transforming content thereof
WO2020116960A1 (en) Electronic device for generating video comprising character and method thereof
WO2017146482A1 (ko) 음성 인식 제어를 제공하는 전자 장치 및 그 동작 방법
EP3619633A1 (en) Method for providing service update and electronic device supporting the same
WO2019156412A1 (ko) 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치
WO2015147599A1 (en) Data sharing method and electronic device thereof
WO2018124775A1 (ko) 외부 장치를 연결하는 방법 및 이를 지원하는 전자 장치
WO2018111025A1 (en) Method for contents tagging and electronic device supporting the same
KR102498545B1 (ko) 생체 인증과 관련된 객체의 표시에 따라 생체 인증을 수행하는 방법 및 이를 위한 전자 장치
KR102526588B1 (ko) 입력 필드에 입력된 데이터를 관리하는 전자 장치 및 방법
WO2019216630A1 (ko) 영상 편집 방법 및 이를 지원하는 전자 장치
KR102493561B1 (ko) 전자 장치 및 이를 이용한 외부 장치의 연결을 제어하는 방법
WO2020013470A1 (ko) 데이터 변조 판단 방법 및 이를 지원하는 전자 장치
WO2018080210A1 (ko) 가이드를 출력하는 전자 장치 및 방법
WO2018070766A1 (ko) 콘텐츠 출력 방법 및 이를 지원하는 전자 장치
WO2019050237A1 (ko) 정보 제공 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19799792

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19799792

Country of ref document: EP

Kind code of ref document: A1