[go: up one dir, main page]

WO2025143564A1 - Electronic device for controlling brightness of display by using metadata of image, and method thereof - Google Patents

Electronic device for controlling brightness of display by using metadata of image, and method thereof Download PDF

Info

Publication number
WO2025143564A1
WO2025143564A1 PCT/KR2024/018790 KR2024018790W WO2025143564A1 WO 2025143564 A1 WO2025143564 A1 WO 2025143564A1 KR 2024018790 W KR2024018790 W KR 2024018790W WO 2025143564 A1 WO2025143564 A1 WO 2025143564A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
electronic device
brightness
brightness level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2024/018790
Other languages
French (fr)
Korean (ko)
Inventor
이민우
김웅규
이서영
김동휘
김광태
염동현
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020240054210A external-priority patent/KR20250105564A/en
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of WO2025143564A1 publication Critical patent/WO2025143564A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals

Definitions

  • the present disclosure relates to an electronic device and method for controlling the brightness of a display using metadata of an image.
  • Digital information generated for visualizing images and/or videos can be generated to represent colors using a limited number of bits.
  • the brightness of a particular primary color e.g., one of red, green, or blue
  • an electronic device may include a display, at least one processor including a processing circuit, and a memory including one or more storage media storing instructions.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to detect an event for displaying a first image having a first dynamic range while a brightness level of the display is set to a first brightness level.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to, in response to the event, obtain, from metadata in a file including the first image, map information for another portion of the first image that is visually emphasized with respect to a portion of the first image, and display control information for changing a brightness level of the display in relation to the display of the first image.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to generate a second image by applying the map information to the first image.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to set a brightness level of the display from the first brightness level to a second brightness level higher than the first brightness level, based on the display control information.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to display the second image on the display set to the second brightness level, such that the first image having a second dynamic range wider than the first dynamic range is shown on the display.
  • a method of an electronic device including a display may be provided.
  • the method may include detecting an event for displaying a first image having a first dynamic range while a brightness level of the display is set to a first brightness level.
  • the method may include, in response to the event, obtaining, from metadata in a file including the first image, map information for another portion of the first image visually emphasized with respect to a portion of the first image, and display control information for changing a brightness level of the display in relation to displaying the first image.
  • the method may include generating a second image by applying the map information to the first image.
  • the method may include setting a brightness level of the display from the first brightness level to a second brightness level higher than the first brightness level based on the display control information.
  • the method may include displaying the second image on the display set to the second brightness level such that the first image having a second dynamic range wider than the first dynamic range is shown on the display.
  • an electronic device may include at least one camera, at least one processor including a processing circuit, and a memory including one or more storage media storing instructions.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to control the at least one camera to acquire a plurality of images in response to a photographing input.
  • the plurality of images may include a first image acquired according to a first dynamic range and a second image having a second dynamic range at least partially different from the first dynamic range.
  • a bit depth of the first dynamic range may be the same as a bit depth of the second dynamic range.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to acquire a third image having a third dynamic range using at least a portion of the plurality of images.
  • a bit depth of the third dynamic range may be the same as a bit depth of the first dynamic range.
  • the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to determine display control information for changing a brightness level of the display device such that the third image is displayed as an image having a fourth dynamic range.
  • a bit depth of the fourth dynamic range may be greater than the bit depth of the third dynamic range.
  • the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate a file including metadata including the map information and the display control information, and the third image.
  • a method of an electronic device including at least one camera may be provided.
  • the method may include an operation of controlling the at least one camera to acquire a plurality of images in response to a photographing input.
  • the plurality of images may include a first image acquired according to a first dynamic range and a second image having a second dynamic range at least partially different from the first dynamic range, wherein a bit depth of the first dynamic range may be the same as a bit depth of the second dynamic range.
  • the method may include an operation of acquiring a third image having a third dynamic range using at least a portion of the plurality of images.
  • the bit depth of the third dynamic range may be the same as a bit depth of the first dynamic range.
  • a non-transitory computer-readable storage medium storing instructions may be provided.
  • the instructions may be executed by an electronic device including a display.
  • the instructions when executed by the electronic device, may cause the electronic device to obtain a first image having a first dynamic range, map information related to brightness or color gradation of at least a portion of the first image, and display control information related to a brightness level during display.
  • the instructions when executed by the electronic device, may cause the electronic device to generate a second image based on the first image and the map information.
  • the instructions, when executed by the electronic device may cause the electronic device to determine a brightness level of at least a portion of the display based on the display control information.
  • the above instructions when executed by the electronic device, may cause the electronic device to display the second image according to a second dynamic range that is wider than the first dynamic range, based on the determined brightness level.
  • Figure 7 illustrates an exemplary operation of an electronic device for generating information to be transmitted from a file to a display.
  • FIG. 9 is a block diagram of an electronic device within a network environment according to various embodiments.
  • FIG. 15 illustrates exemplary operations performed by a head-mounted display (HMD) device, according to one embodiment, to display an image in HDR mode.
  • HMD head-mounted display
  • FIG. 16 illustrates an exemplary operation of an electronic device that uses user-related information to at least partially enhance the brightness level of a display when displaying an image in HDR mode.
  • Expressions such as “first”, “second”, “first” or “second” can modify the corresponding components, regardless of order or importance, and are only used to distinguish one component from another and do not limit the corresponding components.
  • a certain (e.g., a first) component is "(functionally or communicatively) connected” or “connected” to another (e.g., a second) component
  • said certain component may be directly connected to said other component, or may be connected through another component (e.g., a third component).
  • module includes a unit composed of hardware or firmware, and may be used interchangeably with terms such as logic, block, component, or circuit.
  • a module may be an integrally composed component or a minimum unit or part thereof that performs one or more functions.
  • a module may be composed of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • the electronic device (101) may generate a file (110), and/or visualize or display media content (e.g., media content referred to as photographs and/or images) of the generated file (110).
  • the file (110) may include a JPEG file, a high efficiency image file format (HEIF) file, a high efficiency image container (HEIC) file, a file for storing raw data (e.g., a digital negative image (DNG) file), a portable network graphic (PNG) file, and/or a graphics interchange format (GIF) file.
  • HEIF high efficiency image file format
  • HEIC high efficiency image container
  • GIF graphics interchange format
  • a contrast ratio between the minimum brightness l1 and the maximum brightness l2 of pixels included in an image (112) may be about 250:1.
  • Light generated to display an image (112) having SDR may have a deviation of up to 100 nits (e.g., l2 - l1) in different parts of the image (112).
  • An image (112) associated with SDR may have color information based on, for example, an sRGB (standard RGB) color space.
  • the electronic device (101) may include information that can scale visual information of the image (112) to HDR while including an image (112) of SDR that is compatible with a legacy display device that only supports SDR.
  • An exemplary operation of the electronic device (101) generating a file (110) is described with reference to FIGS. 3 and 4.
  • An exemplary structure of a file (110) generated by the electronic device (101) is described with reference to FIG. 5.
  • a file (110) generated by an electronic device (101) may include metadata required for an electronic device (101) (or a display device) supporting an HDR mode to synthesize an image (130) having an HDR effect from an image (112) having an SDR.
  • the metadata may include additional information related to the image (112) having an SDR (e.g., photographing information based on EXIF (EXchangeable Image File)), map information (114), and/or display control information (116).
  • the map information (114) may be a two-dimensional array having a width less than or equal to the width and height of the image (112), respectively, and a height.
  • the electronic device (101) may control the display (120) based on HDR when displaying an image (130) on the display (120).
  • the electronic device (101) may display an image (130) for HDR effect, synthesized from an image (112) having SDR, included in a file (110), on the display (120).
  • a contrast ratio between the minimum brightness l3 and the maximum brightness l4 of the image (130) may exceed a contrast ratio associated with SDR (e.g., approximately 250:1) (e.g., 10,000:1).
  • the electronic device (101) can display the image (130) based on a color space wider than SDR (e.g., DCI (digital cinema initiatives)-P3 and/or REC.2020).
  • the display (120) may include a display driver circuit (122) (e.g., a display driver IC (1130) of FIG. 11) and a display panel (124) (e.g., a display (1110) of FIG. 11).
  • the display driver circuit (122) may be operatively coupled with the display panel (124).
  • the display driver circuit (122) may be configured to control at least one LED included in a corresponding row or column among the plurality of LEDs.
  • the display driver circuit (122) controlling the at least one LED may include an operation of adjusting the luminance (or light amount, brightness) of the LEDs.
  • luminance may mean the intensity of light emitted from pixels of the display (120) (e.g., the intensity of light measured in units of nits (or cd/m 2 )).
  • brightness may include a relative value expressed in bits of a bit depth, referred to as a brightness level, as the brightness of a pixel of an image to be displayed through a display (120).
  • the memory (215) of the electronic device (101) may include a circuit and/or a storage medium for storing data and/or instructions input to and/or output from the processor (210).
  • the memory may include, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM).
  • RAM random-access memory
  • ROM read-only memory
  • the non-volatile memory may be referred to as storage.
  • the volatile memory may include, for example, at least one of dynamic RAM (DRAM), static RAM (SRAM), Cache RAM, and pseudo SRAM (PSRAM).
  • the non-volatile memory may include, for example, at least one of programmable ROM (PROM), erasable PROM (EPROM), electrically erasable PROM (EEPROM), flash memory, a hard disk, a compact disc, a solid state drive (SSD), and an embedded multi media card (eMMC).
  • the processor (210) of the electronic device (101) can execute instructions of the memory (215) within the electronic device (101) to perform functions and/or operations indicated by the instructions.
  • the electronic device (101) includes at least one processor, the at least one processor can be configured to collectively or individually execute the instructions.
  • At least one camera (225) of the electronic device (101) may include one or more optical sensors (e.g., a CCD (charged coupled device) sensor, a CMOS (complementary metal oxide semiconductor) sensor) that generate an electrical signal representing a color and/or brightness of light.
  • the plurality of optical sensors included in the at least one camera (225) may be arranged in the form of a two-dimensional array.
  • the at least one camera (225) may acquire the electrical signals of each of the plurality of optical sensors substantially simultaneously to generate two-dimensional frame data corresponding to light reaching the optical sensors of the two-dimensional array.
  • photographic data captured using the at least one camera (225) may mean one (a) two-dimensional frame data acquired from the at least one camera (225).
  • the electronic device (101) may include a battery (235).
  • the battery (235) may be any one of a lithium ion (Li-ion) battery, a lithium ion polymer (Li-ion polymer) battery, a lead-acid battery, a nickel-cadmium (NiCd) battery, and a nickel-metal hydride (NiMH) battery.
  • the electronic device (101) may include a power management integrated circuit (PMIC) (e.g., a power management module (988) of FIG. 9 ).
  • PMIC power management integrated circuit
  • the processor (210) of the electronic device (101) may obtain or identify parameters indicative of the state of the battery (235), such as a state of charge (SOC), an open circuit voltage (OCV), and/or a state of health (SOH)).
  • SOC state of charge
  • OCV open circuit voltage
  • SOH state of health
  • information stored in a memory (215) of an electronic device (101) and/or programs (e.g., image renderer (216) and/or display brightness determiner (217)) are illustrated.
  • a processor (210) executing instructions included in a program may perform functions and/or operations indicated by the instructions.
  • the file (110) may include color information representing colors of pixels of an image (e.g., image (112) of FIG. 1) according to a color space such as YUV, RGB, and/or HSV.
  • a file (110) based on a color space of RGB may represent a color of a specific pixel using intensities of three primary colors of red, green, and blue.
  • a file (110) based on the color space of YUV can represent the color of a specific pixel using three components including a brightness component (e.g., Y component) and chrominance components (e.g., Cb component and/or Cr component).
  • a brightness component e.g., Y component
  • chrominance components e.g., Cb component and/or Cr component
  • the processor (210) can generate or synthesize an image having an HDR effect (e.g., an image (130) of FIG. 1) from an image having an SDR included in the file (110) (e.g., an image (112) of FIG. 1).
  • the processor (210) can restore an image having an HDR effect from an image of the SDR by using map information (e.g., the map information (114) of FIG. 1) included in the metadata of the file (110).
  • the restoration can include scaling (e.g., amplifying and/or attenuating) the brightness of pixels of the image of the SDR by using information included in the map information.
  • the processor (210) executing the image renderer (216) can generate or obtain information for displaying an image having a bit depth of HDR.
  • the processor (210) can increase, at least partially, the brightness of the pixels of the display (120).
  • the processor (210) executing the display brightness determiner (217) can control the display driving circuit (122) to at least partially increase the brightness of the display (120). For example, in order to visually emphasize a part of an image to be displayed on the display (120) over another part, the processor (210) can cause the brightness of at least one pixel of the display (120) corresponding to the part to exceed the brightness of at least one pixel of the display (120) corresponding to the other part.
  • the processor (210) can determine an amount of brightness increase of the entire or at least a part of the display (120) by using map information (e.g., map information (114) of FIG. 1). Using the increased luminance increase, the processor (210) can perform operations such as gamma adjustment.
  • the processor (210) executing the display brightness determiner (217) can adjust the gamma of the image rendered by the image renderer (216).
  • the gamma can mean the relationship between the brightness of pixels of the image and the brightness of pixels of the display (120) displaying the image.
  • the gamma can be expressed as a function referred to as a gamma curve.
  • the processor (210) can control the display driving circuit (122) to display the image by using gamma related to metadata of the file (110) (e.g., display control information (116)).
  • the electronic device (101) may, when displaying a file (110) based on SDR, restore or synthesize an HDR image using metadata of the file (110).
  • the electronic device (101) may control the display (120) so that brightness of the display (120) is at least partially increased using metadata of the file (110).
  • the electronic device (101) may control a camera to generate or store the file (110) using images acquired.
  • FIGS. 3 and 4 an exemplary operation of the electronic device (101) that generates a file (110) using at least one camera (225) will be described.
  • FIG. 3 illustrates an exemplary operation of an electronic device (101) that generates information including an image supporting HDR effects and SDR by controlling at least one camera.
  • the electronic device (101) of FIGS. 1 and 2, and/or the processor (210) of FIG. 2 may perform the operation of the electronic device (101) described with reference to FIG. 3.
  • At least one camera of FIG. 3 may correspond to at least one camera (225) of FIG. 2.
  • an exemplary state of an electronic device (101) displaying a preview image (320) using at least one camera is illustrated.
  • the electronic device (101) may display the screen of FIG. 3 on the display (120) while executing a software application (e.g., a camera application) for controlling at least one camera.
  • the electronic device (101) may display, on the display (120), a preview image (320) based on at least a portion of an image acquired from at least one camera.
  • the electronic device (101) may display a visual object (310) mapped to a function for changing an option related to at least one camera.
  • An image having a shape of a gear and/or an icon is illustrated as an example, but the embodiment is not limited thereto.
  • the electronic device (101) may display a screen (350) on the display (120).
  • the screen (350) may include a settings screen provided by a software application for controlling at least one camera.
  • the electronic device (101) may provide an option (352) for checking whether to generate a file including information for displaying an image with an HDR effect when saving a file related to an image (e.g., a file (110) of FIG. 1).
  • a visual object (354) e.g., a radio button and/or a toggle switch
  • the electronic device (101) may receive an input for activating or deactivating the option (352).
  • the electronic device (101) may determine whether to save an image with an HDR effect based on a deviation in the amount of light in the external environment detected by at least one camera and/or a distribution.
  • the visual object (330) may include designated text, such as “HDR.” While the visual object (330) is displayed, in response to an input related to the visual object (330) (e.g., a touch input on a portion of the display (120) on which the visual object (330) is displayed), the electronic device (101) may stop displaying the visual object (330) on the display (120), or at least temporarily stop storing information for displaying an image in HDR according to the capturing input (e.g., map information (114) and/or display control information (116) of FIG. 1).
  • an input related to the visual object (330) e.g., a touch input on a portion of the display (120) on which the visual object (330) is displayed
  • the electronic device (101) may stop displaying the visual object (330) on the display (120), or at least temporarily stop storing information for displaying an image in HDR according to the capturing input (e.g., map information (114) and/or display control information (116) of FIG. 1).
  • the electronic device can control the camera so that the camera has a different property from at least one of a shutter speed, an ISO sensitivity, an aperture opening degree, or an exposure value of the camera at the time the camera acquired the first image (411).
  • the electronic device can acquire the second image (412).
  • an image (e.g., an image based on HDR) that expresses colors with a wider dynamic range than the dynamic range corresponding to each of the multiple images (411, 412, 413) can be generated.
  • the electronic device may determine the first image (411) as an image (112) of a file (110) to be stored in response to a photographing input, and may obtain or generate map information (114) by synthesizing a plurality of images (411, 412, 413).
  • Elements (e.g., pixel values) of the map information (114) may correspond to different portions of the image (112) and may include values related to brightness levels of the corresponding portions.
  • the image (112) may include brightness values that distinguish light that is stronger than es1 and weaker than es2.
  • an electronic device that obtains a plurality of images (411, 412, 413) may perform the above-described operation for a chrominance component of a YUV color space (e.g., a chrominance component of a specified primary color such as green and/or blue) to obtain map information for the chrominance component.
  • a chrominance component of a YUV color space e.g., a chrominance component of a specified primary color such as green and/or blue
  • a ratio between the size of the overall brightness levels of a plurality of images (411, 412, 413) acquired from a plurality of at least one camera (225) (e.g., a range between light intensities of ea1 to ec2) and the size of the brightness levels of an image (112) synthesized from the plurality of images (411, 412, 413) (e.g., a size of SDR, a range between light intensities of es1 to es2) can be determined as display control information (116).
  • the display control information (116) can be referred to as a ratio between dynamic ranges (e.g., an SDR-to-HDR ratio).
  • the display control information (116) can be used to determine the luminance of a pixel of a display that will display an image having an HDR effect synthesized by the map information (114).
  • the electronic device may generate or store a file (110) including display control information (116), metadata including map information (114), and an image (112).
  • the map information (114) stored in the file (110) may be applied to the image (112) to be displayed by a display device supporting HDR, based on an event associated with the image (112) and/or the file (110).
  • the display control information (116) may be used to change a brightness level of the display device displaying the image (112) to which the map information (114) is applied, based on the event.
  • the electronic device may generate a file (110) supporting HDR effects while having a relatively small size. For example, since the resolution of the map information (114) is smaller than the resolution of the image (112), the size of the file (110) may be smaller than a file with increased bit depth.
  • auxiliary information e.g., map information (114) and/or display control information (116)
  • SDR e.g. 8 bits
  • FIG. 5 illustrates an exemplary structure of a file (110) generated by an electronic device according to one embodiment.
  • the electronic device (101) of FIGS. 1 to 2 and/or the processor (210) of FIG. 2 may perform the operation of the electronic device (101) described with reference to FIG. 5.
  • the file (110) of FIG. 5 may be generated by the operation of the electronic device (101) described with reference to FIGS. 3 to 4.
  • the JPEG table area may include a Define-Quantization-Tables (DQT) area (M11) (e.g., a variable area starting with a value in Table 1 below), a Define-Huffman-Tables (DHT) area (M12) (e.g., a variable area starting with a value in Table 1 below), a Define-Restart-Interval (DRI) area (M13) (e.g., a fixed area starting with a value in Table 1 below), a Start of Frame (SOF) area (M14), and/or a Start-Of-Scan (SOS) area (M15) (e.g., a variable area starting with a value in Table 1 below).
  • DQT Define-Quantization-Tables
  • DHT Define-Huffman-Tables
  • DRI Define-Restart-Interval
  • M13 e.g., a fixed area starting with a value in Table 1 below
  • SOF Start of Frame
  • a JPEG compressed data area may be formed after the JPEG table area.
  • the file (110) may include, after the JPEG compressed data area (M16), an area (M17) (e.g., a fixed area starting with the value of Table 1 below) in which a designated value is stored to indicate the end of the file (110).
  • an exemplary operation of an electronic device for controlling a display e.g., the display (120) of FIG. 1 and/or FIG. 2 to display an image having an HDR effect is described, using an exemplary file (110) of FIG. 5.
  • FIG. 6 illustrates exemplary brightness levels of a display (120) of an electronic device (101) that displays an image included in a file.
  • the electronic device (101) of FIGS. 1 to 2, and/or the processor (210) of FIG. 2 may perform the operations of the electronic device (101) described with reference to FIG. 6.
  • the file of FIG. 6 may correspond to the file (110) of FIGS. 1 to 2, and/or FIG. 5.
  • FIG. 6 different states (601, 602) of an electronic device (101) displaying a screen for searching and/or displaying an image are illustrated.
  • the electronic device (101) may display the screen of FIG. 6 on the display (120) while executing a software application (e.g., a gallery application) for viewing images and/or videos stored in a memory (e.g., memory (215) of FIG. 2).
  • a software application e.g., a gallery application
  • the electronic device (101) may display visual objects (611, 612, 613) for switching the screen displayed on the display (120) along the bottom edge of the display (120).
  • the visual object (611) may be mapped to a function for displaying a list of software applications that have been executed by the electronic device (101).
  • the visual object (612) may be mapped to a function for switching to a designated screen referred to as a home screen (or launcher screen).
  • a visual object (613) may be mapped to a function for switching to another screen that was displayed before the screen currently being displayed on the display (120).
  • the electronic device (101) can display thumbnail images corresponding to each of the images stored in the memory.
  • the electronic device (101) can display a thumbnail image (619) corresponding to the file (110).
  • the thumbnail image (619) can be displayed using pixels of the display (120) operating in SDR.
  • the electronic device (101) can generate or display the thumbnail image (619) using at least a portion of the image (112) having the SDR in the file (110).
  • the thumbnail image (619) can have a smaller resolution, width, and/or height than the image (112) included in the file (110).
  • the brightness of the display (120) of the electronic device (101) may be distributed within a relatively small size range based on SDR.
  • a minimum brightness (l5) and a maximum brightness (l7) of pixels of the display (120) are illustrated.
  • the pixels e.g., pixels corresponding to the thumbnail image (619)
  • the pixels may be controlled according to 256 brightness levels (e.g., brightness levels represented according to a bit depth of 8 bits of SDR).
  • the electronic device (101) may receive an input related to the thumbnail image (619).
  • the input may include a touch input (e.g., a tap gesture) on a portion of the display (120) on which the thumbnail image (619) is displayed.
  • the input may be performed to display an image corresponding to the thumbnail image (619) (e.g., the file (110) of FIG. 1 , and/or the image (112) within the file (110).
  • the electronic device (101) may detect an event for displaying the image having SDR while a brightness level of the display (120) is set to a first brightness level associated with SDR.
  • the electronic device (101) may switch to a state (602) for controlling the display (120) within HDR.
  • the electronic device (101) may synthesize an image (130) having an HDR effect using an image of SDR and metadata included in the file.
  • the electronic device (101) may control pixels of a first display area of the display (120) corresponding to the image (130) so that the pixels of the first display area operate at a brightness level associated with HDR.
  • the electronic device (101) can control pixels of a second display area of the display (120) (or a remaining display area of the display (120) that is different from the first display area) corresponding to a running screen adjacent to the image (130) (or different from the image (130)) to operate at a brightness level associated with a dynamic range (e.g., SDR) different from HDR.
  • a dynamic range e.g., SDR
  • the minimum brightness (l6) and the maximum brightness (l8) of the pixels of the display (120) are illustrated.
  • the difference (or contrast ratio) between the maximum brightness (l8) and the minimum brightness (l6) may be greater than the difference (or contrast ratio) between the maximum brightness (l7) and the minimum brightness (l5) in the state (601) in which the display (120) is controlled based on SDR.
  • the minimum luminance (l5) in the state (601) in which the display (120) is controlled based on SDR and the minimum luminance (l6) in the state (602) in which the display (120) is controlled based on HDR may have a relatively small difference or may be the same.
  • the maximum luminance (l7) in the state (601) in which the display (120) is controlled based on SDR and the maximum luminance (l8) in the state (602) in which the display (120) is controlled based on HDR may have a relatively large difference.
  • the electronic device (101) may control the display (120) using metadata of a file corresponding to the image (130) (e.g., display control information (116) of FIG. 1) such that at least one pixel of the display (120) corresponding to a portion of the image (130) having a minimum brightness has a minimum brightness (l6) of a dynamic range based on HDR.
  • the electronic device (101) may control the display (120) using the metadata such that at least one pixel of the display (120) corresponding to a portion of the image (130) having a maximum brightness has a maximum brightness (l8) of a dynamic range based on HDR.
  • the electronic device (101) can display the image (130) using a color space that is wider than the color space used in the state (601) where the thumbnail image (619) is displayed using SDR. For example, after switching from the state (601) where the thumbnail image (619) is displayed using the color space of sRGB (e.g., the color space (811) of FIG. 8) to the state (602), the electronic device (101) can display the image (130) using a color space wider than the color space (e.g., the color space (812) of FIG. 8 based on DCI-P3). Since the image (130) is displayed using the extended color space, the electronic device (101) can express the color of the image (130) in more detail.
  • sRGB e.g., the color space (811) of FIG. 8
  • the electronic device (101) may display a visual object (624) to guide visualization of an image (130) using HDR on the display (120).
  • a visual object (624) including designated text such as “HDR ON” is illustrated, but the embodiment is not limited thereto.
  • the electronic device (101) may display an area (621) including visual objects providing functions related to the image (130) (e.g., visual objects corresponding to functions such as like, rename, share, and/or delete).
  • the electronic device (101) may perform image processing on the file.
  • image processing an exemplary operation of the electronic device (101) performing image processing is described.
  • the electronic device can apply the luminance values (e.g., linearized G_Y values) of the linearized map information (114) to the luminance values (e.g., linearized Y values) of the linearized image (112) to generate luminance values having an increased bit depth.
  • the luminance values can be combined with the chrominance components (e.g., Cb values and/or Cr values) of the image (112) to calculate intermediate values (X, Y, Z).
  • the electronic device can calculate or determine the intermediate values (X, Y, Z) based on a luminance difference of the display, as recommended by the display control information (116) (e.g., SDR-to-HDR ratio).
  • the state (803) of displaying the image (112) having the SDR of Fig. 8 can be maintained by a touch input on the display (120) of the electronic device (101). For example, after detecting a long touch input on a portion of the display (120) on which the image (130) is displayed in the state (602), while the long touch input is maintained, the electronic device (101) can enter the state (803) and display the image (112) having the SDR. In the state (803), when the long touch input is released, the electronic device (101) can switch back to the state (602) and display the image (130) having the HDR effect again.
  • the processor (920) may control at least one other component (e.g., a hardware or software component) of the electronic device (901) connected to the processor (920) by executing, for example, software (e.g., a program (940)), and may perform various data processing or calculations.
  • the processor (920) may store a command or data received from another component (e.g., a sensor module (976) or a communication module (990)) in the volatile memory (932), process the command or data stored in the volatile memory (932), and store result data in the nonvolatile memory (934).
  • the processor (920) may include a main processor (921) (e.g., a central processing unit or an application processor) or an auxiliary processor (923) (e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together with the main processor (921).
  • a main processor e.g., a central processing unit or an application processor
  • an auxiliary processor e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor
  • the auxiliary processor (923) may be configured to use less power than the main processor (921) or to be specialized for a given function.
  • the auxiliary processor (923) may be implemented separately from the main processor (921) or as a part thereof.
  • the auxiliary processor (923) may control at least a portion of functions or states associated with at least one of the components of the electronic device (901) (e.g., the display module (960), the sensor module (976), or the communication module (990)), for example, on behalf of the main processor (921) while the main processor (921) is in an inactive (e.g., sleep) state, or together with the main processor (921) while the main processor (921) is in an active (e.g., application execution) state.
  • the auxiliary processor (923) e.g., an image signal processor or a communication processor
  • the auxiliary processor (923) may include a hardware structure specialized for processing artificial intelligence models.
  • the artificial intelligence models may be generated through machine learning. Such learning may be performed, for example, in the electronic device (901) itself on which the artificial intelligence model is executed, or may be performed through a separate server (e.g., server (908)).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above.
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • the artificial neural network may be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above.
  • the artificial intelligence model may additionally or alternatively include a software structure.
  • the memory (930) can store various data used by at least one component (e.g., the processor (920) or the sensor module (976)) of the electronic device (901).
  • the data can include, for example, software (e.g., the program (940)) and input data or output data for commands related thereto.
  • the memory (930) can include a volatile memory (932) or a nonvolatile memory (934).
  • the program (940) may be stored as software in memory (930) and may include, for example, an operating system (942), middleware (944), or an application (946).
  • the input module (950) can receive commands or data to be used for components of the electronic device (901) (e.g., processor (920)) from an external source (e.g., a user) of the electronic device (901).
  • the input module (950) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).
  • the audio output module (955) can output an audio signal to the outside of the electronic device (901).
  • the audio output module (955) can include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive an incoming call. According to one embodiment, the receiver can be implemented separately from the speaker or as a part thereof.
  • the display module (960) can visually provide information to an external party (e.g., a user) of the electronic device (901).
  • the display module (960) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device.
  • the display module (960) can include a touch sensor configured to detect a touch, or a pressure sensor configured to measure a strength of a force generated by the touch.
  • the audio module (970) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (970) can obtain sound through the input module (950), or output sound through an audio output module (955), or an external electronic device (e.g., an electronic device (902)) (e.g., a speaker or a headphone) directly or wirelessly connected to the electronic device (901).
  • an electronic device e.g., an electronic device (902)
  • a speaker or a headphone directly or wirelessly connected to the electronic device (901).
  • the interface (977) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (901) with an external electronic device (e.g., the electronic device (902)).
  • the interface (977) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the camera module (980) can capture still images and moving images.
  • the camera module (980) can include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module (988) can manage power supplied to the electronic device (901).
  • the power management module (988) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery (989) can power at least one component of the electronic device (901).
  • the battery (989) can include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module (990) may support establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (901) and an external electronic device (e.g., the electronic device (902), the electronic device (904), or the server (908)), and performance of communication through the established communication channel.
  • the communication module (990) may operate independently from the processor (920) (e.g., the application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • the communication module (990) may include a wireless communication module (992) (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (994) (e.g., a local area network (LAN) communication module or a power line communication module).
  • a wireless communication module 992
  • GNSS global navigation satellite system
  • a wired communication module e.g., a local area network (LAN) communication module or a power line communication module.
  • any of these communication modules may communicate with an external electronic device (904) via a first network (998) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (999) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)).
  • a first network e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 999
  • a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)
  • a single component e.g., a single chip
  • the wireless communication module (992) can support a 5G network after a 4G network and next-generation communication technology, for example, NR access technology (new radio access technology).
  • the NR access technology can support high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), terminal power minimization and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency communications
  • the wireless communication module (992) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate.
  • a high-frequency band e.g., mmWave band
  • the wireless communication module (992) may support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module (992) may support various requirements specified in the electronic device (901), an external electronic device (e.g., the electronic device (904)), or a network system (e.g., the second network (999)).
  • the wireless communication module (992) may support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 164 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip) for URLLC realization.
  • a peak data rate e.g., 20 Gbps or more
  • a loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip
  • a brightness level used to control pixels of a portion of a display area of a flexible display (1220) on which an image (1230) is displayed may be determined based on at least one of a range of brightness levels displayable by the flexible display (1220), the SOC of the electronic device (1201), and/or the OPR of the flexible display (1220).
  • the electronic device (1201) may control the first display area (1221) (and/or the second display area (1222)), which is a flat portion, within another range that is different from the range of brightness levels of the third display area (1223), which is a folding portion, or that at least partially overlaps with the range of brightness levels of the third display area (1223).
  • the electronic device (1201) can control the third display area (1223) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la2, and can control the first display area (1221) and/or the second display area (1222) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la3 (e.g., a maximum brightness exceeding la2).
  • the embodiment is not limited thereto, and the electronic device (1201) can control the first display area (1221) (and/or the second display area (1222)), which is a flat surface, within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la2.
  • the electronic device (1201) can determine ranges of brightness levels of portions of the display areas of the flexible display (1220), respectively, such that the brightness level of the third display area (1223) is higher than the brightness levels of the first display area (1221) and/or the second display area (1222). Using the determined ranges of brightness levels, the electronic device (1201) can display an image (1230) displayed through the portions of the display areas.
  • the electronic device (1201) can at least partially change brightness levels (or dynamic ranges) of portions of a display area of the flexible display (1220) (e.g., the first display area (1221), the second display area (1222), and the third display area (1223)) based on an angle (a) between the first housing part (1211), the hinge part (1213), and the second housing part (1212) rotated about the folding axis (f).
  • the state of the electronic device (1201) can be switched from the state (1291) to the state (1292) of FIG. 12B.
  • the electronic device (1201) can determine that the state of the electronic device (1201) has been switched to the state (1292) based on detecting an angle (b) less than 180o (or a reference angle range associated with the unfolded state) using a sensor.
  • the state (1292) of the electronic device (1201) can include a sub-folded state, a sub-folded state, a half-folded state, a half-folded state, a concave state, and/or an intermediate state.
  • the electronic device (1201) can control pixels of the first display area (1221) (or the second display area (1222)) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la4.
  • the electronic device (1201) can control pixels of the third display area (1223) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la2.
  • the maximum brightness of pixels of the third display area (1223) which is a folded portion, may be reduced less than the maximum brightness of pixels of other display areas (e.g., the first display area (1221) and/or the second display area (1222)).
  • the electronic device (1201) can gradually reduce the maximum brightness (la2) used to control the pixels of the third display area (1213).
  • the electronic device (1201) may gradually increase the maximum brightness (la2) used to control the pixels of the third display area (1223).
  • the embodiment is not limited thereto, and the electronic device (1201) may gradually increase or decrease the range of brightness levels of the first display area (1221) and/or the second display area (1222) depending on the angle (b).
  • the electronic device (1201) can control the pixels of the first display area (1221) (or the second display area (1222)) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la2.
  • the electronic device (1201) in response to identifying that the angle (b) is decreasing, can switch to the state (1293) of FIG. 12c.
  • the electronic device (1201) can control the pixels of the third display area (1223) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la4.
  • the maximum brightness of the pixels of the third display area (1223), which is a folding member, can be reduced from la3 to la4, which is less than la3.
  • the electronic device (1201) can gradually reduce the maximum brightness (la4) used to control the pixels of the third display area (1223).
  • the electronic device (1201) may gradually increase the maximum brightness (la4) used to control the pixels of the third display area (1223).
  • the embodiment is not limited thereto, and the electronic device (1201) may gradually increase or decrease the range of brightness levels of the first display area (1221) and/or the second display area (1222) depending on the angle (b).
  • the electronic device (1201) may include a foldable housing.
  • the electronic device (1201) displaying the image (1230) in the HDR mode may at least partially change the brightness level of the flexible display (1220) on which the image (1230) is displayed.
  • the brightness of each pixel of a flat portion (e.g., the first display area (1221) and/or the second display area (1222)) and/or a folding portion (e.g., the third display area (1223)) of the flexible display (1220) may be differentially enhanced.
  • the brightness levels of each portion of the display area of the flexible display (1220) may be decreased or increased depending on the folding or unfolding of the foldable housing.
  • the electronic device (1201) in a hidden folding state of a flexible display (1220), can display an image (1320) in HDR mode through the cover display (1310). Together with the image (1320), the electronic device (1201) can display a visual object (1332) for indicating the HDR mode.
  • the visual object (1332) of FIG. 13 can correspond to the visual object (1232) described with reference to FIGS. 12A to 12C.
  • the electronic device (1201) may determine a brightness level of the image depending on the display (e.g., the flexible display (1220) and/or the cover display (1310)) on which the image is displayed.
  • the degree to which the brightness of the pixels of the cover display (1310) is enhanced to display the image (1310) may be different from the degree to which the brightness of the pixels of the flexible display (1220) is enhanced to display the image (1230).
  • the HMD device (1501) can control the first display (1511) and/or the second display (1512) to display the second image.
  • the HMD device (1501) can display an image (1550) having an HDR effect by enhancing the brightness of portions of the first display (1511) and the second display (1512) corresponding to a specific portion of the second image based on the display control information.
  • the HMD device (1501) can identify or predict the movement of the foveated area (fa) based on the gaze direction and/or the gaze position. Based on the movement of the predicted foveated area (fa), the HMD device (1501) can increase or decrease the brightness level of the pixels.
  • an electronic device e.g., the electronic device (101) of FIG. 1 and/or the electronic device (901) of FIG. 9) according to an embodiment may include a display (e.g., the display (120) of FIG. 1 and/or FIG. 2), at least one processor including a processing circuit (e.g., the processor (210) of FIG.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to set a brightness level of the display from the first brightness level to a second brightness level higher than the first brightness level based on the display control information.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to display the second image on the display set to the second brightness level such that the first image having a second dynamic range wider than the first dynamic range is shown on the display.
  • the electronic device can display an image having a contrast ratio equal to or similar to the contrast ratio on the display by using information related to the contrast ratio of the external environment at the time when the image is captured.
  • the electronic device can improve the appearance of the front screen of the image.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to generate, from the map information obtained from the file, a two-dimensional array comprising values each representing brightness levels of different portions of the first image.
  • a width and a height of the two-dimensional array may be less than a width and a height of the first image.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to control the display such that, when displaying an execution screen having the second image arranged on the display set to the second brightness level, pixels within a first display area of the display corresponding to the second image operate at the second brightness level, and pixels within a second display area of the display corresponding to the execution screen adjacent to the second image operate at the first brightness level.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to determine the second brightness level by using at least one of a range of brightness levels displayable by the display, a state of charge (SOC) of a battery of the electronic device, or an on pixel ratio (OPR) of the display when displaying the second image, together with the display control information obtained from the file.
  • SOC state of charge
  • OPR on pixel ratio
  • a method of an electronic device including a display may be provided.
  • the method may include an operation of detecting an event for displaying a first image having a first dynamic range while a brightness level of the display is set to a first brightness level.
  • the method may include an operation of, in response to the event, obtaining, from metadata in a file including the first image, map information for another portion of the first image visually emphasized with respect to a portion of the first image, and display control information for changing a brightness level of the display in relation to displaying the first image.
  • the method may include an operation of generating a second image by applying the map information to the first image.
  • the method may include an operation of setting a brightness level of the display from the first brightness level to a second brightness level higher than the first brightness level, based on the display control information.
  • the method may include displaying the second image on the display set to the second brightness level such that the first image having a second dynamic range wider than the first dynamic range is shown on the display.
  • the detecting operation may include an operation of detecting the event generated by an input related to the thumbnail image while displaying a thumbnail image on the display, the thumbnail image having a size smaller than the size of the first image and having the first dynamic range.
  • the setting operation may include an operation of controlling the display, using the display control information, such that at least one pixel of the display corresponding to a portion of the first image having a minimum brightness represented by the first dynamic range has a minimum brightness of the second dynamic range.
  • the setting operation may include an operation of controlling the display such that at least one other pixel of the display corresponding to another portion of the first image having a maximum brightness represented by the first dynamic range has a maximum brightness of the second dynamic range.
  • the obtaining operation may include obtaining the display control information, which is a ratio between the size of the entire third dynamic ranges of the plurality of third images used in synthesizing the first image in the file and the size of the first dynamic range.
  • the obtaining operation may include obtaining map information for extending a color space of the first image from the file.
  • the generating operation may include generating a two-dimensional array, from the map information obtained from the file, each of which includes values representing brightness levels of different portions of the first image.
  • a width and a height of the two-dimensional array may be smaller than a width and a height of the first image.
  • the displaying operation may include an operation of controlling the display so that, when displaying an execution screen on which the second image is arranged on the display set to the second brightness level, pixels in a first display area of the display corresponding to the second image operate at the second brightness level.
  • the displaying operation may include an operation of controlling the display so that pixels in a second display area of the display corresponding to the execution screen adjacent to the second image operate at the second brightness level.
  • the setting operation may include an operation of determining the second brightness level by using at least one of a range of brightness levels displayable by the display, a state of charge (SOC) of a battery of the electronic device, or an on pixel ratio (OPR) of the display when displaying the second image, together with the display control information obtained from the file.
  • SOC state of charge
  • OPR on pixel ratio
  • an electronic device as described above may include at least one camera, at least one processor including a processing circuit, and a memory including one or more storage media storing instructions.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to control the at least one camera to acquire a plurality of images in response to a photographing input.
  • the plurality of images may include a first image acquired according to a first dynamic range and a second image having a second dynamic range at least partially different from the first dynamic range, wherein a bit depth of the first dynamic range may be the same as a bit depth of the second dynamic range.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to acquire a third image having a third dynamic range using at least a portion of the plurality of images.
  • the bit depth of the third dynamic range may be the same as the bit depth of the first dynamic range.
  • the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate map information for another portion of the third image visually emphasized with respect to a portion of the third image using the plurality of images.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to determine display control information for changing a brightness level of the display device so that the third image is displayed as an image having a fourth dynamic range.
  • the bit depth of the fourth dynamic range may be greater than the bit depth of the third dynamic range.
  • the instructions, when individually or collectively executed by the at least one processor may cause the electronic device to generate a file including metadata including the map information and the display control information and the third image.
  • the map information may be applied to the third image to be displayed by a display device supporting HDR (high dynamic range), based on an event for displaying the third image.
  • HDR high dynamic range
  • the display control information may be used to change a brightness level of the display device displaying the third image based on the event.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to control the at least one camera to have a property different from at least one of a shutter speed, an ISO sensitivity, an aperture opening, or an exposure value of the at least one camera at the time the first image was acquired, in order to acquire the first image and the second image in response to the photographing input, and to acquire the second image having the second dynamic range at least partially different from the first dynamic range after acquiring the first image.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to acquire the second image using the at least one camera having the property.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to generate the file including the display control information, the file including a size of the fourth dynamic range and a ratio between the third dynamic range and the overall dynamic range of the plurality of images.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to generate the map information having a form of a two-dimensional array, the two-dimensional array including values representing brightness levels of different portions of the third image.
  • a width and a height of the two-dimensional array may be less than a width and a height of the third image.
  • a method of an electronic device including at least one camera may be provided.
  • the method may include an operation of controlling the at least one camera to acquire a plurality of images in response to a photographing input.
  • the plurality of images may include a first image acquired according to a first dynamic range and a second image having a second dynamic range at least partially different from the first dynamic range, wherein a bit depth of the first dynamic range may be the same as a bit depth of the second dynamic range.
  • the method may include an operation of acquiring a third image having a third dynamic range using at least a portion of the plurality of images.
  • the bit depth of the third dynamic range may be the same as a bit depth of the first dynamic range.
  • the act of generating the file may include the act of generating the file including the display control information including a size of the fourth dynamic range corresponding to the entire dynamic ranges of the plurality of images and a ratio between the third dynamic range.
  • the operation of generating the map information may include the operation of generating the map information in the form of a two-dimensional array including values representing brightness levels of different parts of the third image.
  • a width and a height of the two-dimensional array may be smaller than a width and a height of the third image.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to obtain a file including the map information and the display control information as metadata together with the first image.
  • the electronic device may include a housing configured to provide a contracted state and an expanded state.
  • the display accommodated in the housing may include a rollable display including a rolling portion in which the housing is at least partially rolled in the contracted state and unfolded in the expanded state, and a flat portion that remains flat in the contracted state and the expanded state.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level, based on the display control information, when the housing is in the expanded state, such that the rolling portion of the rollable display has a first brightness level and the flat portion has a second brightness level different from the first brightness level.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to perform the operations of determining the brightness level such that the first brightness level is higher than the second brightness level and the operations of displaying the second image.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level and an operation of displaying the second image such that the second brightness level is gradually changed to a third brightness level higher than the second brightness level as the housing changes from the contracted state to the expanded state.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level and an operation of displaying the second image, such that at least one of the first brightness level and the second brightness level is gradually changed to a third brightness level lower than the first brightness level and the second brightness level as the housing changes from the expanded state to the contracted state.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to detect a gaze of a user of the electronic device.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level based on the gaze and the display control information, such that a first portion of the display toward which the gaze is directed has a first brightness level and a second portion of the display away from the gaze has a second brightness level different from the first brightness level.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of displaying a second image on the display, such that the first portion has the first brightness level and the second portion has the second brightness level.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to perform the operations of determining the brightness level such that the first brightness level is higher than the second brightness level and the operations of displaying the second image.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining the brightness level and an operation of displaying the second image, such that as the point to which the gaze is directed moves from the first portion to the second portion, the first portion is gradually changed to a third brightness level lower than the first brightness level, and the second portion is gradually changed to a fourth brightness level higher than the second brightness level.
  • the instructions when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining the brightness level such that the second brightness level is equal to the third brightness level and the first brightness level is equal to the fourth brightness level, and an operation of displaying the second image.
  • the electronic device may include a housing that is mountable on the user's head and houses the display.
  • a non-transitory computer-readable storage medium storing instructions may be provided.
  • the instructions may be executed by an electronic device including a display.
  • the instructions when executed by the electronic device, may cause the electronic device to obtain a first image having a first dynamic range, map information related to brightness or color gradation of at least a portion of the first image, and display control information related to a brightness level during display.
  • the instructions when executed by the electronic device, may cause the electronic device to generate a second image based on the first image and the map information.
  • the instructions, when executed by the electronic device may cause the electronic device to determine a brightness level of at least a portion of the display based on the display control information.
  • the above instructions when executed by the electronic device, may cause the electronic device to display the second image according to a second dynamic range that is wider than the first dynamic range, based on the determined brightness level.
  • the term “if” will be understood to mean “when, upon,” “in response to determining,” or “in response to detecting,” as appropriate. Similarly, “if it is determined to,” or “if [the stated condition or event] is detected,” will be understood to mean, optionally, “upon determining,” or “in response to determining,” “upon detecting [the stated condition or event],” or “in response to detecting [the stated condition or event].”
  • the devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components.
  • the devices and components described in the embodiments may be implemented using one or more general-purpose computers or special-purpose computers, such as a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing instructions and responding to them.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may access, store, manipulate, process, and generate data in response to the execution of the software.
  • OS operating system
  • the processing device may access, store, manipulate, process, and generate data in response to the execution of the software.
  • the processing device is sometimes described as being used alone, but those skilled in the art will appreciate that the processing device may include multiple processing elements and/or multiple types of processing elements.
  • the processing device may include multiple processors, or a processor and a controller.
  • Other processing configurations, such as parallel processors, are also possible.
  • the method according to the embodiment may be implemented in the form of program commands that can be executed through various computer means and recorded on a computer-readable medium.
  • the medium may be one that continuously stores a program executable by a computer, or one that temporarily stores it for execution or downloading.
  • the medium may be various recording means or storage means in the form of a single or multiple hardware combinations, and is not limited to a medium directly connected to a computer system, and may also be distributed on a network. Examples of the medium may include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROMs, RAMs, flash memories, etc., configured to store program commands.
  • examples of other media may include recording media or storage media managed by app stores that distribute applications, sites that supply or distribute various software, servers, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

An electronic device according to an embodiment may acquire a first image having a first dynamic range, map information related to the brightness of at least a part of the first image or the gradation for each color, and display control information related to the brightness level at the time of display. The electronic device may generate a second image on the basis of the first image and the map information. The electronic device may determine the brightness level of at least a part of the display on the basis of the control information of the display. The electronic device may display the second image according to a second dynamic range that is wider than the first dynamic range, on the basis of the determined brightness level.

Description

이미지의 메타데이터를 이용하여 디스플레이의 밝기를 제어하기 위한 전자 장치 및 그 방법Electronic device and method for controlling brightness of display using metadata of image

본 개시(disclosure)는, 이미지의 메타데이터를 이용하여 디스플레이의 밝기를 제어하기 위한 전자 장치 및 그 방법에 관한 것이다. The present disclosure relates to an electronic device and method for controlling the brightness of a display using metadata of an image.

이미지, 및/또는 비디오를 시각화하기 위하여 생성된 디지털 정보(예, JPEG(joint photographic experts group)의 포맷을 가지는 이미지 파일, 및/또는 MPEG(moving picture experts group))는, 제한된 수의 비트들을 이용하여 색상을 나타내도록, 생성될 수 있다. 예를 들어, 디지털 정보 내에서, 특정 원색(예, 적색, 녹색, 또는 청색 중 어느 한 원색)의 밝기가, 8 개의 비트들을 이용하여 저장될 수 있다. 상기 예시에서, 디지털 정보는 총 256 단계( = 28 )의 밝기 레벨들을 이용하여 특정 원색의 밝기를 나타내도록, 생성될 수 있다. Digital information generated for visualizing images and/or videos (e.g., image files in the format of the joint photographic experts group (JPEG) and/or moving picture experts group (MPEG)) can be generated to represent colors using a limited number of bits. For example, within the digital information, the brightness of a particular primary color (e.g., one of red, green, or blue) can be stored using 8 bits. In the above example, the digital information can be generated to represent the brightness of a particular primary color using a total of 256 levels (= 2 8 ) of brightness levels.

상술한 정보는 본 개시에 대한 이해를 돕기 위한 것을 목적으로 하는 배경 기술(related art)로서 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련된 종래 기술(prior art)로서 주장이 되거나, 종래 기술과 관련된 결정에 사용될 수 없다. The above information may be provided as related art for the purpose of helping to understand the present disclosure. None of the above is claimed to be prior art related to the present disclosure or can be used in making decisions related to prior art.

일 실시예(an embodiment)에 따른, 전자 장치(electronic device)는, 디스플레이, 처리 회로를 포함하는 적어도 하나의 프로세서, 및 인스트럭션들을 저장하는 하나 이상의 저장 매체들을 포함하는 메모리를 포함할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이의 밝기 레벨이 제1 밝기 레벨로 설정되는 동안, 제1 다이나믹 레인지를 가지는 제1 이미지를 표시하기 위한 이벤트를 검출하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 이벤트에 응답하여, 상기 제1 이미지를 포함하는 파일 내의 메타데이터로부터, 상기 제1 이미지의 일부분에 대하여 시각적으로 강조된 상기 제1 이미지의 다른 부분을 위한 맵 정보, 및 상기 제1 이미지의 표시와 관련하여 상기 디스플레이의 밝기 레벨을 변경하는 디스플레이 제어 정보를 획득하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 이미지에 상기 맵 정보를 적용함으로써, 제2 이미지를 생성하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이 제어 정보에 기반하여, 상기 디스플레이의 밝기 레벨을, 상기 제1 밝기 레벨로부터 상기 제1 밝기 레벨보다 높은 제2 밝기 레벨로 설정하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지를 가지는 상기 제1 이미지가 상기 디스플레이 상에서 보여지도록, 상기 제2 밝기 레벨로 설정된 상기 디스플레이 상에서 상기 제2 이미지를 표시하도록, 상기 전자 장치를 야기할 수 있다. In one embodiment, an electronic device may include a display, at least one processor including a processing circuit, and a memory including one or more storage media storing instructions. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to detect an event for displaying a first image having a first dynamic range while a brightness level of the display is set to a first brightness level. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to, in response to the event, obtain, from metadata in a file including the first image, map information for another portion of the first image that is visually emphasized with respect to a portion of the first image, and display control information for changing a brightness level of the display in relation to the display of the first image. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate a second image by applying the map information to the first image. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to set a brightness level of the display from the first brightness level to a second brightness level higher than the first brightness level, based on the display control information. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to display the second image on the display set to the second brightness level, such that the first image having a second dynamic range wider than the first dynamic range is shown on the display.

일 실시예에서, 디스플레이를 포함하는 전자 장치의 방법이 제공될 수 있다. 상기 방법은, 상기 디스플레이의 밝기 레벨이 제1 밝기 레벨로 설정되는 동안, 제1 다이나믹 레인지를 가지는 제1 이미지를 표시하기 위한 이벤트를 검출하는 동작을 포함할 수 있다. 상기 방법은, 상기 이벤트에 응답하여, 상기 제1 이미지를 포함하는 파일 내의 메타데이터로부터, 상기 제1 이미지의 일부분에 대하여 시각적으로 강조된 상기 제1 이미지의 다른 부분을 위한 맵 정보, 및 상기 제1 이미지의 표시와 관련하여 상기 디스플레이의 밝기 레벨을 변경하는 디스플레이 제어 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 이미지에 상기 맵 정보를 적용함으로써, 제2 이미지를 생성하는 동작을 포함할 수 있다. 상기 방법은, 상기 디스플레이 제어 정보에 기반하여 상기 디스플레이의 밝기 레벨을, 상기 제1 밝기 레벨로부터 상기 제1 밝기 레벨보다 높은 제2 밝기 레벨로 설정하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지를 가지는 상기 제1 이미지가 상기 디스플레이 상에서 보여지도록, 상기 제2 밝기 레벨로 설정된 상기 디스플레이 상에서 상기 제2 이미지를 표시하는 동작을 포함할 수 있다. In one embodiment, a method of an electronic device including a display may be provided. The method may include detecting an event for displaying a first image having a first dynamic range while a brightness level of the display is set to a first brightness level. The method may include, in response to the event, obtaining, from metadata in a file including the first image, map information for another portion of the first image visually emphasized with respect to a portion of the first image, and display control information for changing a brightness level of the display in relation to displaying the first image. The method may include generating a second image by applying the map information to the first image. The method may include setting a brightness level of the display from the first brightness level to a second brightness level higher than the first brightness level based on the display control information. The method may include displaying the second image on the display set to the second brightness level such that the first image having a second dynamic range wider than the first dynamic range is shown on the display.

일 실시예에 따른, 전자 장치는, 적어도 하나의 카메라, 처리 회로를 포함하는 적어도 하나의 프로세서, 및 인스트럭션들을 저장하는 하나 이상의 저장 매체들을 포함하는 메모리를 포함할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 촬영 입력에 응답하여, 복수의 이미지들을 획득하도록 상기 적어도 하나의 카메라를 제어하도록, 상기 전자 장치를 야기할 수 있다. 상기 복수의 이미지들은, 제1 다이나믹 레인지에 따라 획득된 제1 이미지 및 상기 제1 다이나믹 레인지와 적어도 부분적으로 다른 제2 다이나믹 레인지를 가지는 제2 이미지를 포함할 수 있다. 상기 제1 다이나믹 레인지의 비트 뎁스는, 상기 제2 다이나믹 레인지의 비트 뎁스와 동일할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 복수의 이미지들의 적어도 일부분을 이용하여 제3 다이나믹 레인지를 가지는 제3 이미지를 획득하도록, 상기 전자 장치를 야기할 수 있다. 상기 제3 다이나믹 레인지의 비트 뎁스는, 상기 제1 다이나믹 레인지의 비트 뎁스와 동일할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제3 이미지가 제4 다이나믹 레인지를 가지는 이미지로 보여지도록, 디스플레이 장치의 밝기 레벨을 변경하기 위한 디스플레이 제어 정보를 결정하도록, 상기 전자 장치를 야기할 수 있다. 상기 제4 다이나믹 레인지의 비트 뎁스는, 상기 제3 다이나믹 레인지의 상기 비트 뎁스보다 클 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 맵 정보, 및 상기 디스플레이 제어 정보를 포함하는 메타데이터 및 상기 제3 이미지를 포함하는 파일을 생성하도록, 상기 전자 장치를 야기할 수 있다. In one embodiment, an electronic device may include at least one camera, at least one processor including a processing circuit, and a memory including one or more storage media storing instructions. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to control the at least one camera to acquire a plurality of images in response to a photographing input. The plurality of images may include a first image acquired according to a first dynamic range and a second image having a second dynamic range at least partially different from the first dynamic range. A bit depth of the first dynamic range may be the same as a bit depth of the second dynamic range. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to acquire a third image having a third dynamic range using at least a portion of the plurality of images. A bit depth of the third dynamic range may be the same as a bit depth of the first dynamic range. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to determine display control information for changing a brightness level of the display device such that the third image is displayed as an image having a fourth dynamic range. A bit depth of the fourth dynamic range may be greater than the bit depth of the third dynamic range. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate a file including metadata including the map information and the display control information, and the third image.

일 실시예에서, 적어도 하나의 카메라를 포함하는 전자 장치의 방법이 제공될 수 있다. 상기 방법은, 촬영 입력에 응답하여, 복수의 이미지들을 획득하도록 상기 적어도 하나의 카메라를 제어하는 동작을 포함할 수 있다. 상기 복수의 이미지들은, 제1 다이나믹 레인지에 따라 획득된 제1 이미지 및 상기 제1 다이나믹 레인지와 적어도 부분적으로 다른 제2 다이나믹 레인지를 가지는 제2 이미지를 포함하고, 상기 제1 다이나믹 레인지의 비트 뎁스는, 상기 제2 다이나믹 레인지의 비트 뎁스와 동일할 수 있다. 상기 방법은, 상기 복수의 이미지들의 적어도 일부분을 이용하여 제3 다이나믹 레인지를 가지는 제3 이미지를 획득하는 동작을 포함할 수 있다. 상기 제3 다이나믹 레인지의 비트 뎁스는, 상기 제1 다이나믹 레인지의 비트 뎁스와 동일할 수 있다. 상기 방법은, 상기 복수의 이미지들을 이용하여 상기 제3 이미지의 일부분에 대하여 시각적으로 강조된 상기 제3 이미지의 다른 부분을 위한 맵 정보를 생성하는 동작을 포함할 수 있다. 상기 제3 이미지가 제4 다이나믹 레인지를 가지는 이미지로 보여지도록, 디스플레이 장치의 밝기 레벨을 변경하기 위한 디스플레이 제어 정보를 결정하는 동작을 포함할 수 있다. 상기 제4 다이나믹 레인지의 비트 뎁스는, 상기 제3 다이나믹 레인지의 상기 비트 뎁스보다 클 수 있다. 상기 방법은, 상기 맵 정보, 및 상기 디스플레이 제어 정보를 포함하는 메타데이터 및 상기 제3 이미지를 포함하는 파일을 생성하는 동작을 포함할 수 있다. In one embodiment, a method of an electronic device including at least one camera may be provided. The method may include an operation of controlling the at least one camera to acquire a plurality of images in response to a photographing input. The plurality of images may include a first image acquired according to a first dynamic range and a second image having a second dynamic range at least partially different from the first dynamic range, wherein a bit depth of the first dynamic range may be the same as a bit depth of the second dynamic range. The method may include an operation of acquiring a third image having a third dynamic range using at least a portion of the plurality of images. The bit depth of the third dynamic range may be the same as a bit depth of the first dynamic range. The method may include an operation of generating map information for another portion of the third image that is visually emphasized for a portion of the third image using the plurality of images. The method may include an operation of determining display control information for changing a brightness level of a display device so that the third image is displayed as an image having a fourth dynamic range. The bit depth of the fourth dynamic range may be greater than the bit depth of the third dynamic range. The method may include an operation of generating a file including metadata including the map information and the display control information and the third image.

일 실시예에 따른, 전자 장치는, 디스플레이, 처리 회로를 포함하는 적어도 하나의 프로세서, 및 인스트럭션들을 저장하는 하나 이상의 저장 매체들을 포함하는 메모리를 포함할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 제1 다이나믹 레인지를 갖는 제1 이미지, 상기 제1 이미지의 적어도 일부의 밝기 또는 색상별 계조와 관련된 맵 정보, 및 표시 시의 밝기 레벨과 관련된 디스플레이 제어 정보를 획득하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 이미지 및 상기 맵 정보에 기반하여, 제2 이미지를 생성하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이 제어 정보에 기반하여, 상기 디스플레이의 적어도 일부의 밝기 레벨을 결정하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 결정된 밝기 레벨에 기반하여, 상기 제2 이미지를 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지에 따라 표시하도록, 상기 전자 장치를 야기할 수 있다. In one embodiment, an electronic device may include a display, at least one processor including a processing circuit, and a memory including one or more storage media storing instructions. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to obtain a first image having a first dynamic range, map information related to brightness or color gradation of at least a portion of the first image, and display control information related to a brightness level during display. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate a second image based on the first image and the map information. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to determine a brightness level of at least a portion of the display based on the display control information. The above instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to display the second image according to a second dynamic range that is wider than the first dynamic range, based on the determined brightness level.

일 실시예에서, 인스트럭션들을 저장하는 비-일시적 컴퓨터 판독가능 저장 매체가 제공될 수 있다. 상기 인스트럭션들은, 디스플레이를 포함하는 전자 장치에 의해 실행될 수 있다. 상기 인스트럭션들은, 상기 전자 장치에 의해 실행될 시, 상기 전자 장치가, 제1 다이나믹 레인지를 가지는 제1 이미지, 상기 제1 이미지의 적어도 일부의 밝기 또는 색상별 계조와 관련된 맵 정보, 및 표시 시의 밝기 레벨과 관련된 디스플레이 제어 정보를 획득하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 전자 장치에 의해 실행될 시, 상기 전자 장치가, 상기 제1 이미지 및 상기 맵 정보에 기반하여, 제2 이미지를 생성하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 전자 장치에 의해 실행될 시, 상기 전자 장치가, 상기 디스플레이 제어 정보에 기반하여, 상기 디스플레이의 적어도 일부의 밝기 레벨을 결정하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 전자 장치에 의해 실행될 시, 상기 전자 장치가, 상기 결정된 밝기 레벨에 기반하여, 상기 제2 이미지를 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지에 따라 표시하도록, 야기할 수 있다. In one embodiment, a non-transitory computer-readable storage medium storing instructions may be provided. The instructions may be executed by an electronic device including a display. The instructions, when executed by the electronic device, may cause the electronic device to obtain a first image having a first dynamic range, map information related to brightness or color gradation of at least a portion of the first image, and display control information related to a brightness level during display. The instructions, when executed by the electronic device, may cause the electronic device to generate a second image based on the first image and the map information. The instructions, when executed by the electronic device, may cause the electronic device to determine a brightness level of at least a portion of the display based on the display control information. The above instructions, when executed by the electronic device, may cause the electronic device to display the second image according to a second dynamic range that is wider than the first dynamic range, based on the determined brightness level.

도 1은, 일 실시예에 따른, 파일로부터 이미지를 표시하는 전자 장치의 예시적인 동작을 도시한다. FIG. 1 illustrates an exemplary operation of an electronic device for displaying an image from a file, according to one embodiment.

도 2는, 일 실시예에 따른, 전자 장치의 블록도를 도시한다. FIG. 2 illustrates a block diagram of an electronic device according to one embodiment.

도 3은, 적어도 하나의 카메라를 제어하여, HDR 효과, 및 SDR을 지원하는 이미지를 포함하는 정보를 생성하는 전자 장치의 예시적인 동작을 도시한다. FIG. 3 illustrates an exemplary operation of an electronic device for controlling at least one camera to generate information including an image supporting HDR effects and SDR.

도 4는, 적어도 하나의 카메라로부터 획득된 복수의 이미지들을 이용하여 파일을 생성하는 전자 장치의 예시적인 동작을 도시한다. FIG. 4 illustrates an exemplary operation of an electronic device for generating a file using a plurality of images acquired from at least one camera.

도 5는, 일 실시예에 따른, 전자 장치에 의해 생성된 파일의 예시적인 구조를 도시한다. FIG. 5 illustrates an exemplary structure of a file generated by an electronic device according to one embodiment.

도 6은, 파일에 포함된 이미지를 표시하는 전자 장치의 디스플레이의 예시적인 밝기 레벨을 도시한다. Figure 6 illustrates exemplary brightness levels of a display of an electronic device displaying an image contained in a file.

도 7은, 파일로부터 디스플레이로 송신될 정보를 생성하는 전자 장치의 예시적인 동작을 도시한다. Figure 7 illustrates an exemplary operation of an electronic device for generating information to be transmitted from a file to a display.

도 8은, HDR 모드에서 이미지를 표시하는 전자 장치의 예시적인 상태들을 도시한다. Figure 8 illustrates exemplary states of an electronic device displaying an image in HDR mode.

도 9는, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다. FIG. 9 is a block diagram of an electronic device within a network environment according to various embodiments.

도 10은, 다양한 실시예들에 따른, 카메라 모듈을 예시하는 블록도이다.FIG. 10 is a block diagram illustrating a camera module according to various embodiments.

도 11은, 다양한 실시예들에 따른, 디스플레이 모듈의 블록도이다. FIG. 11 is a block diagram of a display module according to various embodiments.

도 12a, 도 12b, 및 도 12c는, HDR 모드에서 이미지를 표시하기 위하여, 폴딩 축에 의해 접힘가능한 하우징을 포함하는 전자 장치에 의하여 수행되는, 예시적인 동작을 도시한다. FIGS. 12A, 12B, and 12C illustrate exemplary operations performed by an electronic device including a housing foldable by a folding axis to display an image in HDR mode.

도 13은, HDR 모드에서 이미지를 표시하기 위하여, 복수의 디스플레이들을 포함하는 전자 장치에 의하여 수행되는, 예시적인 동작을 도시한다. FIG. 13 illustrates an exemplary operation performed by an electronic device including multiple displays to display an image in HDR mode.

도 14a 및 도 14b는, HDR 모드에서 이미지를 표시하기 위하여, 플렉서블 디스플레이를 포함하는 전자 장치에 의하여 수행되는, 예시적인 동작을 도시한다. FIGS. 14A and 14B illustrate exemplary operations performed by an electronic device including a flexible display to display an image in HDR mode.

도 15는, HDR 모드에서 이미지를 표시하기 위하여, 일 실시예에 따른, HMD(head-mounted display) 장치에 의하여 수행되는, 예시적인 동작을 도시한다. FIG. 15 illustrates exemplary operations performed by a head-mounted display (HMD) device, according to one embodiment, to display an image in HDR mode.

도 16은, HDR 모드에서 이미지를 표시할 시, 사용자와 관련된 정보를 이용하여 디스플레이의 밝기 레벨을 적어도 부분적으로 강화하는, 전자 장치의 예시적인 동작을 도시한다. FIG. 16 illustrates an exemplary operation of an electronic device that uses user-related information to at least partially enhance the brightness level of a display when displaying an image in HDR mode.

이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다. Below, various embodiments of this document are described with reference to the attached drawings.

본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나”, "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다. The various embodiments of this document and the terminology used herein are not intended to limit the technology described in this document to the specific embodiments, but should be understood to encompass various modifications, equivalents, and/or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar components. The singular expressions may include plural expressions unless the context clearly indicates otherwise. In this document, expressions such as "A or B", "at least one of A and/or B", "A, B, or C" or "at least one of A, B and/or C" can include all possible combinations of the items listed together. Expressions such as "first", "second", "first" or "second" can modify the corresponding components, regardless of order or importance, and are only used to distinguish one component from another and do not limit the corresponding components. When it is said that a certain (e.g., a first) component is "(functionally or communicatively) connected" or "connected" to another (e.g., a second) component, said certain component may be directly connected to said other component, or may be connected through another component (e.g., a third component).

본 문서에서 사용된 용어 "모듈"은 하드웨어, 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. The term "module" as used in this document includes a unit composed of hardware or firmware, and may be used interchangeably with terms such as logic, block, component, or circuit. A module may be an integrally composed component or a minimum unit or part thereof that performs one or more functions. For example, a module may be composed of an application-specific integrated circuit (ASIC).

도 1은, 일 실시예에 따른, 파일(110)로부터 이미지를 표시하는 전자 장치(101)의 예시적인 동작을 도시한다. 전자 장치(101)는, 스마트폰, 랩톱 PC(personal computer), 태블릿 PC, HMD(head-mounted display) 장치, 워치, 및 기타 유사 컴퓨팅 장치들(미도시)과 같은, 다양한 형태들의 폼 팩터를 가질 수 있다. 전자 장치(101)는, 모바일 장치, 사용자 단말, 사용자 장치(user equipment, UE), 다기능 장치, 휴대용 통신 장치, 및/또는 휴대용 장치로 참조될 수 있다. 전자 장치(101)의 폼 팩터는 도 1에 도시된 예시적인 폼 팩터들에 제한되지 않는다. FIG. 1 illustrates an exemplary operation of an electronic device (101) for displaying an image from a file (110), according to one embodiment. The electronic device (101) may have various form factors, such as a smart phone, a laptop personal computer (PC), a tablet PC, a head-mounted display (HMD) device, a watch, and other similar computing devices (not shown). The electronic device (101) may also be referred to as a mobile device, a user terminal, a user equipment (UE), a multi-function device, a portable communication device, and/or a handheld device. The form factor of the electronic device (101) is not limited to the exemplary form factors illustrated in FIG. 1.

일 실시예에서, 전자 장치(101)는, 파일(110)을 생성하거나, 및/또는 생성된 파일(110)의 미디어 콘텐트(예, 사진, 및/또는 이미지로 지칭되는 미디어 콘텐트)를 시각화할 수 있거나, 또는 표시할 수 있다. 파일(110)은, JPEG 파일, HEIF(high efficiency image file format) 파일, HEIC(high efficiency image container) 파일, 로우 데이터를 저장하기 위한 파일(예, DNG(digital negative image) 파일), PNG(portable network graphic) 파일, 및/또는 GIF(graphics interchange format) 파일을 포함할 수 있다. 파일(110)의 생성, 및/또는 처리와 관련된 기능을 실행하기 위한 전자 장치(101)의 예시적인 하드웨어 구성이, 도 2를 참고하여 설명된다. In one embodiment, the electronic device (101) may generate a file (110), and/or visualize or display media content (e.g., media content referred to as photographs and/or images) of the generated file (110). The file (110) may include a JPEG file, a high efficiency image file format (HEIF) file, a high efficiency image container (HEIC) file, a file for storing raw data (e.g., a digital negative image (DNG) file), a portable network graphic (PNG) file, and/or a graphics interchange format (GIF) file. An exemplary hardware configuration of the electronic device (101) for executing functions related to generating and/or processing the file (110) is described with reference to FIG. 2.

본 개시에서, 이미지의 다이나믹 레인지는, 상기 이미지의 색상 분포에 의해 나타나는, 최소 밝기 및 최대 밝기 사이의 비율을 의미할 수 있다. 다이나믹 레인지는, 명암비를 포함할 수 있다. 도 1을 참고하면, 파일(110)은, 낮은 다이나믹 레인지(low dynamic range, LDR), 및/또는 표준 다이나믹 레인지(standard dynamic range, SDR)와 관련된 이미지(112)를 포함할 수 있다. SDR을 가지는 이미지(112)의 픽셀들의 밝기(또는 루마(luma) 값)는, 8 비트의 비트 뎁스를 가지는 이진 값으로 나타낼 수 있다. 8 비트의 비트 뎁스를 이용하여, SDR을 가지는 이미지(112)는 256 단계( = 28 )의 밝기를 나타낼 수 있다. 예를 들어, SDR을 이용하여 표시되는 이미지는, 약 250 : 1의 명암비를 가질 수 있다. 도 1을 참고하면, 이미지(112)에 포함된 픽셀들의 최소 밝기 l1 및 최대 밝기 l2 사이의 명암비는, 약 250 : 1일 수 있다. SDR을 가지는 이미지(112)를 표시하기 위하여 발생되는 광은, 이미지(112)의 상이한 부분들에서 최대 100 nits의 편차(예, l2 - l1)를 가질 수 있다. SDR과 관련된 이미지(112)는, 예를 들어, sRGB(standard RGB) 색 공간에 기반하는 색 정보를 가질 수 있다. In the present disclosure, the dynamic range of an image may mean a ratio between a minimum brightness and a maximum brightness represented by a color distribution of the image. The dynamic range may include a contrast ratio. Referring to FIG. 1, a file (110) may include an image (112) related to a low dynamic range (LDR) and/or a standard dynamic range (SDR). The brightness (or luma value) of pixels of an image (112) having SDR may be represented as a binary value having a bit depth of 8 bits. Using a bit depth of 8 bits, the image (112) having SDR may represent brightness of 256 levels (= 2 8 ). For example, an image displayed using SDR may have a contrast ratio of approximately 250:1. Referring to FIG. 1, a contrast ratio between the minimum brightness l1 and the maximum brightness l2 of pixels included in an image (112) may be about 250:1. Light generated to display an image (112) having SDR may have a deviation of up to 100 nits (e.g., l2 - l1) in different parts of the image (112). An image (112) associated with SDR may have color information based on, for example, an sRGB (standard RGB) color space.

일 실시예에 따른, 전자 장치(101)는, SDR 보다 넓은 다이나믹 레인지(예, HDR(high dynamic range))와 관련된 동작을 수행할 수 있다. 예를 들어, 전자 장치(101)는, HDR 모드를 지원하는 디스플레이(120)를 제어하여, 상술된 250 : 1과 상이한 명암비(예, 10,000 : 1, 및/또는 20,000 : 1)의 광을 출력할 수 있다. 예를 들어, 전자 장치(101)는, 카메라로부터 얻은 이미지들을 합성(예, 브라케팅(bracketing))하여, SDR 및 HDR 전부에서 처리가능한 파일(110)을 생성할 수 있다. 예를 들어, 파일(110)은, SDR 또는 HDR 중에서 SDR 만을 지원하는 다른 전자 장치(또는 디스플레이 장치)에 의해 표시가능한 이미지(112)를 포함할 수 있다. 예를 들어, 전자 장치(101)는 SDR 만을 지원하는 레거시 디스플레이 장치에서 호환되는, SDR의 이미지(112)를 포함하면서, 이미지(112)의 시각적 정보를 HDR로 스케일링할 수 있는 정보를 포함할 수 있다. 전자 장치(101)가 파일(110)을 생성하는 예시적인 동작이, 도 3 내지 도 4를 참고하여 설명된다. 전자 장치(101)에 의해 생성된 파일(110)의 예시적인 구조가, 도 5를 참고하여 설명된다. In one embodiment, the electronic device (101) can perform operations related to a wider dynamic range than SDR (e.g., high dynamic range (HDR)). For example, the electronic device (101) can control the display (120) supporting the HDR mode to output light having a contrast ratio different from the 250:1 described above (e.g., 10,000:1 and/or 20,000:1). For example, the electronic device (101) can synthesize (e.g., bracket) images acquired from a camera to generate a file (110) that can be processed in both SDR and HDR. For example, the file (110) can include an image (112) that can be displayed by another electronic device (or display device) that supports only SDR among SDR or HDR. For example, the electronic device (101) may include information that can scale visual information of the image (112) to HDR while including an image (112) of SDR that is compatible with a legacy display device that only supports SDR. An exemplary operation of the electronic device (101) generating a file (110) is described with reference to FIGS. 3 and 4. An exemplary structure of a file (110) generated by the electronic device (101) is described with reference to FIG. 5.

도 1을 참고하면, 일 실시예에 따른, 전자 장치(101)에 의해 생성된 파일(110)은, HDR 모드를 지원하는 전자 장치(101)(또는 디스플레이 장치)가, SDR을 가지는 이미지(112)로부터 HDR 효과를 가지는 이미지(130)를 합성하는데 요구되는 메타데이터를 포함할 수 있다. 상기 메타데이터는, SDR을 가지는 이미지(112)와 관련된 부가 정보(예, EXIF(EXchangeable Image File)에 기반하는 사진 촬영 정보), 맵 정보(114), 및/또는 디스플레이 제어 정보(116)를 포함할 수 있다. 맵 정보(114)는, 이미지(112)의 너비, 및 높이 이하의 너비, 및 높이를 각각 가지는 2 차원 배열일 수 있다. 상기 2 차원 배열의 원소들(예, 맵 정보(114)의 픽셀들)은, 이미지(112)의 상이한 부분들의 밝기를 변경하는데 이용되는 수치 값(예, 계수, 및/또는 증가량)을 포함할 수 있다. 맵 정보(114)를 이용하여 이미지(112)의 픽셀들의 값들(예, 밝기 값들)을 변경하여, 전자 장치(101)는 HDR 효과를 위한 이미지(130)를 획득할 수 있다. 예를 들어, 맵 정보(114)를 이용하여 이미지(112)로부터 합성된 이미지(130)는, 이미지(112)의 비트 뎁스 보다 큰 비트 뎁스를 이용하여 나타낸 밝기 값들을 포함할 수 있다. Referring to FIG. 1, according to an embodiment, a file (110) generated by an electronic device (101) may include metadata required for an electronic device (101) (or a display device) supporting an HDR mode to synthesize an image (130) having an HDR effect from an image (112) having an SDR. The metadata may include additional information related to the image (112) having an SDR (e.g., photographing information based on EXIF (EXchangeable Image File)), map information (114), and/or display control information (116). The map information (114) may be a two-dimensional array having a width less than or equal to the width and height of the image (112), respectively, and a height. Elements of the two-dimensional array (e.g., pixels of the map information (114)) may include numerical values (e.g., coefficients and/or increments) used to change the brightness of different portions of the image (112). By changing the values (e.g., brightness values) of pixels of the image (112) using the map information (114), the electronic device (101) can obtain an image (130) for HDR effect. For example, the image (130) synthesized from the image (112) using the map information (114) can include brightness values expressed using a bit depth greater than the bit depth of the image (112).

일 실시예에 따른, 전자 장치(101)는 디스플레이(120) 상에 이미지(130)를 표시할 시, HDR에 기반하여 디스플레이(120)를 제어할 수 있다. 전자 장치(101)는 디스플레이(120) 상에, 파일(110)에 포함된, SDR을 가지는 이미지(112)로부터 합성된, HDR 효과를 위한 이미지(130)를 표시할 수 있다. 디스플레이(120)를 이용하여 이미지(130)를 표시할 시에, 이미지(130)의 최소 밝기 l3 및 최대 밝기 l4 사이의 명암비는, SDR과 관련된 명암비(예, 약 250 : 1)를 초과할 수 있다(예, 10,000 : 1). 디스플레이(120)를 통해 이미지(130)를 표시할 시, 전자 장치(101)는 SDR 보다 넓은 색 공간(예, DCI(digital cinema initiatives)-P3 및/또는 REC.2020)에 기반하여, 이미지(130)를 표시할 수 있다. According to one embodiment, the electronic device (101) may control the display (120) based on HDR when displaying an image (130) on the display (120). The electronic device (101) may display an image (130) for HDR effect, synthesized from an image (112) having SDR, included in a file (110), on the display (120). When displaying the image (130) using the display (120), a contrast ratio between the minimum brightness l3 and the maximum brightness l4 of the image (130) may exceed a contrast ratio associated with SDR (e.g., approximately 250:1) (e.g., 10,000:1). When displaying an image (130) through a display (120), the electronic device (101) can display the image (130) based on a color space wider than SDR (e.g., DCI (digital cinema initiatives)-P3 and/or REC.2020).

일 실시예에서, 파일(110)에 포함된 디스플레이 제어 정보(116)는, 디스플레이(120)를 제어하는데 이용될 수 있다. 예를 들어, 디스플레이 제어 정보(116)는, 파일(110)에 기반하는 HDR 효과를 가지는 이미지(130)를 표시하는데 요구되는 최대 밝기 l4와 관련된 수치 값을 포함할 수 있다. 예를 들어, 디스플레이 제어 정보(116)는 SDR의 이미지(112)의 픽셀들의 최대 밝기 l2 및 HDR 효과를 가지는 이미지(130)의 픽셀들의 최대 밝기 l4 사이의 비율을 포함할 수 있다. 전자 장치(101)가 이미지(130)를 표시하기 위하여 디스플레이(120)를 제어하는 예시적인 동작이, 도 6 내지 도 8을 참고하여 설명된다. In one embodiment, the display control information (116) included in the file (110) may be used to control the display (120). For example, the display control information (116) may include a numerical value related to a maximum brightness l4 required to display an image (130) having an HDR effect based on the file (110). For example, the display control information (116) may include a ratio between the maximum brightness l2 of pixels of the image (112) of SDR and the maximum brightness l4 of pixels of the image (130) having the HDR effect. An exemplary operation of the electronic device (101) to control the display (120) to display the image (130) is described with reference to FIGS. 6 to 8.

상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는, 디스플레이(120)의 밝기를 적어도 부분적으로 증가(또는 강화)하기 위하여, HDR 효과를 가지는 이미지(130)를 선명하게 시각화할 수 있다. 전자 장치(101)는 HDR 효과의 이미지(130)를 합성하기 위한 정보(예, 맵 정보(114), 및/또는 디스플레이 제어 정보(116)), 및 SDR의 이미지(112) 전부를 포함하는 파일(110)을 생성할 수 있다. SDR의 이미지(112)를 이용하여, 전자 장치(101)는 8 비트의 비트 뎁스를 이용하는 레거시 이미지 렌더링 파이프라인(예, JPEG의 포맷을 가지는 파일에 대한 렌더링을 수행하는 하드웨어 가속기, 및/또는 상기 하드웨어 가속기를 모사하도록 구성된 소프트웨어 어플리케이션)과 호환되는 파일(110)을 생성할 수 있다. 더 나아가서, 전자 장치(101)는 파일(110)에 HDR 효과를 지원하는 이미지(130)를 합성하는데 이용되는 정보를 추가하여, HDR을 지원하는 최신 디스플레이 장치(예, 디스플레이(120)를 포함하는 전자 장치(101))가 SDR 보다 넓은 다이나믹 레인지를 이용하여 이미지(130)를 표시하게 만들 수 있다. As described above, according to one embodiment, the electronic device (101) can clearly visualize an image (130) having an HDR effect in order to at least partially increase (or enhance) the brightness of the display (120). The electronic device (101) can generate a file (110) including all of the information for synthesizing the image (130) of the HDR effect (e.g., the map information (114) and/or the display control information (116)) and the image (112) of the SDR. Using the image (112) of the SDR, the electronic device (101) can generate a file (110) that is compatible with a legacy image rendering pipeline that uses a bit depth of 8 bits (e.g., a hardware accelerator that performs rendering on a file having a format of JPEG, and/or a software application configured to emulate the hardware accelerator). Furthermore, the electronic device (101) can add information used to synthesize an image (130) supporting HDR effect to the file (110), thereby allowing a modern display device supporting HDR (e.g., an electronic device (101) including a display (120)) to display the image (130) using a wider dynamic range than SDR.

이하에서는, 도 2를 참고하여, 도 1의 전자 장치(101)의 예시적인 하드웨어 구성이 설명된다. Below, with reference to FIG. 2, an exemplary hardware configuration of the electronic device (101) of FIG. 1 is described.

도 2는, 일 실시예에 따른, 전자 장치(101)의 블록도를 도시한다. 도 1의 전자 장치(101)는 도 1의 전자 장치(101)를 포함할 수 있다. 도 2를 참조하면, 전자 장치(101)는, 프로세서(210)(예: 도 9의 프로세서(920)) 및 디스플레이(120), 메모리(215), 적어도 하나의 카메라(225), 및 배터리(235)를 포함할 수 있다. 전자 장치(101)의 하드웨어 구성은 도 2의 일 실시예에 제한되지 않는다. 예를 들어, 전자 장치(101)는 도 9를 참고하여 설명되는 전자 부품을 더 포함할 수 있다. 예를 들어, 도 2의 전자 부품 중 일부(예, 배터리(235), 및/또는 적어도 하나의 카메라(225))가 전자 장치(101)로부터 제외될 수 있다. FIG. 2 illustrates a block diagram of an electronic device (101) according to one embodiment. The electronic device (101) of FIG. 1 may include the electronic device (101) of FIG. 1. Referring to FIG. 2, the electronic device (101) may include a processor (210) (e.g., processor 920 of FIG. 9) and a display (120), a memory (215), at least one camera (225), and a battery (235). The hardware configuration of the electronic device (101) is not limited to the embodiment of FIG. 2. For example, the electronic device (101) may further include electronic components described with reference to FIG. 9. For example, some of the electronic components of FIG. 2 (e.g., battery (235) and/or at least one camera (225)) may be excluded from the electronic device (101).

예를 들면, 프로세서(210)는, 디스플레이(120) 또는 디스플레이(120) 내의 디스플레이 구동 회로(122)와 작동적으로 결합될(operably 또는 operatively coupled with) 수 있다. 예를 들면, 프로세서(210)가 디스플레이(120)(또는 디스플레이 구동 회로(122))와 작동적으로 결합됨은, 프로세서(210)가 디스플레이(120) (또는 디스플레이 구동 회로(122))와 직접적으로(directly) 연결됨을 나타낼 수 있다. 예를 들면, 프로세서(210)가 디스플레이(120)(또는 디스플레이 구동 회로(122))와 작동적으로 결합됨은, 프로세서(210)가 전자 장치(101)의 다른 구성요소를 통해 디스플레이(120)(또는 디스플레이 구동 회로(122))와 연결됨을 나타낼 수 있다. 예를 들면, 프로세서(210)가 디스플레이(120)(또는 디스플레이 구동 회로(122))와 작동적으로 결합됨은, 프로세서(210)의 상태가 디스플레이(120)(또는 디스플레이 구동 회로(122))를 제어할 수 있는 상태임을 나타낼 수 있다. 예를 들면, 프로세서(210)가 디스플레이(120)(또는 디스플레이 구동 회로(122))와 작동적으로 결합됨은, 프로세서(210)로부터 획득되는 정보, 데이터, 신호, 또는 명령에 기반하여, 디스플레이(120)(또는 디스플레이 구동 회로(122))의 동작이 야기됨을 나타낼 수 있다. 하지만, 이에 제한되지 않는다. For example, the processor (210) may be operably coupled with the display (120) or the display driver circuit (122) within the display (120). For example, the processor (210) being operably coupled with the display (120) (or the display driver circuit (122)) may indicate that the processor (210) is directly coupled with the display (120) (or the display driver circuit (122)). For example, the processor (210) being operably coupled with the display (120) (or the display driver circuit (122)) may indicate that the processor (210) is coupled with the display (120) (or the display driver circuit (122)) via another component of the electronic device (101). For example, the fact that the processor (210) is operatively coupled with the display (120) (or the display driving circuit (122)) may indicate that the state of the processor (210) is a state that can control the display (120) (or the display driving circuit (122)). For example, the fact that the processor (210) is operatively coupled with the display (120) (or the display driving circuit (122)) may indicate that operation of the display (120) (or the display driving circuit (122)) is caused based on information, data, signals, or commands obtained from the processor (210). However, the present invention is not limited thereto.

예를 들어, 전자 장치(101)의 프로세서(210)는 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 회로(예, 처리 회로)를 포함할 수 있다. 데이터를 처리하기 위한 회로는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array), CPU(central processing unit), GPU(graphic processing unit), NPU(neural processing unit), 및/또는 AP(application processor)를 포함할 수 있다. 예를 들어, 프로세서의 개수는 하나 이상일 수 있다. 인스트럭션을 로드(load 또는 fetch)하고, 로드된 인스트럭션에 대응하는 계산을 수행하는 프로세서의 처리 회로가, 코어 회로(또는 코어)로 지칭될 수 있거나, 또는 참조될 수 있다. 예를 들어, 프로세서는 듀얼 코어(dual core), 쿼드 코어(quad core), 헥사 코어(hexa core), 또는 옥타 코어(octa core)와 같이, 복수의 코어 회로들을 포함하는 멀티-코어 프로세서의 구조를 가질 수 있다. 본 개시를 참고하여 설명되는 기능, 및/또는 동작이, 프로세서(210)에 포함된 하나 이상의 처리 회로들에 의해 개별적으로, 또는 집합적으로(collectively) 수행될 수 있다. For example, the processor (210) of the electronic device (101) may include a circuit (e.g., a processing circuit) for processing data based on one or more instructions. The circuit for processing data may include, for example, an arithmetic and logic unit (ALU), a floating point unit (FPU), a field programmable gate array (FPGA), a central processing unit (CPU), a graphic processing unit (GPU), a neural processing unit (NPU), and/or an application processor (AP). For example, the number of processors may be one or more. The processing circuit of the processor that loads (or fetches) an instruction and performs a calculation corresponding to the loaded instruction may be referred to as a core circuit (or core). For example, the processor may have a multi-core processor structure including a plurality of core circuits, such as a dual core, a quad core, a hexa core, or an octa core. The functions and/or operations described with reference to the present disclosure may be performed individually or collectively by one or more processing circuits included in the processor (210).

예를 들어, 전자 장치(101)의 디스플레이(120)는, 사용자에게 시각화된 정보(예를 들어, 도 1의 화면)를 출력할 수 있다. 예를 들어, 디스플레이(120)는, GPU(graphic processing unit)와 같은 컨트롤러에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 디스플레이(120)는 LCD(liquid crystal display), PDP(plasma display panel), 및/또는 하나 이상의 LED(light emitting diode)를 포함할 수 있다. 상기 LED는 OLED(organic LED)를 포함할 수 있다. 디스플레이(120)는 FPD(flat panel display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 실시예가 이에 제한되지 않으며, 디스플레이(120)는 적어도 부분적으로 휘어진 형태를 가지거나, 변형가능한(deformable) 형태를 가질 수 있다. 변형가능한 형태를 가지는 디스플레이(120)가 플렉서블 디스플레이로 지칭될 수 있다. For example, the display (120) of the electronic device (101) can output visualized information (e.g., the screen of FIG. 1) to the user. For example, the display (120) can be controlled by a controller such as a GPU (graphic processing unit) to output visualized information to the user. The display (120) can include a liquid crystal display (LCD), a plasma display panel (PDP), and/or one or more light emitting diodes (LEDs). The LEDs can include organic LEDs (OLEDs). The display (120) can include a flat panel display (FPD) and/or electronic paper. The embodiment is not limited thereto, and the display (120) can have an at least partially curved shape or a deformable shape. A display (120) having a deformable shape can be referred to as a flexible display.

예를 들어, 전자 장치(101)의 디스플레이(120)는, 디스플레이(120) 상의 외부 객체(예, 사용자의 손가락)를 탐지하기 위한 센서(예, TSP(touch sensor panel))를 포함할 수 있다. 예를 들어, TSP에 기반하여, 프로세서(210)는 디스플레이(120)와 접촉하거나, 또는 디스플레이(120) 상을 부유하는(floating) 외부 객체를 탐지할 수 있다. 상기 외부 객체를 탐지하는 것에 응답하여, 프로세서(210)는 디스플레이(120) 상에 표시되고 있는 시각적 객체들 중에서 상기 외부 객체의 디스플레이(120) 상에서의 위치에 대응하는 특정 시각적 객체와 관련된 기능을 실행할 수 있다. For example, the display (120) of the electronic device (101) may include a sensor (e.g., a touch sensor panel (TSP)) for detecting an external object (e.g., a user's finger) on the display (120). For example, based on the TSP, the processor (210) may detect an external object that is in contact with the display (120) or floating on the display (120). In response to detecting the external object, the processor (210) may execute a function related to a specific visual object corresponding to a location of the external object on the display (120) among visual objects displayed on the display (120).

예를 들면, 디스플레이(120)는, 디스플레이 구동 회로(122)(예: 도 11의 디스플레이 드라이버 IC(1130)) 및 디스플레이 패널(124)(예: 도 11의 디스플레이(1110))를 포함할 수 있다. 예를 들면, 디스플레이 구동 회로(122)는, 디스플레이 패널(124)과 작동적으로 결합될 수 있다. 예를 들어, 디스플레이 패널(124)이 2차원 매트릭스 형태로 정렬된 복수의 LED들을 포함하는 경우, 디스플레이 구동 회로(122)는 복수의 LED들 중에서 대응하는 행 또는 열에 포함된 적어도 하나의 LED들을 제어하도록, 구성될 수 있다. 디스플레이 구동 회로(122)가 적어도 하나의 LED들을 제어하는 것은, LED들의 휘도 (또는 광량, 밝기)를 조절하는 동작을 포함할 수 있다. 본 개시에서, 휘도는, 디스플레이(120)의 픽셀들에서 발광하는 광의 세기를 의미할 수 있다(예, 니트(nit)(또는 cd/m2)의 단위로 측정되는 광의 세기). 본 개시에서, 밝기는, 디스플레이(120)를 통해 표시될 이미지의 픽셀의 밝기로써, 밝기 레벨로 지칭되는, 비트 뎁스의 비트들로 나타낸 상대 값을 포함할 수 있다. For example, the display (120) may include a display driver circuit (122) (e.g., a display driver IC (1130) of FIG. 11) and a display panel (124) (e.g., a display (1110) of FIG. 11). For example, the display driver circuit (122) may be operatively coupled with the display panel (124). For example, when the display panel (124) includes a plurality of LEDs arranged in a two-dimensional matrix form, the display driver circuit (122) may be configured to control at least one LED included in a corresponding row or column among the plurality of LEDs. The display driver circuit (122) controlling the at least one LED may include an operation of adjusting the luminance (or light amount, brightness) of the LEDs. In the present disclosure, luminance may mean the intensity of light emitted from pixels of the display (120) (e.g., the intensity of light measured in units of nits (or cd/m 2 )). In the present disclosure, brightness may include a relative value expressed in bits of a bit depth, referred to as a brightness level, as the brightness of a pixel of an image to be displayed through a display (120).

예를 들어, 전자 장치(101)의 메모리(215)는 프로세서(210)에 입력되거나, 및/또는 프로세서(210)로부터 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 회로, 및/또는 저장 매체를 포함할 수 있다. 메모리는, 예를 들어, RAM(random-access memory)과 같은 휘발성 메모리(volatile memory) 및/또는 ROM(read-only memory)과 같은 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 비휘발성 메모리는 스토리지로 지칭될 수 있다. 휘발성 메모리는, 예를 들어, DRAM(dynamic RAM), SRAM(static RAM), Cache RAM, PSRAM (pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(programmable ROM), EPROM (erasable PROM), EEPROM (electrically erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, SSD(solid state drive), eMMC(embedded multi media card) 중 적어도 하나를 포함할 수 있다. 전자 장치(101)의 프로세서(210)는, 상기 전자 장치(101) 내 메모리(215)의 인스트럭션들을 실행하여, 상기 인스트럭션들에 의해 나타나는 기능, 및/또는 동작을 수행할 수 있다. 예를 들어, 전자 장치(101)가 적어도 하나의 프로세서를 포함하는 경우, 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 집합적으로, 또는 개별적으로 실행하도록, 구성될 수 있다. For example, the memory (215) of the electronic device (101) may include a circuit and/or a storage medium for storing data and/or instructions input to and/or output from the processor (210). The memory may include, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM). The non-volatile memory may be referred to as storage. The volatile memory may include, for example, at least one of dynamic RAM (DRAM), static RAM (SRAM), Cache RAM, and pseudo SRAM (PSRAM). The non-volatile memory may include, for example, at least one of programmable ROM (PROM), erasable PROM (EPROM), electrically erasable PROM (EEPROM), flash memory, a hard disk, a compact disc, a solid state drive (SSD), and an embedded multi media card (eMMC). The processor (210) of the electronic device (101) can execute instructions of the memory (215) within the electronic device (101) to perform functions and/or operations indicated by the instructions. For example, when the electronic device (101) includes at least one processor, the at least one processor can be configured to collectively or individually execute the instructions.

예를 들어, 전자 장치(101)의 적어도 하나의 카메라(225)는, 빛의 색상 및/또는 밝기를 나타내는 전기 신호를 생성하는 하나 이상의 광 센서들(예, CCD(charged coupled device) 센서, CMOS(complementary metal oxide semiconductor) 센서)을 포함할 수 있다. 적어도 하나의 카메라(225)에 포함된 복수의 광 센서들은 2 차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 적어도 하나의 카메라(225)는 복수의 광 센서들 각각의 전기 신호를 실질적으로 동시에 획득하여, 2 차원 격자의 광 센서들에 도달한 빛에 대응하는 2 차원 프레임 데이터를 생성할 수 있다. 예를 들어, 적어도 하나의 카메라(225)를 이용하여 캡쳐한 사진 데이터는, 적어도 하나의 카메라(225)로부터 획득한 하나의(a) 2차원 프레임 데이터를 의미할 수 있다. 예를 들어, 적어도 하나의 카메라(225)를 이용하여 캡쳐한 비디오 데이터는 적어도 하나의 카메라(225)로부터 획득한 복수의 2차원 프레임 데이터의 시퀀스(sequence)를 의미할 수 있다. 도 2의 적어도 하나의 카메라(225)는, 도 9, 및/또는 도 10의 카메라 모듈(980)을 포함할 수 있다. For example, at least one camera (225) of the electronic device (101) may include one or more optical sensors (e.g., a CCD (charged coupled device) sensor, a CMOS (complementary metal oxide semiconductor) sensor) that generate an electrical signal representing a color and/or brightness of light. The plurality of optical sensors included in the at least one camera (225) may be arranged in the form of a two-dimensional array. The at least one camera (225) may acquire the electrical signals of each of the plurality of optical sensors substantially simultaneously to generate two-dimensional frame data corresponding to light reaching the optical sensors of the two-dimensional array. For example, photographic data captured using the at least one camera (225) may mean one (a) two-dimensional frame data acquired from the at least one camera (225). For example, video data captured using the at least one camera (225) may mean a sequence of a plurality of two-dimensional frame data acquired from the at least one camera (225). At least one camera (225) of FIG. 2 may include a camera module (980) of FIG. 9 and/or FIG. 10.

일 실시예에서, 전자 장치(101)는, 배터리(235)를 포함할 수 있다. 배터리(235)는 리튬 이온 전지(Li-ion), 리튬 이온 폴리머전지(Li-ion polymer), 납 축전지, 니켈-카드뮴 전지(NiCd) 및 니켈 수소 축전지(NiMH) 중 어느 하나일 수 있다. 배터리(235)의 충전, 및/또는 방전을 관리하기 위하여, 전자 장치(101)는 PMIC(power management integrated circuit)(예, 도 9의 전력 관리 모듈(988)를 포함할 수 있다. PMIC를 이용하여, 전자 장치(101)의 프로세서(210)는, 배터리(235)의 상태를 나타내는 파라미터들(예, SOC(state of charge), OCV(open circuit voltage), 및/또는 SOH(state of health))을 획득할 수 있거나, 또는 식별할 수 있다. In one embodiment, the electronic device (101) may include a battery (235). The battery (235) may be any one of a lithium ion (Li-ion) battery, a lithium ion polymer (Li-ion polymer) battery, a lead-acid battery, a nickel-cadmium (NiCd) battery, and a nickel-metal hydride (NiMH) battery. To manage charging and/or discharging of the battery (235), the electronic device (101) may include a power management integrated circuit (PMIC) (e.g., a power management module (988) of FIG. 9 ). Using the PMIC, the processor (210) of the electronic device (101) may obtain or identify parameters indicative of the state of the battery (235), such as a state of charge (SOC), an open circuit voltage (OCV), and/or a state of health (SOH)).

도 2를 참고하면, 전자 장치(101)의 메모리(215)에 저장된 정보(예, 파일(110)), 및/또는 프로그램들(예, 이미지 렌더러(216), 및/또는 디스플레이 휘도 결정기(217))이 도시된다. 프로그램에 포함된 인스트럭션들을 실행하는 프로세서(210)는, 상기 인스트럭션들에 의해 나타나는 기능, 및/또는 동작을 수행할 수 있다. 파일(110)은, YUV, RGB, 및/또는 HSV와 같은 색 공간에 따라 이미지(예, 도 1의 이미지(112))의 픽셀들의 색상을 나타낸 색상 정보를 포함할 수 있다. 예를 들어, RGB의 색 공간에 기반하는 파일(110)은, 특정 픽셀의 색상을, 적색, 녹색, 및 청색의 3 원색들의 세기들을 이용하여 나타낼 수 있다. 예를 들어, YUV의 색 공간에 기반하는 파일(110)은, 밝기 성분(예, Y 성분) 및 색차 성분들(예, Cb 성분, 및/또는 Cr 성분)을 포함하는 3 개의 성분들을 이용하여, 특정 픽셀의 색상을 나타낼 수 있다. Referring to FIG. 2, information (e.g., file (110)) stored in a memory (215) of an electronic device (101) and/or programs (e.g., image renderer (216) and/or display brightness determiner (217)) are illustrated. A processor (210) executing instructions included in a program may perform functions and/or operations indicated by the instructions. The file (110) may include color information representing colors of pixels of an image (e.g., image (112) of FIG. 1) according to a color space such as YUV, RGB, and/or HSV. For example, a file (110) based on a color space of RGB may represent a color of a specific pixel using intensities of three primary colors of red, green, and blue. For example, a file (110) based on the color space of YUV can represent the color of a specific pixel using three components including a brightness component (e.g., Y component) and chrominance components (e.g., Cb component and/or Cr component).

예를 들어, 적어도 3 개의 채널들이, 이미지의 픽셀들의 색상을 나타내기 위하여 이용될 수 있다. JPEG 포맷의 파일(110)로부터, 프로세서(210)는, 8 비트들의 비트 뎁스를 가지는 3 개의 채널들에 의해 표현된, 복수의 픽셀들의 색상을 확인할 수 있다. 파일(110)은, 특정 성분(예, 밝기 성분)에 대응하는 맵 정보(예, 도 1의 맵 정보(114))를 추가적으로 포함할 수 있다. 특정 성분에 대응하는 맵 정보는, 상기 특정 성분의 비트 뎁스를 증가(예, 8 비트 보다 큰 비트 수)하기 위하여 이용될 수 있다. For example, at least three channels may be used to represent colors of pixels of an image. From a file (110) in JPEG format, the processor (210) may identify colors of a plurality of pixels expressed by three channels having a bit depth of 8 bits. The file (110) may additionally include map information (e.g., map information (114) of FIG. 1) corresponding to a specific component (e.g., brightness component). The map information corresponding to a specific component may be used to increase a bit depth of the specific component (e.g., a bit number greater than 8 bits).

이미지 렌더러(216)를 실행하여, 프로세서(210)는 파일(110)에 포함된 SDR을 가지는 이미지(예, 도 1의 이미지(112))로부터 HDR 효과를 가지는 이미지(예, 도 1의 이미지(130))를 생성할 수 있거나, 또는 합성할 수 있다. 예를 들어, 프로세서(210)는 파일(110)의 메타데이터에 포함된, 맵 정보(예, 도 1의 맵 정보(114))를 이용하여, SDR의 이미지로부터 HDR 효과를 가지는 이미지를 복원할 수 있다. 상기 복원은, 맵 정보에 포함된 정보를 이용하여, SDR의 이미지의 픽셀들의 밝기들을 스케일링(예, 증폭, 및/또는 감쇄)을 포함할 수 있다. 이미지 렌더러(216)를 실행한 프로세서(210)는, HDR의 비트 뎁스를 가지는 이미지를 표시하기 위한 정보를 생성할 수 있거나, 또는 획득할 수 있다. By executing the image renderer (216), the processor (210) can generate or synthesize an image having an HDR effect (e.g., an image (130) of FIG. 1) from an image having an SDR included in the file (110) (e.g., an image (112) of FIG. 1). For example, the processor (210) can restore an image having an HDR effect from an image of the SDR by using map information (e.g., the map information (114) of FIG. 1) included in the metadata of the file (110). The restoration can include scaling (e.g., amplifying and/or attenuating) the brightness of pixels of the image of the SDR by using information included in the map information. The processor (210) executing the image renderer (216) can generate or obtain information for displaying an image having a bit depth of HDR.

디스플레이 휘도 결정기(217)를 실행하여, 프로세서(210)는 디스플레이(120)의 픽셀들의 휘도를, 적어도 부분적으로 증가할 수 있다. 디스플레이 휘도 결정기(217)를 실행한 프로세서(210)는 디스플레이 구동 회로(122)를 제어하여, 디스플레이(120)의 휘도를 적어도 부분적으로 증가할 수 있다. 예를 들어, 디스플레이(120) 상에 표시될 이미지의 일부분을 다른 부분에 대하여 시각적으로 강조하기 위하여, 프로세서(210)는 상기 일부분에 대응하는 디스플레이(120)의 적어도 하나의 픽셀의 휘도를, 상기 다른 부분에 대응하는 디스플레이(120)의 적어도 하나의 픽셀의 휘도를 초과하게 만들 수 있다. 디스플레이 휘도 결정기(217)를 실행한 상태에서, 프로세서(210)는 맵 정보(예, 도 1의 맵 정보(114))를 이용하여, 디스플레이(120)의 전체 또는 적어도 일부분의 휘도 증가량을 결정할 수 있다. 증가된 휘도 증가량을 이용하여, 프로세서(210)는 감마 조정과 같은 동작을 수행할 수 있다. By executing the display brightness determiner (217), the processor (210) can increase, at least partially, the brightness of the pixels of the display (120). The processor (210) executing the display brightness determiner (217) can control the display driving circuit (122) to at least partially increase the brightness of the display (120). For example, in order to visually emphasize a part of an image to be displayed on the display (120) over another part, the processor (210) can cause the brightness of at least one pixel of the display (120) corresponding to the part to exceed the brightness of at least one pixel of the display (120) corresponding to the other part. With the display brightness determiner (217) executing, the processor (210) can determine an amount of brightness increase of the entire or at least a part of the display (120) by using map information (e.g., map information (114) of FIG. 1). Using the increased luminance increase, the processor (210) can perform operations such as gamma adjustment.

디스플레이 휘도 결정기(217)를 실행한 프로세서(210)는, 이미지 렌더러(216)에 의해 렌더링된 이미지의 감마를 조절할 수 있다. 상기 감마는, 이미지의 픽셀들의 밝기 및 상기 이미지를 표시하는 디스플레이(120)의 픽셀의 휘도 사이의 관계를 의미할 수 있다. 상기 감마는, 감마 커브로 지칭되는 함수로 표현될 수 있다. 프로세서(210)는 파일(110)로부터 합성된 HDR의 이미지를 표시할 시, 파일(110)의 메타데이터(예, 디스플레이 제어 정보(116))와 관련된 감마를 이용하여 이미지를 표시하기 위하여, 디스플레이 구동 회로(122)를 제어할 수 있다. The processor (210) executing the display brightness determiner (217) can adjust the gamma of the image rendered by the image renderer (216). The gamma can mean the relationship between the brightness of pixels of the image and the brightness of pixels of the display (120) displaying the image. The gamma can be expressed as a function referred to as a gamma curve. When displaying an HDR image synthesized from a file (110), the processor (210) can control the display driving circuit (122) to display the image by using gamma related to metadata of the file (110) (e.g., display control information (116)).

상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는, SDR에 기반하는 파일(110)을 표시할 시, 파일(110)의 메타데이터를 이용하여 HDR의 이미지를 복원할 수 있거나, 또는 합성할 수 있다. 합성된 이미지를 표시할 시, 전자 장치(101)는 파일(110)의 메타데이터를 이용하여, 디스플레이(120)의 휘도가 적어도 부분적으로 증가되도록, 디스플레이(120)를 제어할 수 있다. 전자 장치(101)는 카메라를 제어하여 획득된 이미지들을 이용하여, 파일(110)을 생성할 수 있거나, 또는 저장할 수 있다. 이하에서는, 도 3 내지 도 4를 참고하여, 적어도 하나의 카메라(225)를 이용하여 파일(110)을 생성하는 전자 장치(101)의 예시적인 동작이 설명된다. As described above, according to one embodiment, the electronic device (101) may, when displaying a file (110) based on SDR, restore or synthesize an HDR image using metadata of the file (110). When displaying a synthesized image, the electronic device (101) may control the display (120) so that brightness of the display (120) is at least partially increased using metadata of the file (110). The electronic device (101) may control a camera to generate or store the file (110) using images acquired. Hereinafter, with reference to FIGS. 3 and 4 , an exemplary operation of the electronic device (101) that generates a file (110) using at least one camera (225) will be described.

도 3은, 적어도 하나의 카메라를 제어하여, HDR 효과, 및 SDR을 지원하는 이미지를 포함하는 정보를 생성하는 전자 장치(101)의 예시적인 동작을 도시한다. 도 1 내지 도 2의 전자 장치(101), 및/또는 도 2의 프로세서(210)는, 도 3을 참고하여 설명되는 전자 장치(101)의 동작을 수행할 수 있다. 도 3의 적어도 하나의 카메라는, 도 2의 적어도 하나의 카메라(225)에 대응할 수 있다. FIG. 3 illustrates an exemplary operation of an electronic device (101) that generates information including an image supporting HDR effects and SDR by controlling at least one camera. The electronic device (101) of FIGS. 1 and 2, and/or the processor (210) of FIG. 2, may perform the operation of the electronic device (101) described with reference to FIG. 3. At least one camera of FIG. 3 may correspond to at least one camera (225) of FIG. 2.

도 3을 참고하면, 적어도 하나의 카메라(예, 도 2의 적어도 하나의 카메라(225))를 이용하여 프리뷰 이미지(320)를 표시하는 전자 장치(101)의 예시적인 상태가 도시된다. 전자 장치(101)는, 적어도 하나의 카메라를 제어하기 위한 소프트웨어 어플리케이션(예, 카메라 어플리케이션)을 실행한 상태에서, 디스플레이(120) 상에 도 3의 화면을 표시할 수 있다. 전자 장치(101)는, 디스플레이(120) 상에, 적어도 하나의 카메라로부터 획득된 이미지의 적어도 일부분에 기반하는 프리뷰 이미지(320)를 표시할 수 있다. Referring to FIG. 3, an exemplary state of an electronic device (101) displaying a preview image (320) using at least one camera (e.g., at least one camera (225) of FIG. 2) is illustrated. The electronic device (101) may display the screen of FIG. 3 on the display (120) while executing a software application (e.g., a camera application) for controlling at least one camera. The electronic device (101) may display, on the display (120), a preview image (320) based on at least a portion of an image acquired from at least one camera.

도 3을 참고하면, 프리뷰 이미지(320)와 함께, 전자 장치(101)는, 적어도 하나의 카메라와 관련된 옵션을 변경하기 위한 기능에 매핑된 시각적 객체(310)를 표시할 수 있다. 기어의 형태를 가지는 이미지, 및/또는 아이콘을 포함하는 시각적 객체(310)가 예시적으로 도시되지만, 실시예가 이에 제한되는 것은 아니다. 시각적 객체(310)와 관련된 입력(예, 시각적 객체(310)가 표시된 디스플레이(120)의 부분에 대한 터치 입력)에 응답하여, 전자 장치(101)는 디스플레이(120) 상에 화면(350)을 표시할 수 있다. 화면(350)은, 적어도 하나의 카메라를 제어하기 위한 소프트웨어 어플리케이션에 의해 제공된, 설정 화면을 포함할 수 있다. Referring to FIG. 3, together with the preview image (320), the electronic device (101) may display a visual object (310) mapped to a function for changing an option related to at least one camera. An image having a shape of a gear and/or an icon is illustrated as an example, but the embodiment is not limited thereto. In response to an input related to the visual object (310) (e.g., a touch input to a portion of the display (120) on which the visual object (310) is displayed), the electronic device (101) may display a screen (350) on the display (120). The screen (350) may include a settings screen provided by a software application for controlling at least one camera.

도 3의 예시적인 화면(350)을 참고하면, 전자 장치(101)는, 이미지와 관련된 파일(예, 도 1의 파일(110))을 저장할 시에, HDR 효과를 가지는 이미지를 표시하기 위한 정보를 포함하는 파일을 생성할지 여부를 확인하기 위한 옵션(352)을 제공할 수 있다. 옵션(352)에 대응하는 시각적 객체(354)(예, 라디오 버튼, 및/또는 토글 스위치)를 이용하여, 전자 장치(101)는, 상기 옵션(352)을 활성화하거나, 또는 비활성화하기 위한 입력을 수신할 수 있다. 시각적 객체(354)에 의해 옵션(352)이 활성화된 경우, 전자 장치(101)는 적어도 하나의 카메라에 의해 탐지된 외부 환경의 광량의 편차, 및/또는 분포에 따라, HDR 효과를 가지는 이미지를 저장할지 여부를 결정할 수 있다. Referring to an exemplary screen (350) of FIG. 3, the electronic device (101) may provide an option (352) for checking whether to generate a file including information for displaying an image with an HDR effect when saving a file related to an image (e.g., a file (110) of FIG. 1). Using a visual object (354) (e.g., a radio button and/or a toggle switch) corresponding to the option (352), the electronic device (101) may receive an input for activating or deactivating the option (352). When the option (352) is activated by the visual object (354), the electronic device (101) may determine whether to save an image with an HDR effect based on a deviation in the amount of light in the external environment detected by at least one camera and/or a distribution.

도 3을 참고하면, 적어도 하나의 카메라로부터 제공된 이미지의 적어도 일부분에 기반하는 프리뷰 이미지(320)를 표시하는 상태에서, 전자 장치(101)는, HDR 효과를 지원하는 이미지를 캡쳐할 수 있거나, 또는 획득할 수 있음을 나타내는 시각적 객체(330)를 표시할 수 있다. 시각적 객체(330)는, "HDR"과 같은 지정된 텍스트를 포함할 수 있다. 시각적 객체(330)가 표시된 상태에서, 시각적 객체(330)와 관련된 입력(예, 시각적 객체(330)가 표시된 디스플레이(120)의 일부분 상의 터치 입력)에 응답하여, 전자 장치(101)는 디스플레이(120) 상에 시각적 객체(330)를 표시하는 것을 중단할 수 있거나, 또는 촬영 입력에 따라 HDR로 이미지를 표시하기 위한 정보(예, 도 1의 맵 정보(114), 및/또는 디스플레이 제어 정보(116))를 저장하는 것을 적어도 일시적으로 중단할 수 있다. Referring to FIG. 3, while displaying a preview image (320) based on at least a portion of an image provided from at least one camera, the electronic device (101) may display a visual object (330) indicating that an image supporting an HDR effect can be captured or acquired. The visual object (330) may include designated text, such as “HDR.” While the visual object (330) is displayed, in response to an input related to the visual object (330) (e.g., a touch input on a portion of the display (120) on which the visual object (330) is displayed), the electronic device (101) may stop displaying the visual object (330) on the display (120), or at least temporarily stop storing information for displaying an image in HDR according to the capturing input (e.g., map information (114) and/or display control information (116) of FIG. 1).

도 3의 예시적인 상태에서, 전자 장치(101)는 촬영 입력을 수신할 수 있다. 상기 촬영 입력은, 적어도 하나의 카메라를 통해 연속으로 획득되고 있는 이미지들과 관련된 파일을 저장하기 위한 입력을 포함할 수 있다. 예를 들어, 상기 촬영 입력은, 디스플레이(120) 상에 표시된 시각적 객체(340)에 대한 제스쳐(예, 탭 제스쳐)에 의해 검출될 수 있다. 시각적 객체(340)는, 촬영 버튼으로 지칭될 수 있다. 원의 형태를 가지는 시각적 객체(340)가 예시적으로 도시되지만, 실시예가 이에 제한되는 것은 아니다. In the exemplary state of FIG. 3, the electronic device (101) may receive a shooting input. The shooting input may include an input for saving a file related to images that are being continuously acquired through at least one camera. For example, the shooting input may be detected by a gesture (e.g., a tap gesture) toward a visual object (340) displayed on the display (120). The visual object (340) may be referred to as a shooting button. Although a visual object (340) having a circular shape is illustrated as an example, the embodiment is not limited thereto.

예를 들어, 상기 촬영 입력은, 전자 장치(101)의 일 면(예, 전 면(front side) 및 상기 전 면에 반대인 후 면을 연결하는 측 면)을 통해 외부로 노출된 버튼(342)(예, 전자 장치(101)의 볼륨을 조절하기 위한 버튼(342))을 누르는 제스쳐에 의해 검출될 수 있다. For example, the photographing input may be detected by a gesture of pressing a button (342) (e.g., a button (342) for adjusting the volume of the electronic device (101)) exposed externally through one side of the electronic device (101) (e.g., a front side and a side connecting a rear side opposite to the front side).

예를 들어, 상기 촬영 입력은, 프리뷰 이미지(320)를 표시하는 동안, 적어도 하나의 카메라에 의해 검출된 신체 부위(예, 손바닥), 및/또는 상기 신체 부위와 관련된 사용자의 제스쳐에 응답하여, 검출될 수 있다. 예를 들어, 적어도 하나의 카메라로부터 획득된 이미지를 이용하여, 펼쳐진 자세를 가지는 손바닥을 검출하는 경우, 전자 장치(101)는 촬영 입력을 나타내는 제스쳐를 검출한 것으로 결정할 수 있다. 전자 장치(101)는 프리뷰 이미지(320) 내에서, 손바닥이 검출된 위치를 나타내는 인디케이터(에, 사각형의 라인의 형태를 가지는 시각적 객체)를 표시할 수 있다. 이미지로부터 손바닥을 검출하기 위하여, 전자 장치(101)는 객체 인식을 위한 알고리즘을 수행할 수 있다. For example, the photographing input may be detected in response to a body part (e.g., a palm) detected by at least one camera while displaying the preview image (320), and/or a user gesture related to the body part. For example, when a palm having an extended posture is detected using an image acquired from at least one camera, the electronic device (101) may determine that a gesture indicating a photographing input has been detected. The electronic device (101) may display an indicator (e.g., a visual object in the form of a rectangular line) indicating a location where the palm is detected within the preview image (320). In order to detect the palm from the image, the electronic device (101) may perform an algorithm for object recognition.

예를 들어, 상기 촬영 입력은, 전자 장치(101)의 마이크로부터 획득된 오디오 신호에 기반하여, 검출될 수 있다. 예를 들어, 전자 장치(101)는, 상기 오디오 신호로부터 촬영 입력을 나타내는 자연어 문장(예, "촬영하자", 및/또는 "스마일")을 획득하는 경우, 촬영 입력을 나타내는 보이스 커맨드를 검출한 것으로 결정할 수 있다. 상기 자연어 문장의 인식을 위하여, 전자 장치(101)는 도 3의 프리뷰 이미지(320)를 표시하는 동안, STT(speech to text)와 같은 알고리즘을 수행하여, 마이크로부터 획득된 오디오 신호를 처리할 수 있다. For example, the photographing input may be detected based on an audio signal acquired from a microphone of the electronic device (101). For example, if the electronic device (101) acquires a natural language sentence (e.g., “let’s take a picture” and/or “smile”) representing the photographing input from the audio signal, the electronic device (101) may determine that a voice command representing the photographing input has been detected. In order to recognize the natural language sentence, the electronic device (101) may process the audio signal acquired from the microphone by performing an algorithm such as STT (speech to text) while displaying the preview image (320) of FIG. 3.

촬영 입력을 수신한 전자 장치(101)는, 도 1 내지 도 2를 참고하여 설명된 동작에 기반하여, 상기 촬영 입력에 대응하는 파일(예, 도 1, 및/또는 도 2의 파일(110))을 생성할 수 있거나, 또는 저장할 수 있다. 이하에서는, 도 3을 참고하여, 촬영 입력에 대응하는 파일을 생성하는 전자 장치(101)의 예시적인 동작이 설명된다. An electronic device (101) that receives a photographing input can generate or store a file (e.g., a file (110) of FIG. 1 and/or FIG. 2) corresponding to the photographing input based on the operations described with reference to FIGS. 1 and 2. Hereinafter, an exemplary operation of an electronic device (101) that generates a file corresponding to a photographing input is described with reference to FIG. 3.

도 4는, 적어도 하나의 카메라(225)로부터 획득된 복수의 이미지들(411, 412, 413)을 이용하여 파일(110)을 생성하는 전자 장치(101)의 예시적인 동작을 도시한다. 도 1 내지 도 2의 전자 장치(101), 및/또는 도 2의 프로세서(210)는 도 4를 참고하여 설명되는 전자 장치(101)의 동작을 수행할 수 있다. 도 4의 적어도 하나의 카메라(225)는, 도 2의 적어도 하나의 카메라(225)에 대응할 수 있다. FIG. 4 illustrates an exemplary operation of an electronic device (101) that generates a file (110) using a plurality of images (411, 412, 413) acquired from at least one camera (225). The electronic device (101) of FIGS. 1 and 2, and/or the processor (210) of FIG. 2, may perform the operation of the electronic device (101) described with reference to FIG. 4. At least one camera (225) of FIG. 4 may correspond to at least one camera (225) of FIG. 2.

도 4를 참고하면, 촬영 입력에 응답하여, 전자 장치는, 복수의 이미지들(411, 412, 413)을 획득하도록 상기 적어도 하나의 카메라(225)를 제어할 수 있다. 하나의 카메라를 이용하여 복수의 이미지들(411, 412, 413)을 획득하는 일 실시예에서, 상이한 밝기 레벨들을 가지는 복수의 이미지들(411, 412, 413)을 획득하기 위하여, 전자 장치는 카메라로부터 복수의 이미지들(411, 412, 413) 각각을 획득할 때마다, 카메라의 속성(예, 노출, ISO(International Standardization Organization) 감도, 조리개의 개방 정도(예, f-stop) 및/또는 셔터 스피드)을 변경할 수 있거나, 또는 조절할 수 있다. Referring to FIG. 4, in response to a photographing input, the electronic device may control at least one camera (225) to acquire a plurality of images (411, 412, 413). In one embodiment of acquiring a plurality of images (411, 412, 413) using a single camera, in order to acquire a plurality of images (411, 412, 413) having different brightness levels, the electronic device may change or adjust properties of the camera (e.g., exposure, ISO (International Standardization Organization) sensitivity, aperture opening degree (e.g., f-stop) and/or shutter speed) each time it acquires each of the plurality of images (411, 412, 413) from the camera.

복수의 카메라들 각각을 이용하여 복수의 이미지들(411, 412, 413)을 획득하는 일 실시예에서, 전자 장치는 적어도 부분적으로 중첩된 FoV들을 가지는 상기 복수의 카메라들로 상이한 속성(예, 노출, ISO 감도, 조리개의 개방 정도 및/또는 셔터 스피드)을 할당하여, 상기 복수의 카메라들로부터 복수의 이미지들(411, 412, 413)을 실질적으로 동시에 획득할 수 있다. 복수의 이미지들(411, 412,413)은 서로 같은 다이나믹 레인지(예, 8 비트의 비트 심도에 기반하여, 256 개의 밝기 레벨들을 표현하도록 구성된, 다이나믹 레인지)를 가지면서, 상이한 밝기 레벨의 색에 대한 정보를 포함할 수 있다. 예를 들어, 제1 이미지(411)를 획득한 이후, 제1 이미지(411)와 다른 밝기 레벨을 가지는 제2 이미지(412)를 획득하기 위하여, 카메라가 제1 이미지(411)를 획득한 시점에서의 카메라의 셔터 스피드, ISO 감도, 조리개의 개방 정도, 또는 노출 값 중 적어도 하나와 상이한 속성을 갖도록, 전자 장치는 상기 카메라를 제어할 수 있다. 상기 속성을 가지는 카메라를 이용하여 전자 장치는 제2 이미지(412)를 획득할 수 있다. In one embodiment of acquiring a plurality of images (411, 412, 413) using each of a plurality of cameras, the electronic device can assign different properties (e.g., exposure, ISO sensitivity, aperture opening degree, and/or shutter speed) to the plurality of cameras having at least partially overlapping FoVs, so as to acquire a plurality of images (411, 412, 413) from the plurality of cameras substantially simultaneously. The plurality of images (411, 412, 413) can have the same dynamic range (e.g., a dynamic range configured to represent 256 brightness levels based on a bit depth of 8 bits) while including information about colors at different brightness levels. For example, after acquiring a first image (411), in order to acquire a second image (412) having a different brightness level from the first image (411), the electronic device can control the camera so that the camera has a different property from at least one of a shutter speed, an ISO sensitivity, an aperture opening degree, or an exposure value of the camera at the time the camera acquired the first image (411). Using the camera having the above property, the electronic device can acquire the second image (412).

도 4를 참고하면, 적어도 하나의 카메라(225)에 의해 획득된 복수의 이미지들(411, 412, 413)의 밝기 분포가 도시된다. 전자 장치가 노출과 관련된 카메라의 속성(예, 노출 값)을 변경하면서 복수의 이미지들(411, 412, 413) 각각을 획득하는 경우, 복수의 이미지들(411, 412, 413)은 상이한 밝기 레벨들을 가질 수 있다. 예를 들어, 복수의 이미지들(411, 412, 413)의 밝기 값들은, 일치된 다이나믹 레인지를 가지기 때문에, 전부 0 내지 255 사이의 이진 값을 가지지만, 상이한 세기의 외부 광에 매핑될 수 있다. 복수의 이미지들(411, 412, 413)을 결합하는 경우, 복수의 이미지들(411, 412, 413) 각각에 대응하는 다이나믹 레인지 보다 넓은 다이나믹 레인지의 색상을 표현하는 이미지(예, HDR에 기반하는 이미지)를 생성할 수 있다. Referring to FIG. 4, brightness distributions of a plurality of images (411, 412, 413) acquired by at least one camera (225) are illustrated. When the electronic device acquires each of the plurality of images (411, 412, 413) while changing a property of the camera related to exposure (e.g., exposure value), the plurality of images (411, 412, 413) may have different brightness levels. For example, brightness values of the plurality of images (411, 412, 413) all have binary values between 0 and 255 because they have a consistent dynamic range, but may be mapped to external light of different intensities. When combining multiple images (411, 412, 413), an image (e.g., an image based on HDR) that expresses colors with a wider dynamic range than the dynamic range corresponding to each of the multiple images (411, 412, 413) can be generated.

도 4를 참고하면, 외부 광의 세기를 따라 나타낸, 복수의 이미지들(411, 412, 413) 각각의 밝기 레벨들이 도시된다. 예를 들어, 상기 복수의 이미지들(411, 412, 413)은, ea1의 최소 세기, 및 ea2의 최대 세기를 가지는 밝기 레벨에 기반하는 제1 이미지(411) 및 eb1의 최소 세기, 및 eb2의 최대 세기를 밝기 레벨에 기반하는 제2 이미지(412), 및 ec1의 최소 세기, 및 ec2의 최대 세기를 가지는 밝기 레벨에 기반하는 제3 이미지(413)를 포함할 수 있다. 도 4를 참고하면, 복수의 이미지들(411, 412, 413)의 밝기 레벨의 범위들은 서로 중첩될 수 있다. 일 실시예에 따라 제1 이미지(411), 제2 이미지(412) 또는 제3 이미지(413)의 다이나믹 레인지의 비트 뎁스중 적어도 하나는 서로 같은 값을 같도록 형성될 수 있다. Referring to FIG. 4, brightness levels of each of a plurality of images (411, 412, 413) are illustrated according to the intensity of external light. For example, the plurality of images (411, 412, 413) may include a first image (411) based on a brightness level having a minimum intensity of ea1 and a maximum intensity of ea2, a second image (412) based on a brightness level having a minimum intensity of eb1 and a maximum intensity of eb2, and a third image (413) based on a brightness level having a minimum intensity of ec1 and a maximum intensity of ec2. Referring to FIG. 4, ranges of brightness levels of the plurality of images (411, 412, 413) may overlap each other. According to one embodiment, at least one of the bit depths of the dynamic range of the first image (411), the second image (412), or the third image (413) may be formed to have the same value.

도 4를 참고하면, 제1 이미지(411)는, 하나의 카메라를 이용하여 이미지들(411, 412, 413)을 획득하는 일 실시예에서, 기준 셔터 스피드 보다 느린 셔터 스피드, 기준 노출 값 보다 큰 노출 값, 조리개의 기준 개방 정도 보다 큰 개방 정도 및/또는 기준 ISO 감도 보다 민감한 ISO 감도를 가지도록 제어되는, 적어도 하나의 카메라(225)로부터 획득될 수 있다. 상기 기준 셔터 스피드, 기준 노출 값, 기준 개방 정도 및/또는 기준 ISO 감도는, 도 3의 프리뷰 이미지(320)를 표시하기 위하여 적어도 하나의 카메라(225)로 적용되는 속성들일 수 있다. 제1 이미지(411)가 상대적으로 큰 노출 값을 가지기 때문에, 상대적으로 강한 광을 수신한 제1 이미지(411)의 특정 부분(예, 하늘, 및/또는 태양에 대응하는 부분)은 포화될 수 있고, 상대적으로 약한 광을 수신한 제1 이미지(411)의 다른 부분(예, 지면에 대응하는 부분) 만이 포화되지 않을 수 있다. 제1 이미지(411)의 상기 특정 부분은, 최대 밝기를 나타내는 밝기 값(예, 255)으로 일괄적으로 채워질 수 있다. 예를 들어, 제1 이미지(411) 내에서, ea2 보다 센 광이 최대 밝기를 나타내는 밝기 값으로 매핑될 수 있다. Referring to FIG. 4, the first image (411) may be acquired from at least one camera (225) that is controlled to have a shutter speed slower than a reference shutter speed, an exposure value greater than a reference exposure value, an aperture opening greater than a reference opening degree, and/or an ISO sensitivity more sensitive than a reference ISO sensitivity, in one embodiment of acquiring images (411, 412, 413) using one camera. The reference shutter speed, the reference exposure value, the reference opening degree, and/or the reference ISO sensitivity may be properties applied to at least one camera (225) to display the preview image (320) of FIG. 3. Since the first image (411) has a relatively large exposure value, a specific portion of the first image (411) that received relatively strong light (e.g., a portion corresponding to the sky and/or the sun) may be saturated, and only other portions of the first image (411) that received relatively weak light (e.g., a portion corresponding to the ground) may not be saturated. The specific portion of the first image (411) may be uniformly filled with a brightness value (e.g., 255) representing the maximum brightness. For example, within the first image (411), light stronger than ea2 may be mapped to a brightness value representing the maximum brightness.

도 4를 참고하면, 제2 이미지(412)는, 하나의 카메라를 이용하여 이미지들(411, 412, 413)을 획득하는 일 실시예에서, 기준 셔터 스피드, 기준 노출 값, 기준 개방 정도 및/또는 기준 ISO 감도를 가지도록 제어되는, 적어도 하나의 카메라(225)로부터 획득될 수 있다. 제1 이미지(411) 보다 작은 노출 값을 가지기 때문에, 제1 이미지(411)에서 포화되었던 부분이, 제2 이미지(412)에서는 포화되지 않을 수 있다. 예를 들어, 하늘에 대응하는 제2 이미지(412)의 부분이 포화되지 않을 수 있다. 제2 이미지(412)에서, eb2 보다 강한 광을 수신한 부분이 최대 밝기를 나타내는 밝기 값(예, 255)으로 채워질 수 있고, eb1 보다 약한 광을 수신한 부분이 최소 밝기를 나타내는 밝기 값(예, 0)으로 채워질 수 있다. 예를 들어, 지면에 대응하는 제2 이미지(412)의 부분은, 제1 이미지(411)의 대응하는 부분보다 어두워질 수 있고, 하늘에 대응하는 제2 이미지(412)의 부분은, 제1 이미지(411)의 대응하는 부분 보다 선명한 외부 이미지를 표현할 수 있다. Referring to FIG. 4, the second image (412) may be acquired from at least one camera (225) that is controlled to have a reference shutter speed, a reference exposure value, a reference aperture value, and/or a reference ISO sensitivity, in one embodiment of acquiring images (411, 412, 413) using one camera. Since the second image (412) has a lower exposure value than the first image (411), a portion that was saturated in the first image (411) may not be saturated in the second image (412). For example, a portion of the second image (412) corresponding to the sky may not be saturated. In the second image (412), a portion that received light stronger than eb2 may be filled with a brightness value representing the maximum brightness (e.g., 255), and a portion that received light weaker than eb1 may be filled with a brightness value representing the minimum brightness (e.g., 0). For example, a portion of the second image (412) corresponding to the ground may be darker than a corresponding portion of the first image (411), and a portion of the second image (412) corresponding to the sky may represent an external image that is clearer than a corresponding portion of the first image (411).

도 4를 참고하면, 제3 이미지(413)는, 하나의 카메라를 이용하여 이미지들(411, 412, 413)을 획득하는 일 실시예에서, 기준 셔터 스피드 보다 빠른 셔터 스피드, 기준 노출 값 보다 작은 노출 값, 조리개의 기준 개방 정도 보다 작은 개방 정도 및/또는 기준 ISO 감도 보다 둔감한 ISO 감도를 가지도록 제어되는, 적어도 하나의 카메라(225)로부터 획득될 수 있다. 제1 이미지(411), 및 제2 이미지(412) 보다 작은 노출 값을 가지기 때문에, 제1 이미지(411), 및 제2 이미지(412)에서 포화되었던 부분(예, 태양에 대응하는 부분)이, 제3 이미지(413)에서는 포화되지 않을 수 있다. 제3 이미지(413)에서, ec2 보다 강한 광을 수신한 부분이 최대 밝기를 나타내는 밝기 값(예, 255)으로 채워질 수 있고, ec1 보다 약한 광을 수신한 부분이 최소 밝기를 나타내는 밝기 값(예, 0)으로 채워질 수 있다. 예를 들어, 제3 이미지(413)에서, 하늘, 및/또는 지면에 대응하는 부분은, ec1 보다 약한 광을 수신함에 따라, 최소 밝기를 나타내는 밝기 값(예, 0)으로 일괄적으로 채워질 수 있다. Referring to FIG. 4, the third image (413) may be acquired from at least one camera (225) that is controlled to have a shutter speed faster than a reference shutter speed, an exposure value smaller than a reference exposure value, an aperture opening smaller than a reference opening degree, and/or an ISO sensitivity less sensitive than a reference ISO sensitivity, in one embodiment of acquiring the images (411, 412, 413) using one camera. Since the third image (413) has a lower exposure value than the first image (411) and the second image (412), a portion (e.g., a portion corresponding to the sun) that was saturated in the first image (411) and the second image (412) may not be saturated in the third image (413). In the third image (413), a portion that received light stronger than ec2 may be filled with a brightness value representing the maximum brightness (e.g., 255), and a portion that received light weaker than ec1 may be filled with a brightness value representing the minimum brightness (e.g., 0). For example, in the third image (413), the portions corresponding to the sky and/or the ground may be uniformly filled with a brightness value representing the minimum brightness (e.g., 0) as they receive light weaker than ec1.

도 4를 참고하면, SDR의 비트 뎁스를 가지는 복수의 이미지들(411, 412, 413)을 합성하여, 전자 장치는 SDR의 비트 뎁스를 가지는 이미지(112)를 합성할 수 있다. 예를 들어, 이미지들(411, 412, 413, 112)의 픽셀들에, 동일한 비트 뎁스(예, 8 개의 비트들)를 이용하여 나타낸, 밝기 값들(또는 각 채널들의 값들)이 할당될 수 있거나, 또는 저장될 수 있다. 일 실시예에서, 전자 장치는 복수의 이미지들(411, 412, 413) 중에서, 가장 어두운 이미지(예, 노출 값이 가장 큰 제1 이미지(411))에 다른 이미지들(예, 제2 이미지(412), 및/또는 제3 이미지(413))을 합성하여, 이미지(112)를 생성할 수 있거나, 또는 이미지(112)와 연동된 정보(예, 맵 정보(114))를 획득할 수 있다. Referring to FIG. 4, by synthesizing a plurality of images (411, 412, 413) having a bit depth of SDR, the electronic device can synthesize an image (112) having a bit depth of SDR. For example, brightness values (or values of each channel) expressed using the same bit depth (e.g., 8 bits) may be assigned or stored to pixels of the images (411, 412, 413, 112). In one embodiment, the electronic device can generate the image (112) by synthesizing other images (e.g., the second image (412) and/or the third image (413)) with the darkest image (e.g., the first image (411) having the largest exposure value) among the plurality of images (411, 412, 413), or can obtain information (e.g., map information (114)) linked to the image (112).

일 실시예에서, 전자 장치는 제1 이미지(411)를, 촬영 입력에 대한 응답으로 저장될 파일(110)의 이미지(112)로 결정할 수 있고, 복수의 이미지들(411, 412, 413)을 합성하여, 맵 정보(114)를 획득할 수 있거나, 또는 생성할 수 있다. 맵 정보(114)의 원소들(예, 픽셀 값들)은, 이미지(112)의 상이한 부분들에 대응할 수 있고, 대응하는 부분의 밝기 레벨과 관련된 값들을 포함할 수 있다. 도 4를 참고하면, 제1 이미지(411)가 이미지(112)로 결정됨에 따라, 이미지(112)는 es1 보다 강하고, es2 보다 약한 광을 구분하는 밝기 값들을 포함할 수 있다. 전자 장치는, es2 보다 강하고, 복수의 이미지들(411, 412, 413)로부터 구분 가능한 가장 강한 광의 세기 eh 보다 약한 광을 구분하는데 이용되는 맵 정보(114)를 추가적으로 획득할 수 있다. 맵 정보(114)는 2 차원 배열의 형태를 가질 수 있다. 상기 2 차원 배열의 너비(w2), 및/또는 높이(h2)는, 이미지(112)의 너비(w1), 및/또는 높이(h1) 보다 작을 수 있다. In one embodiment, the electronic device may determine the first image (411) as an image (112) of a file (110) to be stored in response to a photographing input, and may obtain or generate map information (114) by synthesizing a plurality of images (411, 412, 413). Elements (e.g., pixel values) of the map information (114) may correspond to different portions of the image (112) and may include values related to brightness levels of the corresponding portions. Referring to FIG. 4, as the first image (411) is determined as the image (112), the image (112) may include brightness values that distinguish light that is stronger than es1 and weaker than es2. The electronic device may additionally acquire map information (114) that is stronger than es2 and is used to distinguish light weaker than the strongest light intensity eh that can be distinguished from multiple images (411, 412, 413). The map information (114) may have a form of a two-dimensional array. A width (w2) and/or a height (h2) of the two-dimensional array may be smaller than a width (w1) and/or a height (h1) of the image (112).

예를 들어, 제2 이미지(412)의 픽셀들의 밝기 값들 및 제1 이미지(411)의 픽셀들의 밝기 값들의 차이들이, 맵 정보(114)에 저장될 수 있다. 예를 들어, 전자 장치는 제3 이미지(413)의 픽셀들의 밝기 값들 및 제1 이미지(411)의 픽셀들의 밝기 값들의 차이들을, 맵 정보(114)에 저장할 수 있다. 예를 들어, 전자 장치는 상대적으로 밝은(예, 상대적으로 작은 노출 값을 가지는) 제2 이미지(412)의 밝기 값에 가중치를 곱하여, 제2 이미지(412)의 밝기 값들을 상대적으로 큰 값으로 만들 수 있다. 상기 가중치는, 제1 이미지(411), 및 제2 이미지(412) 각각을 획득하기 위하여 이용된 카메라의 속성에 의해 결정될 수 있다. For example, differences between brightness values of pixels of the second image (412) and brightness values of pixels of the first image (411) may be stored in map information (114). For example, the electronic device may store differences between brightness values of pixels of the third image (413) and brightness values of pixels of the first image (411) in map information (114). For example, the electronic device may multiply brightness values of relatively bright second image (412) (e.g., having relatively small exposure value) by a weight to make brightness values of the second image (412) relatively large. The weight may be determined by properties of cameras used to acquire each of the first image (411) and the second image (412).

가중치가 적용된 제2 이미지(412)의 밝기 값들과 제1 이미지(411)의 밝기 값들에 대한 픽셀 별(pixelwise subtraction) 차분 연산(예, 뺄셈)을 수행하여, 전자 장치는 맵 정보(114)를 획득할 수 있다. 이 경우, 맵 정보(114) 내에서, 제2 이미지(412) 내에서 포화되지 않은 부분(예, 하늘, 및/또는 태양에 대응하는 부분)은, 제2 이미지(412), 및 제1 이미지(411)의 밝기 값의 차이를 나타내는 수치 값이 저장될 수 있고, 제2 이미지(412) 내에서 상대적으로 어두운 부분(예, 지면에 대응하는 부분)은, 제1 이미지(411)의 밝기 값을 유지함을 나타내는 수치 값이 저장될 수 있다. 상술한 바와 같이, 전자 장치는 복수의 이미지들(411, 412, 413)을 이용하여 이미지(112)의 일부분(예, 지면에 대응하는 부분)에 대하여 시각적으로 강조된, 이미지(112)의 다른 부분(예, 하늘, 및/또는 태양에 대응하는 부분)을 위한 맵 정보(114)를 생성할 수 있다. By performing a pixelwise subtraction difference operation (e.g., subtraction) on the brightness values of the weighted second image (412) and the brightness values of the first image (411), the electronic device can obtain the map information (114). In this case, in the map information (114), a numerical value representing the difference in brightness values of the second image (412) and the first image (411) can be stored in a non-saturated portion (e.g., a portion corresponding to the sky and/or the sun) in the second image (412), and a numerical value representing that a relatively dark portion (e.g., a portion corresponding to the ground) in the second image (412) maintains the brightness value of the first image (411) can be stored. As described above, the electronic device can use the multiple images (411, 412, 413) to generate map information (114) for a portion of the image (112) that is visually highlighted (e.g., a portion corresponding to the ground) while another portion of the image (112) is visually highlighted (e.g., a portion corresponding to the sky and/or the sun).

3 개 이상의 이미지들(411, 412, 413)을 획득한 일 실시예에서, 전자 장치는 제1 이미지(411)와의 밝기 값의 차이를 나타내는 맵 정보를, 제2 이미지(412), 및 제3 이미지(413) 각각에 대하여 생성할 수 있거나, 또는 저장할 수 있다. 밝기 차이 만을 나타내는 맵 정보(114)를 생성하기 때문에, 맵 정보(114)의 해상도, 너비(w2), 및/또는 높이(h2)는, 이미지(112)의 해상도, 너비(w1), 및/또는 높이(h1) 보다 각각 작을 수 있다. 실시예가 이에 제한되는 것은 아니며, 맵 정보(114)의 해상도, 너비(w2), 및/또는 높이(h2)는, 이미지(112)의 해상도, 너비(w1), 및/또는 높이(h1) 각각과 같을 수 있다. In one embodiment where three or more images (411, 412, 413) are acquired, the electronic device may generate or store map information indicating a difference in brightness value with respect to the first image (411), for each of the second image (412) and the third image (413). Since the map information (114) indicating only the brightness difference is generated, the resolution, the width (w2), and/or the height (h2) of the map information (114) may be smaller than the resolution, the width (w1), and/or the height (h1) of the image (112), respectively. The embodiment is not limited thereto, and the resolution, the width (w2), and/or the height (h2) of the map information (114) may be equal to the resolution, the width (w1), and/or the height (h1) of the image (112), respectively.

상대적으로 높은 휘도를 제공하기 위한 영역을 나타내는 맵 정보(114)를 생성하는 동작이 설명되었지만, 실시예가 이에 제한되는 것은 아니다. 전자 장치는 저휘도 영역을 강조하거나, 나타내는 맵 정보를 생성할 수 있다. 또는, 전자 장치는 고휘도, 및 저휘도 사이의 휘도 범위의 영역에 대응하는 맵 정보를 생성할 수 있다. Although the operation of generating map information (114) representing an area for providing relatively high luminance has been described, the embodiment is not limited thereto. The electronic device may generate map information that emphasizes or represents a low luminance area. Alternatively, the electronic device may generate map information corresponding to an area in a luminance range between high luminance and low luminance.

밝기 값(예, YUV 색 공간의 Y 값)과 관련된 맵 정보(114)를 획득하는 예시적인 동작이 설명되었지만, 실시예가 이에 제한되는 것은 아니다. 색 재현 특성을 강화하기 위하여, 복수의 이미지들(411, 412, 413)을 획득한 전자 장치는, YUV 색 공간의 색차 성분(예, 녹색, 및/또는 청색과 같은 지정된 원색의 색차 성분)에 대하여 상술된 동작을 수행하여, 상기 색차 성분에 대한 맵 정보를 획득할 수 있다. 이 경우, 전자 장치에 의해 획득된 맵 정보는, 특정 색차 성분에 대응하는 원색의 레벨을 상대적으로 넓은 색 공간(예, sRGB의 색 공간보다 큰 DCI-P3 및/또는 REC.2020의 색 공간들)을 이용하여 표현하기 위하여 이용될 수 있다. 전자 장치가 색 공간의 복수의 성분들 각각에 대한 맵 정보를 생성하는 경우, 성분들 각각에 대응하는 맵 정보는, 상이한 해상도, 너비, 높이, 및/또는 비트 뎁스를 가질 수 있다. Although an exemplary operation of obtaining map information (114) related to a brightness value (e.g., a Y value of a YUV color space) has been described, the embodiment is not limited thereto. In order to enhance color reproducibility, an electronic device that obtains a plurality of images (411, 412, 413) may perform the above-described operation for a chrominance component of a YUV color space (e.g., a chrominance component of a specified primary color such as green and/or blue) to obtain map information for the chrominance component. In this case, the map information obtained by the electronic device may be used to express a level of a primary color corresponding to a specific chrominance component using a relatively wide color space (e.g., color spaces of DCI-P3 and/or REC.2020 that are larger than a color space of sRGB). When the electronic device generates map information for each of a plurality of components of the color space, the map information corresponding to each of the components may have different resolutions, widths, heights, and/or bit depths.

실시예가 이에 제한되는 것은 아니며, 전자 장치는 RGB 색 공간의 원색 성분(에, 적색, 녹색, 및/또는 청색 각각의 원색 성분)에 대하여 상술된 동작을 수행하여, 상기 원색 성분에 대한 맵 정보를 획득할 수 있다. 예를 들어, 이미지(112)에 대하여, 전자 장치는 청색 성분의 밝기 레벨을 강화하기 위한 맵 정보, 및 적색 성분의 밝기 레벨을 강화하기 위한 맵 정보를 독립적으로 생성할 수 있다. 청색 성분의 밝기 레벨을 강화하기 위한 맵 정보를 추가적으로 생성하는 경우, 상기 맵 정보는, 이미지(112)의 청색 성분을 보다 상세히 시각화하기 위하여 이용될 수 있다. 실시예가 이에 제한되는 것은 아니며, 전자 장치는 특정 파장(또는 복수의 파장들의 조합)의 색 성분에 대한 맵 정보를 획득할 수 있다. 상기 맵 정보는, 이미지(112)에 대응하는 색 공간 보다 확장된 색 공간을 이용하여 이미지(112)를 표시하기 위하여 이용될 수 있다. The embodiment is not limited thereto, and the electronic device may perform the above-described operation for the primary color components of the RGB color space (e.g., the primary color components of red, green, and/or blue, respectively) to obtain map information for the primary color components. For example, for the image (112), the electronic device may independently generate map information for enhancing the brightness level of the blue component and map information for enhancing the brightness level of the red component. When additionally generating the map information for enhancing the brightness level of the blue component, the map information may be used to visualize the blue component of the image (112) in more detail. The embodiment is not limited thereto, and the electronic device may obtain map information for the color component of a specific wavelength (or a combination of a plurality of wavelengths). The map information may be used to display the image (112) using a color space extended from the color space corresponding to the image (112).

상술된 동작에 기반하여 생성된 맵 정보(114)와 함께, 전자 장치는 이미지(112) 및 맵 정보(114)를 합성하여 획득된, SDR의 다이나믹 레인지보다 넓은 다이나믹 레인지를 가지는 합성 이미지(예, 도 1의 HDR의 다이나믹 레인지를 가지는 이미지(130))를 표시할 시, 디스플레이 장치(예, HDR을 지원하는 디스플레이 장치)의 밝기 레벨을 변경하기 위한 디스플레이 제어 정보(116)를 결정할 수 있다. 디스플레이 제어 정보(116)는, 상대적으로 넓은 다이나믹 레인지를 가지는 상기 합성 이미지가, 상기 상대적으로 넓은 다이나믹 레인지에 기반하는 휘도 범위에서 구동하는 디스플레이 장치의 픽셀들을 통해 표시되도록, 상기 디스플레이 장치를 제어하기 위한 정보일 수 있다. 예를 들어, 상기 합성 이미지가 상대적으로 넓은 다이나믹 레인지를 가지는 이미지로 보여지도록, 전자 장치는 상기 디스플레이 장치의 밝기 레벨을 변경하기 위한 디스플레이 제어 정보(116)를 결정할 수 있다. Based on the above-described operation, together with the generated map information (114), the electronic device may determine display control information (116) for changing the brightness level of a display device (e.g., a display device supporting HDR) when displaying a composite image (e.g., an image (130) having a dynamic range of HDR of FIG. 1) obtained by synthesizing the image (112) and the map information (114) and having a wider dynamic range than the dynamic range of SDR. The display control information (116) may be information for controlling the display device so that the composite image having a relatively wide dynamic range is displayed through pixels of the display device that are driven in a luminance range based on the relatively wide dynamic range. For example, the electronic device may determine display control information (116) for changing the brightness level of the display device so that the composite image is viewed as an image having a relatively wide dynamic range.

일 실시예에 따른, 전자 장치는, 이미지(130)를 표시할 시에 디스플레이의 픽셀들의 휘도를 증가하는(또는 부스팅하는) 정도를 나타내는 디스플레이 제어 정보(116)를 생성할 수 있다. 픽셀들의 휘도를 증가하기 위하여 이용되는 정보의 관점에서, 맵 정보(114)는 게인 맵(gain map)으로, 및/또는 디스플레이 제어 정보(116)는 게인 정보로 지칭될 수 있다. 예를 들어, 복수의 이미지들(411, 412, 413) 중에서, 가장 노출 값이 큰(또는 가장 조리개 값이 작은) 제3 이미지(413)의 속성(예, 노출 값, 셔터 스피드, ISO 감도, 및/또는 조리개 값)을 이용하여, 전자 장치는 디스플레이 제어 정보(116)를 생성할 수 있거나, 또는 결정할 수 있다. 예를 들어, 전자 장치(101)는, 이미지들(411, 412, 413) 중에서 가장 밝은 피사체를 촬영하도록 제어되는 카메라의 조리개 값(예, 이미지들(411, 412, 413) 각각에 대응하는 조리개 값들 중 최대 값)을 이용하여, 디스플레이 제어 정보(116)를 생성하거나, 또는 결정할 수 있다. In one embodiment, the electronic device may generate display control information (116) indicating a degree to which the brightness of pixels of the display is increased (or boosted) when displaying an image (130). In terms of information used to increase the brightness of the pixels, the map information (114) may be referred to as a gain map, and/or the display control information (116) may be referred to as gain information. For example, the electronic device may generate or determine the display control information (116) by using properties (e.g., exposure value, shutter speed, ISO sensitivity, and/or aperture value) of a third image (413) having the highest exposure value (or the lowest aperture value) among the plurality of images (411, 412, 413). For example, the electronic device (101) may generate or determine the display control information (116) by using an aperture value of a camera controlled to capture the brightest subject among the images (411, 412, 413) (e.g., a maximum value among the aperture values corresponding to each of the images (411, 412, 413)).

상기 조리개 값은, 단위 스톱 만큼 증가될 때마다, 조리개를 통해 수신하는 광의 세기가 지정된 배수(예,2 배) 만큼 증가될 수 있다. 예를 들어, 조리개 값이 증가될수록, 조리개를 통해 수신하는 광의 세기가 증가될 수 있고, 상기 광에 의해 표현되는 이미지의 밝기가 증가될 수 있다. 예를 들어, 조리개 값이 감소될수록, 조리개를 통해 수신하는 광의 세기가 감소될 수 있고, 상기 광에 의해 표현되는 이미지의 밝기가 감소될 수 있다. The above aperture value may be increased by a specified multiple (e.g., 2 times) of the intensity of light received through the aperture each time the aperture value is increased by a unit stop. For example, as the aperture value increases, the intensity of light received through the aperture may increase, and the brightness of an image expressed by the light may increase. For example, as the aperture value decreases, the intensity of light received through the aperture may decrease, and the brightness of an image expressed by the light may decrease.

예를 들어, 복수의 적어도 하나의 카메라(225)로부터 획득된 복수의 이미지들(411, 412, 413)의 밝기 레벨들 전체의 사이즈(예, ea1 내지 ec2의 광 세기들 사이의 범위), 및 상기 복수의 이미지들(411, 412, 413)로부터 합성된 이미지(112)의 밝기 레벨의 사이즈(예, es1 내지 es2의 광 세기들 사이의 범위인, SDR의 사이즈) 사이의 비율을, 디스플레이 제어 정보(116)로써 결정할 수 있다. 예를 들어, 디스플레이 제어 정보(116)는 다이나믹 레인지들 사이의 비율(예, SDR-to-HDR 비율)로 지칭될 수 있다. 디스플레이 제어 정보(116)는, 맵 정보(114)에 의해 합성된 HDR 효과를 가지는 이미지를 표시할 디스플레이의 픽셀의 휘도를 결정하는데 이용될 수 있다. For example, a ratio between the size of the overall brightness levels of a plurality of images (411, 412, 413) acquired from a plurality of at least one camera (225) (e.g., a range between light intensities of ea1 to ec2) and the size of the brightness levels of an image (112) synthesized from the plurality of images (411, 412, 413) (e.g., a size of SDR, a range between light intensities of es1 to es2) can be determined as display control information (116). For example, the display control information (116) can be referred to as a ratio between dynamic ranges (e.g., an SDR-to-HDR ratio). The display control information (116) can be used to determine the luminance of a pixel of a display that will display an image having an HDR effect synthesized by the map information (114).

일 실시예에 따른, 전자 장치는, 디스플레이 제어 정보(116), 맵 정보(114)를 포함하는 메타데이터, 및 이미지(112)를 포함하는 파일(110)을 생성할 수 있거나, 또는 저장할 수 있다. 파일(110)에 저장된 맵 정보(114)는, 이미지(112), 및/또는 파일(110)과 관련된 이벤트에 기반하여, HDR을 지원하는 디스플레이 장치에 의해 표시되기 위하여, 이미지(112)에 적용될 수 있다. 디스플레이 제어 정보(116)는, 상기 이벤트에 기반하여, 맵 정보(114)가 적용된 이미지(112)를 표시하는 상기 디스플레이 장치의 밝기 레벨을 변경하기 위하여 이용될 수 있다. SDR에 기반하는 비트 뎁스(예, 8 비트들)를 가지는 이미지(112)와 함께 이용될 보조 정보(예, 맵 정보(114), 및/또는 디스플레이 제어 정보(116))를 생성하여, 전자 장치는 상대적으로 적은 사이즈를 가지면서, HDR 효과를 지원하는 파일(110)을 생성할 수 있다. 예를 들어, 맵 정보(114)의 해상도가 이미지(112)의 해상도보다 작기 때문에, 증가된 비트 뎁스를 가지는 파일 보다, 파일(110)의 사이즈가 작을 수 있다. In one embodiment, the electronic device may generate or store a file (110) including display control information (116), metadata including map information (114), and an image (112). The map information (114) stored in the file (110) may be applied to the image (112) to be displayed by a display device supporting HDR, based on an event associated with the image (112) and/or the file (110). The display control information (116) may be used to change a brightness level of the display device displaying the image (112) to which the map information (114) is applied, based on the event. By generating auxiliary information (e.g., map information (114) and/or display control information (116)) to be used with the image (112) having a bit depth based on SDR (e.g., 8 bits), the electronic device may generate a file (110) supporting HDR effects while having a relatively small size. For example, since the resolution of the map information (114) is smaller than the resolution of the image (112), the size of the file (110) may be smaller than a file with increased bit depth.

일 실시예에서, 호환성을 위하여, 파일(110)은 JPEG와 같은 포맷을 가질 수 있다. 이하에서는, 도 5를 참고하여, 이미지(112), 맵 정보(114), 및 디스플레이 제어 정보(116)를 포함하는 파일(110)의 예시적인 구조가 설명된다. In one embodiment, for compatibility, the file (110) may have a format such as JPEG. Below, with reference to FIG. 5, an exemplary structure of a file (110) including an image (112), map information (114), and display control information (116) is described.

도 5는, 일 실시예에 따른, 전자 장치에 의해 생성된 파일(110)의 예시적인 구조를 도시한다. 도 1 내지 도 2의 전자 장치(101), 및/또는 도 2의 프로세서(210)는, 도 5를 참고하여 설명되는 전자 장치(101)의 동작을 수행할 수 있다. 도 5의 파일(110)은, 도 3 내지 도 4를 참고하여 설명된 전자 장치(101)의 동작에 의해 생성될 수 있다. FIG. 5 illustrates an exemplary structure of a file (110) generated by an electronic device according to one embodiment. The electronic device (101) of FIGS. 1 to 2 and/or the processor (210) of FIG. 2 may perform the operation of the electronic device (101) described with reference to FIG. 5. The file (110) of FIG. 5 may be generated by the operation of the electronic device (101) described with reference to FIGS. 3 to 4.

도 5를 참고하면, EXIF로 지칭되는 ISO(International Standardization Organization)의 포맷에 기반하는 파일(110)의 구조가 도시된다. 메모리(예, 도 2의 메모리(215))에 저장되는 파일(110)은, 파일(110)의 시작(Start Of Image)을 나타내기 위한 지정된 값(예, 하기 표 1의 값)이 저장되는 영역(M1)부터 시작될 수 있다. 영역(M1) 이후에, 응용 영역들(APPlication segments)(예, M2, M3, M4, ... , M10)이 파일(110) 내에 형성될 수 있다. Referring to FIG. 5, a structure of a file (110) based on a format of ISO (International Standardization Organization) referred to as EXIF is illustrated. A file (110) stored in a memory (e.g., memory (215) of FIG. 2) may start from an area (M1) in which a designated value (e.g., a value of Table 1 below) for indicating the start of the file (110) is stored. After the area (M1), application areas (APPlication segments) (e.g., M2, M3, M4, ..., M10) may be formed in the file (110).

파일(110)의 제1 응용 영역(M2)에, 태그 정보가 저장될 수 있다. 태그 정보는, 파일(110)의 인덱싱에 사용되는 하나 이상의 문자열들을 포함할 수 있다. 파일(110)의 제2 응용 영역(APP2)에, 콘텐트 목록 데이터(M3), 및/또는 스트림 데이터(M4 내지 M10)가 저장될 수 있다. 파일(110) 내에서, 응용 영역들(M2, M3, ..., M10) 이후에, JPEG 테이블 영역(M11, M12, ..., M15)이 형성될 수 있다. JPEG 테이블 영역은, DQT(Define-Quantization-Tables) 영역(M11)(예, 하기 표 1의 값으로 시작되는 가변 영역), DHT(Define-Huffman-Tables) 영역(M12)(예, 하기 표 1의 값으로 시작되는 가변 영역), DRI(Define-Restart-Interval) 영역(M13)(예, 하기 표 1의 값으로 시작되는 고정 영역), SOF(Start of Frame) 영역(M14), 및/또는 SOS(Start-Of-Scan) 영역(M15)(예, 하기 표 1의 값으로 시작되는 가변 영역)을 포함할 수 있다. 파일(110) 내에서, JPEG 테이블 영역 이후에, JPEG 압축 데이터 영역(M16)이 형성될 수 있다. 파일(110)은, JPEG 압축 데이터 영역(M16) 이후에, 파일(110)의 끝(End Of Image)을 나타내기 위한 지정된 값이 저장되는 영역(M17)(예, 하기 표 1의 값으로 시작되는 고정 영역)을 포함할 수 있다. In the first application area (M2) of the file (110), tag information may be stored. The tag information may include one or more character strings used for indexing the file (110). In the second application area (APP2) of the file (110), content list data (M3) and/or stream data (M4 to M10) may be stored. Within the file (110), after the application areas (M2, M3, ..., M10), a JPEG table area (M11, M12, ..., M15) may be formed. The JPEG table area may include a Define-Quantization-Tables (DQT) area (M11) (e.g., a variable area starting with a value in Table 1 below), a Define-Huffman-Tables (DHT) area (M12) (e.g., a variable area starting with a value in Table 1 below), a Define-Restart-Interval (DRI) area (M13) (e.g., a fixed area starting with a value in Table 1 below), a Start of Frame (SOF) area (M14), and/or a Start-Of-Scan (SOS) area (M15) (e.g., a variable area starting with a value in Table 1 below). Within the file (110), a JPEG compressed data area (M16) may be formed after the JPEG table area. The file (110) may include, after the JPEG compressed data area (M16), an area (M17) (e.g., a fixed area starting with the value of Table 1 below) in which a designated value is stored to indicate the end of the file (110).

일 실시예에서, EXIF의 포맷에 기반하여 파일(110)에 저장되는 정보는, 도 5의 예시에 제한되지 않는다. 예를 들어, 파일(110)에, 표 1의 명칭을 가지는 정보를 포함할 수 있다. In one embodiment, information stored in a file (110) based on the format of EXIF is not limited to the example of FIG. 5. For example, the file (110) may include information having a name in Table 1.

약칭Abbreviation 파일(110) 내 값(16 진수 기반)Value in file (110) (hexadecimal based) 정보(또는 페이로드)의 길이Length of information (or payload) 명칭designation SOISOI 0xFF, 0xD80xFF, 0xD8 없음doesn't exist 이미지의 시작점Starting point of the image SOF0SOF0 0xFF, 0xC00xFF, 0xC0 가변적Variable 프레임의 시작점(baseline DCT(discrete cosine transform))Starting point of the frame (baseline DCT (discrete cosine transform)) SOF2SOF2 0xFF, 0xC20xFF, 0xC2 가변적Variable 프레임의 시작점(progressive DCT)Starting point of the frame (progressive DCT) DHTDHT 0xFF, 0xC40xFF, 0xC4 가변적Variable Huffman 테이블의 정의Definition of Huffman table DQTDQT 0xFF, 0xDB0xFF, 0xDB 가변적Variable 양자화 테이블의 정의Definition of quantization table DRIDRI 0xFF, 0xDD0xFF, 0xDD 4 바이트4 bytes 재시작 주기의 정의Definition of restart cycle SOSSOS 0xFF, 0xDA0xFF, 0xDA 가변적Variable 스캔의 시작점Starting point of scan RSTnRSTn 0xFF, 0xDn(n = 0, ..., 7)0xFF, 0xDn(n = 0, ..., 7) 없음doesn't exist 재시작점Restart point APPnAPPn 0xFF, 0xEn0xFF, 0xEn 가변적Variable 응용 영역(EXIF, APP1 등)Application areas (EXIF, APP1, etc.) COMCOM 0xFF, 0xFE0xFF, 0xFE 가변적Variable 주석(comment)Comment EOIEOI 0xFF, 0xD90xFF, 0xD9 없음doesn't exist 이미지의 끝 점End point of the image

일 실시예에서, 적어도 하나의 카메라(예, 도 2의 적어도 하나의 카메라(225))로부터 획득된 이미지들(예, 도 4의 복수의 이미지들(411, 412, 413))로부터 획득된 합성 이미지(예, 도 1의 이미지(112))가, 파일(110) 내 JPEG 압축 데이터 영역(M16)에 저장될 수 있다. JPEG 압축 데이터 영역(M16)과 상이한 파일(110)의 다른 영역(예, M2 내지 M10)에, 메타데이터가 저장될 수 있다. 예를 들어, HDR의 이미지를 복원, 및/또는 표시하기 위하여 이용되는 카메라의 촬영 정보, 맵 정보(114), 및/또는 디스플레이 제어 정보(116)가, 파일(110)의 제2 응용 영역(APP2)에 저장될 수 있다. In one embodiment, a composite image (e.g., image (112) of FIG. 1) obtained from images (e.g., multiple images (411, 412, 413) of FIG. 4) obtained from at least one camera (e.g., at least one camera (225) of FIG. 2) may be stored in a JPEG compressed data area (M16) of a file (110). Metadata may be stored in another area (e.g., M2 to M10) of the file (110) that is different from the JPEG compressed data area (M16). For example, shooting information of a camera used to restore and/or display an HDR image, map information (114), and/or display control information (116) may be stored in a second application area (APP2) of the file (110).

이하에서는, 도 5의 예시적인 파일(110)을 이용하여, HDR 효과를 가지는 이미지를 표시하도록, 디스플레이(예, 도 1 및/또는 도 2의 디스플레이(120))를 제어하는 전자 장치의 예시적인 동작이 설명된다. Below, an exemplary operation of an electronic device for controlling a display (e.g., the display (120) of FIG. 1 and/or FIG. 2) to display an image having an HDR effect is described, using an exemplary file (110) of FIG. 5.

도 6은, 파일에 포함된 이미지를 표시하는 전자 장치(101)의 디스플레이(120)의 예시적인 밝기 레벨을 도시한다. 도 1 내지 도 2의 전자 장치(101), 및/또는 도 2의 프로세서(210)는, 도 6을 참고하여 설명되는 전자 장치(101)의 동작을 수행할 수 있다. 도 6의 파일은, 도 1 내지 도 2, 및/또는 도 5의 파일(110)에 대응할 수 있다. FIG. 6 illustrates exemplary brightness levels of a display (120) of an electronic device (101) that displays an image included in a file. The electronic device (101) of FIGS. 1 to 2, and/or the processor (210) of FIG. 2, may perform the operations of the electronic device (101) described with reference to FIG. 6. The file of FIG. 6 may correspond to the file (110) of FIGS. 1 to 2, and/or FIG. 5.

도 6을 참고하면, 이미지의 탐색, 및/또는 표시를 위한 화면을 표시하는 전자 장치(101)의 상이한 상태들(601, 602)이 도시된다. 전자 장치(101)는, 메모리(예, 도 2의 메모리(215))에 저장된 이미지, 및/또는 비디오의 열람을 위한 소프트웨어 어플리케이션(예, 갤러리 어플리케이션)을 실행한 상태에서, 디스플레이(120) 상에 도 6의 화면을 표시할 수 있다. 도 6을 참고하면, 전자 장치(101)는, 디스플레이(120) 상에 표시되는 화면의 전환을 위한 시각적 객체들(611, 612, 613)을, 디스플레이(120)의 밑 변을 따라 표시할 수 있다. 시각적 객체(611)는, 전자 장치(101)에 의해 실행되었던 소프트웨어 어플리케이션들의 리스트를 표시하기 위한 기능에 매핑될 수 있다. 시각적 객체(612)는, 홈 화면(또는 런처 화면)으로 지칭되는 지정된 화면으로 전환하기 위한 기능에 매핑될 수 있다. 시각적 객체(613)는, 디스플레이(120) 상에 현재 표시되고 있는 화면 이전에 표시되었던 다른 화면으로 전환하기 위한 기능에 매핑될 수 있다. Referring to FIG. 6, different states (601, 602) of an electronic device (101) displaying a screen for searching and/or displaying an image are illustrated. The electronic device (101) may display the screen of FIG. 6 on the display (120) while executing a software application (e.g., a gallery application) for viewing images and/or videos stored in a memory (e.g., memory (215) of FIG. 2). Referring to FIG. 6, the electronic device (101) may display visual objects (611, 612, 613) for switching the screen displayed on the display (120) along the bottom edge of the display (120). The visual object (611) may be mapped to a function for displaying a list of software applications that have been executed by the electronic device (101). The visual object (612) may be mapped to a function for switching to a designated screen referred to as a home screen (or launcher screen). A visual object (613) may be mapped to a function for switching to another screen that was displayed before the screen currently being displayed on the display (120).

도 6의 예시적인 상태(601)에서, 전자 장치(101)는, 메모리에 저장된 이미지들 각각에 대응하는 썸네일 이미지들을 표시할 수 있다. 도 1 내지 도 5를 참고하여 설명된 파일(110)이 저장된 일 실시예에서, 전자 장치(101)는, 상기 파일(110)에 대응하는 썸네일 이미지(619)를 표시할 수 있다. 썸네일 이미지(619)는, SDR에서 동작하는 디스플레이(120)의 픽셀들을 이용하여 표시될 수 있다. 예를 들어, 전자 장치(101)는 상기 파일(110)에서, SDR을 가지는 이미지(112)의 적어도 일부분을 이용하여, 썸네일 이미지(619)를 생성할 수 있거나, 또는 표시할 수 있다. 썸네일 이미지(619)는 파일(110)에 포함된 이미지(112) 보다 작은 해상도, 너비, 및/또는 높이를 가질 수 있다. In an exemplary state (601) of FIG. 6, the electronic device (101) can display thumbnail images corresponding to each of the images stored in the memory. In one embodiment in which the file (110) described with reference to FIGS. 1 to 5 is stored, the electronic device (101) can display a thumbnail image (619) corresponding to the file (110). The thumbnail image (619) can be displayed using pixels of the display (120) operating in SDR. For example, the electronic device (101) can generate or display the thumbnail image (619) using at least a portion of the image (112) having the SDR in the file (110). The thumbnail image (619) can have a smaller resolution, width, and/or height than the image (112) included in the file (110).

썸네일 이미지(619)를 포함하는 화면을 표시하는 상태(601) 내에서, 전자 장치(101)의 디스플레이(120)의 휘도는, SDR에 기반하는 상대적으로 작은 사이즈의 범위 내에서 분포될 수 있다. 도 6을 참고하면, 상태(601) 내에서, 디스플레이(120)의 픽셀들의 최소 휘도(l5), 및 최대 휘도(l7)가 도시된다. 최소 휘도(l5), 및 최대 휘도(l7) 사이에서, 상기 픽셀들(예, 썸네일 이미지(619)에 대응하는 픽셀들)은, 256 단계의 밝기 레벨들(예, SDR의 8 비트의 비트 뎁스를 따라 나타낸 밝기 레벨)에 따라 제어될 수 있다. Within a state (601) of displaying a screen including a thumbnail image (619), the brightness of the display (120) of the electronic device (101) may be distributed within a relatively small size range based on SDR. Referring to FIG. 6, within the state (601), a minimum brightness (l5) and a maximum brightness (l7) of pixels of the display (120) are illustrated. Between the minimum brightness (l5) and the maximum brightness (l7), the pixels (e.g., pixels corresponding to the thumbnail image (619)) may be controlled according to 256 brightness levels (e.g., brightness levels represented according to a bit depth of 8 bits of SDR).

도 6의 예시적인 상태(601) 내에서, SDR에 기반하는 제1 다이나믹 레인지를 가지는, 썸네일 이미지(619)를 표시하는 동안, 전자 장치(101)는 썸네일 이미지(619)와 관련된 입력을 수신할 수 있다. 상기 입력은, 썸네일 이미지(619)가 표시되는 디스플레이(120)의 일부분 상의 터치 입력(예, 탭 제스쳐)을 포함할 수 있다. 상기 입력은, 썸네일 이미지(619)에 대응하는 이미지(예, 도 1의 파일(110), 및/또는 파일(110) 내 이미지(112))의 표시를 위해 수행될 수 있다. 예를 들어, 상기 입력에 응답하여, 전자 장치(101)는, 디스플레이(120)의 밝기 레벨이 SDR과 관련된 제1 밝기 레벨로 설정되는 동안, SDR을 가지는 상기 이미지를 표시하기 위한 이벤트를 검출할 수 있다. Within the exemplary state (601) of FIG. 6, while displaying a thumbnail image (619) having a first dynamic range based on SDR, the electronic device (101) may receive an input related to the thumbnail image (619). The input may include a touch input (e.g., a tap gesture) on a portion of the display (120) on which the thumbnail image (619) is displayed. The input may be performed to display an image corresponding to the thumbnail image (619) (e.g., the file (110) of FIG. 1 , and/or the image (112) within the file (110). For example, in response to the input, the electronic device (101) may detect an event for displaying the image having SDR while a brightness level of the display (120) is set to a first brightness level associated with SDR.

HDR을 지원하는 파일(예, 도 1의 파일(110))에 대응하는 썸네일 이미지(619)에 대한 입력에 응답하여, 전자 장치(101)는 HDR 내에서 디스플레이(120)를 제어하기 위한 상태(602)로 스위칭할 수 있다. 상태(602) 내에서, 전자 장치(101)는, 상기 파일에 포함된 SDR의 이미지, 및 메타데이터를 이용하여, HDR 효과를 가지는 이미지(130)를 합성할 수 있다. 이미지(130)가 배치된 실행 화면을 표시하는 상태(602) 내에서, 전자 장치(101)는 이미지(130)에 대응하는 디스플레이(120)의 제1 표시 영역의 픽셀들이 HDR과 관련된 밝기 레벨에서 동작하도록, 상기 제1 표시 영역의 픽셀들을 제어할 수 있다. 상태(602) 내에서, 전자 장치(101)는 이미지(130)에 인접한(또는 이미지(130)와 상이한) 실행 화면에 대응하는 디스플레이(120)의 제2 표시 영역(또는 제1 표시 영역과 상이한 디스플레이(120)의 나머지 표시 영역)의 픽셀들이, HDR과 상이한 다이나믹 레인지(예, SDR)과 관련된 밝기 레벨에서 동작하도록, 상기 제2 표시 영역의 픽셀들을 제어할 수 있다. In response to an input for a thumbnail image (619) corresponding to a file supporting HDR (e.g., file (110) of FIG. 1), the electronic device (101) may switch to a state (602) for controlling the display (120) within HDR. Within the state (602), the electronic device (101) may synthesize an image (130) having an HDR effect using an image of SDR and metadata included in the file. Within the state (602) for displaying an execution screen on which the image (130) is arranged, the electronic device (101) may control pixels of a first display area of the display (120) corresponding to the image (130) so that the pixels of the first display area operate at a brightness level associated with HDR. Within state (602), the electronic device (101) can control pixels of a second display area of the display (120) (or a remaining display area of the display (120) that is different from the first display area) corresponding to a running screen adjacent to the image (130) (or different from the image (130)) to operate at a brightness level associated with a dynamic range (e.g., SDR) different from HDR.

도 6을 참고하면, HDR에 기반하는 이미지(130)를 표시하는 상태(602)에서, 디스플레이(120)의 픽셀들의 최소 휘도(l6), 및 최대 휘도(l8)가 도시된다. 최대 휘도(l8), 및 최소 휘도(l6) 사이의 편차(또는 명암비)는, 디스플레이(120)가 SDR에 기반하여 제어되는 상태(601)에서의 최대 휘도(l7), 및 최소 휘도(l5) 사이의 편차(또는 명암비) 보다 클 수 있다. 최대 휘도(l8), 및 최소 휘도(l6) 사이에서, 디스플레이(120)의 픽셀들은, 256 단계를 초과하는 단계(예, 210 = 1024)의 밝기 레벨들(예, HDR의 10 비트의 비트 뎁스를 따라 나타낸 밝기 레벨)에 의해 제어될 수 있다. Referring to FIG. 6, in a state (602) of displaying an image (130) based on HDR, the minimum brightness (l6) and the maximum brightness (l8) of the pixels of the display (120) are illustrated. The difference (or contrast ratio) between the maximum brightness (l8) and the minimum brightness (l6) may be greater than the difference (or contrast ratio) between the maximum brightness (l7) and the minimum brightness (l5) in the state (601) in which the display (120) is controlled based on SDR. Between the maximum brightness (l8) and the minimum brightness (l6), the pixels of the display (120) may be controlled by brightness levels exceeding 256 steps (e.g., 2 10 = 1024) (e.g., brightness levels represented according to a bit depth of 10 bits of HDR).

도 6을 참고하면, 휘도 영역에서, 디스플레이(120)가 SDR에 기반하여 제어되는 상태(601)에서의 최소 휘도(l5), 및 디스플레이(120)가 HDR에 기반하여 제어되는 상태(602)에서의 최소 휘도(l6)는, 상대적으로 적은 차이를 가지거나, 또는 같을 수 있다. 휘도 영역에서, 디스플레이(120)가 SDR에 기반하여 제어되는 상태(601)에서의 최대 휘도(l7), 및 디스플레이(120)가 HDR에 기반하여 제어되는 상태(602)에서의 최대 휘도(l8)는, 상대적으로 큰 차이를 가질 수 있다. 예를 들어, HDR에 기반하여 제어되는 동안, 전자 장치(101)는 이미지(130)에 대응하는 파일의 메타데이터(예, 도 1의 디스플레이 제어 정보(116))를 이용하여, 최소 밝기를 가지는 이미지(130)의 일부분에 대응하는 디스플레이(120)의 적어도 하나의 픽셀이, HDR에 기반하는 다이나믹 레인지의 최소 휘도(l6)를 가지도록, 디스플레이(120)를 제어할 수 있다. 예를 들어, 전자 장치(101)는, 상기 메타데이터를 이용하여, 최대 밝기를 가지는 이미지(130)의 일부분에 대응하는 디스플레이(120)의 적어도 하나의 픽셀이, HDR에 기반하는 다이나믹 레인지의 최대 휘도(l8)를 가지도록, 디스플레이(120)를 제어할 수 있다. Referring to FIG. 6, in the luminance domain, the minimum luminance (l5) in the state (601) in which the display (120) is controlled based on SDR and the minimum luminance (l6) in the state (602) in which the display (120) is controlled based on HDR may have a relatively small difference or may be the same. In the luminance domain, the maximum luminance (l7) in the state (601) in which the display (120) is controlled based on SDR and the maximum luminance (l8) in the state (602) in which the display (120) is controlled based on HDR may have a relatively large difference. For example, while controlled based on HDR, the electronic device (101) may control the display (120) using metadata of a file corresponding to the image (130) (e.g., display control information (116) of FIG. 1) such that at least one pixel of the display (120) corresponding to a portion of the image (130) having a minimum brightness has a minimum brightness (l6) of a dynamic range based on HDR. For example, the electronic device (101) may control the display (120) using the metadata such that at least one pixel of the display (120) corresponding to a portion of the image (130) having a maximum brightness has a maximum brightness (l8) of a dynamic range based on HDR.

디스플레이(120)가 HDR에 기반하여 제어되는 상태(602)에서, 전자 장치(101)는 SDR을 이용하여 썸네일 이미지(619)를 표시하는 상태(601)에서 이용되는 색 공간 보다 확장된 색 공간을 이용하여, 이미지(130)를 표시할 수 있다. 예를 들어, sRGB의 색 공간(예, 도 8의 색 공간(811))을 이용하여 썸네일 이미지(619)를 표시하는 상태(601)로부터 상태(602)로 스위칭한 이후, 전자 장치(101)는, 상기 색 공간 보다 넓은 색 공간(예, DCI-P3에 기반하는, 도 8의 색 공간(812))을 이용하여, 이미지(130)를 표시할 수 있다. 이미지(130)가 확장된 색 공간을 이용하여 표시되기 때문에, 전자 장치(101)는 이미지(130)의 색상을 보다 상세히 표현할 수 있다. In a state (602) where the display (120) is controlled based on HDR, the electronic device (101) can display the image (130) using a color space that is wider than the color space used in the state (601) where the thumbnail image (619) is displayed using SDR. For example, after switching from the state (601) where the thumbnail image (619) is displayed using the color space of sRGB (e.g., the color space (811) of FIG. 8) to the state (602), the electronic device (101) can display the image (130) using a color space wider than the color space (e.g., the color space (812) of FIG. 8 based on DCI-P3). Since the image (130) is displayed using the extended color space, the electronic device (101) can express the color of the image (130) in more detail.

HDR에 기반하여 디스플레이(120)를 제어하는 상태(602) 내에서, 전자 장치(101)는 디스플레이(120) 상에 HDR을 이용하여 이미지(130)를 시각화함을 가이드하기 위한 시각적 객체(624)를 표시할 수 있다. 예를 들어, "HDR ON"과 같은 지정된 텍스트를 포함하는 시각적 객체(624)가 도시되지만, 실시예가 이에 제한되는 것은 아니다. 상태(602) 내에서, 전자 장치(101)는 이미지(130)와 관련된 기능을 제공하는 시각적 객체들(예, 좋아요, 이름 변경, 공유, 및/또는 삭제와 같은 기능들에 대응하는 시각적 객체들)을 포함하는 영역(621)을 표시할 수 있다. Within a state (602) of controlling a display (120) based on HDR, the electronic device (101) may display a visual object (624) to guide visualization of an image (130) using HDR on the display (120). For example, a visual object (624) including designated text such as “HDR ON” is illustrated, but the embodiment is not limited thereto. Within the state (602), the electronic device (101) may display an area (621) including visual objects providing functions related to the image (130) (e.g., visual objects corresponding to functions such as like, rename, share, and/or delete).

썸네일 이미지(619)에 대응하는 파일로부터 HDR 효과를 가지는 이미지(130)를 생성, 및/또는 합성하기 위하여, 전자 장치(101)는 상기 파일에 대한 이미지 처리를 수행할 수 있다. 이하에서는, 도 7을 참고하여, 이미지 처리를 수행하는 전자 장치(101)의 예시적인 동작이 설명된다. In order to generate and/or synthesize an image (130) having an HDR effect from a file corresponding to a thumbnail image (619), the electronic device (101) may perform image processing on the file. Hereinafter, with reference to FIG. 7, an exemplary operation of the electronic device (101) performing image processing is described.

도 7은, 파일로부터 디스플레이로 송신될 정보를 생성하는 전자 장치의 예시적인 동작을 도시한다. 도 1 내지 도 2의 전자 장치(101), 및/또는 도 2의 프로세서(210)는, 도 7을 참고하여 설명되는 전자 장치(101)의 동작을 수행할 수 있다. 예를 들어, 전자 장치(101)는 도 2의 이미지 렌더러(216), 및/또는 디스플레이 휘도 결정기(217)를 실행하여, 도 7의 동작을 수행할 수 있다. 도 7의 상기 파일은, 도 1 내지 도 2, 및/또는 도 5의 파일(110)에 대응할 수 있다. 도 7의 상기 디스플레이는, 도 1 내지 도 6의 디스플레이(120)에 대응할 수 있다. FIG. 7 illustrates an exemplary operation of an electronic device for generating information to be transmitted from a file to a display. The electronic device (101) of FIGS. 1 to 2, and/or the processor (210) of FIG. 2, may perform the operation of the electronic device (101) described with reference to FIG. 7. For example, the electronic device (101) may execute the image renderer (216) of FIG. 2, and/or the display luminance determiner (217) to perform the operation of FIG. 7. The file of FIG. 7 may correspond to the file (110) of FIGS. 1 to 2, and/or FIG. 5. The display of FIG. 7 may correspond to the display (120) of FIGS. 1 to 6.

도 7을 참고하면, 파일(110)의 SDR을 가지는 이미지(112)를 표시하기 위한 이벤트에 응답하여, 전자 장치는 파일(110)의 메타데이터로부터, 이미지(112)의 일부분에 대하여 시각적으로 강조된 이미지(112)의 다른 부분을 위한 맵 정보(114), 및/또는 이미지(112)의 표시와 관련하여 디스플레이의 밝기 레벨을 변경하는 디스플레이 제어 정보(116)를 획득할 수 있다. 도 7을 참고하면, 전자 장치는, 동작(711)에서, 이미지(112)의 밝기 성분(예, Y 값들)을 선형화할 수 있다. 동작(712)에서, 전자 장치는 맵 정보(114)의 밝기 성분(예, G_Y 값들)을 선형화할 수 있다. 동작들(711, 712)의 상기 선형화는, 이미지(112), 및/또는 맵 정보(114)를 생성할 시에 카메라의 ISP(image signal processor)에 의해 이용된 곡선의(또는 비선형의) 감마 곡선에 의한 밝기 성분의 왜곡을 보상하기 위하여 수행될 수 있다. 동작들(711, 712)의 상기 선형화는, 지정된 전달 함수(예, EOTF(electro-optical transfer function))에 의해 수행될 수 있다. Referring to FIG. 7, in response to an event to display an image (112) having an SDR of a file (110), the electronic device may obtain, from the metadata of the file (110), map information (114) for another portion of the image (112) that is visually emphasized for a portion of the image (112), and/or display control information (116) for changing a brightness level of the display in relation to the display of the image (112). Referring to FIG. 7, at operation (711), the electronic device may linearize a brightness component (e.g., Y values) of the image (112). At operation (712), the electronic device may linearize a brightness component (e.g., G_Y values) of the map information (114). The linearization of the operations (711, 712) may be performed to compensate for distortion of brightness components due to a curved (or non-linear) gamma curve used by an image signal processor (ISP) of a camera when generating an image (112) and/or map information (114). The linearization of the operations (711, 712) may be performed by a specified transfer function (e.g., an electro-optical transfer function (EOTF)).

일 실시예에서, 이미지(112)의 해상도, 너비, 및/또는 높이 보다 작은 해상도, 너비, 및/또는 높이를 가지는 맵 정보(114)가 파일(110)에 저장된 경우, 전자 장치는, 맵 정보(114)에 대한 업스케일링을 수행하여, 이미지(112)의 해상도, 너비, 및/또는 높이에 대응하는 업스케일링된 맵 정보를 획득할 수 있다. 이 경우, 전자 장치는 업스케일링된 맵 정보에 대하여 동작(712)을 수행할 수 있다. In one embodiment, when map information (114) having a resolution, width, and/or height smaller than the resolution, width, and/or height of the image (112) is stored in the file (110), the electronic device may perform upscaling on the map information (114) to obtain upscaled map information corresponding to the resolution, width, and/or height of the image (112). In this case, the electronic device may perform operation (712) on the upscaled map information.

도 7을 참고하면, 동작(720) 내에서, 전자 장치는, 동작들(711, 712)에 기반하여 선형화된 밝기 성분들(예, 이미지(112), 및/또는 맵 정보(114)의 밝기 성분들), 이미지(112)의 색차 성분들(예, Cb 값들, 및/또는 Cr 값들), 디스플레이 제어 정보(116), 및 전자 장치(또는 디스플레이)의 상태 정보(722) 중 적어도 하나를 이용하여, 디스플레이의 픽셀들의 색상, 및/또는 밝기를 나타내는 중간 값들(X, Y, Z)을 획득할 수 있다. 동작(730) 내에서, 전자 장치는 상기 중간 값들(X, Y, Z)로부터, 디스플레이(또는 도 2의 디스플레이 구동 회로(122))로 송신될, RGB 색 공간에서의 색상 값들(R1, G1, B1)을 생성할 수 있다. 동작(730)의 중간 값들(X, Y, Z), 및 색상 값들(R1, G1, B1) 사이의 변환은, 지정된 전달 함수들, 및/또는 매핑 테이블에 의해 수행될 수 있다. Referring to FIG. 7, within operation (720), the electronic device may obtain intermediate values (X, Y, Z) representing colors and/or brightness of pixels of the display by using at least one of linearized brightness components (e.g., brightness components of the image (112) and/or map information (114)), chrominance components of the image (112) (e.g., Cb values and/or Cr values), display control information (116), and state information (722) of the electronic device (or display) based on operations (711, 712). Within operation (730), the electronic device may generate color values (R1, G1, B1) in an RGB color space to be transmitted to the display (or the display driving circuit (122) of FIG. 2) from the intermediate values (X, Y, Z). Conversion between intermediate values (X, Y, Z) and color values (R1, G1, B1) of the motion (730) can be performed by specified transfer functions and/or mapping tables.

동작(720) 내에서, 전자 장치는 선형화된 이미지(112)의 밝기 값(예, 선형화된 Y 값들)에 선형화된 맵 정보(114)의 밝기 값(예, 선형화된 G_Y 값들)을 적용하여, 증가된 비트 뎁스를 가지는 밝기 값을 생성할 수 있다. 상기 밝기 값은, 이미지(112)의 색차 성분들(예, Cb 값들, 및/또는 Cr 값들)과 결합되어, 중간 값들(X, Y, Z)을 계산하는데 이용될 수 있다. 전자 장치는 디스플레이 제어 정보(116)(예, SDR-to-HDR 비율)를 이용하여, 디스플레이 제어 정보(116)에 의해 권고되는, 디스플레이의 휘도 차이에 기반하는 중간 값들(X, Y, Z)을 계산할 수 있거나, 또는 결정할 수 있다. 예를 들어, 디스플레이 제어 정보(116)가 5 배의 휘도 증가를 나타내는 값을 포함하는 경우 전자 장치는 이미지(112) 내에서 최대 휘도를 가지는 픽셀에 대하여, SDR에서의 최대 휘도(예, 100 nit)의 5 배의 휘도(예, 500 nit)의 광을 출력하도록, 디스플레이를 제어할 수 있거나, 또는 상기 광을 출력하도록, 중간 값들(X, Y, Z)을 계산할 수 있다. Within the operation (720), the electronic device can apply the luminance values (e.g., linearized G_Y values) of the linearized map information (114) to the luminance values (e.g., linearized Y values) of the linearized image (112) to generate luminance values having an increased bit depth. The luminance values can be combined with the chrominance components (e.g., Cb values and/or Cr values) of the image (112) to calculate intermediate values (X, Y, Z). The electronic device can calculate or determine the intermediate values (X, Y, Z) based on a luminance difference of the display, as recommended by the display control information (116) (e.g., SDR-to-HDR ratio). For example, if the display control information (116) includes a value indicating a 5x brightness increase, the electronic device may control the display to output light at 5x the brightness (e.g., 500 nits) of the maximum brightness in SDR (e.g., 100 nits) for the pixel having the maximum brightness within the image (112), or may calculate intermediate values (X, Y, Z) to output the light.

일 실시예에서, 전자 장치는, 전자 장치, 및/또는 디스플레이의 상태 정보(722)를 이용하여, 디스플레이의 픽셀들을 제어하는데 이용될 중간 값들(X, Y, Z)을 계산할 수 있거나, 또는 결정할 수 있다. 상태 정보(722)는, 디스플레이의 휘도, 디스플레이에서 출력가능한 휘도(또는 밝기 레벨)의 레인지, 배터리(예, 도 2의 배터리(235))의 SOC, 상기 SOC와 관련된 전자 장치의 모드(예, 저전력 모드), 디스플레이의 OPR(on pixel ratio) 중 적어도 하나를 포함할 수 있다. OPR은, 이미지를 표시하기 위하여 턴 온된 픽셀들(또는 흰색과 같이, 최대 밝기를 가지도록 턴 온된 픽셀들)의 개수, 및 디스플레이의 전체 표시 영역의 픽셀들의 개수(또는 턴 오프된 픽셀들의 개수) 사이의 비율일 수 있다. In one embodiment, the electronic device may calculate or determine intermediate values (X, Y, Z) to be used to control pixels of the display using state information (722) of the electronic device and/or the display. The state information (722) may include at least one of a brightness of the display, a range of brightness (or brightness levels) that the display can output, a SOC of a battery (e.g., battery 235 of FIG. 2), a mode of the electronic device related to the SOC (e.g., a low power mode), and an on pixel ratio (OPR) of the display. The OPR may be a ratio between the number of pixels turned on to display an image (or pixels turned on to have maximum brightness, such as white) and the number of pixels in the entire display area of the display (or the number of pixels turned off).

도 7을 참고하면, 동작들(741, 742, 743)에서, 전자 장치(또는 전자 장치의 디스플레이 구동 회로(122))는, 동작(730)에 의해 생성된 색상 값들(R1, G1, B1) 각각에, RGB 색 공간의 원색 성분들 각각에 대응하는 전달 함수들(예, EOTF1, EOTF2, 및/또는 EOTF3)을 적용하여, 디스플레이의 픽셀들(예, 도 2의 디스플레이 패널(124)에 배치된 픽셀들) 중 적어도 하나로 입력될 전압 값들(R1', G1', B1')을 획득할 수 있다. EOTF는, 동작(730)에 의해 생성되고, 전기적인 정보인, 색상 값들(R1, G1, B1) 및 광학적인 밝기를 출력하기 위한 정보(예, 전압 값들(R1', G1', B1')) 사이의 변환 관계를 정의한 함수일 수 있다. 예를 들어, 같은 색상 값들(R1, G1, B1)에 대하여, 디스플레이가 SDR에서 동작할 시 동작들(741, 742, 743)에서 계산된 전압 값들 보다, 디스플레이가 HDR에서 동작할 시 동작들(741, 742, 743)에서 계산된 전압 값들이 더 클 수 있다. 예를 들어, 이미지(112)에서 최대 밝기를 나타내는 픽셀(예, 255의 밝기 값을 가지는 픽셀)에 대응하는 전압 값들(R1', G1', B1')은, 디스플레이가 HDR에서 동작할 시, 상대적으로 큰 전압 값들로 계산될 수 있거나, 또는 결정될 수 있다. Referring to FIG. 7, in operations (741, 742, 743), the electronic device (or the display driving circuit (122) of the electronic device) may apply transfer functions (e.g., EOTF1, EOTF2, and/or EOTF3) corresponding to each of the primary color components of the RGB color space to each of the color values (R1, G1, B1) generated by operation (730), to obtain voltage values (R1', G1', B1') to be input to at least one of the pixels of the display (e.g., the pixels arranged on the display panel (124) of FIG. 2). The EOTF may be a function that defines a conversion relationship between the color values (R1, G1, B1) generated by operation (730) and which are electrical information, and information for outputting optical brightness (e.g., voltage values (R1', G1', B1')). For example, for the same color values (R1, G1, B1), the voltage values calculated in operations (741, 742, 743) when the display operates in HDR may be larger than the voltage values calculated in operations (741, 742, 743) when the display operates in SDR. For example, voltage values (R1', G1', B1') corresponding to a pixel exhibiting maximum brightness in the image (112) (e.g., a pixel having a brightness value of 255) may be calculated or determined as relatively large voltage values when the display operates in HDR.

동작들(741, 742, 743)에서, 전자 장치(예, 도 2의 디스플레이 구동 회로(122))는, 디스플레이의 특성, 및/또는 디스플레이 제어 정보(116)에 기반하는 감마 커브를 적용하여, 전압 값들(R1', G1', B1')을 계산할 수 있거나, 또는 결정할 수 있다. 상기 감마 커브는, HLG(hybrid log gamma) 커브, 및/또는 PQ(perceptual quantization) 커브를 포함할 수 있다. 예를 들어, 전자 장치의 프로세서는, 디스플레이 제어 정보(116)에 의해 나타나는 감마 특성을, 디스플레이 구동 회로로 송신하여, 디스플레이 구동 회로가 상기 감마 특성에 기반하는 전압 값들(R1', G1', B1')을 적어도 하나의 픽셀에 인가하도록, 만들 수 있다. In operations (741, 742, 743), the electronic device (e.g., the display driving circuit (122) of FIG. 2) may calculate or determine the voltage values (R1', G1', B1') by applying a gamma curve based on the characteristics of the display and/or the display control information (116). The gamma curve may include a hybrid log gamma (HLG) curve and/or a perceptual quantization (PQ) curve. For example, the processor of the electronic device may transmit the gamma characteristic indicated by the display control information (116) to the display driving circuit, so that the display driving circuit applies the voltage values (R1', G1', B1') based on the gamma characteristic to at least one pixel.

상술한 바와 같이, 일 실시예에 따른, 전자 장치는 8 비트의 비트 뎁스를 가지는 이미지(112)를 포함하는 파일(110)로부터, 상기 비트 뎁스 보다 큰 비트 뎁스를 가지는 HDR 효과의 이미지를 시각화하기 위한 동작을 수행할 수 있다. 상기 동작은, HDR 효과의 이미지를 합성하거나, 또는 복원하기 위하여 파일(110)에 저장된 메타데이터를 이용하여 수행될 수 있다. 상기 메타데이터가, 상대적으로 적은 사이즈(예, 상대적으로 적은 해상도, 너비, 및/또는 높이를 가지는 맵 정보(114))를 이용하여 생성되기 때문에, 상대적으로 적은 용량을 가지는 파일(110)을 이용하여, 전자 장치는 HDR과 관련된 기능을 실행할 수 있다. As described above, according to one embodiment, the electronic device can perform an operation to visualize an image of an HDR effect having a bit depth greater than the bit depth from a file (110) including an image (112) having a bit depth of 8 bits. The operation can be performed using metadata stored in the file (110) to synthesize or restore an image of the HDR effect. Since the metadata is generated using a relatively small size (e.g., map information (114) having a relatively small resolution, width, and/or height), the electronic device can perform a function related to HDR using a file (110) having a relatively small capacity.

이하에서는, 도 8을 참고하여, 도 7의 동작을 수행하여 HDR 효과를 가지는 이미지를 표시하는 전자 장치의 예시적인 동작이 설명된다. Hereinafter, with reference to FIG. 8, an exemplary operation of an electronic device that performs the operation of FIG. 7 to display an image with an HDR effect is described.

도 8은, HDR 모드에서 이미지(130)를 표시하는 전자 장치(101)의 예시적인 상태들을 도시한다. 도 1 내지 도 2의 전자 장치(101), 및/또는 도 2의 프로세서(210)는, 도 8을 참고하여 설명되는 전자 장치(101)의 동작을 수행할 수 있다. 도 8을 참고하면, 도 1의 파일(110)을 이용하여, HDR 효과를 가지는 이미지(130)를 표시하는 전자 장치(101)의 예시적인 상태(602)가 도시된다. 도 8의 상태(602)는, 도 6의 상태(602)에 대응할 수 있다. 상태(602) 내에서, 전자 장치는 상기 파일(110)에 저장된 SDR의 이미지에 맵 정보(예, 도 1의 맵 정보(114))를 적용하여, HDR 효과를 위한 이미지(130)를 생성할 수 있다. 상태(602) 내에서, 전자 장치(101)는 상기 파일(110) 내 디스플레이 제어 정보(예, 도 1의 디스플레이 제어 정보(116))에 기반하여 디스플레이의 밝기 레벨을, SDR의 제1 밝기 레벨보다 높은 제2 밝기 레벨로 설정할 수 있고, 제2 밝기 레벨을 이용하여 이미지(130)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 SDR의 다이나믹 레인지보다 넓은 다이나믹 레인지를 가지는 이미지가 디스플레이 상에서 보여지도록, 상기 제2 밝기 레벨로 설정된 이미지(130)를 표시할 수 있다. FIG. 8 illustrates exemplary states of an electronic device (101) displaying an image (130) in HDR mode. The electronic device (101) of FIGS. 1 to 2, and/or the processor (210) of FIG. 2, may perform the operation of the electronic device (101) described with reference to FIG. 8. Referring to FIG. 8, an exemplary state (602) of the electronic device (101) displaying an image (130) with HDR effect using the file (110) of FIG. 1 is illustrated. The state (602) of FIG. 8 may correspond to the state (602) of FIG. 6. Within the state (602), the electronic device may apply map information (e.g., map information (114) of FIG. 1) to an image of SDR stored in the file (110) to generate an image (130) for HDR effect. Within the state (602), the electronic device (101) can set the brightness level of the display to a second brightness level higher than the first brightness level of the SDR based on the display control information (e.g., the display control information (116) of FIG. 1) in the file (110), and display the image (130) using the second brightness level. For example, the electronic device (101) can display the image (130) set to the second brightness level so that an image having a wider dynamic range than the dynamic range of the SDR is shown on the display.

도 8을 참고하면, 전자 장치(101)는, HDR 효과를 가지는 이미지(130) 대신에, 이미지(130)를 표시하기 위하여 이용된 파일(예, 도 1의 파일(110))의 SDR을 가지는 이미지(112)를 표시하기 위한 입력을 수신할 수 있다. 상기 입력은, 상태(602) 내에서, 이미지(130)가 표시된 디스플레이(120)의 부분 상에서의 터치 입력(예, 약 1.5 초를 초과하여 접촉된 손가락에 기반하는 롱 터치 제스쳐)을 포함할 수 있다. 상기 입력은, 이미지(130) 내에서 피사체와 관련된 부분(예, 도 8의 예시적인 이미지(130) 내에서, 나무, 및/또는 태양과 같이, 이미지(130)로부터 분리가능한 피사체를 표현하는 부분)을 분할하기 위한 입력을 포함할 수 있다. 도 8의 상태(602) 내에서, 전자 장치(101)는, 상기 입력에 응답하여, 상태(803)로 스위칭할 수 있다. Referring to FIG. 8, the electronic device (101) may receive an input to display an image (112) having an SDR of a file (e.g., file (110) of FIG. 1) used to display the image (130) instead of an image (130) having an HDR effect. The input may include a touch input (e.g., a long touch gesture based on a finger in contact for more than about 1.5 seconds) on a portion of the display (120) on which the image (130) is displayed, within the state (602). The input may include an input to segment a portion associated with a subject within the image (130) (e.g., a portion representing a separable subject from the image (130), such as a tree and/or the sun, within the exemplary image (130) of FIG. 8). Within state (602) of FIG. 8, the electronic device (101) may switch to state (803) in response to the input.

도 8의 예시적인 상태(803) 내에서, 전자 장치(101)는, 디스플레이(120) 상에, SDR의 다이나믹 레인지를 가지는 이미지(112)를 표시할 수 있다. 이미지(112)는, 상태(602) 내에서 이미지(130)가 표시되었던 디스플레이(120)의 위치 상에 표시될 수 있다. 이미지(112)는, 터치 입력을 수신한 디스플레이(120)의 부분 상에 표시될 수 있다. SDR을 가지는 이미지(112)를 표시하는 상태(803) 내에서, 전자 장치(101)는, 디스플레이(120) 상에 SDR의 이미지(112)를 표시함을 나타내는 시각적 객체(예, "HDR OFF"와 같은 지정된 텍스트를 포함하는 시각적 객체(831))를, 디스플레이(120) 상에 표시할 수 있다. SDR을 가지는 이미지(112)를 표시하는 상태(803) 내에서, 디스플레이의 픽셀들의 최소 휘도(l7), 및 최대 휘도(l9) 사이의 휘도 범위는, SDR의 다이나믹 레인지와 관련될 수 있다. Within the exemplary state (803) of FIG. 8, the electronic device (101) may display an image (112) having a dynamic range of SDR on the display (120). The image (112) may be displayed on a location of the display (120) where the image (130) was displayed within the state (602). The image (112) may be displayed on a portion of the display (120) that received the touch input. Within the state (803) of displaying the image (112) having SDR, the electronic device (101) may display a visual object (e.g., a visual object (831) including designated text such as “HDR OFF”) indicating that the image (112) of SDR is displayed on the display (120). In a state (803) of displaying an image (112) having SDR, the luminance range between the minimum luminance (l7) and the maximum luminance (l9) of the pixels of the display may be related to the dynamic range of the SDR.

도 8의 SDR을 가지는 이미지(112)를 표시하는 상태(803)는, 전자 장치(101)의 디스플레이(120) 상에서의 터치 입력에 의해 유지될 수 있다. 예를 들어, 상태(602) 내에서 이미지(130)가 표시된 디스플레이(120)의 부분 상의 롱 터치 입력을 탐지한 이후, 상기 롱 터치 입력이 유지되는 동안, 전자 장치(101)는 상태(803)로 진입하여 SDR을 가지는 이미지(112)를 표시할 수 있다. 상태(803) 내에서, 롱 터치 입력이 릴리즈되는 경우, 전자 장치(101)는 다시 상태(602)로 스위칭하여, HDR 효과를 가지는 이미지(130)를 다시 표시할 수 있다. The state (803) of displaying the image (112) having the SDR of Fig. 8 can be maintained by a touch input on the display (120) of the electronic device (101). For example, after detecting a long touch input on a portion of the display (120) on which the image (130) is displayed in the state (602), while the long touch input is maintained, the electronic device (101) can enter the state (803) and display the image (112) having the SDR. In the state (803), when the long touch input is released, the electronic device (101) can switch back to the state (602) and display the image (130) having the HDR effect again.

도 8을 참고하면, HDR효과를 가지는 이미지(130)를 표시하는 상태(602), 및 SDR을 가지는 이미지(112)를 표시하는 상태(803) 각각에서 이용되는 색 공간이 도시된다. SDR을 가지는 이미지(112)를 표시하는 상태(803) 내에서, 전자 장치(101)는, sRGB의 색 공간(811)에 기반하여 디스플레이(120)를 제어할 수 있다. HDR 효과를 가지는 이미지(130)를 표시하는 상태(602) 내에서, 전자 장치(101)는, sRGB의 색 공간(811) 보다 넓은 색 공간(예, DCI-P3에 기반하는 색 공간(812), 및/또는 상기 색 공간(812) 보다 넓은 색 공간(813))을 이용하여 이미지(130)를 표시할 수 있다. Referring to FIG. 8, color spaces used in each of a state (602) of displaying an image (130) having an HDR effect and a state (803) of displaying an image (112) having an SDR are illustrated. In the state (803) of displaying an image (112) having an SDR, the electronic device (101) can control the display (120) based on a color space (811) of sRGB. In the state (602) of displaying an image (130) having an HDR effect, the electronic device (101) can display the image (130) using a color space wider than the color space (811) of sRGB (e.g., a color space (812) based on DCI-P3 and/or a color space (813) wider than the color space (812) above).

상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는, SDR의 이미지들(예, 도 4의 복수의 이미지들(411, 412 413))을 이용하여, HDR 효과의 이미지를 합성하는데 이용되는 메타데이터(예, 도 1의 맵 정보(114), 및/또는 디스플레이 제어 정보(116))를 포함하는 파일(예, 도 1의 파일(110))을 생성할 수 있거나, 또는 저장할 수 있다. 전자 장치(101)는 상기 파일로부터, HDR 효과의 이미지(예, 도 1의 이미지(130))를 복원할 수 있거나, 또는 합성할 수 있다. 전자 장치(101)는 상기 HDR 효과의 이미지를 표시할 시에, 상기 파일 내 메타데이터를 이용하여 디스플레이(예, 도 1, 및/또는 도 2의 디스플레이(120))의 픽셀들의 휘도, 및/또는 밝기 레벨을 증가하여, 상기 이미지의 적어도 일부분을 다른 부분보다 시각적으로 강조할 수 있다. As described above, according to one embodiment, the electronic device (101) may generate or store a file (e.g., file (110) of FIG. 1) including metadata (e.g., map information (114) of FIG. 1 and/or display control information (116)) used to synthesize an image of an HDR effect using images of SDR (e.g., multiple images (411, 412, 413) of FIG. 4). The electronic device (101) may restore or synthesize an image of an HDR effect (e.g., image (130) of FIG. 1) from the file. When displaying the image of the HDR effect, the electronic device (101) may use the metadata in the file to increase luminance and/or brightness levels of pixels of the display (e.g., display (120) of FIG. 1 and/or FIG. 2) to visually emphasize at least a portion of the image more than other portions.

도 9는, 다양한 실시예들에 따른, 네트워크 환경(900) 내의 전자 장치(901)의 블록도이다. 도 9를 참고하면, 네트워크 환경(900)에서 전자 장치(901)는 제 1 네트워크(998)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(902)와 통신하거나, 또는 제 2 네트워크(999)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(904) 또는 서버(908) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(901)는 서버(908)를 통하여 전자 장치(904)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(901)는 프로세서(920), 메모리(930), 입력 모듈(950), 음향 출력 모듈(955), 디스플레이 모듈(960), 오디오 모듈(970), 센서 모듈(976), 인터페이스(977), 연결 단자(978), 햅틱 모듈(979), 카메라 모듈(980), 전력 관리 모듈(988), 배터리(989), 통신 모듈(990), 가입자 식별 모듈(996), 또는 안테나 모듈(997)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(901)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(978))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(976), 카메라 모듈(980), 또는 안테나 모듈(997))은 하나의 구성요소(예: 디스플레이 모듈(960))로 통합될 수 있다.FIG. 9 is a block diagram of an electronic device (901) in a network environment (900) according to various embodiments. Referring to FIG. 9, in the network environment (900), the electronic device (901) may communicate with the electronic device (902) via a first network (998) (e.g., a short-range wireless communication network) or may communicate with at least one of the electronic device (904) or the server (908) via a second network (999) (e.g., a long-range wireless communication network). According to one embodiment, the electronic device (901) may communicate with the electronic device (904) via the server (908). According to one embodiment, the electronic device (901) may include a processor (920), a memory (930), an input module (950), an audio output module (955), a display module (960), an audio module (970), a sensor module (976), an interface (977), a connection terminal (978), a haptic module (979), a camera module (980), a power management module (988), a battery (989), a communication module (990), a subscriber identification module (996), or an antenna module (997). In some embodiments, the electronic device (901) may omit at least one of these components (e.g., the connection terminal (978)), or may have one or more other components added. In some embodiments, some of these components (e.g., the sensor module (976), the camera module (980), or the antenna module (997)) may be integrated into one component (e.g., the display module (960)).

프로세서(920)는, 예를 들면, 소프트웨어(예: 프로그램(940))를 실행하여 프로세서(920)에 연결된 전자 장치(901)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(920)는 다른 구성요소(예: 센서 모듈(976) 또는 통신 모듈(990))로부터 수신된 명령 또는 데이터를 휘발성 메모리(932)에 저장하고, 휘발성 메모리(932)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(934)에 저장할 수 있다. 일실시예에 따르면, 프로세서(920)는 메인 프로세서(921)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(923)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(901)가 메인 프로세서(921) 및 보조 프로세서(923)를 포함하는 경우, 보조 프로세서(923)는 메인 프로세서(921)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(923)는 메인 프로세서(921)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor (920) may control at least one other component (e.g., a hardware or software component) of the electronic device (901) connected to the processor (920) by executing, for example, software (e.g., a program (940)), and may perform various data processing or calculations. According to one embodiment, as at least a part of the data processing or calculations, the processor (920) may store a command or data received from another component (e.g., a sensor module (976) or a communication module (990)) in the volatile memory (932), process the command or data stored in the volatile memory (932), and store result data in the nonvolatile memory (934). According to one embodiment, the processor (920) may include a main processor (921) (e.g., a central processing unit or an application processor) or an auxiliary processor (923) (e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together with the main processor (921). For example, when the electronic device (901) includes the main processor (921) and the auxiliary processor (923), the auxiliary processor (923) may be configured to use less power than the main processor (921) or to be specialized for a given function. The auxiliary processor (923) may be implemented separately from the main processor (921) or as a part thereof.

보조 프로세서(923)는, 예를 들면, 메인 프로세서(921)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(921)를 대신하여, 또는 메인 프로세서(921)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(921)와 함께, 전자 장치(901)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(960), 센서 모듈(976), 또는 통신 모듈(990))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(923)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(980) 또는 통신 모듈(990))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(923)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(901) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(908))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The auxiliary processor (923) may control at least a portion of functions or states associated with at least one of the components of the electronic device (901) (e.g., the display module (960), the sensor module (976), or the communication module (990)), for example, on behalf of the main processor (921) while the main processor (921) is in an inactive (e.g., sleep) state, or together with the main processor (921) while the main processor (921) is in an active (e.g., application execution) state. In one embodiment, the auxiliary processor (923) (e.g., an image signal processor or a communication processor) may be implemented as a part of another functionally related component (e.g., a camera module (980) or a communication module (990)). In one embodiment, the auxiliary processor (923) (e.g., a neural network processing unit) may include a hardware structure specialized for processing artificial intelligence models. The artificial intelligence models may be generated through machine learning. Such learning may be performed, for example, in the electronic device (901) itself on which the artificial intelligence model is executed, or may be performed through a separate server (e.g., server (908)). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above. The artificial intelligence model may include a plurality of artificial neural network layers. The artificial neural network may be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above. In addition to the hardware structure, the artificial intelligence model may additionally or alternatively include a software structure.

메모리(930)는, 전자 장치(901)의 적어도 하나의 구성요소(예: 프로세서(920) 또는 센서 모듈(976))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(940)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(930)는, 휘발성 메모리(932) 또는 비휘발성 메모리(934)를 포함할 수 있다. The memory (930) can store various data used by at least one component (e.g., the processor (920) or the sensor module (976)) of the electronic device (901). The data can include, for example, software (e.g., the program (940)) and input data or output data for commands related thereto. The memory (930) can include a volatile memory (932) or a nonvolatile memory (934).

프로그램(940)은 메모리(930)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(942), 미들 웨어(944) 또는 어플리케이션(946)을 포함할 수 있다. The program (940) may be stored as software in memory (930) and may include, for example, an operating system (942), middleware (944), or an application (946).

입력 모듈(950)은, 전자 장치(901)의 구성요소(예: 프로세서(920))에 사용될 명령 또는 데이터를 전자 장치(901)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(950)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module (950) can receive commands or data to be used for components of the electronic device (901) (e.g., processor (920)) from an external source (e.g., a user) of the electronic device (901). The input module (950) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).

음향 출력 모듈(955)은 음향 신호를 전자 장치(901)의 외부로 출력할 수 있다. 음향 출력 모듈(955)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The audio output module (955) can output an audio signal to the outside of the electronic device (901). The audio output module (955) can include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive an incoming call. According to one embodiment, the receiver can be implemented separately from the speaker or as a part thereof.

디스플레이 모듈(960)은 전자 장치(901)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(960)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(960)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module (960) can visually provide information to an external party (e.g., a user) of the electronic device (901). The display module (960) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. According to one embodiment, the display module (960) can include a touch sensor configured to detect a touch, or a pressure sensor configured to measure a strength of a force generated by the touch.

오디오 모듈(970)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(970)은, 입력 모듈(950)을 통해 소리를 획득하거나, 음향 출력 모듈(955), 또는 전자 장치(901)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(902))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module (970) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (970) can obtain sound through the input module (950), or output sound through an audio output module (955), or an external electronic device (e.g., an electronic device (902)) (e.g., a speaker or a headphone) directly or wirelessly connected to the electronic device (901).

센서 모듈(976)은 전자 장치(901)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(976)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module (976) can detect an operating state (e.g., power or temperature) of the electronic device (901) or an external environmental state (e.g., user state) and generate an electrical signal or data value corresponding to the detected state. According to one embodiment, the sensor module (976) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.

인터페이스(977)는 전자 장치(901)가 외부 전자 장치(예: 전자 장치(902))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(977)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface (977) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (901) with an external electronic device (e.g., the electronic device (902)). In one embodiment, the interface (977) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(978)는, 그를 통해서 전자 장치(901)가 외부 전자 장치(예: 전자 장치(902))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(978)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal (978) may include a connector through which the electronic device (901) may be physically connected to an external electronic device (e.g., the electronic device (902)). According to one embodiment, the connection terminal (978) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).

햅틱 모듈(979)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(979)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module (979) can convert an electrical signal into a mechanical stimulus (e.g., vibration or movement) or an electrical stimulus that a user can perceive through a tactile or kinesthetic sense. According to one embodiment, the haptic module (979) can include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(980)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(980)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module (980) can capture still images and moving images. According to one embodiment, the camera module (980) can include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(988)은 전자 장치(901)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(988)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module (988) can manage power supplied to the electronic device (901). According to one embodiment, the power management module (988) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).

배터리(989)는 전자 장치(901)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(989)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery (989) can power at least one component of the electronic device (901). In one embodiment, the battery (989) can include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(990)은 전자 장치(901)와 외부 전자 장치(예: 전자 장치(902), 전자 장치(904), 또는 서버(908)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(990)은 프로세서(920)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(990)은 무선 통신 모듈(992)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(994)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(998)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(999)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(904)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(992)은 가입자 식별 모듈(996)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(998) 또는 제 2 네트워크(999)와 같은 통신 네트워크 내에서 전자 장치(901)를 확인 또는 인증할 수 있다. The communication module (990) may support establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (901) and an external electronic device (e.g., the electronic device (902), the electronic device (904), or the server (908)), and performance of communication through the established communication channel. The communication module (990) may operate independently from the processor (920) (e.g., the application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module (990) may include a wireless communication module (992) (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (994) (e.g., a local area network (LAN) communication module or a power line communication module). Any of these communication modules may communicate with an external electronic device (904) via a first network (998) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (999) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)). These various types of communication modules may be integrated into a single component (e.g., a single chip) or implemented as multiple separate components (e.g., multiple chips). The wireless communication module (992) may use subscriber information (e.g., an international mobile subscriber identity (IMSI)) stored in the subscriber identification module (996) to identify or authenticate the electronic device (901) within a communication network such as the first network (998) or the second network (999).

무선 통신 모듈(992)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(992)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(992)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(992)은 전자 장치(901), 외부 전자 장치(예: 전자 장치(904)) 또는 네트워크 시스템(예: 제 2 네트워크(999))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(992)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module (992) can support a 5G network after a 4G network and next-generation communication technology, for example, NR access technology (new radio access technology). The NR access technology can support high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), terminal power minimization and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency communications)). The wireless communication module (992) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate. The wireless communication module (992) may support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module (992) may support various requirements specified in the electronic device (901), an external electronic device (e.g., the electronic device (904)), or a network system (e.g., the second network (999)). According to one embodiment, the wireless communication module (992) may support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 164 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip) for URLLC realization.

안테나 모듈(997)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(997)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(997)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(998) 또는 제 2 네트워크(999)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(990)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(990)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(997)의 일부로 형성될 수 있다. The antenna module (997) can transmit or receive signals or power to or from the outside (e.g., an external electronic device). According to one embodiment, the antenna module (997) can include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB). According to one embodiment, the antenna module (997) can include a plurality of antennas (e.g., an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network (998) or the second network (999), can be selected from the plurality of antennas by, for example, the communication module (990). A signal or power can be transmitted or received between the communication module (990) and the external electronic device through the selected at least one antenna. According to some embodiments, in addition to the radiator, another component (e.g., a radio frequency integrated circuit (RFIC)) can be additionally formed as a part of the antenna module (997).

다양한 실시예에 따르면, 안테나 모듈(997)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module (997) can form a mmWave antenna module. According to one embodiment, the mmWave antenna module can include a printed circuit board, an RFIC positioned on or adjacent a first side (e.g., a bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., a mmWave band), and a plurality of antennas (e.g., an array antenna) positioned on or adjacent a second side (e.g., a top side or a side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the above components may be interconnected and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)).

일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(999)에 연결된 서버(908)를 통해서 전자 장치(901)와 외부의 전자 장치(904)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(902, 또는 704) 각각은 전자 장치(901)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(901)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(902, 704, 또는 708) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(901)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(901)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(901)로 전달할 수 있다. 전자 장치(901)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(901)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 일 실시예에 있어서, 외부의 전자 장치(904)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(908)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(904) 또는 서버(908)는 제 2 네트워크(999) 내에 포함될 수 있다. 전자 장치(901)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. In one embodiment, commands or data may be transmitted or received between the electronic device (901) and an external electronic device (904) via a server (908) connected to a second network (999). Each of the external electronic devices (902, or 704) may be the same or a different type of device as the electronic device (901). In one embodiment, all or part of the operations executed in the electronic device (901) may be executed in one or more of the external electronic devices (902, 704, or 708). For example, when the electronic device (901) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (901) may, instead of or in addition to executing the function or service itself, request one or more external electronic devices to perform at least a part of the function or service. One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (901). The electronic device (901) may process the result as it is or additionally and provide it as at least a part of a response to the request. For this purpose, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The electronic device (901) may provide an ultra-low latency service by using, for example, distributed computing or mobile edge computing. In one embodiment, the external electronic device (904) may include an IoT (Internet of Things) device. The server (908) may be an intelligent server using machine learning and/or a neural network. According to one embodiment, the external electronic device (904) or the server (908) may be included in the second network (999). The electronic device (901) can be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.

도 10는, 다양한 실시예들에 따른, 카메라 모듈(980)을 예시하는 블럭도(1000)이다. 도 10를 참조하면, 카메라 모듈(980)은 렌즈 어셈블리(1010), 플래쉬(1020), 이미지 센서(1030), 이미지 스태빌라이저(1040), 메모리(1050)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(1060)를 포함할 수 있다. 렌즈 어셈블리(1010)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(1010)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일실시예에 따르면, 카메라 모듈(980)은 복수의 렌즈 어셈블리(1010)들을 포함할 수 있다. 이런 경우, 카메라 모듈(980)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(1010)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(1010)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다.FIG. 10 is a block diagram (1000) illustrating a camera module (980) according to various embodiments. Referring to FIG. 10, the camera module (980) may include a lens assembly (1010), a flash (1020), an image sensor (1030), an image stabilizer (1040), a memory (1050) (e.g., a buffer memory), or an image signal processor (1060). The lens assembly (1010) may collect light emitted from a subject that is a target of an image capture. The lens assembly (1010) may include one or more lenses. According to one embodiment, the camera module (980) may include a plurality of lens assemblies (1010). In this case, the camera module (980) may form, for example, a dual camera, a 360-degree camera, or a spherical camera. Some of the plurality of lens assemblies (1010) may have the same lens properties (e.g., angle of view, focal length, autofocus, f number, or optical zoom), or at least one lens assembly may have one or more lens properties that are different from the lens properties of the other lens assemblies. A lens assembly (1010) may include, for example, a wide-angle lens or a telephoto lens.

플래쉬(1020)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일실시예에 따르면, 플래쉬(1020)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. 이미지 센서(1030)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(1010) 를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일실시예에 따르면, 이미지 센서(1030)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(1030)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.The flash (1020) can emit light used to enhance light emitted or reflected from a subject. According to one embodiment, the flash (1020) can include one or more light-emitting diodes (e.g., red-green-blue (RGB) LEDs, white LEDs, infrared LEDs, or ultraviolet LEDs), or a xenon lamp. The image sensor (1030) can acquire an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the lens assembly (1010) into an electrical signal. According to one embodiment, the image sensor (1030) can include one image sensor selected from among image sensors having different properties, such as an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor, a plurality of image sensors having the same property, or a plurality of image sensors having different properties. Each image sensor included in the image sensor (1030) may be implemented using, for example, a CCD (charged coupled device) sensor or a CMOS (complementary metal oxide semiconductor) sensor.

이미지 스태빌라이저(1040)는 카메라 모듈(980) 또는 이를 포함하는 전자 장치(901)의 움직임에 반응하여, 렌즈 어셈블리(1010)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(1030)를 특정한 방향으로 움직이거나 이미지 센서(1030)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일실시예에 따르면, 이미지 스태빌라이저(1040)는, 일실시예에 따르면, 이미지 스태빌라이저(1040)은 카메라 모듈(980)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(980) 또는 전자 장치(901)의 그런 움직임을 감지할 수 있다. 일실시예에 따르면, 이미지 스태빌라이저(1040)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. 메모리(1050)는 이미지 센서(1030)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(1050)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 디스플레이 모듈(960)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(1050)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(1060)에 의해 획득되어 처리될 수 있다. 일실시예에 따르면, 메모리(1050)는 메모리(930)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The image stabilizer (1040) can move at least one lens or image sensor (1030) included in the lens assembly (1010) in a specific direction or control the operating characteristics of the image sensor (1030) (e.g., adjusting read-out timing, etc.) in response to movement of the camera module (980) or the electronic device (901) including the same. This allows compensating for at least some of the negative effects of the movement on the captured image. In one embodiment, the image stabilizer (1040) can detect such movement of the camera module (980) or the electronic device (901) by using a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module (980). In one embodiment, the image stabilizer (1040) can be implemented as, for example, an optical image stabilizer. The memory (1050) can temporarily store at least a portion of an image acquired through the image sensor (1030) for the next image processing task. For example, when image acquisition is delayed due to a shutter, or when a plurality of images are acquired at high speed, the acquired original image (e.g., a Bayer-patterned image or a high-resolution image) is stored in the memory (1050), and a corresponding copy image (e.g., a low-resolution image) can be previewed through the display module (960). Thereafter, when a specified condition is satisfied (e.g., a user input or a system command), at least a portion of the original image stored in the memory (1050) can be acquired and processed by, for example, the image signal processor (1060). According to one embodiment, the memory (1050) can be configured as at least a portion of the memory (930), or as a separate memory that operates independently therefrom.

이미지 시그널 프로세서(1060)는 이미지 센서(1030)을 통하여 획득된 이미지 또는 메모리(1050)에 저장된 이미지에 대하여 하나 이상의 이미지 처리들을 수행할 수 있다. 상기 하나 이상의 이미지 처리들은, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(1060)는 카메라 모듈(980)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(1030))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(1060)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(1050)에 다시 저장 되거나 카메라 모듈(980)의 외부 구성 요소(예: 메모리(930), 디스플레이 모듈(960), 전자 장치(902), 전자 장치(904), 또는 서버(908))로 제공될 수 있다. 일실시예에 따르면, 이미지 시그널 프로세서(1060)는 프로세서(920)의 적어도 일부로 구성되거나, 프로세서(920)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(1060)이 프로세서(920)과 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(1060)에 의해 처리된 적어도 하나의 이미지는 프로세서(920)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 디스플레이 모듈(960)를 통해 표시될 수 있다.The image signal processor (1060) can perform one or more image processing operations on an image acquired through an image sensor (1030) or an image stored in a memory (1050). The one or more image processing operations may include, for example, depth map generation, 3D modeling, panorama generation, feature point extraction, image synthesis, or image compensation (e.g., noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening, or softening). Additionally or alternatively, the image signal processor (1060) may perform control (e.g., exposure time control, or read-out timing control, etc.) for at least one of the components included in the camera module (980) (e.g., the image sensor (1030)). The image processed by the image signal processor (1060) may be stored back in the memory (1050) for further processing or provided to an external component of the camera module (980) (e.g., the memory (930), the display module (960), the electronic device (902), the electronic device (904), or the server (908)). According to one embodiment, the image signal processor (1060) may It may be configured as at least a part of the processor (920), or may be configured as a separate processor that operates independently of the processor (920). When the image signal processor (1060) is configured as a separate processor from the processor (920), at least one image processed by the image signal processor (1060) may be displayed through the display module (960) as is or after undergoing additional image processing by the processor (920).

일실시예에 따르면, 전자 장치(901)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(980)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(980)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(980)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.According to one embodiment, the electronic device (901) may include a plurality of camera modules (980), each having different properties or functions. In this case, for example, at least one of the plurality of camera modules (980) may be a wide-angle camera and at least another may be a telephoto camera. Similarly, at least one of the plurality of camera modules (980) may be a front camera and at least another may be a rear camera.

도 11은 다양한 실시예들에 따른, 디스플레이 모듈(960)의 블록도(1100)이다. 도 11을 참조하면, 디스플레이 모듈(960)은 디스플레이(1110), 및 이를 제어하기 위한 디스플레이 드라이버 IC(DDI)(1130)를 포함할 수 있다. DDI(1130)는 인터페이스 모듈(1131), 메모리(1133)(예: 버퍼 메모리), 이미지 처리 모듈(1135), 또는 맵핑 모듈(1137)을 포함할 수 있다. DDI(1130)은, 예를 들면, 영상 데이터, 또는 상기 영상 데이터를 제어하기 위한 명령에 대응하는 영상 제어 신호를 포함하는 영상 정보를 인터페이스 모듈(1131)을 통해 전자 장치(901)의 다른 구성요소로부터 수신할 수 있다. 예를 들면, 일실시예에 따르면, 영상 정보는 프로세서(920)(예: 메인 프로세서(921)(예: 어플리케이션 프로세서) 또는 메인 프로세서(921)의 기능과 독립적으로 운영되는 보조 프로세서(923)(예: 그래픽 처리 장치)로부터 수신될 수 있다. DDI(1130)는 터치 회로(1150) 또는 센서 모듈(976) 등과 상기 인터페이스 모듈(1131)을 통하여 커뮤니케이션할 수 있다. 또한, DDI(1130)는 상기 수신된 영상 정보 중 적어도 일부를 메모리(1133)에, 예를 들면, 프레임 단위로 저장할 수 있다. 이미지 처리 모듈(1135)은, 예를 들면, 상기 영상 데이터의 적어도 일부를 상기 영상 데이터의 특성 또는 디스플레이(1110)의 특성에 적어도 기반하여 전처리 또는 후처리(예: 해상도, 밝기, 또는 크기 조정)를 수행할 수 있다. 맵핑 모듈(1137)은 이미지 처리 모듈(1135)를 통해 전처리 또는 후처리된 상기 영상 데이터에 대응하는 전압 값 또는 전류 값을 생성할 수 있다. 일실시예에 따르면, 전압 값 또는 전류 값의 생성은 예를 들면, 디스플레이(1110)의 픽셀들의 속성(예: 픽셀들의 배열(RGB stripe 또는 pentile 구조), 또는 서브 픽셀들 각각의 크기)에 적어도 일부 기반하여 수행될 수 있다. 디스플레이(1110)의 적어도 일부 픽셀들은, 예를 들면, 상기 전압 값 또는 전류 값에 적어도 일부 기반하여 구동됨으로써 상기 영상 데이터에 대응하는 시각적 정보(예: 텍스트, 이미지, 또는 아이콘)가 디스플레이(1110)를 통해 표시될 수 있다.FIG. 11 is a block diagram (1100) of a display module (960) according to various embodiments. Referring to FIG. 11, the display module (960) may include a display (1110) and a display driver IC (DDI) (1130) for controlling the display (1110). The DDI (1130) may include an interface module (1131), a memory (1133) (e.g., a buffer memory), an image processing module (1135), or a mapping module (1137). The DDI (1130) may receive image information including, for example, image data or an image control signal corresponding to a command for controlling the image data, from another component of the electronic device (901) through the interface module (1131). For example, according to one embodiment, image information may be received from a processor (920) (e.g., a main processor (921) (e.g., an application processor) or an auxiliary processor (923) (e.g., a graphic processing unit) that operates independently of the function of the main processor (921). The DDI (1130) may communicate with a touch circuit (1150) or a sensor module (976) through the interface module (1131). In addition, the DDI (1130) may store at least some of the received image information in the memory (1133), for example, in units of frames. The image processing module (1135) may perform preprocessing or postprocessing (e.g., resolution, brightness, or size adjustment) on at least some of the image data based on at least the characteristics of the image data or the characteristics of the display (1110), for example. The mapping module (1137) may generate a voltage value or a current value corresponding to the image data preprocessed or postprocessed through the image processing module (1135). There is. According to one embodiment, the generation of the voltage value or current value may be performed at least in part based on, for example, properties of pixels of the display (1110) (e.g., arrangement of pixels (RGB stripe or pentile structure), or size of each sub-pixel). At least some pixels of the display (1110) may be driven at least in part based on, for example, the voltage value or current value, so that visual information (e.g., text, image, or icon) corresponding to the image data may be displayed through the display (1110).

일실시예에 따르면, 디스플레이 모듈(960)은 터치 회로(1150)를 더 포함할 수 있다. 터치 회로(1150)는 터치 센서(1151) 및 이를 제어하기 위한 터치 센서 IC(1153)를 포함할 수 있다. 터치 센서 IC(1153)는, 예를 들면, 디스플레이(1110)의 특정 위치에 대한 터치 입력 또는 호버링 입력을 감지하기 위해 터치 센서(1151)를 제어할 수 있다. 예를 들면, 터치 센서 IC(1153)는 디스플레이(1110)의 특정 위치에 대한 신호(예: 전압, 광량, 저항, 또는 전하량)의 변화를 측정함으로써 터치 입력 또는 호버링 입력을 감지할 수 있다. 터치 센서 IC(1153)는 감지된 터치 입력 또는 호버링 입력에 관한 정보(예: 위치, 면적, 압력, 또는 시간)를 프로세서(920)에 제공할 수 있다. 일실시예에 따르면, 터치 회로(1150)의 적어도 일부(예: 터치 센서 IC(1153))는 디스플레이 드라이버 IC(1130), 또는 디스플레이(1110)의 일부로, 또는 디스플레이 모듈(960)의 외부에 배치된 다른 구성요소(예: 보조 프로세서(923))의 일부로 포함될 수 있다.According to one embodiment, the display module (960) may further include a touch circuit (1150). The touch circuit (1150) may include a touch sensor (1151) and a touch sensor IC (1153) for controlling the same. The touch sensor IC (1153) may control the touch sensor (1151) to detect, for example, a touch input or a hovering input for a specific location of the display (1110). For example, the touch sensor IC (1153) may detect the touch input or the hovering input by measuring a change in a signal (e.g., voltage, light amount, resistance, or charge amount) for a specific location of the display (1110). The touch sensor IC (1153) may provide information (e.g., location, area, pressure, or time) about the detected touch input or hovering input to the processor (920). According to one embodiment, at least a portion of the touch circuit (1150) (e.g., the touch sensor IC (1153)) may be included as part of the display driver IC (1130), or as part of the display (1110), or as part of another component (e.g., the auxiliary processor (923)) positioned external to the display module (960).

일실시예에 따르면, 디스플레이 모듈(960)은 센서 모듈(976)의 적어도 하나의 센서(예: 지문 센서, 홍채 센서, 압력 센서 또는 조도 센서), 또는 이에 대한 제어 회로를 더 포함할 수 있다. 이 경우, 상기 적어도 하나의 센서 또는 이에 대한 제어 회로는 디스플레이 모듈(960)의 일부(예: 디스플레이(1110) 또는 DDI(1130)) 또는 터치 회로(1150)의 일부에 임베디드될 수 있다. 예를 들면, 디스플레이 모듈(960)에 임베디드된 센서 모듈(976)이 생체 센서(예: 지문 센서)를 포함할 경우, 상기 생체 센서는 디스플레이(1110)의 일부 영역을 통해 터치 입력과 연관된 생체 정보(예: 지문 이미지)를 획득할 수 있다. 다른 예를 들면, 디스플레이 모듈(960)에 임베디드된 센서 모듈(976)이 압력 센서를 포함할 경우, 상기 압력 센서는 디스플레이(1110)의 일부 또는 전체 영역을 통해 터치 입력과 연관된 압력 정보를 획득할 수 있다. 일실시예에 따르면, 터치 센서(1151) 또는 센서 모듈(976)은 디스플레이(1110)의 픽셀 레이어의 픽셀들 사이에, 또는 상기 픽셀 레이어의 위에 또는 아래에 배치될 수 있다.According to one embodiment, the display module (960) may further include at least one sensor (e.g., a fingerprint sensor, an iris sensor, a pressure sensor, or an illuminance sensor) of the sensor module (976), or a control circuit therefor. In this case, the at least one sensor or the control circuit therefor may be embedded in a part of the display module (960) (e.g., the display (1110) or the DDI (1130)) or a part of the touch circuit (1150). For example, when the sensor module (976) embedded in the display module (960) includes a biometric sensor (e.g., a fingerprint sensor), the biometric sensor may obtain biometric information (e.g., a fingerprint image) associated with a touch input through a part of the display (1110). For another example, when the sensor module (976) embedded in the display module (960) includes a pressure sensor, the pressure sensor may obtain pressure information associated with a touch input through a part or the entire area of the display (1110). According to one embodiment, the touch sensor (1151) or the sensor module (976) may be disposed between pixels of a pixel layer of the display (1110), or above or below the pixel layer.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic devices according to various embodiments disclosed in this document may be devices of various forms. The electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliance devices. The electronic devices according to embodiments of this document are not limited to the above-described devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.It should be understood that the various embodiments of this document and the terminology used herein are not intended to limit the technical features described in this document to specific embodiments, but include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly dictates otherwise. In this document, each of the phrases "A or B", "at least one of A and B", "at least one of A or B", "A, B, or C", "at least one of A, B, and C", and "at least one of A, B, or C" can include any one of the items listed together in the corresponding phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order). When a component (e.g., a first) is referred to as "coupled" or "connected" to another (e.g., a second) component, with or without the terms "functionally" or "communicatively," it means that the component can be connected to the other component directly (e.g., wired), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, and may be used interchangeably with terms such as logic, block, component, or circuit, for example. A module may be an integrally configured component, or a minimum unit of the component, or a part thereof, that performs one or more functions. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(901)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(936) 또는 외장 메모리(938))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(940))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(901))의 프로세서(예: 프로세서(920))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software (e.g., a program (940)) including one or more instructions stored in a storage medium (e.g., an internal memory (936) or an external memory (938)) readable by a machine (e.g., an electronic device (901)). For example, a processor (e.g., a processor (920)) of the machine (e.g., the electronic device (901)) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the at least one called instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' simply means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.

일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present document may be provided as included in a computer program product. The computer program product may be traded between a seller and a buyer as a commodity. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play Store™) or directly between two user devices (e.g., smart phones). In the case of online distribution, at least a part of the computer program product may be at least temporarily stored or temporarily generated in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or an intermediary server.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다. 도 9의 전자 장치(1001)는, 도 1 내지 도 8의 전자 장치(101)의 일 예일 수 있다. According to various embodiments, each component (e.g., a module or a program) of the above-described components may include a single or multiple entities, and some of the multiple entities may be separately arranged in other components. According to various embodiments, one or more of the components or operations of the above-described components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, the multiple components (e.g., a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each of the multiple components identically or similarly to those performed by the corresponding component of the multiple components before the integration. According to various embodiments, the operations performed by the module, program, or other components may be sequentially, in parallel, repeatedly, or heuristically executed, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added. The electronic device (1001) of FIG. 9 may be an example of the electronic device (101) of FIGS. 1 to 8.

도 12a, 도 12b, 및 도 12c는, HDR 모드에서 이미지(1230)를 표시하기 위하여, 폴딩 축(f)에 의해 접힘가능한 하우징을 포함하는 전자 장치(1201)에 의하여 수행되는, 예시적인 동작을 도시한다. 도 12a 내지 도 12c를 참고하면, 일 실시예에 따른, 전자 장치(1201)는, 변형가능한 하우징(예, 폴더블 하우징)을 포함할 수 있다. 전자 장치(1201)는, 도 1 내지 도 8을 참고하여 설명된, 전자 장치(101)의 일 예일 수 있다. FIGS. 12A, 12B, and 12C illustrate exemplary operations performed by an electronic device (1201) including a housing foldable by a folding axis (f) to display an image (1230) in HDR mode. Referring to FIGS. 12A to 12C , the electronic device (1201) according to one embodiment may include a deformable housing (e.g., a foldable housing). The electronic device (1201) may be an example of the electronic device (101) described with reference to FIGS. 1 to 8 .

도 12a 내지 도 12c를 참고하면, 전자 장치(1201)의 폴더블 하우징은, 제1 하우징 파트(1211), 제2 하우징 파트(1212), 및 상기 제1 하우징 파트(1211) 및 상기 제2 하우징 파트(1212)를 회전가능하게 결합하도록 구성된 힌지 파트(1213)를 포함할 수 있다. 제1 하우징 파트(1211) 및 제2 하우징 파트(1212)는, 폴더블 하우징의 리지드(rigid) 파트(또는 리지드 부분)로 지칭될 수 있다. 힌지 파트(1213)는, 폴더블 하우징의 벤더블(bendable) 파트(또는 벤더블 부분), 또는 폴더블 파트(또는 폴더블 부분)으로 지칭될 수 있다. 전자 장치(1201)는, 폴더블 하우징의 프론트 사이드로부터 보여지는 플렉서블 디스플레이(1220)를 포함할 수 있다. Referring to FIGS. 12A to 12C, the foldable housing of the electronic device (1201) may include a first housing part (1211), a second housing part (1212), and a hinge part (1213) configured to rotatably couple the first housing part (1211) and the second housing part (1212). The first housing part (1211) and the second housing part (1212) may be referred to as a rigid part (or rigid part) of the foldable housing. The hinge part (1213) may be referred to as a bendable part (or bendable part) of the foldable housing, or a foldable part (or foldable part). The electronic device (1201) may include a flexible display (1220) that is visible from a front side of the foldable housing.

도 12a 내지 도 12c를 참고하면, 플렉서블 디스플레이(1220)는, 제1 하우징 파트(1211)로부터 힌지 파트(1213)를 가로질러 제2 하우징 파트(1212) 까지 연장될 수 있다. 플렉서블 디스플레이(1220)의 픽셀들에 의해 정의되는, 플렉서블 디스플레이(1220)의 표시 영역(또는 액티브 영역)은, 제1 하우징 파트(1211) 상에 위치된 제1 표시 영역(1221), 제2 하우징 파트(1212) 상에 위치된 제2 표시 영역(1222), 및 힌지 파트(1213) 상에 위치된 제3 표시 영역(1223)을 포함할 수 있다. Referring to FIGS. 12A to 12C, the flexible display (1220) may extend from the first housing part (1211) across the hinge part (1213) to the second housing part (1212). A display area (or active area) of the flexible display (1220), defined by pixels of the flexible display (1220), may include a first display area (1221) positioned on the first housing part (1211), a second display area (1222) positioned on the second housing part (1212), and a third display area (1223) positioned on the hinge part (1213).

예를 들어, 제1 표시 영역(1221) 및 제2 표시 영역(1222)은, 폴더블 하우징의 리지드 파트 상에 위치되기 때문에, 힌지 파트(1213)에서의 회전(또는 접힘)과 독립적으로 플랫 형태를 유지할 수 있다. 제3 표시 영역(1223)은, 폴더블 하우징의 폴더블 파트 상에 위치되기 때문에, 힌지 파트(1213)에서의 회전에 의해 접히거나 또는 펼쳐질 수 있다. 제1 표시 영역(1221) 및 제2 표시 영역(1222)은, 플렉서블 디스플레이(1220)의 평면부로 지칭될 수 있다. 제3 표시 영역(1223)은, 플렉서블 디스플레이(1220)의 폴딩부로 지칭될 수 있다. 플렉서블 디스플레이(1220)는, 폴더블 디스플레이로 지칭될 수 있다. For example, the first display area (1221) and the second display area (1222) can maintain a flat shape independently of rotation (or folding) at the hinge part (1213) because they are positioned on the rigid part of the foldable housing. The third display area (1223) can be folded or unfolded by rotation at the hinge part (1213) because it is positioned on the foldable part of the foldable housing. The first display area (1221) and the second display area (1222) can be referred to as a flat portion of the flexible display (1220). The third display area (1223) can be referred to as a folding portion of the flexible display (1220). The flexible display (1220) can be referred to as a foldable display.

도 12a를 참고하면, 플렉서블 디스플레이(1220)를 포함하는 전자 장치(1201)의 예시적인 상태(1291)가 도시된다. 폴딩 축(f)을 포함하는 힌지 파트(1213)에서의 회전에 의해, 제1 하우징 파트(1211)가 제2 하우징 파트(1212)에 대하여 회전될 수 있다. 전자 장치(1201)는, 홀(hall) 센서, 및/또는 IMU(inertial measurement unit)와 같은 센서를 이용하여, 폴딩 축(f)에 기반하여 회전된, 제1 하우징 파트(1211), 힌지 파트(1213), 및 제2 하우징 파트(1212) 사이의 각도(a)를 탐지할 수 있거나, 또는 계산할 수 있다. Referring to FIG. 12A, an exemplary state (1291) of an electronic device (1201) including a flexible display (1220) is illustrated. The first housing part (1211) can be rotated relative to the second housing part (1212) by rotation at the hinge part (1213) including the folding axis (f). The electronic device (1201) can detect or calculate an angle (a) between the first housing part (1211), the hinge part (1213), and the second housing part (1212) that is rotated based on the folding axis (f) using a sensor, such as a Hall sensor and/or an inertial measurement unit (IMU).

도 12a의 예시적인 상태(1291) 내에서, 전자 장치(1201)의 플렉서블 디스플레이(1220)의 전체 표시 영역이, 단일 평면의 형태를 가질 수 있다. 상태(1291) 내에서, 제1 하우징 파트(1211), 힌지 파트(1213), 및 제2 하우징 파트(1212) 사이의 각도(a)는, 실질적으로 평각일 수 있다(예, 180 º 또는 180 º를 포함하는 각도 범위에 포함됨). 플렉서블 디스플레이(1229)의 전체 표시 영역이 단일 평면의 형태를 갖도록, 제1 하우징 파트(1211), 힌지 파트(1213), 및 제2 하우징 파트(1212)가 배열된 상태(1291)가, 언폴딩 상태, 언폴드 상태, 플랫 상태, 아웃스프레드(outspread) 상태, 및/또는 완전 펼침 상태로 지칭될 수 있다. In an exemplary state (1291) of FIG. 12A, the entire display area of the flexible display (1220) of the electronic device (1201) may have a form of a single plane. In the state (1291), the angle (a) between the first housing part (1211), the hinge part (1213), and the second housing part (1212) may be substantially flat (e.g., included in an angle range including 180º or 180º). The state (1291) in which the first housing part (1211), the hinge part (1213), and the second housing part (1212) are arranged such that the entire display area of the flexible display (1229) has a form of a single plane may be referred to as an unfolded state, an unfolded state, a flat state, an outspread state, and/or a fully unfolded state.

도 12a를 참고하면, 전자 장치(1201)는 HDR 모드를 지원하는 디스플레이(1220)를 제어하여, HDR 효과를 가지는 이미지(1230)를 표시할 수 있다. 전자 장치(1201)는, 제1 다이나믹 레인지(예, SDR의 다이나믹 레인지)를 가지는 제1 이미지(예, 도 1의 이미지(112)), 상기 제1 이미지의 적어도 일부분의 밝기, 색상별 계조와 관련된 맵 정보(예, 도 1의 맵 정보(114)), 및/또는 상기 제1 이미지를 표시할 시의 디스플레이(예, 플렉서블 디스플레이(1220))의 밝기 레벨과 관련된 디스플레이 제어 정보(예, 도 1의 디스플레이 제어 정보(116))를 획득할 수 있다. Referring to FIG. 12A, an electronic device (1201) can control a display (1220) supporting an HDR mode to display an image (1230) having an HDR effect. The electronic device (1201) can obtain a first image (e.g., an image (112) of FIG. 1) having a first dynamic range (e.g., a dynamic range of SDR), map information related to brightness and color gradation of at least a portion of the first image (e.g., map information (114) of FIG. 1), and/or display control information related to a brightness level of a display (e.g., a flexible display (1220)) when displaying the first image (e.g., display control information (116) of FIG. 1).

일 실시예에서, 상기 제1 이미지, 상기 맵 정보, 및 상기 디스플레이 제어 정보는, 하나의 파일(예, 도 1의 파일(110))에 저장될 수 있다. 예를 들어, 상기 제1 이미지를 포함하는 파일 내에, 상기 맵 정보, 및/또는 상기 디스플레이 제어 정보가 메타데이터로써 포함될 수 있다. 실시예가 이에 제한되는 것은 아니다. 예를 들어, 맵 정보 및 디스플레이 제어 정보는, 제1 이미지가 포함된 파일과 다른 파일에 포함될 수 있거나, 또는 저장될 수 있다. 예를 들어, 전자 장치(1201)는 상기 맵 정보에 기반하여, 상기 디스플레이 제어 정보를 생성할 수 있다. In one embodiment, the first image, the map information, and the display control information may be stored in one file (e.g., file (110) of FIG. 1). For example, the map information and/or the display control information may be included as metadata in a file including the first image. The embodiment is not limited thereto. For example, the map information and the display control information may be included in, or stored in, a different file from the file including the first image. For example, the electronic device (1201) may generate the display control information based on the map information.

일 실시예에 따른, 전자 장치(1201)는, 상기 제1 이미지 및 상기 맵 정보에 기반하여, 제2 이미지(예, 도 1의 이미지(130))를 생성할 수 있거나, 또는 합성할 수 있다. 제2 이미지를 합성하기 위하여 이용되는 상기 맵 정보는, 상기 제1 이미지의 적어도 일부, 및 상기 제1 이미지의 촬영 시와 다른 노출 값에 기반하여 동일 객체에 대하여 촬영된 제3 이미지의 적어도 일부 사이의 밝기 및/또는 색상별 계조의 차이에 대한 정보를 포함할 수 있다. 예를 들어, 맵 정보는, 상기 제1 이미지에 포함된 서로 다른 부분들의 밝기 레벨들을 나타내는 값들이 포함된 2 차원 배열을 나타내거나, 및/또는 상기 2 차원 배열을 생성하기 위하여 이용될 수 있다. 상기 2 차원 배열의 가로 픽셀 수 및 세로 픽셀 수는, 상기 제1 이미지의 가로 픽셀 수 및 세로 픽셀 수 보다 각각 작을 수 있다. According to one embodiment, the electronic device (1201) may generate or synthesize a second image (e.g., the image (130) of FIG. 1) based on the first image and the map information. The map information used to synthesize the second image may include information about differences in brightness and/or color gradation between at least a portion of the first image and at least a portion of a third image captured of the same object based on a different exposure value than when the first image was captured. For example, the map information may represent a two-dimensional array including values representing brightness levels of different portions included in the first image, and/or may be used to generate the two-dimensional array. The horizontal pixel number and the vertical pixel number of the two-dimensional array may be smaller than the horizontal pixel number and the vertical pixel number of the first image, respectively.

일 실시예에서, 상기 제1 이미지에 대한 디스플레이 제어 정보는, 상기 제1 다이나믹 레인지 보다 넓은 제2 다이나믹 레인지를 갖도록 제1 이미지로부터 합성된, 제2 이미지를 표시하기 위하여 요구되는 최대 밝기 정보, 및/또는 제1 이미지를 표시하기 위하여 요구되는 최대 밝기 사이의 비율 정보 중 적어도 하나를 포함할 수 있다. In one embodiment, the display control information for the first image may include at least one of: maximum brightness information required to display a second image synthesized from the first image to have a second dynamic range wider than the first dynamic range; and/or ratio information between the maximum brightnesses required to display the first image.

SDR과 같은 제1 다이나믹 레인지를 가지는 제1 이미지에 대응하는 디스플레이 제어 정보에 기반하여, 전자 장치(1201)는, 디스플레이(예, 플렉서블 디스플레이(1220))의 적어도 일부분의 밝기 레벨을 결정할 수 있거나, 또는 계산할 수 있다. 상기 제1 이미지(또는 제1 이미지에 맵 정보를 적용하여 합성된, 제2 이미지)가 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지를 가지는 것으로 보여지도록, 전자 장치(1201)는 디스플레이의 상기 적어도 일부분이 상기 결정된 밝기 레벨을 가지도록, 상기 디스플레이를 제어할 수 있다. 전자 장치(1201)는, 상기 적어도 일부분이 상기 결정된 밝기 레벨을 가지는 상기 디스플레이에, 상기 제2 이미지를 표시할 수 있다. Based on display control information corresponding to a first image having a first dynamic range such as SDR, the electronic device (1201) can determine or calculate a brightness level of at least a portion of a display (e.g., a flexible display (1220)). The electronic device (1201) can control the display such that the at least a portion of the display has the determined brightness level, so that the first image (or a second image synthesized by applying map information to the first image) appears to have a second dynamic range wider than the first dynamic range. The electronic device (1201) can display the second image on the display, the at least a portion of which has the determined brightness level.

도 12a를 참고하면, 전자 장치(1201)는, 제2 다이나믹 레인지를 가지는 이미지(1230)를 표시할 수 있다. 이미지(1230)는, 제1 이미지에 맵 정보를 적용하여 합성된, 제2 이미지에 대응할 수 있다. 전자 장치(1201)는, 도 12a의 이미지(1230)를 표시하는 상태(1291)로, 상기 제1 이미지의 사이즈 보다 작은 사이즈를 가지는 썸네일 이미지(예, 도 6의 썸네일 이미지(619))와 관련된 입력에 응답하여, 진입할 수 있다. Referring to FIG. 12A, the electronic device (1201) can display an image (1230) having a second dynamic range. The image (1230) can correspond to a second image synthesized by applying map information to a first image. The electronic device (1201) can enter a state (1291) of displaying the image (1230) of FIG. 12A in response to an input related to a thumbnail image (e.g., thumbnail image (619) of FIG. 6) having a size smaller than that of the first image.

일 실시예에서, 썸네일 이미지와 관련된 입력에 기반하여 상태(1291)로 진입하는 동안, 전자 장치(1201)는, 제1 다이나믹 레인지를 가지는 상기 제1 이미지를, 디스플레이(1220) 상에 적어도 일시적으로 표시할 수 있다. 예를 들어, 제2 다이나믹 레인지를 가지는 제2 이미지가 상기 제1 이미지 및 상기 맵 정보에 기반하여 합성되는 동안, 전자 장치(1201)는 상기 제1 이미지를 표시할 수 있다. 도 12a를 참고하면, 이미지(1230)가 표시되는 플렉서블 디스플레이(1220)의 부분 상에, 전자 장치(1201)는 상기 제1 이미지를 표시할 수 있다. 상기 제2 이미지의 합성에 응답하여, 전자 장치(1201)는, 플렉서블 디스플레이(1220) 상에 표시되고 있는 상기 제1 이미지를, 상기 제2 이미지로 변경할 수 있다. 상기 제1 이미지를 상기 제2 이미지로 변경함으로써, 전자 장치(1201)는, 상기 제2 이미지를 표시할 수 있다(예, 이미지(1230)). In one embodiment, while entering state (1291) based on an input related to a thumbnail image, the electronic device (1201) can display, at least temporarily, a first image having a first dynamic range on the display (1220). For example, while a second image having a second dynamic range is synthesized based on the first image and the map information, the electronic device (1201) can display the first image. Referring to FIG. 12A, the electronic device (1201) can display the first image on a portion of the flexible display (1220) on which the image (1230) is displayed. In response to synthesizing the second image, the electronic device (1201) can change the first image being displayed on the flexible display (1220) to the second image. By changing the first image to the second image, the electronic device (1201) can display the second image (e.g., image (1230)).

도 12a를 참고하면, 제1 다이나믹 레인지를 가지는 제1 이미지로부터 합성된, 제2 다이나믹 레인지를 가지는 이미지(1230)를 표시하는 상태(1291) 내에서, 전자 장치(1201)는, HDR 모드에 기반하여 이미지(1230)를 표시함을 나타내는 지정된 시각적 객체(1232)(예, "HDR ON"과 같은 지정된 텍스트를 포함하는 비주얼 어포던스)를 표시할 수 있다. 시각적 객체(1232)는, 도 6의 시각적 객체(624)의 일 예일 수 있다. Referring to FIG. 12a, in a state (1291) of displaying an image (1230) having a second dynamic range, synthesized from a first image having a first dynamic range, the electronic device (1201) may display a designated visual object (1232) (e.g., a visual affordance including designated text such as “HDR ON”) indicating that the image (1230) is displayed based on an HDR mode. The visual object (1232) may be an example of the visual object (624) of FIG. 6.

도 12a를 참고하면, 플렉서블 디스플레이(1220)의 상이한 부분들(예, 제1 표시 영역(1221), 제2 표시 영역(1222), 및 제3 표시 영역(1223)) 각각의 밝기 분포가 도시된다. 제1 다이나믹 레인지의 최소 밝기를 가지는 제1 이미지의 일부분에 대응하는, 플렉서블 디스플레이(1220)의 적어도 하나의 픽셀이, 제2 다이나믹 레인지의 최소 밝기 la1를 가지도록, 전자 장치(1201)는 플렉서블 디스플레이(1220)를 제어할 수 있다. 유사하게, 제1 다이나믹 레인지의 최대 밝기를 가지는 제1 이미지의 다른 부분에 대응하는, 플렉서블 디스플레이(1220)의 적어도 하나의 다른 픽셀이, 제2 다이나믹 레인지의 최대 밝기를 가지도록, 전자 장치(1201)는, 플렉서블 디스플레이(1220)를 제어할 수 있다. Referring to FIG. 12A, brightness distributions of different portions of the flexible display (1220) (e.g., the first display area (1221), the second display area (1222), and the third display area (1223)) are illustrated. The electronic device (1201) can control the flexible display (1220) such that at least one pixel of the flexible display (1220), corresponding to a portion of the first image having a minimum brightness of the first dynamic range, has a minimum brightness la1 of the second dynamic range. Similarly, the electronic device (1201) can control the flexible display (1220) such that at least one other pixel of the flexible display (1220), corresponding to another portion of the first image having a maximum brightness of the first dynamic range, has a maximum brightness of the second dynamic range.

일 실시예에서, 제2 다이나믹 레인지를 가지는 이미지(1230)를 표시하는 상태(1291) 내에서, 전자 장치(1201)는, 이미지(1230)가 표시되는 플렉서블 디스플레이(1220)의 표시 영역의 일부분의 픽셀들을, 맵 정보 및/또는 디스플레이 제어 정보에 의해 나타나는 밝기 레벨에 기반하여 제어할 수 있다. 상태(1291) 내에서, 전자 장치(1201)는, 이미지(1230)가 표시되는 플렉서블 디스플레이(1220)의 표시 영역의 상기 일부분과 다른 나머지 부분의 픽셀들을, 상기 밝기 레벨 보다 낮은 다른 밝기 레벨에 기반하여 제어할 수 있다. 이미지(1230)가 표시되는 플렉서블 디스플레이(1220)의 표시 영역의 일부분의 픽셀들을 제어하기 위하여 이용되는 밝기 레벨은, 플렉서블 디스플레이(1220)에 의해 표시가능한 밝기 레벨의 레인지, 전자 장치(1201)의 SOC, 및/또는 플렉서블 디스플레이(1220)의 OPR 중 적어도 하나에 기반하여 결정될 수 있다. In one embodiment, within a state (1291) of displaying an image (1230) having a second dynamic range, the electronic device (1201) can control pixels of a portion of a display area of the flexible display (1220) on which the image (1230) is displayed, based on a brightness level indicated by map information and/or display control information. Within the state (1291), the electronic device (1201) can control pixels of a remaining portion of the display area of the flexible display (1220) on which the image (1230) is displayed, other than the portion, based on a different brightness level lower than the brightness level. A brightness level used to control pixels of a portion of a display area of a flexible display (1220) on which an image (1230) is displayed may be determined based on at least one of a range of brightness levels displayable by the flexible display (1220), the SOC of the electronic device (1201), and/or the OPR of the flexible display (1220).

일 실시예에 따른, 전자 장치(1201)는, 폴더블 하우징의 상태(예, 폴딩 상태), 및/또는 이미지(1230)와 관련된 정보(예, 디스플레이 제어 정보)에 기반하여, 플렉서블 디스플레이(1220)의 상이한 부분들의 밝기 레벨들을 다르게 결정할 수 있거나, 또는 계산할 수 있다. 도 12a를 참고하면, 전자 장치(1201)의 폴딩부인 제3 표시 영역(1223)은, la1의 최소 휘도, 및 la3의 최대 휘도를 가지는 밝기 레벨의 범위 내에서 제어될 수 있다. 한편, 전자 장치(1201)는 평면부인 제1 표시 영역(1221)(및/또는 제2 표시 영역(1222))을, 폴딩부인 제3 표시 영역(1223)의 밝기 레벨의 범위와 상이하거나, 제3 표시 영역(1223)의 밝기 레벨의 범위와 적어도 부분적으로 중첩되는 다른 범위 내에서 제어할 수 있다. 예를 들어, 전자 장치(1201)는 제3 표시 영역(1223)을, la1의 최소 휘도, 및 la2의 최대 휘도를 가지는 밝기 레벨의 범위 내에서 제어할 수 있고, 제1 표시 영역(1221) 및/또는 제2 표시 영역(1222)을, la1의 최소 휘도, 및 la3의 최대 휘도(예, la2를 초과하는 최대 휘도)를 가지는 밝기 레벨의 범위 내에서 제어할 수 있다. 실시예가 이에 제한되는 것은 아니며, 전자 장치(1201)는 평면부인 제1 표시 영역(1221)(및/또는 제2 표시 영역(1222))을, la1의 최소 휘도, 및 la2의 최대 휘도를 가지는 밝기 레벨의 범위 내에서 제어할 수 있다. According to one embodiment, the electronic device (1201) may determine or calculate different brightness levels of different portions of the flexible display (1220) based on a state of the foldable housing (e.g., a folding state) and/or information related to the image (1230) (e.g., display control information). Referring to FIG. 12A, the third display area (1223), which is a folding portion of the electronic device (1201), may be controlled within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la3. Meanwhile, the electronic device (1201) may control the first display area (1221) (and/or the second display area (1222)), which is a flat portion, within another range that is different from the range of brightness levels of the third display area (1223), which is a folding portion, or that at least partially overlaps with the range of brightness levels of the third display area (1223). For example, the electronic device (1201) can control the third display area (1223) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la2, and can control the first display area (1221) and/or the second display area (1222) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la3 (e.g., a maximum brightness exceeding la2). The embodiment is not limited thereto, and the electronic device (1201) can control the first display area (1221) (and/or the second display area (1222)), which is a flat surface, within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la2.

예를 들어, 제3 표시 영역(1223)의 밝기 레벨이 제1 표시 영역(1221) 및/또는 제2 표시 영역(1222)의 밝기 레벨보다 높도록, 전자 장치(1201)는, 플렉서블 디스플레이(1220)의 표시 영역의 부분들의 밝기 레벨의 범위들을 각각 결정할 수 있다. 결정된 밝기 레벨들의 범위들을 이용하여, 전자 장치(1201)는, 표시 영역의 부분들을 통해 표시된 이미지(1230)를 표시할 수 있다. For example, the electronic device (1201) can determine ranges of brightness levels of portions of the display areas of the flexible display (1220), respectively, such that the brightness level of the third display area (1223) is higher than the brightness levels of the first display area (1221) and/or the second display area (1222). Using the determined ranges of brightness levels, the electronic device (1201) can display an image (1230) displayed through the portions of the display areas.

일 실시예에서, 전자 장치(1201)는, 폴딩 축(f)에서 회전된 제1 하우징 파트(1211), 힌지 파트(1213), 및 제2 하우징 파트(1212) 사이의 각도(a)에 기반하여, 플렉서블 디스플레이(1220)의 표시 영역의 부분들(예, 제1 표시 영역(1221), 제2 표시 영역(1222), 및 제3 표시 영역(1223))의 밝기 레벨들(또는 다이나믹 레인지들)을 적어도 부분적으로 변경할 수 있다. 언폴드 상태에 대응하는 도 12a의 상태(1291) 내에서, 사용자가 제1 하우징 파트(1211)에 대하여 제2 하우징 파트(1212)를 회전함에 따라, 전자 장치(1201)의 상태가, 상태(1291)로부터 도 12b의 상태(1292)로 스위칭될 수 있다. 전자 장치(1201)는, 센서를 이용하여, 180 º(또는 언폴드 상태와 관련된 기준 각도 범위) 미만의 각도(b)를 탐지하는 것에 기반하여, 전자 장치(1201)의 상태가 상태(1292)로 스위칭된 것으로 결정할 수 있다. 전자 장치(1201)의 상태(1292)는, 서브 폴딩 상태, 서브 폴드 상태, 하프 폴딩 상태, 하프 폴드 상태, 오목한 상태, 및/또는 중간 상태에 포함될 수 있다. In one embodiment, the electronic device (1201) can at least partially change brightness levels (or dynamic ranges) of portions of a display area of the flexible display (1220) (e.g., the first display area (1221), the second display area (1222), and the third display area (1223)) based on an angle (a) between the first housing part (1211), the hinge part (1213), and the second housing part (1212) rotated about the folding axis (f). As the user rotates the second housing part (1212) relative to the first housing part (1211) within the state (1291) of FIG. 12A corresponding to the unfolded state, the state of the electronic device (1201) can be switched from the state (1291) to the state (1292) of FIG. 12B. The electronic device (1201) can determine that the state of the electronic device (1201) has been switched to the state (1292) based on detecting an angle (b) less than 180º (or a reference angle range associated with the unfolded state) using a sensor. The state (1292) of the electronic device (1201) can include a sub-folded state, a sub-folded state, a half-folded state, a half-folded state, a concave state, and/or an intermediate state.

도 12b의 예시적인 상태(1292) 내에서, 전자 장치(1201)는, 제1 표시 영역(1221)(또는 제2 표시 영역(1222))의 픽셀들을, la1의 최소 휘도, 및 la4의 최대 휘도를 가지는 밝기 레벨의 범위 내에서 제어할 수 있다. 상태(1292) 내에서, 전자 장치(1201)는, 제3 표시 영역(1223)의 픽셀들을, la1의 최소 휘도, 및 la2의 최대 휘도를 가지는 밝기 레벨의 범위 내에서 제어할 수 있다. 상태들(1291, 1292)을 참고하면, 언폴드 상태로부터 중간 상태로 스위칭되는 동안, 폴딩부인 제3 표시 영역(1223)의 픽셀들의 최대 휘도가, 다른 표시 영역(예, 제1 표시 영역(1221) 및/또는 제2 표시 영역(1222))의 픽셀들의 최대 휘도 보다 감소될 수 있다. 각도(b)가 감소됨에 따라, 전자 장치(1201)는, 제3 표시 영역(1213)의 픽셀들을 제어하기 위하여 이용되는 최대 휘도(la2)를, 점진적으로 줄일 수 있다. Within the exemplary state (1292) of FIG. 12b, the electronic device (1201) can control pixels of the first display area (1221) (or the second display area (1222)) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la4. Within the state (1292), the electronic device (1201) can control pixels of the third display area (1223) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la2. Referring to the states (1291, 1292), during switching from the unfolded state to the intermediate state, the maximum brightness of pixels of the third display area (1223), which is a folded portion, may be reduced less than the maximum brightness of pixels of other display areas (e.g., the first display area (1221) and/or the second display area (1222)). As the angle (b) decreases, the electronic device (1201) can gradually reduce the maximum brightness (la2) used to control the pixels of the third display area (1213).

예를 들어, 각도(b)가 감소됨에 따라, 제3 표시 영역(1213)의 곡률이 증가될 수 있다. 곡률이 증가되는 경우, 제3 표시 영역(1213)의 반사 특성이 변경될 수 있다. 상기 반사 특성의 변경은, 사용자에 의해, 제3 표시 영역(1213)이 다른 표시 영역 보다 밝은 것으로 인식되게 할 수 있다. 일 실시예에 따른, 전자 장치(1201)는, 상기 반사 특성의 변경에도 불구하고, 플렉서블 디스플레이(1220)의 표시 영역 전체의 밝기 분포를 균일하게 만들기 위하여, 제3 표시 영역(1213)의 픽셀들의 휘도를, 다른 표시 영역의 픽셀들의 최대 휘도(la4) 보다 낮은 최대 휘도(la2)에 따라 제어할 수 있다. For example, as the angle (b) decreases, the curvature of the third display area (1213) may increase. When the curvature increases, the reflection characteristic of the third display area (1213) may change. The change in the reflection characteristic may cause the user to perceive the third display area (1213) as brighter than the other display areas. In one embodiment, the electronic device (1201) may control the brightness of the pixels of the third display area (1213) according to a maximum brightness (la2) that is lower than the maximum brightness (la4) of the pixels of the other display areas, in order to make the brightness distribution of the entire display area of the flexible display (1220) uniform despite the change in the reflection characteristic.

한편, 각도(b)가 증가되는 경우, 전자 장치(1201)는, 제3 표시 영역(1223)의 픽셀들을 제어하기 위하여 이용되는 최대 휘도(la2)를, 점진적으로 증가할 수 있다. 실시예가 이에 제한되는 것은 아니며, 전자 장치(1201)는, 제1 표시 영역(1221) 및/또는 제2 표시 영역(1222)의 밝기 레벨의 범위를, 각도(b)에 따라 점진적으로 증가하거나, 또는 감소할 수 있다. Meanwhile, when the angle (b) increases, the electronic device (1201) may gradually increase the maximum brightness (la2) used to control the pixels of the third display area (1223). The embodiment is not limited thereto, and the electronic device (1201) may gradually increase or decrease the range of brightness levels of the first display area (1221) and/or the second display area (1222) depending on the angle (b).

도 12c의 예시적인 상태(1293) 내에서, 전자 장치(1201)는, 제1 표시 영역(1221)(또는 제2 표시 영역(1222))의 픽셀들을, la1의 최소 휘도, 및 la2의 최대 휘도를 가지는 밝기 레벨의 범위 내에서 제어할 수 있다. 도 12a의 상태(1291) 내에서, 각도(b)가 감소됨을 식별하는 것에 응답하여, 전자 장치(1201)는 도 12c의 상태(1293)로 스위칭할 수 있다. 상태(1293) 내에서, 전자 장치(1201)는, 제3 표시 영역(1223)의 픽셀들을, la1의 최소 휘도, 및 la4의 최대 휘도를 가지는 밝기 레벨의 범위 내에서 제어할 수 있다. 상태들(1291, 1293)을 참고하면, 폴딩부인 제3 표시 영역(1223)의 픽셀들의 최대 휘도가, la3로부터 la3 미만인 la4로 감소될 수 있다. 각도(b)가 감소됨에 따라, 전자 장치(1201)는, 제3 표시 영역(1223)의 픽셀들을 제어하기 위하여 이용되는 최대 휘도(la4)를, 점진적으로 줄일 수 있다. Within the exemplary state (1293) of FIG. 12c, the electronic device (1201) can control the pixels of the first display area (1221) (or the second display area (1222)) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la2. Within the state (1291) of FIG. 12a, in response to identifying that the angle (b) is decreasing, the electronic device (1201) can switch to the state (1293) of FIG. 12c. Within the state (1293), the electronic device (1201) can control the pixels of the third display area (1223) within a range of brightness levels having a minimum brightness of la1 and a maximum brightness of la4. Referring to states (1291, 1293), the maximum brightness of the pixels of the third display area (1223), which is a folding member, can be reduced from la3 to la4, which is less than la3. As the angle (b) decreases, the electronic device (1201) can gradually reduce the maximum brightness (la4) used to control the pixels of the third display area (1223).

한편, 각도(b)가 증가되는 경우, 전자 장치(1201)는, 제3 표시 영역(1223)의 픽셀들을 제어하기 위하여 이용되는 최대 휘도(la4)를, 점진적으로 증가할 수 있다. 실시예가 이에 제한되는 것은 아니며, 전자 장치(1201)는, 제1 표시 영역(1221) 및/또는 제2 표시 영역(1222)의 밝기 레벨의 범위를, 각도(b)에 따라 점진적으로 증가하거나, 또는 감소할 수 있다. Meanwhile, when the angle (b) increases, the electronic device (1201) may gradually increase the maximum brightness (la4) used to control the pixels of the third display area (1223). The embodiment is not limited thereto, and the electronic device (1201) may gradually increase or decrease the range of brightness levels of the first display area (1221) and/or the second display area (1222) depending on the angle (b).

상술한 바와 같이, 일 실시예에 따른, 전자 장치(1201)는, 폴더블 하우징을 포함할 수 있다. 폴더블 하우징의 형태(또는 상태)에 따라, HDR 모드 내에서 이미지(1230)를 표시하는 전자 장치(1201)는, 이미지(1230)가 표시되는 플렉서블 디스플레이(1220)의 밝기 레벨을 적어도 부분적으로 변경할 수 있다. 예를 들어, 플렉서블 디스플레이(1220)의 평면부(예, 제1 표시 영역(1221) 및/또는 제2 표시 영역(1222)) 및/또는 폴딩부(예, 제3 표시 영역(1223)) 각각의 픽셀들의 밝기가, 차별적으로 강화될 수 있다. 플렉서블 디스플레이(1220)의 표시 영역의 부분들 각각의 밝기 레벨들은, 폴더블 하우징의 접힘 또는 펼침에 따라, 감소되거나, 또는 증가될 수 있다. As described above, according to one embodiment, the electronic device (1201) may include a foldable housing. Depending on the shape (or state) of the foldable housing, the electronic device (1201) displaying the image (1230) in the HDR mode may at least partially change the brightness level of the flexible display (1220) on which the image (1230) is displayed. For example, the brightness of each pixel of a flat portion (e.g., the first display area (1221) and/or the second display area (1222)) and/or a folding portion (e.g., the third display area (1223)) of the flexible display (1220) may be differentially enhanced. The brightness levels of each portion of the display area of the flexible display (1220) may be decreased or increased depending on the folding or unfolding of the foldable housing.

도 13은, HDR 모드에서 이미지(1230)를 표시하기 위하여, 복수의 디스플레이들(예, 플렉서블 디스플레이(1220), 및 커버 디스플레이(1310))을 포함하는 전자 장치(1201)에 의하여 수행되는, 예시적인 동작을 도시한다. 도 13의 전자 장치(1201)는, 도 12a 내지 도 12c를 참고하여 설명된, 전자 장치(1201)의 일 예일 수 있다. FIG. 13 illustrates an exemplary operation performed by an electronic device (1201) including a plurality of displays (e.g., a flexible display (1220) and a cover display (1310)) to display an image (1230) in HDR mode. The electronic device (1201) of FIG. 13 may be an example of the electronic device (1201) described with reference to FIGS. 12A to 12C.

일 실시예에 따른, 전자 장치(1201)는, 폴더블 하우징의 리어(rear) 사이드로부터 보여지는 커버 디스플레이(1310)를 포함할 수 있다. 도 13을 참고하면, 전자 장치(1201)의 제1 하우징(1211)의 리어 사이드에 위치된 커버 디스플레이(1310)가 도시된다. 커버 디스플레이(1310)가, 플렉서블 디스플레이(1220)가 위치된 프론트 사이드와 반대인 리어 사이드에 위치되기 때문에, 전자 장치(1201)의 언폴드 상태에서, 커버 디스플레이(1310)는, 플렉서블 디스플레이(1220)가 시각적으로 노출된 제1 방향과 반대인 제2 방향을 향할 수 있다. In one embodiment, the electronic device (1201) may include a cover display (1310) that is visible from a rear side of the foldable housing. Referring to FIG. 13, the cover display (1310) is illustrated positioned on a rear side of a first housing (1211) of the electronic device (1201). Since the cover display (1310) is positioned on a rear side opposite to a front side where the flexible display (1220) is positioned, in an unfolded state of the electronic device (1201), the cover display (1310) may face a second direction opposite to a first direction in which the flexible display (1220) is visually exposed.

예를 들어, 플렉서블 디스플레이(1220) 및 커버 디스플레이(1310)와 같이, 복수의 디스플레이들을 포함하는 전자 장치(1201)의 일 실시예에서, 플렉서블 디스플레이(1220)는, 프론트 디스플레이로, 커버 디스플레이(1310)는, 리어 디스플레이로 지칭될 수 있다. 플렉서블 디스플레이(1220)는, 메인 디스플레이로, 커버 디스플레이(1310)는, 서브 디스플레이로 지칭될 수 있다. 플렉서블 디스플레이(1220)는, 제1 디스플레이로, 커버 디스플레이(1310)는, 제2 디스플레이로 지칭될 수 있다. For example, in one embodiment of an electronic device (1201) including a plurality of displays, such as a flexible display (1220) and a cover display (1310), the flexible display (1220) may be referred to as a front display and the cover display (1310) may be referred to as a rear display. The flexible display (1220) may be referred to as a main display and the cover display (1310) may be referred to as a sub display. The flexible display (1220) may be referred to as a first display and the cover display (1310) may be referred to as a second display.

도 13을 참고하면, 힌지 파트(1213)에 대한 제1 하우징 파트(1211) 및 제2 하우징 파트(1212)의 회전에 의해, 플렉서블 디스플레이(1220)가 시각적으로 완전히 숨겨진, 전자 장치(1201)의 예시적인 상태가 도시된다. 상기 상태는, 폴딩 상태, 폴드 상태, 및/또는 완전 접힘 상태로 지칭될 수 있다. 전자 장치(1201)는, 폴딩 축(f)의 각도가 실질적으로 0 º(또는 0 º를 포함하는 지정된 각도 범위)에 대응하는 지 여부에 기반하여, 전자 장치(1201)의 폴딩 상태를 탐지할 수 있거나, 또는 결정할 수 있다. Referring to FIG. 13, an exemplary state of the electronic device (1201) is illustrated in which the flexible display (1220) is visually completely hidden by the rotation of the first housing part (1211) and the second housing part (1212) about the hinge part (1213). The state may be referred to as a folded state, a folded state, and/or a fully folded state. The electronic device (1201) may detect or determine the folded state of the electronic device (1201) based on whether the angle of the folding axis (f) corresponds to substantially 0º (or a designated angular range including 0º).

도 13을 참고하면, 플렉서블 디스플레이(1220)가 숨겨진 폴딩 상태 내에서, 전자 장치(1201)는, 커버 디스플레이(1310)를 통하여, HDR 모드의 이미지(1320)를 표시할 수 있다. 이미지(1320)와 함께, 전자 장치(1201)는 HDR 모드를 나타내기 위한 시각적 객체(1332)를 표시할 수 있다. 도 13의 시각적 객체(1332)는, 도 12a 내지 도 12c를 참고하여 설명된 시각적 객체(1232)에 대응할 수 있다. Referring to FIG. 13, in a hidden folding state of a flexible display (1220), the electronic device (1201) can display an image (1320) in HDR mode through the cover display (1310). Together with the image (1320), the electronic device (1201) can display a visual object (1332) for indicating the HDR mode. The visual object (1332) of FIG. 13 can correspond to the visual object (1232) described with reference to FIGS. 12A to 12C.

예를 들어, 이미지(1320)는, SDR의 제1 다이나믹 레인지를 가지는 제1 이미지에, 맵 정보 및/또는 디스플레이 제어 정보를 적용하여 합성된, 제2 이미지에 대응할 수 있다. 전자 장치(1201)는, 상기 디스플레이 제어 정보에 의해 나타나는, 다이나믹 레인지들 사이의 비율을 이용하여, 이미지(1320)가 표시되는 커버 디스플레이(1310)의 픽셀들의 밝기 레벨들 사이의 비율을, 상기 제1 다이나믹 레인지 보다 넓은 제2 다이나믹 레인지(예, HDR의 제2 다이나믹 레인지)로 증가할 수 있거나, 또는 강화할 수 있다. For example, the image (1320) may correspond to a second image synthesized by applying map information and/or display control information to a first image having a first dynamic range of SDR. The electronic device (1201) may use the ratio between dynamic ranges indicated by the display control information to increase or strengthen a ratio between brightness levels of pixels of the cover display (1310) on which the image (1320) is displayed, to a second dynamic range wider than the first dynamic range (e.g., a second dynamic range of HDR).

도 13을 참고하면, 플렉서블 디스플레이(1220) 상에 표시되는 이미지(1230)의 밝기 레벨의 범위, 및 커버 디스플레이(1310) 상에 표시되는 이미지(1320)의 밝기 레벨의 범위가 도시된다. 두 개의 범위들의 최소 휘도들이 서로 일치하는 것(lb1)으로 도시되지만, 이는 설명(또는 비교)의 편의를 위한 것이며, 실시예가 이에 제한되는 것은 아니다. Referring to FIG. 13, a range of brightness levels of an image (1230) displayed on a flexible display (1220) and a range of brightness levels of an image (1320) displayed on a cover display (1310) are illustrated. Although the minimum luminances of the two ranges are illustrated as being identical to each other (lb1), this is for convenience of explanation (or comparison) and the embodiment is not limited thereto.

일 실시예에 따른, 전자 장치(1201)는, 제1 다이나믹 레인지를 가지는 제1 이미지, 맵 정보, 및 디스플레이 제어 정보를 이용하여 합성된, 제2 이미지를 표시할 시, 상기 디스플레이 제어 정보에 기반하여, 플렉서블 디스플레이(1220)의 적어도 일부분이 제1 밝기 레벨을 가지고, 커버 디스플레이(1310)의 적어도 일부분이 상기 제1 밝기 레벨과 다른 제2 밝기 레벨을 가지도록, 플렉서블 디스플레이(1220) 및 커버 디스플레이(1310)의 밝기 레벨들을 결정할 수 있다. According to one embodiment, the electronic device (1201) may, when displaying a second image synthesized using a first image having a first dynamic range, map information, and display control information, determine brightness levels of the flexible display (1220) and the cover display (1310) based on the display control information such that at least a portion of the flexible display (1220) has a first brightness level and at least a portion of the cover display (1310) has a second brightness level different from the first brightness level.

도 13을 참고하면, 전자 장치(1201)는 플렉서블 디스플레이(1220) 상에, lb1의 최소 휘도 및 lb3의 최대 휘도를 가지는 밝기 레벨에 기반하여, 상기 제1 다이나믹 레인지 보다 넓은 제2 다이나믹 레인지의 이미지(1230)를 표시할 수 있다. 전자 장치(1201)는 커버 디스플레이(1310) 상에, lb1의 최소 휘도 및 lb2의 최대 휘도를 가지는 밝기 레벨에 기반하여, 상기 제1 다이나믹 레인지 보다 넓은 제2 다이나믹 레인지의 이미지(1320)를 표시할 수 있다. 예를 들어, 이미지(1320)의 최대 휘도(lb2) 및 이미지(1230)의 최대 휘도(lb3)가 서로 다를 수 있다. 이미지(1320)를 표시하기 위하여 설정된, 커버 디스플레이(1310)의 픽셀의 최대 휘도(lb2)가, 이미지(1230)를 표시하기 위하여 설정된, 플렉서블 디스플레이(1220)의 픽셀의 최대 휘도(lb3) 보다 낮은 일 실시예가 도시되지만, 실시예가 이에 제한되는 것은 아니다. Referring to FIG. 13, the electronic device (1201) can display an image (1230) of a second dynamic range wider than the first dynamic range, based on a brightness level having a minimum brightness of lb1 and a maximum brightness of lb3, on the flexible display (1220). The electronic device (1201) can display an image (1320) of a second dynamic range wider than the first dynamic range, based on a brightness level having a minimum brightness of lb1 and a maximum brightness of lb2, on the cover display (1310). For example, the maximum brightness (lb2) of the image (1320) and the maximum brightness (lb3) of the image (1230) may be different from each other. An embodiment is shown in which the maximum brightness (lb2) of the pixels of the cover display (1310) set to display the image (1320) is lower than the maximum brightness (lb3) of the pixels of the flexible display (1220) set to display the image (1230), but the embodiment is not limited thereto.

상술한 바와 같이, HDR 효과를 가지는 이미지(예, 이미지들(1230, 1320))를 표시할 시, 전자 장치(1201)는, 상기 이미지가 표시되는 디스플레이(예, 플렉서블 디스플레이(1220) 및/또는 커버 디스플레이(1310))에 따라, 상기 이미지의 밝기 레벨을 결정할 수 있다. 예를 들어, 이미지(1310)를 표시하기 위하여 커버 디스플레이(1310)의 픽셀의 밝기가 강화되는 정도가, 이미지(1230)를 표시하기 위하여 플렉서블 디스플레이(1220)의 픽셀의 밝기가 강화되는 정도와 다를 수 있다. As described above, when displaying an image having an HDR effect (e.g., images (1230, 1320)), the electronic device (1201) may determine a brightness level of the image depending on the display (e.g., the flexible display (1220) and/or the cover display (1310)) on which the image is displayed. For example, the degree to which the brightness of the pixels of the cover display (1310) is enhanced to display the image (1310) may be different from the degree to which the brightness of the pixels of the flexible display (1220) is enhanced to display the image (1230).

도 14a 및 도 14b는, HDR 모드에서 이미지(1430)를 표시하기 위하여, 플렉서블 디스플레이(1420)를 포함하는 전자 장치(1401)에 의하여 수행되는, 예시적인 동작을 도시한다. 도 14a 및/또는 도 14b의 전자 장치(1401)는, 도 1 내지 도 8을 참고하여 설명된, 전자 장치(101)의 일 예일 수 있다. FIGS. 14A and 14B illustrate exemplary operations performed by an electronic device (1401) including a flexible display (1420) to display an image (1430) in HDR mode. The electronic device (1401) of FIGS. 14A and/or 14B may be an example of the electronic device (101) described with reference to FIGS. 1 to 8.

도 14a 내지 도 14b를 참고하면, 전자 장치(1401)는, 변형가능한 하우징(예, 슬라이더블 하우징 및/또는 롤러블 하우징)을 포함할 수 있다. 전자 장치(1401)의 하우징은, 제1 하우징 파트(1411), 및 제1 하우징 파트(1411)에 대하여 이동가능한 제2 하우징 파트(1412)를 포함할 수 있다. 전자 장치(1401)의 하우징은, 수축 상태 및/또는 확장 상태를 제공하도록, 구성될 수 있다. 예를 들어, 수축 상태에서, 제2 하우징 파트(1412)가 제1 하우징 파트(1411) 안으로 적어도 부분적으로 인입될 수 있다. 예를 들어, 확장 상태에서, 제1 하우징 파트(1411) 안으로 인입되었던 제2 하우징 파트(1412)의 적어도 일부분이, 제1 하우징 파트(1411) 밖으로 인출될 수 있다. Referring to FIGS. 14A and 14B , the electronic device (1401) may include a deformable housing (e.g., a sliderable housing and/or a rollable housing). The housing of the electronic device (1401) may include a first housing part (1411) and a second housing part (1412) that is movable relative to the first housing part (1411). The housing of the electronic device (1401) may be configured to provide a collapsed state and/or an expanded state. For example, in the collapsed state, the second housing part (1412) may be at least partially retractable into the first housing part (1411). For example, in the expanded state, at least a portion of the second housing part (1412) that was retracted into the first housing part (1411) may be withdrawn out of the first housing part (1411).

도 14a 내지 도 14b를 참고하면, 전자 장치(1401)는, 하우징의 전면으로부터 보여지는 플렉서블 디스플레이(1420)를 포함할 수 있다. 플렉서블 디스플레이(1420)는, 제1 하우징 파트(1411)로부터 제2 하우징 파트(1412) 까지 연장될 수 있다. 수축 상태에서 시인가능한 플렉서블 디스플레이(1420)의 제1 부분(1421)은, 플렉서블 디스플레이(1420)의 전체 표시 영역 보다 작을 수 있다. 확장 상태에서, 상기 제1 부분(1421) 및, 수축 상태에서 숨겨진 플렉서블 디스플레이(1420)의 제2 부분(1422)이 보일 수 있다. 플렉서블 디스플레이(1420)의 제1 부분(1421)은, 수축 상태 및 확장 상태 전부에서 평평한 형태를 가지는 관점에서, 평면부로 지칭될 수 있다. 플렉서블 디스플레이(1420)의 제2 부분(1422)은, 수축 상태에서 적어도 부분적으로 감긴 형태를 가지는 관점에서, 롤링부로 지칭될 수 있다. 롤링부를 포함하는 관점에서, 플렉서블 디스플레이(1420)는, 롤러블 디스플레이로 지칭될 수 있다. Referring to FIGS. 14A and 14B , the electronic device (1401) may include a flexible display (1420) that is visible from the front of the housing. The flexible display (1420) may extend from a first housing part (1411) to a second housing part (1412). A first portion (1421) of the flexible display (1420) that is visible in a contracted state may be smaller than the entire display area of the flexible display (1420). In an expanded state, the first portion (1421) and a second portion (1422) of the flexible display (1420) that is hidden in the contracted state may be visible. The first portion (1421) of the flexible display (1420) may be referred to as a flat portion in terms of having a flat shape in both the contracted state and the expanded state. The second part (1422) of the flexible display (1420) may be referred to as a rolling part, from the perspective that it has a form that is at least partially rolled up in a contracted state. From the perspective that it includes the rolling part, the flexible display (1420) may be referred to as a rollable display.

도 14a를 참고하면, 일 실시예에 따른, 전자 장치(1401)는 플렉서블 디스플레이(1420) 상에, HDR 효과를 가지는 이미지(1430)를 표시할 수 있다. 도 12a 내지 도 12c의 시각적 객체(1232) 및/또는 도 13의 시각적 객체(1332)와 유사하게, 전자 장치(1401)는 HDR 효과를 가지는 이미지(1430)를 표시함을 나타내는 시각적 객체(1432)를 표시할 수 있다. 이미지(1430)는, 상기 제1 이미지에 대응하는 맵 정보 및/또는 디스플레이 제어 정보에 기반하여, SDR의 제1 다이나믹 레인지를 가지는 제1 이미지로부터 합성된, 제2 이미지에 대응할 수 있다. Referring to FIG. 14A, according to one embodiment, an electronic device (1401) may display an image (1430) having an HDR effect on a flexible display (1420). Similar to the visual object (1232) of FIGS. 12A to 12C and/or the visual object (1332) of FIG. 13, the electronic device (1401) may display a visual object (1432) indicating that the image (1430) having an HDR effect is displayed. The image (1430) may correspond to a second image synthesized from a first image having a first dynamic range of SDR based on map information and/or display control information corresponding to the first image.

HDR 효과를 가지는 이미지(1430)를 표시할 시, 전자 장치(1401)는, 플렉서블 디스플레이(1420)의 상태에 따라, 이미지(1430)의 다이나믹 레인지 및/또는 밝기 레벨을 변경할 수 있다. 도 14a를 참고하면, 플렉서블 디스플레이(1420)의 픽셀들(예, 시각적으로 노출된 픽셀들)의 밝기 분포가 도시된다. 예를 들어, 수축 상태 내에서, 전자 장치(1401)는, 이미지(1430)를 표시하기 위하여 제어되는 픽셀들을, lc1의 최소 휘도 및 lc2의 최대 휘도의 밝기 레벨의 범위 내에서 제어할 수 있다. 확장 상태 내에서, 전자 장치(1401)는, 상기 픽셀들을, lc1의 최소 휘도 및 lc3의 최대 휘도(예, lc2를 초과하는 최대 휘도)의 밝기 레벨의 범위 내에서 제어할 수 있다. 수축 상태로부터 확장 상태로 변경되는 동안, 전자 장치(1401)는, 최대 휘도를, lc2로부터 lc3로 점진적으로 변경할 수 있다. 확장 상태로부터 수축 상태로 변경되는 동안, 전자 장치(1401)는, 최대 휘도를, lc3로부터 lc2로 점진적으로 줄일 수 있다. 실시예가 이에 제한되는 것은 아니며, 수축 상태 내에서의 최소 휘도(예, lc1) 및 최대 휘도(lc2) 사이의 휘도 차이는, 확장 상태 내에서의 최소 휘도(예, lc1) 및 최대 휘도(lc3) 사이의 휘도 차이 보다 작을 수 있다. When displaying an image (1430) having an HDR effect, the electronic device (1401) may change a dynamic range and/or a brightness level of the image (1430) depending on a state of the flexible display (1420). Referring to FIG. 14A, a brightness distribution of pixels (e.g., visually exposed pixels) of the flexible display (1420) is illustrated. For example, within a contracted state, the electronic device (1401) may control pixels controlled to display the image (1430) within a brightness level range of a minimum brightness of lc1 and a maximum brightness of lc2. Within an expanded state, the electronic device (1401) may control the pixels within a brightness level range of a minimum brightness of lc1 and a maximum brightness of lc3 (e.g., a maximum brightness exceeding lc2). While changing from the contracted state to the expanded state, the electronic device (1401) can gradually change the maximum luminance from lc2 to lc3. While changing from the expanded state to the contracted state, the electronic device (1401) can gradually reduce the maximum luminance from lc3 to lc2. The embodiment is not limited thereto, and the luminance difference between the minimum luminance (e.g., lc1) and the maximum luminance (lc2) within the contracted state can be smaller than the luminance difference between the minimum luminance (e.g., lc1) and the maximum luminance (lc3) within the expanded state.

도 14a를 참고하면, 전자 장치(1401)는 랜드스케이프 모드에 기반하여, 플렉서블 디스플레이(1420)의 너비 또는 높이 중에서 높이의 방향을 따라 이미지(1430)를 표시할 수 있다. 실시예가 이에 제한되는 것은 아니다. 도 14b를 참고하면, 전자 장치(1401)는, 포트레이트 모드에 기반하여, 플렉서블 디스플레이(1420)의 너비의 방향을 따라 이미지(1430)를 표시할 수 있다. 전자 장치(1401)는, 가속도 센서 및/또는 지자기 센서의 센서 데이터를 이용하여, 포트레이트 모드 또는 랜드스케이프 모드 중에서 전자 장치(1401)의 모드를 결정할 수 있다. 포트레이트 모드 및 랜드스케이프 모드는, 플렉서블 디스플레이(1420) 상에 표시되는 UI의 기준 방향을 결정하기 위하여 정의된 모드일 수 있다. 전자 장치(1401)는, 플렉서블 디스플레이(1420) 상에 표시된, UI가 사용자에 의해 용이하게 인식되도록(예, 텍스트가 사용자에게 수평 방향을 따라 배열되도록), 포트레이트 모드 또는 랜드스케이프 모드 중에서 전자 장치(1401)의 모드를 결정할 수 있다. Referring to FIG. 14a, the electronic device (1401) may display an image (1430) along the direction of the height among the width or height of the flexible display (1420) based on the landscape mode. The embodiment is not limited thereto. Referring to FIG. 14b, the electronic device (1401) may display an image (1430) along the direction of the width of the flexible display (1420) based on the portrait mode. The electronic device (1401) may determine the mode of the electronic device (1401) among the portrait mode or the landscape mode by using sensor data of an acceleration sensor and/or a geomagnetic sensor. The portrait mode and the landscape mode may be modes defined to determine a reference direction of a UI displayed on the flexible display (1420). The electronic device (1401) can determine the mode of the electronic device (1401) among portrait mode or landscape mode so that the UI displayed on the flexible display (1420) can be easily recognized by the user (e.g., so that text is arranged along a horizontal direction to the user).

일 실시예에서, HDR 효과를 가지는 이미지(1430)를 표시할 시, 전자 장치(1401)는 플렉서블 디스플레이(1420)의 상이한 부분들(예, 제1 부분(1421) 및/또는 제2 부분(1422))의 밝기 레벨을, 상기 디스플레이 제어 정보에 기반하여, 다르게 결정할 수 있거나, 또는 설정할 수 있다. 예를 들어, 디스플레이 제어 정보에 기반하여, 전자 장치(1401)는 확장 상태에서, 플렉서블 디스플레이(1420)의 롤링부(예, 제2 부분(1422))가 제1 밝기 레벨을 가지고, 플렉서블 디스플레이(1420)의 평면부(예, 제1 부분(1421))가 상기 제1 밝기 레벨과 다른 제2 밝기 레벨을 가지도록, 플렉서블 디스플레이(1420)의 상이한 부분들의 밝기 레벨들을 결정할 수 있다. 확장 상태 내에서, 전자 장치(1401)는, 제1 밝기 레벨을 가지는 롤링부 및 제2 밝기 레벨을 가지는 평면부를 포함하는 플렉서블 디스플레이(1420) 상에, 이미지(1430)를 표시할 수 있다. In one embodiment, when displaying an image (1430) having an HDR effect, the electronic device (1401) may determine or set brightness levels of different portions (e.g., the first portion (1421) and/or the second portion (1422)) of the flexible display (1420) differently based on the display control information. For example, based on the display control information, the electronic device (1401) may determine brightness levels of different portions of the flexible display (1420) such that, in an expanded state, the rolling portion (e.g., the second portion (1422)) of the flexible display (1420) has a first brightness level and the flat portion (e.g., the first portion (1421)) of the flexible display (1420) has a second brightness level different from the first brightness level. Within the expanded state, the electronic device (1401) can display an image (1430) on a flexible display (1420) including a rolling portion having a first brightness level and a flat portion having a second brightness level.

도 14b를 참고하면, 플렉서블 디스플레이(1420)의 부분들(예, 제1 부분(1421) 및 제2 부분(14222))에 위치된 픽셀들의 밝기 분포가 도시된다. 제1 부분(1421)에 위치된 픽셀들은, lc1의 최소 휘도 및 lc2의 최대 휘도를 갖도록 제어될 수 있다. 제2 부분(1422)에 위치된 픽셀들은, lc1의 최소 휘도 및 lc3의 최대 휘도를 갖도록 제어될 수 있다. 롤링부인 제2 부분(1422)의 픽셀의 최대 휘도(lc3)가, 평면부인 제1 부분(1421)의 픽셀의 최대 휘도(lc2) 보다 높기 때문에, 제2 부분(1422)을 통해 표시되는 이미지(1430)의 일부분의 밝기 레벨이, 제1 부분(1421)을 통해 표시되는 이미지(1430)의 다른 부분의 밝기 레벨 보다 높을 수 있다. 실시예가 이에 제한되는 것은 아니다. Referring to FIG. 14B, the brightness distribution of pixels located in parts of the flexible display (1420) (e.g., the first part (1421) and the second part (14222)) is illustrated. The pixels located in the first part (1421) can be controlled to have a minimum brightness of lc1 and a maximum brightness of lc2. The pixels located in the second part (1422) can be controlled to have a minimum brightness of lc1 and a maximum brightness of lc3. Since the maximum brightness (lc3) of the pixels of the second part (1422), which is a rolling part, is higher than the maximum brightness (lc2) of the pixels of the first part (1421), which is a flat part, the brightness level of a part of the image (1430) displayed through the second part (1422) can be higher than the brightness level of another part of the image (1430) displayed through the first part (1421). The examples are not limited thereto.

일 실시예에 따른, 전자 장치(1401)는 수축 상태 및 확장 상태 사이에서 스위칭될 수 있다. 전자 장치(1401)는, 전자 장치(1401)의 상태를 변경하기 위한 (또는 전자 장치(1401)의 변형을 위한) 입력에 응답하여, 수축 상태 및 확장 상태 사이에서 스위칭할 수 있거나, 또는 토글할 수 있다. 수축 상태로부터 확장 상태로 변경하는 동안, 전자 장치(1401)는, 평면부(예, 제1 부분(1421))의 밝기 레벨을 점진적으로 변경할 수 있거나, 또는 증가할 수 있다. 예를 들어, 수축 상태로부터 확장 상태로 스위칭할 시, 평면부인 제1 부분(1421)의 픽셀의 최대 휘도(lc2)가, 롤링부인 제2 부분(1422)의 픽셀의 최대 휘도(lc3)로 (점진적으로) 증가될 수 있다. In one embodiment, the electronic device (1401) can be switched between a contracted state and an expanded state. The electronic device (1401) can switch, or toggle, between the contracted state and the expanded state in response to an input for changing the state of the electronic device (or for deforming the electronic device (1401)). While changing from the contracted state to the expanded state, the electronic device (1401) can gradually change or increase the brightness level of a flat portion (e.g., the first portion (1421)). For example, when switching from the contracted state to the expanded state, the maximum brightness (lc2) of the pixels of the flat portion, the first portion (1421), can (gradually) increase to the maximum brightness (lc3) of the pixels of the rolling portion, the second portion (1422).

한편, 확장 상태로부터 수축 상태로 변경하는 동안, 전자 장치(1401)는, 평면부(예, 제1 부분(1421)) 또는 롤링부(예, 제2 부분(1422)) 중 적어도 하나의 밝기 레벨을, 점진적으로 변경할 수 있거나, 또는 줄일 수 있다. 예를 들어, 확장 상태로부터 수축 상태로 스위칭할 시, 전자 장치(1401)는, 롤링부인 제2 부분(1422)의 픽셀의 최대 휘도(lc3)를, 평면부인 제1 부분(1421)의 픽셀의 최대 휘도(lc2)로 줄일 수 있다. Meanwhile, when changing from the expanded state to the contracted state, the electronic device (1401) can gradually change or reduce the brightness level of at least one of the flat portion (e.g., the first portion (1421)) or the rolling portion (e.g., the second portion (1422)). For example, when switching from the expanded state to the contracted state, the electronic device (1401) can reduce the maximum brightness (lc3) of the pixels of the second portion (1422), which is the rolling portion, to the maximum brightness (lc2) of the pixels of the first portion (1421), which is the flat portion.

도 14b를 참고하면, 수축 상태 내에서, 전자 장치(1401)는, lc1의 최소 휘도 및 lc2의 최대 휘도를 가지는 밝기 범위 내에서, 플렉서블 디스플레이(1420)의 픽셀들을 제어할 수 있다. 수축 상태로부터 확장 상태로 스위칭할 시, 전자 장치(1401)는, 최대 휘도를, lc2로부터 lc2를 초과하는 lc3로 증가할 수 있다. 한편, 확장 상태로부터 수축 상태로 스위칭할 시, 전자 장치(1401)는, 최대 휘도를, lc3로부터 lc3 미만의 lc2로 감소할 수 있다. Referring to FIG. 14B, within the contracted state, the electronic device (1401) can control the pixels of the flexible display (1420) within a brightness range having a minimum brightness of lc1 and a maximum brightness of lc2. When switching from the contracted state to the expanded state, the electronic device (1401) can increase the maximum brightness from lc2 to lc3 exceeding lc2. Meanwhile, when switching from the expanded state to the contracted state, the electronic device (1401) can decrease the maximum brightness from lc3 to lc2 less than lc3.

상술한 바와 같이, HDR 효과를 가지는 이미지(1430)를 표시할 시, 전자 장치(1401)는, 이미지(1430)의 최대 휘도를, 전자 장치(1401)의 상태(예, 수축 상태 및/또는 연장 상태)에 따라 변경할 수 있거나, 또는 증가할 수 있거나, 또는 줄일 수 있다. 또는, HDR 효과를 가지는 이미지(1430)를 표시할 시, 전자 장치(1401)는, 이미지(1430)가 표시되는 플렉서블 디스플레이(1420)의 픽셀의 밝기를 강화하는 정도를, 플렉서블 디스플레이(1420)의 부분들(예, 평면부인 제1 부분(1421) 및 롤링부인 제2 부분(1422))에서 다르게 결정할 수 있다. 롤러블 하우징을 포함하는 일 실시예에서, 전자 장치(1401)는, 플렉서블 디스플레이(1410)의 시인가능한 부분의 증가에 따라(예, 수축 상태로부터 확장 상태로 변경될 시), 이미지(1430)를 표시하기 위하여 제어되는 픽셀들의 최대 휘도를 점진적으로 증가할 수 있다. As described above, when displaying an image (1430) having an HDR effect, the electronic device (1401) may change, increase, or decrease the maximum brightness of the image (1430) depending on the state of the electronic device (1401) (e.g., a contracted state and/or an extended state). Alternatively, when displaying an image (1430) having an HDR effect, the electronic device (1401) may determine the degree to which the brightness of pixels of the flexible display (1420) on which the image (1430) is displayed is enhanced differently in parts of the flexible display (1420) (e.g., a first part (1421) which is a flat part and a second part (1422) which is a rolling part). In one embodiment including a rollable housing, the electronic device (1401) can incrementally increase the maximum brightness of pixels controlled to display an image (1430) as the viewable portion of the flexible display (1410) increases (e.g., when changing from a contracted state to an expanded state).

도 15는, HDR 모드에서 이미지(1550)를 표시하기 위하여, 일 실시예에 따른, HMD(head-mounted display) 장치(1501)에 의하여 수행되는, 예시적인 동작을 도시한다. 도 15의 HMD 장치(1501)는, 도 1 내지 도 8을 참고하여 설명된, 전자 장치(101)의 일 예일 수 있다. 예를 들어, 도 15의 HMD 장치(1501)는, 도 1 내지 도 8을 참고하여 설명된, 전자 장치(101)의 동작을 수행할 수 있다. FIG. 15 illustrates an exemplary operation performed by a head-mounted display (HMD) device (1501), according to one embodiment, to display an image (1550) in HDR mode. The HMD device (1501) of FIG. 15 may be an example of the electronic device (101) described with reference to FIGS. 1 to 8. For example, the HMD device (1501) of FIG. 15 may perform the operation of the electronic device (101) described with reference to FIGS. 1 to 8.

일 실시예에 따른, HMD 장치(1501)는, 사용자의 두 눈들(예, 좌측 눈(1531) 및 우측 눈(1532))에 맞는(contoured) 하우징을 포함할 수 있다. 예를 들어, HMD 장치(1501)는 사용자의 머리에 착용 가능한 하우징을 포함할 수 있다. HMD 장치(1501)는, 사용자에게 착용될 시, 사용자의 두 눈들 각각을 향하여 배치되도록 구성된, 디스플레이들을 포함할 수 있다. 도 15를 참고하면, HMD 장치(1501)는, 좌측 눈(1531)을 향하여 배치되도록 구성된 제1 디스플레이(1511) 및 우측 눈(1532)을 향하여 배치되도록 구성된 제2 디스플레이(1512)를 포함할 수 있다. In one embodiment, the HMD device (1501) may include a housing contoured to fit the user's two eyes (e.g., a left eye (1531) and a right eye (1532)). For example, the HMD device (1501) may include a housing wearable on the user's head. The HMD device (1501) may include displays configured to be positioned toward each of the user's two eyes when worn by the user. Referring to FIG. 15, the HMD device (1501) may include a first display (1511) configured to be positioned toward the left eye (1531) and a second display (1512) configured to be positioned toward the right eye (1532).

예를 들어, HMD 장치(1501)는, 사용자에게 착용될 시, 사용자의 두 눈들 각각을 향하여 배치되도록 구성된, 카메라들(예, 시선 추적(eye tracking, ET) 카메라)을 포함할 수 있다. 도 15를 참고하면, 상기 카메라들의 일 예로, 좌측 눈(1531)을 향하여 배치되도록 구성된 제1 카메라(1521) 및 우측 눈(1532)을 향하여 배치되도록 구성된 제2 카메라(1522)가 도시된다. 제1 카메라(1521) 및 제2 카메라(1522)로부터 획득된 이미지 및/또는 비디오를 이용하여, HMD 장치(1501)는, HMD 장치(1501)를 착용한 사용자의 시선을 탐지할 수 있다. HMD 장치(1501)는, 상기 시선과 관련된 정보를 획득할 수 있다. 상기 정보는, HMD 장치(1501)를 착용한 사용자의 시선 위치, 시선 방향, 및/또는 시선 오차를 포함할 수 있다. For example, the HMD device (1501) may include cameras (e.g., eye tracking (ET) cameras) configured to be positioned toward each of the user's two eyes when worn by the user. Referring to FIG. 15 , examples of the cameras include a first camera (1521) configured to be positioned toward the left eye (1531) and a second camera (1522) configured to be positioned toward the right eye (1532). Using images and/or videos acquired from the first camera (1521) and the second camera (1522), the HMD device (1501) may detect the gaze of the user wearing the HMD device (1501). The HMD device (1501) may acquire information related to the gaze. The information may include a gaze position, a gaze direction, and/or a gaze error of the user wearing the HMD device (1501).

일 실시예에 따른, HMD 장치(1501)는, 제1 디스플레이(1511) 및 제2 디스플레이(1512)를 이용하여, 이미지(1550)를 포함하는 화면(1540)을 표시할 수 있다. HDR 효과를 가지는 이미지(1550)를 표시할 시, HMD 장치(1501)는 HDR 효과를 가지는 이미지(1550)를 표시함을 나타내는 시각적 객체(1552)를, 화면(1540) 내에 더 표시할 수 있다. 도 1 내지 도 8을 참고하여 상술한 바와 같이, HMD 장치(1501)는, 제1 다이나믹 레인지를 가지는 제1 이미지, 맵 정보, 및 디스플레이 제어 정보를 이용하여, 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지를 가지는 제2 이미지를 생성할 수 있거나, 또는 합성할 수 있다. According to one embodiment, the HMD device (1501) can display a screen (1540) including an image (1550) using the first display (1511) and the second display (1512). When displaying the image (1550) having an HDR effect, the HMD device (1501) can further display a visual object (1552) indicating that the image (1550) having an HDR effect is displayed within the screen (1540). As described above with reference to FIGS. 1 to 8, the HMD device (1501) can generate or synthesize a second image having a second dynamic range wider than the first dynamic range, using the first image having the first dynamic range, map information, and display control information.

HMD 장치(1501)는 상기 제2 이미지를 표시하기 위하여, 제1 디스플레이(1511) 및/또는 제2 디스플레이(1512)를 제어할 수 있다. 예를 들어, 디스플레이 제어 정보에 기반하여 제2 이미지의 특정 부분에 대응하는 제1 디스플레이(1511) 및 제2 디스플레이(1512)의 부분들의 밝기를 강화하여, HMD 장치(1501)는 HDR 효과를 가지는 이미지(1550)를 표시할 수 있다. The HMD device (1501) can control the first display (1511) and/or the second display (1512) to display the second image. For example, the HMD device (1501) can display an image (1550) having an HDR effect by enhancing the brightness of portions of the first display (1511) and the second display (1512) corresponding to a specific portion of the second image based on the display control information.

일 실시예에서, HMD 장치(1501)는, 사용자가 응시하는 화면(1540) 내 영역(예, 포비티드(foveated) 영역(fa)) 및 나머지 영역을, 상이한 해상도들, 및/또는 상이한 재생율에 따라 렌더링할 수 있다. HMD 장치(1501)는, ET 카메라(예, 제1 카메라(1521) 및/또는 제2 카메라(1522))를 이용하여, 좌측 눈(1531)에 의해 응시되는 제1 디스플레이(1511) 내 포비티드 영역(fal), 및 우측 눈(1532)에 의해 응시되는 제2 디스플레이(1512) 내 포비티드 영역(far)을 추정할 수 있거나, 또는 확인할 수 있다. 포비티드 영역들(fal, far)을 이용하여, HMD 장치(1501)는, 화면(1540) 내 포비티드 영역(fa)을 결정할 수 있다. 포비티드 영역(fa)은, 시선 위치를 포함하는 화면(1540) 내 영역으로, HMD 장치(1501)를 착용한 사용자가 응시하는 화면(1540)의 일부분에 대응할 수 있다. In one embodiment, the HMD device (1501) can render a region (e.g., a foveated region (fa)) within the screen (1540) that the user is staring at and the remaining region at different resolutions and/or different refresh rates. The HMD device (1501) can estimate or determine, using ET cameras (e.g., the first camera (1521) and/or the second camera (1522)), the foveated region (fal) within the first display (1511) stared at by the left eye (1531) and the foveated region (far) within the second display (1512) stared at by the right eye (1532). Using the foveated regions (fal, far), the HMD device (1501) can determine the foveated region (fa) within the screen (1540). The foveated area (fa) is an area within the screen (1540) that includes the gaze position and may correspond to a part of the screen (1540) that a user wearing the HMD device (1501) is looking at.

일 실시예에 따른, HMD 장치(1501)는, 포비티드 영역(fa)의 밝기 레벨을 나머지 영역의 밝기 레벨과 상이한 밝기 레벨로 결정할 수 있거나, 또는 변경할 수 있다. 도 15를 참고하면, HMD 장치(1501)는, 시선이 향하는 포비티드 영역(fa)이 제1 밝기 레벨을 가지고, 상기 시선에서 벗어난 나머지 영역이 상기 제1 밝기 레벨과 다른 제2 밝기 레벨을 갖도록, 화면(1540)의 밝기 레벨을 결정할 수 있다. 예를 들어, 포비티드 영역(fa)의 상기 제1 밝기 레벨이, ld1의 최소 휘도 및 ld3의 최대 휘도를 가지는 밝기 범위 내에서 결정될 수 있다. 예를 들어, 나머지 영역의 상기 제2 밝기 레벨이, ld1의 최소 휘도 및 ld2의 최대 휘도를 가지는 밝기 범위 내에서 결정될 수 있다. ld2는 ld3 보다 작을 수 있다. 예를 들어, 나머지 영역의 제2 밝기 레벨이 포비티드 영역(fa)의 제1 밝기 레벨 보다 낮은 레벨로 결정될 수 있다. According to one embodiment, the HMD device (1501) may determine or change the brightness level of the foveated area (fa) to be a different brightness level from the brightness level of the remaining area. Referring to FIG. 15, the HMD device (1501) may determine the brightness level of the screen (1540) such that the foveated area (fa) toward which the gaze is directed has a first brightness level and the remaining area away from the gaze has a second brightness level different from the first brightness level. For example, the first brightness level of the foveated area (fa) may be determined within a brightness range having a minimum brightness of ld1 and a maximum brightness of ld3. For example, the second brightness level of the remaining area may be determined within a brightness range having a minimum brightness of ld1 and a maximum brightness of ld2. ld2 may be lower than ld3. For example, the second brightness level of the remaining area may be determined to be a level lower than the first brightness level of the foveated area (fa).

포비티드 영역(fa)의 밝기 레벨을 나머지 영역의 밝기 레벨 보다 높은 레벨로 변경한 상태에서, HMD 장치(1501)는 시선 위치의 이동을 탐지할 수 있다. HMD 장치(1501)는 이동된 시선 위치에 대응하는 포비티드 영역(fa')의 밝기 레벨을, 제2 밝기 레벨 보다 높은 밝기 레벨(예, 제1 밝기 레벨)로 (점진적으로) 변경할 수 있다. 예를 들어, HMD 장치(1501)는 포비티드 영역(fa')의 밝기 레벨을, ld1의 최소 휘도 및 ld3의 최대 휘도를 가지는 밝기 범위 내에서 결정할 수 있다. 상기 예시 내에서, HMD 장치(1501)는 포비티드 영역(fa)의 제1 밝기 레벨을, 상기 제1 밝기 레벨 보다 낮은 밝기 레벨(예, 제2 밝기 레벨)로 (점진적으로) 변경할 수 있다. 예를 들어, HMD 장치(1501)는 포비티드 영역(fa)의 밝기 레벨을, ld1의 최소 휘도 및 ld2의 최대 휘도를 가지는 밝기 범위 내에서 결정할 수 있다. The HMD device (1501) can detect the movement of the gaze position while changing the brightness level of the foveated region (fa) to a higher level than the brightness levels of the remaining regions. The HMD device (1501) can (gradually) change the brightness level of the foveated region (fa') corresponding to the moved gaze position to a brightness level higher than the second brightness level (e.g., the first brightness level). For example, the HMD device (1501) can determine the brightness level of the foveated region (fa') within a brightness range having a minimum brightness of ld1 and a maximum brightness of ld3. In the above example, the HMD device (1501) can (gradually) change the first brightness level of the foveated region (fa) to a brightness level lower than the first brightness level (e.g., the second brightness level). For example, the HMD device (1501) can determine the brightness level of the foveated area (fa) within a brightness range having a minimum brightness of ld1 and a maximum brightness of ld2.

상술한 바와 같이, 일 실시예에 따른, HMD 장치(1501)는, HMD 효과를 가지는 이미지(1550)를 표시하기 위하여, 디스플레이들(예, 제1 디스플레이(1511) 및 제2 디스플레이(1512))을 제어할 수 있다. HMD 효과를 가지는 이미지(1550)를 표시하는 동안, HMD 장치(1501)는, HMD 장치(1501)를 착용한 사용자의 시선 위치에 대응하는 화면(1540) 내 영역(예, 포비티드 영역(fa))을 탐지할 수 있거나, 또는 식별할 수 있다. HMD 장치(1501)는 포비티드 영역(fa)에 대응하는 픽셀들의 밝기 레벨을, 나머지 영역에 대응하는 픽셀들의 밝기 레벨 보다 강화할 수 있다. HMD 장치(1501)는 시선 방향 및/또는 시선 위치에 기반하여, 포비티드 영역(fa)의 이동을 확인할 수 있거나, 또는 예측할 수 있다. 예측된 포비티드 영역(fa)의 이동에 기반하여, HMD 장치(1501)는 픽셀들의 밝기 레벨을 증가하거나, 또는 감소할 수 있다. As described above, according to one embodiment, the HMD device (1501) can control the displays (e.g., the first display (1511) and the second display (1512)) to display an image (1550) having an HMD effect. While displaying the image (1550) having the HMD effect, the HMD device (1501) can detect or identify an area (e.g., a foveated area (fa)) within the screen (1540) corresponding to a gaze position of a user wearing the HMD device (1501). The HMD device (1501) can enhance the brightness level of pixels corresponding to the foveated area (fa) more than the brightness level of pixels corresponding to the remaining areas. The HMD device (1501) can identify or predict the movement of the foveated area (fa) based on the gaze direction and/or the gaze position. Based on the movement of the predicted foveated area (fa), the HMD device (1501) can increase or decrease the brightness level of the pixels.

도 16은, HDR 모드에서 이미지(1610)를 표시할 시, 사용자와 관련된 정보를 이용하여 디스플레이(120)의 밝기 레벨을 적어도 부분적으로 강화하는, 전자 장치(101)의 예시적인 동작을 도시한다. FIG. 16 illustrates an exemplary operation of an electronic device (101) to at least partially enhance the brightness level of a display (120) using user-related information when displaying an image (1610) in HDR mode.

도 16을 참고하면, HDR 효과를 가지는 이미지(1610)를 표시하는 전자 장치(101)의 예시적인 상태가 도시된다. 전자 장치(101)는 제1 다이나믹 레인지(예, SDR)를 가지는 제1 이미지에, 맵 정보 및 디스플레이 제어 정보를 적용하여, 제1 다이나믹 레인지 보다 넓은 제2 다이나믹 레인지(예, HDR)를 가지는 제2 이미지를 생성할 수 있거나, 또는 합성할 수 있다. 제2 이미지에 기반하여 디스플레이(120)를 제어하여, 전자 장치(101)는 HDR 효과를 가지는 이미지(1610)를 표시할 수 있다. Referring to FIG. 16, an exemplary state of an electronic device (101) displaying an image (1610) having an HDR effect is illustrated. The electronic device (101) can apply map information and display control information to a first image having a first dynamic range (e.g., SDR) to generate or synthesize a second image having a second dynamic range (e.g., HDR) wider than the first dynamic range. By controlling the display (120) based on the second image, the electronic device (101) can display the image (1610) having an HDR effect.

일 실시예에서, 도 15를 참고하여 상술된, HMD 장치(1501)와 유사하게, 전자 장치(101)는, 시선 위치를 이용하여 디스플레이(120)의 밝기 레벨을 적어도 부분적으로 결정할 수 있거나, 또는 변경할 수 있다. 전자 장치(101)는, 디스플레이(120)가 위치된 방향을 향하도록 배치된 카메라(예, 셀피 카메라 및/또는 프론트 사이드 카메라)를 포함할 수 있다. 상기 카메라를 통하여 획득된 이미지 및/또는 비디오를 이용하여, 전자 장치(101)는, 디스플레이(120)를 응시하는 사용자의 두 눈들을 탐지할 수 있다. 두 눈들에 대한 정보를 이용하여 전자 장치(101)는, 사용자에 의해 응시되고 있는 디스플레이(120)의 부분(1630)을 계산할 수 있거나, 또는 추정할 수 있다. In one embodiment, similar to the HMD device (1501) described above with reference to FIG. 15, the electronic device (101) may use gaze position to at least partially determine or change a brightness level of the display (120). The electronic device (101) may include a camera (e.g., a selfie camera and/or a front side camera) positioned to face the direction in which the display (120) is positioned. Using images and/or video acquired through the camera, the electronic device (101) may detect the two eyes of the user gazing at the display (120). Using information about the two eyes, the electronic device (101) may calculate or estimate the portion (1630) of the display (120) that is being gazed at by the user.

일 실시예에 따른, 전자 장치(101)는, 디스플레이(120)의 부분(1630)에 배치된 픽셀들을, le1의 최소 휘도 및 le3의 최대 휘도 사이의 범위에서 제어할 수 있다. 전자 장치(101)는, 부분(1630)과 상이한, 디스플레이(120)의 나머지 부분의 픽셀들을, le1의 최소 휘도 및 le2의 최대 휘도 사이의 범위에서 제어할 수 있다. 예를 들어, 부분(1630)의 픽셀들이 가질 수 있는 최대 휘도(le3)는, 나머지 부분의 픽셀들이 가질 수 있는 최대 휘도(le2) 보다 높을 수 있다. 예를 들어, 부분(1630)에 대응하는 화면 및/또는 이미지(1610)의 일부분이, 다른 부분 보다 밝게 표현되도록, 전자 장치(101)는 디스플레이(120)의 픽셀들의 밝기 레벨들을 변경할 수 있거나, 또는 결정할 수 있다. According to one embodiment, the electronic device (101) can control pixels arranged in a portion (1630) of the display (120) within a range between a minimum brightness of le1 and a maximum brightness of le3. The electronic device (101) can control pixels of a remaining portion of the display (120), which is different from the portion (1630), within a range between the minimum brightness of le1 and the maximum brightness of le2. For example, the maximum brightness (le3) that the pixels of the portion (1630) can have can be higher than the maximum brightness (le2) that the pixels of the remaining portion can have. For example, the electronic device (101) can change or determine brightness levels of the pixels of the display (120) such that a portion of the screen and/or image (1610) corresponding to the portion (1630) is expressed brighter than the other portions.

일 실시예에 따른, 전자 장치(101)는, 디스플레이(120)를 응시하는 사용자의 시선의 이동에 따라, 상대적으로 높은 밝기 레벨에 기반하여 제어되는 부분(1630)의 사이즈 및/또는 위치를 변경할 수 있다. 예를 들어, 시선의 이동 방향에 기반하여, 전자 장치(101)는 디스플레이(120) 내에서 부분(1630)을 평행이동할 수 있다. 예를 들어, 시선의 이동 속력에 기반하여, 전자 장치(101)는 부분(1630)의 사이즈를 증가하거나, 또는 줄일 수 있다. According to one embodiment, the electronic device (101) can change the size and/or position of the portion (1630) controlled based on a relatively high brightness level according to the movement of the gaze of the user gazing at the display (120). For example, based on the direction of the gaze movement, the electronic device (101) can translate the portion (1630) within the display (120). For example, based on the speed of the gaze movement, the electronic device (101) can increase or decrease the size of the portion (1630).

일 실시예에서, 이미지가 캡쳐된 시점의 외부 환경의 명암비와 관련된 정보를 이용하여, 상기 이미지를 표시할 시에, 디스플레이 상에 상기 명암비와 같거나, 또는 유사한 명암비를 가지는 이미지를 표시하는 방안이 요구될 수 있다. 일 실시예에서, 이미지의 화면 앞의 모습(front-of-screen appearance)을 개선하는 방안이 요구될 수 있다. 상술한 바와 같은, 일 실시예(an embodiment)에 따른, 전자 장치(electronic device)(예, 도 1의 전자 장치(101), 및/또는 도 9의 전자 장치(901))는, 디스플레이(예, 도 1, 및/또는 도 2의 디스플레이(120)), 처리 회로를 포함하는 적어도 하나의 프로세서(예, 도 2의 프로세서(210)), 및 인스트럭션들을 저장하는 하나 이상의 저장 매체들을 포함하는 메모리(예, 도 2의 메모리(215))를 포함할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이의 밝기 레벨이 제1 밝기 레벨로 설정되는 동안, 제1 다이나믹 레인지를 가지는 제1 이미지(예, 도 1의 이미지(112))를 표시하기 위한 이벤트를 검출하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 이벤트에 응답하여, 상기 제1 이미지를 포함하는 파일(예, 도 1의 파일(110)) 내의 메타데이터로부터, 상기 제1 이미지의 일부분에 대하여 시각적으로 강조된 상기 제1 이미지의 다른 부분을 위한 맵 정보(예, 도 1의 맵 정보(114)), 및 상기 제1 이미지의 표시와 관련하여 상기 디스플레이의 밝기 레벨을 변경하는 디스플레이 제어 정보(예, 도 1의 디스플레이 제어 정보(116))를 획득하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 이미지에 상기 맵 정보를 적용함으로써, 제2 이미지(예, 도 1의 이미지(130))를 생성하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이 제어 정보에 기반하여 상기 디스플레이의 밝기 레벨을, 상기 제1 밝기 레벨로부터 상기 제1 밝기 레벨보다 높은 제2 밝기 레벨로 설정하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지를 가지는 상기 제1 이미지가 상기 디스플레이 상에서 보여지도록, 상기 제2 밝기 레벨로 설정된 상기 디스플레이 상에서 상기 제2 이미지를 표시하도록, 상기 전자 장치를 야기할 수 있다. 일 실시예에 따른, 전자 장치는, 이미지가 캡쳐된 시점의 외부 환경의 명암비와 관련된 정보를 이용하여, 상기 이미지를 표시할 시에, 디스플레이 상에 상기 명암비와 같거나, 또는 유사한 명암비를 가지는 이미지를 표시할 수 있다. 일 실시예에 따른, 전자 장치는 이미지의 화면 앞의 모습을 개선할 수 있다. In one embodiment, a method may be required to display an image having a contrast ratio equal to or similar to the contrast ratio on a display by using information related to a contrast ratio of an external environment at a time when an image is captured, when displaying the image. In one embodiment, a method may be required to improve a front-of-screen appearance of an image. As described above, an electronic device (e.g., the electronic device (101) of FIG. 1 and/or the electronic device (901) of FIG. 9) according to an embodiment may include a display (e.g., the display (120) of FIG. 1 and/or FIG. 2), at least one processor including a processing circuit (e.g., the processor (210) of FIG. 2), and a memory including one or more storage media storing instructions (e.g., the memory (215) of FIG. 2). The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to detect an event for displaying a first image (e.g., image (112) of FIG. 1 ) having a first dynamic range while a brightness level of the display is set to a first brightness level. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device, in response to the event, to obtain, from metadata in a file (e.g., file (110) of FIG. 1 ) containing the first image, map information for another portion of the first image that is visually emphasized with respect to a portion of the first image (e.g., map information (114) of FIG. 1 ), and display control information for changing a brightness level of the display in connection with the display of the first image (e.g., display control information (116) of FIG. 1 ). The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate a second image (e.g., image (130) of FIG. 1) by applying the map information to the first image. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to set a brightness level of the display from the first brightness level to a second brightness level higher than the first brightness level based on the display control information. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to display the second image on the display set to the second brightness level such that the first image having a second dynamic range wider than the first dynamic range is shown on the display. According to one embodiment, the electronic device can display an image having a contrast ratio equal to or similar to the contrast ratio on the display by using information related to the contrast ratio of the external environment at the time when the image is captured. According to one embodiment, the electronic device can improve the appearance of the front screen of the image.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이 상에 상기 제1 이미지의 사이즈보다 작은 사이즈를 가지고, 상기 제1 다이나믹 레인지를 가지는, 썸네일 이미지를 표시하는 동안, 상기 썸네일 이미지와 관련된 입력에 의해 발생된 상기 이벤트를 검출하도록, 상기 전자 장치를 야기할 수 있다.For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to detect the event generated by an input related to the thumbnail image while displaying the thumbnail image on the display, the thumbnail image having a size smaller than a size of the first image and having the first dynamic range.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이 제어 정보를 이용하여, 상기 제1 다이나믹 레인지에 의해 나타나는 최소 밝기를 가지는 상기 제1 이미지의 일부분에 대응하는 상기 디스플레이의 적어도 하나의 픽셀이, 상기 제2 다이나믹 레인지의 최소 밝기를 가지도록, 상기 디스플레이를 제어하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 다이나믹 레인지에 의해 나타나는 최대 밝기를 가지는 상기 제1 이미지의 상기 다른 부분에 대응하는 상기 디스플레이의 적어도 하나의 다른 픽셀이, 상기 제2 다이나믹 레인지의 최대 밝기를 가지도록, 상기 디스플레이를 제어하도록, 상기 전자 장치를 야기할 수 있다.For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to control the display, using the display control information, such that at least one pixel of the display corresponding to a portion of the first image having a minimum brightness represented by the first dynamic range has a minimum brightness of the second dynamic range. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to control the display such that at least one other pixel of the display corresponding to a different portion of the first image having a maximum brightness represented by the first dynamic range has a maximum brightness of the second dynamic range.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 파일 내 상기 제1 이미지의 합성에 이용되었던, 복수의 제3 이미지들의 제3 다이나믹 레인지들 전체의 사이즈, 및 상기 제1 다이나믹 레인지의 사이즈 사이의 비율인, 상기 디스플레이 제어 정보를 획득하도록, 상기 전자 장치를 야기할 수 있다.For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to obtain display control information, wherein the display control information is a ratio between a size of a total of third dynamic ranges of a plurality of third images that were used to synthesize the first image in the file, and a size of the first dynamic range.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 파일로부터, 상기 제1 이미지의 색 공간을 확장하기 위한 상기 맵 정보를 획득하도록, 상기 전자 장치를 야기할 수 있다.For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to obtain map information for extending a color space of the first image from the file.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 파일로부터 획득된 상기 맵 정보로부터, 상기 제1 이미지의 상이한 부분들의 밝기 레벨들을 각각 나타내는 값들이 포함된 2 차원 배열(array)을 생성하도록, 상기 전자 장치를 야기할 수 있다. 상기 2 차원 배열의 너비, 및 높이는, 상기 제1 이미지의 너비, 및 높이 보다 작을 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate, from the map information obtained from the file, a two-dimensional array comprising values each representing brightness levels of different portions of the first image. A width and a height of the two-dimensional array may be less than a width and a height of the first image.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제2 밝기 레벨로 설정된 상기 디스플레이 상에, 상기 제2 이미지가 배치된 실행 화면을 표시할 시에, 상기 제2 이미지에 대응하는 상기 디스플레이의 제1 표시 영역 내 픽셀들이 상기 제2 밝기 레벨에서 동작하고, 상기 제2 이미지에 인접한 상기 실행 화면에 대응하는 상기 디스플레이의 제2 표시 영역 내 픽셀들이 상기 제1 밝기 레벨에서 동작하도록, 상기 디스플레이를 제어하도록, 상기 전자 장치를 야기할 수 있다.For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to control the display such that, when displaying an execution screen having the second image arranged on the display set to the second brightness level, pixels within a first display area of the display corresponding to the second image operate at the second brightness level, and pixels within a second display area of the display corresponding to the execution screen adjacent to the second image operate at the first brightness level.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 파일로부터 획득된 상기 디스플레이 제어 정보와 함께, 상기 디스플레이에 의해 표시가능한 밝기 레벨의 레인지, 상기 전자 장치의 배터리의 SOC(state of charge), 또는 상기 제2 이미지를 표시할 시 상기 디스플레이의 OPR(on pixel ratio) 중 적어도 하나를 이용하여, 상기 제2 밝기 레벨을 결정하도록, 상기 전자 장치를 야기할 수 있다.For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to determine the second brightness level by using at least one of a range of brightness levels displayable by the display, a state of charge (SOC) of a battery of the electronic device, or an on pixel ratio (OPR) of the display when displaying the second image, together with the display control information obtained from the file.

상술한 바와 같은, 일 실시예에서, 디스플레이를 포함하는 전자 장치의 방법이 제공될 수 있다. 상기 방법은, 상기 디스플레이의 밝기 레벨이 제1 밝기 레벨로 설정되는 동안, 제1 다이나믹 레인지를 가지는 제1 이미지를 표시하기 위한 이벤트를 검출하는 동작을 포함할 수 있다. 상기 방법은, 상기 이벤트에 응답하여, 상기 제1 이미지를 포함하는 파일 내의 메타데이터로부터, 상기 제1 이미지의 일부분에 대하여 시각적으로 강조된 상기 제1 이미지의 다른 부분을 위한 맵 정보, 및 상기 제1 이미지의 표시와 관련하여 상기 디스플레이의 밝기 레벨을 변경하는 디스플레이 제어 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 이미지에 상기 맵 정보를 적용함으로써, 제2 이미지를 생성하는 동작을 포함할 수 있다. 상기 방법은, 상기 디스플레이 제어 정보에 기반하여 상기 디스플레이의 밝기 레벨을, 상기 제1 밝기 레벨로부터 상기 제1 밝기 레벨보다 높은 제2 밝기 레벨로 설정하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지를 가지는 상기 제1 이미지가 상기 디스플레이 상에서 보여지도록, 상기 제2 밝기 레벨로 설정된 상기 디스플레이 상에서 상기 제2 이미지를 표시하는 동작을 포함할 수 있다.In one embodiment, as described above, a method of an electronic device including a display may be provided. The method may include an operation of detecting an event for displaying a first image having a first dynamic range while a brightness level of the display is set to a first brightness level. The method may include an operation of, in response to the event, obtaining, from metadata in a file including the first image, map information for another portion of the first image visually emphasized with respect to a portion of the first image, and display control information for changing a brightness level of the display in relation to displaying the first image. The method may include an operation of generating a second image by applying the map information to the first image. The method may include an operation of setting a brightness level of the display from the first brightness level to a second brightness level higher than the first brightness level, based on the display control information. The method may include displaying the second image on the display set to the second brightness level such that the first image having a second dynamic range wider than the first dynamic range is shown on the display.

예를 들어, 상기 검출하는 동작은, 상기 디스플레이 상에 상기 제1 이미지의 사이즈보다 작은 사이즈를 가지고, 상기 제1 다이나믹 레인지를 가지는, 썸네일 이미지를 표시하는 동안, 상기 썸네일 이미지와 관련된 입력에 의해 발생된 상기 이벤트를 검출하는 동작을 포함할 수 있다.For example, the detecting operation may include an operation of detecting the event generated by an input related to the thumbnail image while displaying a thumbnail image on the display, the thumbnail image having a size smaller than the size of the first image and having the first dynamic range.

예를 들어, 상기 설정하는 동작은, 상기 디스플레이 제어 정보를 이용하여, 상기 제1 다이나믹 레인지에 의해 나타나는 최소 밝기를 가지는 상기 제1 이미지의 일부분에 대응하는 상기 디스플레이의 적어도 하나의 픽셀이, 상기 제2 다이나믹 레인지의 최소 밝기를 가지도록, 상기 디스플레이를 제어하는 동작을 포함할 수 있다. 상기 설정하는 동작은, 상기 제1 다이나믹 레인지에 의해 나타나는 최대 밝기를 가지는 상기 제1 이미지의 상기 다른 부분에 대응하는 상기 디스플레이의 적어도 하나의 다른 픽셀이, 상기 제2 다이나믹 레인지의 최대 밝기를 가지도록, 상기 디스플레이를 제어하는 동작을 포함할 수 있다.For example, the setting operation may include an operation of controlling the display, using the display control information, such that at least one pixel of the display corresponding to a portion of the first image having a minimum brightness represented by the first dynamic range has a minimum brightness of the second dynamic range. The setting operation may include an operation of controlling the display such that at least one other pixel of the display corresponding to another portion of the first image having a maximum brightness represented by the first dynamic range has a maximum brightness of the second dynamic range.

예를 들어, 상기 획득하는 동작은, 상기 파일 내 상기 제1 이미지의 합성에 이용되었던, 복수의 제3 이미지들의 제3 다이나믹 레인지들 전체의 사이즈, 및 상기 제1 다이나믹 레인지의 사이즈 사이의 비율인, 상기 디스플레이 제어 정보를 획득하는 동작을 포함할 수 있다.For example, the obtaining operation may include obtaining the display control information, which is a ratio between the size of the entire third dynamic ranges of the plurality of third images used in synthesizing the first image in the file and the size of the first dynamic range.

예를 들어, 상기 획득하는 동작은, 상기 파일로부터, 상기 제1 이미지의 색 공간을 확장하기 위한 상기 맵 정보를 획득하는 동작을 포함할 수 있다.For example, the obtaining operation may include obtaining map information for extending a color space of the first image from the file.

예를 들어, 상기 생성하는 동작은, 상기 파일로부터 획득된 상기 맵 정보로부터, 상기 제1 이미지의 상이한 부분들의 밝기 레벨들을 각각 나타내는 값들이 포함된 2 차원 배열을 생성하는 동작을 포함할 수 있다. 상기 2 차원 배열의 너비, 및 높이는, 상기 제1 이미지의 너비, 및 높이 보다 작을 수 있다. For example, the generating operation may include generating a two-dimensional array, from the map information obtained from the file, each of which includes values representing brightness levels of different portions of the first image. A width and a height of the two-dimensional array may be smaller than a width and a height of the first image.

예를 들어, 상기 표시하는 동작은, 상기 제2 밝기 레벨로 설정된 상기 디스플레이 상에, 상기 제2 이미지가 배치된 실행 화면을 표시할 시, 상기 제2 이미지에 대응하는 상기 디스플레이의 제1 표시 영역 내 픽셀들이 상기 제2 밝기 레벨에서 동작하도록, 상기 디스플레이를 제어하는 동작을 포함할 수 있다. 상기 표시하는 동작은, 상기 제2 이미지에 인접한 상기 실행 화면에 대응하는 상기 디스플레이의 제2 표시 영역 내 픽셀들이 상기 제2 밝기 레벨에서 동작하도록, 상기 디스플레이를 제어하는 동작을 포함할 수 있다.For example, the displaying operation may include an operation of controlling the display so that, when displaying an execution screen on which the second image is arranged on the display set to the second brightness level, pixels in a first display area of the display corresponding to the second image operate at the second brightness level. The displaying operation may include an operation of controlling the display so that pixels in a second display area of the display corresponding to the execution screen adjacent to the second image operate at the second brightness level.

예를 들어, 상기 설정하는 동작은, 상기 파일로부터 획득된 상기 디스플레이 제어 정보와 함께, 상기 디스플레이에 의해 표시가능한 밝기 레벨의 레인지, 상기 전자 장치의 배터리의 SOC(state of charge), 또는 상기 제2 이미지를 표시할 시 상기 디스플레이의 OPR(on pixel ratio) 중 적어도 하나를 이용하여, 상기 제2 밝기 레벨을 결정하는 동작을 포함할 수 있다.For example, the setting operation may include an operation of determining the second brightness level by using at least one of a range of brightness levels displayable by the display, a state of charge (SOC) of a battery of the electronic device, or an on pixel ratio (OPR) of the display when displaying the second image, together with the display control information obtained from the file.

상술한 바와 같은, 일 실시예에 따른, 전자 장치(electronic device)는, 적어도 하나의 카메라, 처리 회로를 포함하는 적어도 하나의 프로세서, 및 인스트럭션들을 저장하는 하나 이상의 저장 매체들을 포함하는 메모리를 포함할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 촬영 입력에 응답하여, 복수의 이미지들을 획득하도록 상기 적어도 하나의 카메라를 제어하도록, 상기 전자 장치를 야기할 수 있다. 상기 복수의 이미지들은, 제1 다이나믹 레인지에 따라 획득된 제1 이미지 및 상기 제1 다이나믹 레인지와 적어도 부분적으로 다른 제2 다이나믹 레인지를 가지는 제2 이미지를 포함하고, 상기 제1 다이나믹 레인지의 비트 뎁스는, 상기 제2 다이나믹 레인지의 비트 뎁스와 동일할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 복수의 이미지들의 적어도 일부분을 이용하여 제3 다이나믹 레인지를 가지는 제3 이미지를 획득하도록, 상기 전자 장치를 야기할 수 있다. 상기 제3 다이나믹 레인지의 비트 뎁스는, 상기 제1 다이나믹 레인지의 비트 뎁스와 동일할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 복수의 이미지들을 이용하여 상기 제3 이미지의 일부분에 대하여 시각적으로 강조된 상기 제3 이미지의 다른 부분을 위한 맵 정보를 생성하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제3 이미지가 제4 다이나믹 레인지를 가지는 이미지로 보여지도록, 디스플레이 장치의 밝기 레벨을 변경하기 위한 디스플레이 제어 정보를 결정하도록, 상기 전자 장치를 야기할 수 있다. 상기 제4 다이나믹 레인지의 비트 뎁스는, 상기 제3 다이나믹 레인지의 상기 비트 뎁스보다 클 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 맵 정보, 및 상기 디스플레이 제어 정보를 포함하는 메타데이터 및 상기 제3 이미지를 포함하는 파일을 생성하도록, 상기 전자 장치를 야기할 수 있다.According to one embodiment of the present invention, an electronic device as described above may include at least one camera, at least one processor including a processing circuit, and a memory including one or more storage media storing instructions. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to control the at least one camera to acquire a plurality of images in response to a photographing input. The plurality of images may include a first image acquired according to a first dynamic range and a second image having a second dynamic range at least partially different from the first dynamic range, wherein a bit depth of the first dynamic range may be the same as a bit depth of the second dynamic range. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to acquire a third image having a third dynamic range using at least a portion of the plurality of images. The bit depth of the third dynamic range may be the same as the bit depth of the first dynamic range. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate map information for another portion of the third image visually emphasized with respect to a portion of the third image using the plurality of images. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to determine display control information for changing a brightness level of the display device so that the third image is displayed as an image having a fourth dynamic range. The bit depth of the fourth dynamic range may be greater than the bit depth of the third dynamic range. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate a file including metadata including the map information and the display control information and the third image.

예를 들어, 상기 맵 정보는, 상기 제3 이미지를 표시하기 위한 이벤트에 기반하여, HDR(high dynamic range)을 지원하는 디스플레이 장치에 의해 표시되기 위하여, 상기 제3 이미지에 적용될 수 있다. For example, the map information may be applied to the third image to be displayed by a display device supporting HDR (high dynamic range), based on an event for displaying the third image.

예를 들어, 상기 디스플레이 제어 정보는, 상기 이벤트에 기반하여 상기 제3 이미지를 표시하는 상기 디스플레이 장치의 밝기 레벨을 변경하기 위하여 이용될 수 있다. For example, the display control information may be used to change a brightness level of the display device displaying the third image based on the event.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 촬영 입력에 응답하여 상기 제1 이미지, 및 상기 제2 이미지를 획득할 시, 상기 제1 이미지를 획득한 이후, 상기 제1 다이나믹 레인지와 적어도 부분적으로 다른 상기 제2 다이나믹 레인지를 가지는 상기 제2 이미지를 획득하기 위하여, 상기 제1 이미지를 획득한 시점에서의 상기 적어도 하나의 카메라의 셔터 스피드, ISO 감도, 조리개의 개방 정도 또는 노출 값 중 적어도 하나와 상이한 속성을 갖도록 상기 적어도 하나의 카메라를 제어하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 속성을 가지는 상기 적어도 하나의 카메라를 이용하여, 상기 제2 이미지를 획득하도록, 상기 전자 장치를 야기할 수 있다.For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to control the at least one camera to have a property different from at least one of a shutter speed, an ISO sensitivity, an aperture opening, or an exposure value of the at least one camera at the time the first image was acquired, in order to acquire the first image and the second image in response to the photographing input, and to acquire the second image having the second dynamic range at least partially different from the first dynamic range after acquiring the first image. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to acquire the second image using the at least one camera having the property.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 복수의 이미지들의 다이나믹 레인지들 전체에 대응하는 상기 제4 다이나믹 레인지의 사이즈 및 상기 제3 다이나믹 레인지 사이의 비율을 포함하는 상기 디스플레이 제어 정보를 포함하는 상기 파일을 생성하도록, 상기 전자 장치를 야기할 수 있다.For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate the file including the display control information, the file including a size of the fourth dynamic range and a ratio between the third dynamic range and the overall dynamic range of the plurality of images.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제3 이미지의 지정된 원색의 색차 성분의 레벨을 나타내는 상기 맵 정보를 생성하도록, 상기 전자 장치를 야기할 수 있다.For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate map information representing levels of chrominance components of specified primary colors of the third image.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제3 이미지의 상이한 부분들의 밝기 레벨들을 나타내는 값들을 포함하는, 2 차원 배열의 형태를 가지는, 상기 맵 정보를 생성하도록, 상기 전자 장치를 야기할 수 있다. 상기 2 차원 배열의 너비, 및 높이는, 상기 제3 이미지의 너비, 및 높이 보다 작을 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate the map information having a form of a two-dimensional array, the two-dimensional array including values representing brightness levels of different portions of the third image. A width and a height of the two-dimensional array may be less than a width and a height of the third image.

상술한 바와 같은, 일 실시예에서, 적어도 하나의 카메라를 포함하는 전자 장치의 방법이 제공될 수 있다. 상기 방법은, 촬영 입력에 응답하여, 복수의 이미지들을 획득하도록 상기 적어도 하나의 카메라를 제어하는 동작을 포함할 수 있다. 상기 복수의 이미지들은, 제1 다이나믹 레인지에 따라 획득된 제1 이미지 및 상기 제1 다이나믹 레인지와 적어도 부분적으로 다른 제2 다이나믹 레인지를 가지는 제2 이미지를 포함하고, 상기 제1 다이나믹 레인지의 비트 뎁스는, 상기 제2 다이나믹 레인지의 비트 뎁스와 동일할 수 있다. 상기 방법은, 상기 복수의 이미지들의 적어도 일부분을 이용하여 제3 다이나믹 레인지를 가지는 제3 이미지를 획득하는 동작을 포함할 수 있다. 상기 제3 다이나믹 레인지의 비트 뎁스는, 상기 제1 다이나믹 레인지의 비트 뎁스와 동일할 수 있다. 상기 방법은, 상기 복수의 이미지들을 이용하여 상기 제3 이미지의 일부분에 대하여 시각적으로 강조된 상기 제3 이미지의 다른 부분을 위한 맵 정보를 생성하는 동작을 포함할 수 있다. 상기 제3 이미지가 제4 다이나믹 레인지를 가지는 이미지로 보여지도록, 디스플레이 장치의 밝기 레벨을 변경하기 위한 디스플레이 제어 정보를 결정하는 동작을 포함할 수 있다. 상기 제4 다이나믹 레인지의 비트 뎁스는, 상기 제3 다이나믹 레인지의 상기 비트 뎁스보다 클 수 있다. 상기 방법은, 상기 맵 정보, 및 상기 디스플레이 제어 정보를 포함하는 메타데이터 및 상기 제3 이미지를 포함하는 파일을 생성하는 동작을 포함할 수 있다.In one embodiment as described above, a method of an electronic device including at least one camera may be provided. The method may include an operation of controlling the at least one camera to acquire a plurality of images in response to a photographing input. The plurality of images may include a first image acquired according to a first dynamic range and a second image having a second dynamic range at least partially different from the first dynamic range, wherein a bit depth of the first dynamic range may be the same as a bit depth of the second dynamic range. The method may include an operation of acquiring a third image having a third dynamic range using at least a portion of the plurality of images. The bit depth of the third dynamic range may be the same as a bit depth of the first dynamic range. The method may include an operation of generating map information for another portion of the third image visually emphasized for a portion of the third image using the plurality of images. The method may include an operation of determining display control information for changing a brightness level of a display device so that the third image is displayed as an image having a fourth dynamic range. A bit depth of the fourth dynamic range may be greater than the bit depth of the third dynamic range. The method may include an operation of generating a file including metadata including the map information and the display control information and the third image.

예를 들어, 상기 맵 정보는, 상기 제3 이미지를 표시하기 위한 이벤트에 기반하여, HDR(high dynamic range)을 지원하는 디스플레이 장치에 의해 표시되기 위하여, 상기 제3 이미지에 적용될 수 있다. For example, the map information may be applied to the third image to be displayed by a display device supporting HDR (high dynamic range), based on an event for displaying the third image.

예를 들어, 상기 디스플레이 제어 정보는, 상기 이벤트에 기반하여 상기 제3 이미지를 표시하는 상기 디스플레이 장치의 밝기 레벨을 변경하기 위하여 이용될 수 있다. For example, the display control information may be used to change a brightness level of the display device displaying the third image based on the event.

예를 들어, 상기 제어하는 동작은, 상기 촬영 입력에 응답하여 상기 제1 이미지, 및 상기 제2 이미지를 획득할 시, 상기 제1 이미지를 획득한 이후, 상기 제1 다이나믹 레인지와 적어도 부분적으로 다른 상기 제2 다이나믹 레인지를 가지는 상기 제2 이미지를 획득하기 위하여, 상기 제1 이미지를 획득한 시점에서의 상기 적어도 하나의 카메라의 셔터 스피드, 조리개의 개방 정도, ISO 감도, 또는 노출 값 중 적어도 하나와 상이한 속성을 갖도록 상기 적어도 하나의 카메라를 제어하는 동작을 포함할 수 있다. 상기 제어하는 동작은, 상기 속성을 가지는 상기 적어도 하나의 카메라를 이용하여, 상기 제2 이미지를 획득하는 동작을 포함할 수 있다.For example, the controlling operation may include an operation of controlling the at least one camera to have a different property from at least one of a shutter speed, an aperture opening degree, an ISO sensitivity, or an exposure value of the at least one camera at a time when the first image was acquired, in order to acquire the second image having the second dynamic range at least partially different from the first dynamic range, after acquiring the first image, when acquiring the first image and the second image in response to the photographing input. The controlling operation may include an operation of acquiring the second image using the at least one camera having the property.

예를 들어, 상기 파일을 생성하는 동작은, 상기 복수의 이미지들의 다이나믹 레인지들 전체에 대응하는 상기 제4 다이나믹 레인지의 사이즈 및 상기 제3 다이나믹 레인지 사이의 비율을 포함하는 상기 디스플레이 제어 정보를 포함하는 상기 파일을 생성하는 동작을 포함할 수 있다.For example, the act of generating the file may include the act of generating the file including the display control information including a size of the fourth dynamic range corresponding to the entire dynamic ranges of the plurality of images and a ratio between the third dynamic range.

예를 들어, 상기 맵 정보를 생성하는 동작은, 상기 제3 이미지의 지정된 원색의 색차 성분의 레벨을 나타내는 상기 맵 정보를 생성하는 동작을 포함할 수 있다.For example, the operation of generating the map information may include an operation of generating the map information representing the level of the chrominance component of the specified primary color of the third image.

예를 들어, 상기 맵 정보를 생성하는 동작은, 상기 제3 이미지의 상이한 부분들의 밝기 레벨들을 나타내는 값들을 포함하는, 2 차원 배열의 형태를 가지는, 상기 맵 정보를 생성하는 동작을 포함할 수 있다. 상기 2 차원 배열의 너비, 및 높이는, 상기 제3 이미지의 너비, 및 높이 보다 작을 수 있다. For example, the operation of generating the map information may include the operation of generating the map information in the form of a two-dimensional array including values representing brightness levels of different parts of the third image. A width and a height of the two-dimensional array may be smaller than a width and a height of the third image.

상술한 바와 같은, 일 실시예에 따른, 전자 장치는, 디스플레이, 처리 회로를 포함하는 적어도 하나의 프로세서, 및 인스트럭션들을 저장하는 하나 이상의 저장 매체들을 포함하는 메모리를 포함할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 제1 다이나믹 레인지를 갖는 제1 이미지, 상기 제1 이미지의 적어도 일부의 밝기 또는 색상별 계조와 관련된 맵 정보, 및 표시 시의 밝기 레벨과 관련된 디스플레이 제어 정보를 획득하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 이미지 및 상기 맵 정보에 기반하여, 제2 이미지를 생성하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이 제어 정보에 기반하여, 상기 디스플레이의 적어도 일부의 밝기 레벨을 결정하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 결정된 밝기 레벨에 기반하여, 상기 제2 이미지를 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지에 따라 표시하도록, 상기 전자 장치를 야기할 수 있다. According to one embodiment of the present invention, an electronic device as described above may include a display, at least one processor including a processing circuit, and a memory including one or more storage media storing instructions. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to obtain a first image having a first dynamic range, map information related to brightness or color gradation of at least a portion of the first image, and display control information related to a brightness level during display. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate a second image based on the first image and the map information. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to determine a brightness level of at least a portion of the display based on the display control information. The above instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to display the second image according to a second dynamic range that is wider than the first dynamic range, based on the determined brightness level.

예를 들어, 상기 맵 정보는, 상기 제1 이미지의 적어도 일부, 및 상기 제1 이미지의 촬영 시와 다른 노출 값에 기반하여 동일한 객체에 대하여 촬영된 제3 이미지의 적어도 일부 간 밝기 또는 색상별 계조의 차이에 대한 정보를 포함할 수 있다. For example, the map information may include information about differences in brightness or color gradation between at least a portion of the first image and at least a portion of a third image captured of the same object based on a different exposure value when the first image was captured.

예를 들어, 상기 디스플레이 제어 정보는, 상기 제2 이미지의 표시에 요구되는 최대 밝기 정보, 또는 상기 제1 이미지의 표시에 요구되는 최대 밝기와 상기 제2 이미지의 표시에 요구되는 최대 밝기 사이의 비율 정보 중 적어도 하나를 포함할 수 있다. For example, the display control information may include at least one of maximum brightness information required for display of the second image, or ratio information between the maximum brightness required for display of the first image and the maximum brightness required for display of the second image.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 이미지와 함께 상기 맵 정보가 메타 데이터로 포함된 파일을 획득하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 맵 정보에 기반하여 상기 디스플레이 제어 정보를 생성하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to obtain a file including the map information as metadata together with the first image. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate the display control information based on the map information.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 이미지와 함께 상기 맵 정보 및 상기 디스플레이 제어 정보가 메타 데이터로 포함된 파일을 획득하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to obtain a file including the map information and the display control information as metadata together with the first image.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이의 적어도 일부에 상기 제1 이미지의 사이즈보다 작은 사이즈를 갖는 썸네일 이미지를 표시하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 썸네일 이미지와 관련된 입력에 기반하여 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to display a thumbnail image having a size smaller than a size of the first image on at least a portion of the display. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of displaying the second image based on an input related to the thumbnail image.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 썸네일 이미지와 관련된 상기 입력에 기반하여 상기 제1 이미지를 적어도 일부의 시간 동안 표시하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 적어도 일부의 시간 후에 상기 제1 이미지를 상기 제2 이미지로 변경함으로써 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to display the first image for at least some of the time based on the input related to the thumbnail image. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an action of displaying the second image by changing the first image to the second image after the at least some of the time.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이 제어 정보에 기반하여, 상기 제1 다이나믹 레인지의 최소 밝기를 가지는 상기 제1 이미지의 일부분에 대응하는 상기 디스플레이의 적어도 하나의 픽셀이 상기 제2 다이나믹 레인지의 최소 밝기를 가지도록, 상기 디스플레이를 제어하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 다이나믹 레인지의 최대 밝기를 가지는 상기 제1 이미지의 다른 부분에 대응하는 상기 디스플레이의 적어도 하나의 다른 픽셀이 상기 제2 다이나믹 레인지의 최대 밝기를 가지도록, 상기 디스플레이를 제어하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to control the display, based on the display control information, such that at least one pixel of the display corresponding to a portion of the first image having a minimum brightness of the first dynamic range has a minimum brightness of the second dynamic range. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to control the display such that at least one other pixel of the display corresponding to another portion of the first image having a maximum brightness of the first dynamic range has a maximum brightness of the second dynamic range.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 맵 정보에 기반하여, 상기 제1 이미지에 포함된 서로 다른 부분들의 밝기 레벨들을 각각 나타내는 값들이 포함된 2 차원 배열(array)을 생성하도록, 상기 전자 장치를 야기할 수 있다. 상기 2 차원 배열의 가로 픽셀 수, 및 세로 픽셀 수 각각은, 상기 제1 이미지의 가로 픽셀 수, 및 세로 픽셀 수 각각보다 작을 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to generate, based on the map information, a two-dimensional array including values each representing brightness levels of different portions included in the first image. A horizontal pixel count and a vertical pixel count of the two-dimensional array may be smaller than a horizontal pixel count and a vertical pixel count of the first image, respectively.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 밝기 레벨로 설정된 상기 디스플레이 상에, 상기 제2 이미지가 배치된 실행 화면을 표시할 시에, 상기 제2 이미지에 대응하는 상기 디스플레이의 제1 표시 영역 내 픽셀들이 상기 밝기 레벨에서 동작하고, 상기 제2 이미지에 인접한 상기 실행 화면에 대응하는 상기 디스플레이의 제2 표시 영역 내 픽셀들이 상기 밝기 레벨보다 낮은 다른 밝기 레벨에서 동작하도록, 상기 디스플레이를 제어하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to control the display such that, when displaying an execution screen having the second image arranged on the display set to the brightness level, pixels within a first display area of the display corresponding to the second image operate at the brightness level, and pixels within a second display area of the display corresponding to the execution screen adjacent to the second image operate at a different brightness level lower than the brightness level.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 파일로부터 획득된 상기 디스플레이 제어 정보와 함께, 상기 디스플레이에 의해 표시가능한 밝기 레벨의 레인지, 상기 전자 장치의 배터리의 충전 상태(SOC; state of charge), 또는 상기 제2 이미지를 표시할 시 상기 디스플레이의 전체 픽셀들 중 지정된 계조 이상을 갖는 픽셀들의 비율(OPR; on pixel ratio) 중 적어도 하나에 기반하여 상기 밝기 레벨을 결정하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to determine the brightness level based on at least one of a range of brightness levels displayable by the display, a state of charge (SOC) of a battery of the electronic device, or a ratio of pixels having a specified grayscale level or higher among all pixels of the display when displaying the second image (on pixel ratio (OPR)), together with the display control information obtained from the file.

예를 들어, 상기 전자 장치는 폴더블 하우징을 포함할 수 있다. 상기 폴더블 하우징에 수용된 상기 디스플레이는, 상기 폴더블 하우징이 접혀졌다 펼쳐짐에 따라 접혀졌다 펼쳐지는 폴딩부와 평평하게 유지되는 평면부를 포함하는 폴더블 디스플레이를 포함할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 폴더블 하우징의 폴딩 상태 및 상기 디스플레이 제어 정보에 기반하여, 상기 폴딩부의 적어도 일부가 제1 밝기 레벨을 갖고 상기 평면부의 적어도 일부가 상기 제1 밝기 레벨과 다른 제2 밝기 레벨을 갖도록 상기 밝기 레벨을 결정하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 폴딩부의 적어도 일부가 상기 제1 밝기 레벨을 갖고 상기 평면부의 적어도 일부가 상기 제2 밝기 레벨을 갖는 상기 폴더블 디스플레이에, 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the electronic device may include a foldable housing. The display accommodated in the foldable housing may include a foldable display including a folding portion that is folded and unfolded as the foldable housing is folded and unfolded and a flat portion that is maintained flat. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level based on a folding state of the foldable housing and the display control information, such that at least a portion of the folding portion has a first brightness level and at least a portion of the flat portion has a second brightness level different from the first brightness level. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of displaying the second image on the foldable display, such that at least a portion of the folding portion has the first brightness level and at least a portion of the flat portion has the second brightness level.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 밝기 레벨이 상기 제2 밝기 레벨보다 높도록, 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform the operations of determining the brightness level such that the first brightness level is higher than the second brightness level and the operations of displaying the second image.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 폴딩 상태에 기반하여, 상기 제1 밝기 레벨 및 상기 제2 밝기 레벨 중 적어도 하나가 상기 폴더블 하우징이 펼쳐졌다 접혀짐에 따라 상기 제1 밝기 레벨 및 상기 제 2 밝기 레벨보다 낮은 제3 밝기 레벨로 점진적으로 변경되도록, 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level and an operation of displaying the second image, such that at least one of the first brightness level and the second brightness level is gradually changed to a third brightness level lower than the first brightness level and the second brightness level as the foldable housing is unfolded and folded based on the folding state.

예를 들어, 상기 전자 장치는, 폴더블 하우징을 포함할 수 있다. 상기 폴더블 하우징에 수용된 상기 디스플레이는, 펼쳐진 상태에서 제1 방향을 향하도록 시각적으로 노출된 폴더블 디스플레이, 및 상기 제1 방향과 반대인 제2 방향을 향하도록 시각적으로 노출된 서브 디스플레이를 포함할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이 제어 정보에 기반하여, 상기 폴더블 디스플레이의 적어도 일부가 제1 밝기 레벨을 갖고 상기 서브 디스플레이의 적어도 일부가 상기 제1 밝기 레벨과 다른 상기 제2 밝기 레벨을 갖도록 상기 밝기 레벨을 결정하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 밝기 레벨을 갖는 상기 폴더블 디스플레이의 상기 적어도 일부 또는 상기 제2 밝기 레벨을 갖는 상기 서브 디스플레이의 적어도 일부에, 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the electronic device may include a foldable housing. The display accommodated in the foldable housing may include a foldable display visually exposed to face a first direction in an unfolded state, and a sub-display visually exposed to face a second direction opposite to the first direction. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level based on the display control information, such that at least a portion of the foldable display has a first brightness level and at least a portion of the sub-display has a second brightness level different from the first brightness level. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of displaying the second image on at least a portion of the foldable display having the first brightness level or on at least a portion of the sub-display having the second brightness level.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 밝기 레벨이 상기 제2 밝기 레벨보다 높도록 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform the operations of determining the brightness level such that the first brightness level is higher than the second brightness level and the operations of displaying the second image.

예를 들어, 상기 전자 장치는, 수축 상태와 확장 상태를 제공하도록 설정된 하우징을 포함할 수 있다. 상기 하우징에 수용된 상기 디스플레이는, 상기 하우징이 상기 수축 상태에서 적어도 부분적으로 말려있고 상기 확장 상태에서 펼쳐지는 롤링부, 및 상기 수축 상태와 상기 확장 상태에서 평평하게 유지되는 평면부를 포함하는 롤러블 디스플레이를 포함할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 디스플레이 제어 정보에 기반하여, 상기 하우징이 상기 확장 상태에서, 상기 롤러블 디스플레이의 상기 롤링부가 제1 밝기 레벨을 갖고 상기 평면부가 상기 제1 밝기 레벨과 다른 제2 밝기 레벨을 갖도록 상기 밝기 레벨을 결정하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 하우징이 상기 확장 상태일 때, 상기 롤링부가 상기 제1 밝기 레벨을 갖고 상기 평면부가 상기 제2 밝기 레벨을 갖는 상기 롤러블 디스플레이에, 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the electronic device may include a housing configured to provide a contracted state and an expanded state. The display accommodated in the housing may include a rollable display including a rolling portion in which the housing is at least partially rolled in the contracted state and unfolded in the expanded state, and a flat portion that remains flat in the contracted state and the expanded state. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level, based on the display control information, when the housing is in the expanded state, such that the rolling portion of the rollable display has a first brightness level and the flat portion has a second brightness level different from the first brightness level. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of displaying the second image on the rollable display, when the housing is in the expanded state, such that the rolling portion has the first brightness level and the flat portion has the second brightness level.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 밝기 레벨이 상기 제2 밝기 레벨보다 높도록, 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform the operations of determining the brightness level such that the first brightness level is higher than the second brightness level and the operations of displaying the second image.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 하우징이 상기 수축 상태에서 상기 확장 상태로 변경됨에 따라, 상기 제2 밝기 레벨이 상기 제 2 밝기 레벨보다 높은 제3 밝기 레벨로 점진적으로 변경되도록, 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level and an operation of displaying the second image such that the second brightness level is gradually changed to a third brightness level higher than the second brightness level as the housing changes from the contracted state to the expanded state.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 하우징이 상기 확장 상태에서 상기 수축 상태로 변경됨에 따라, 상기 제1 밝기 레벨 및 상기 제2 밝기 레벨 중 적어도 하나가 상기 제1 밝기 레벨 및 상기 제 2 밝기 레벨보다 낮은 제3 밝기 레벨로 점진적으로 변경되도록, 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level and an operation of displaying the second image, such that at least one of the first brightness level and the second brightness level is gradually changed to a third brightness level lower than the first brightness level and the second brightness level as the housing changes from the expanded state to the contracted state.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 전자 장치의 사용자의 시선을 감지하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 시선 및 상기 디스플레이 제어 정보에 기반하여, 상기 시선이 지향하는 상기 디스플레이의 제1 부분이 제1 밝기 레벨을 갖고 상기 시선에서 벗어난 상기 디스플레이의 제2 부분이 상기 제1 밝기 레벨과 다른 제2 밝기 레벨을 갖도록 상기 밝기 레벨을 결정하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 부분이 상기 제1 밝기 레벨을 갖고 상기 제2 부분이 상기 제2 밝기 레벨을 갖는 상기 디스플레이에, 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to detect a gaze of a user of the electronic device. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining a brightness level based on the gaze and the display control information, such that a first portion of the display toward which the gaze is directed has a first brightness level and a second portion of the display away from the gaze has a second brightness level different from the first brightness level. The instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of displaying a second image on the display, such that the first portion has the first brightness level and the second portion has the second brightness level.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제1 밝기 레벨이 상기 제2 밝기 레벨보다 높도록, 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform the operations of determining the brightness level such that the first brightness level is higher than the second brightness level and the operations of displaying the second image.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 시선이 지향하는 지점이 상기 제1 부분으로부터 상기 제2 부분으로 이동됨에 따라, 상기 제1 부분은 상기 제1 밝기 레벨보다 낮은 제3 밝기 레벨로 점진적으로 변경되고, 상기 제2 부분은 상기 제2 밝기 레벨보다 높은 제4 밝기 레벨로 점진적으로 변경되도록, 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining the brightness level and an operation of displaying the second image, such that as the point to which the gaze is directed moves from the first portion to the second portion, the first portion is gradually changed to a third brightness level lower than the first brightness level, and the second portion is gradually changed to a fourth brightness level higher than the second brightness level.

예를 들어, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시, 상기 제2 밝기 레벨은 상기 제3 밝기 레벨과 동일하고, 상기 제1 밝기 레벨은 상기 제4 밝기 레벨과 동일하도록, 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기할 수 있다. For example, the instructions, when individually or collectively executed by the at least one processor, may cause the electronic device to perform an operation of determining the brightness level such that the second brightness level is equal to the third brightness level and the first brightness level is equal to the fourth brightness level, and an operation of displaying the second image.

예를 들어, 상기 전자 장치는, 상기 사용자의 머리에 장착 가능하고, 상기 디스플레이가 수용된 하우징을 포함할 수 있다. For example, the electronic device may include a housing that is mountable on the user's head and houses the display.

상술한 바와 같은, 일 실시예에서, 인스트럭션들을 저장하는 비-일시적 컴퓨터 판독가능 저장 매체가 제공될 수 있다. 상기 인스트럭션들은, 디스플레이를 포함하는 전자 장치에 의해 실행될 수 있다. 상기 인스트럭션들은, 상기 전자 장치에 의해 실행될 시, 상기 전자 장치가, 제1 다이나믹 레인지를 가지는 제1 이미지, 상기 제1 이미지의 적어도 일부의 밝기 또는 색상별 계조와 관련된 맵 정보, 및 표시 시의 밝기 레벨과 관련된 디스플레이 제어 정보를 획득하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 전자 장치에 의해 실행될 시, 상기 전자 장치가, 상기 제1 이미지 및 상기 맵 정보에 기반하여, 제2 이미지를 생성하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 전자 장치에 의해 실행될 시, 상기 전자 장치가, 상기 디스플레이 제어 정보에 기반하여, 상기 디스플레이의 적어도 일부의 밝기 레벨을 결정하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 전자 장치에 의해 실행될 시, 상기 전자 장치가, 상기 결정된 밝기 레벨에 기반하여, 상기 제2 이미지를 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지에 따라 표시하도록, 야기할 수 있다. In one embodiment, as described above, a non-transitory computer-readable storage medium storing instructions may be provided. The instructions may be executed by an electronic device including a display. The instructions, when executed by the electronic device, may cause the electronic device to obtain a first image having a first dynamic range, map information related to brightness or color gradation of at least a portion of the first image, and display control information related to a brightness level during display. The instructions, when executed by the electronic device, may cause the electronic device to generate a second image based on the first image and the map information. The instructions, when executed by the electronic device, may cause the electronic device to determine a brightness level of at least a portion of the display based on the display control information. The above instructions, when executed by the electronic device, may cause the electronic device to display the second image according to a second dynamic range that is wider than the first dynamic range, based on the determined brightness level.

여기서 사용된 바와 같이, "경우(if)" 용어는, 맥락에 따라, "~할 시에(when, upon)", "결정하는 것에 응답하여", 또는 "탐지하는 것에 응답하여"를 의미하는 것으로 이해될 것이다. 유사하게, "~하는 것으로 결정된 경우", 또는 "[언급된 조건 또는 이벤트]가 탐지된 경우"는, 선택적으로, "결정할 시에", 또는 "결정하는 것에 응답하여", "[언급된 조건 또는 이벤트]를 탐지할 시에", 또는 "[언급된 조건 또는 이벤트]를 탐지하는 것에 응답하여"를 의미하는 것으로 이해될 것이다. As used herein, the term "if" will be understood to mean "when, upon," "in response to determining," or "in response to detecting," as appropriate. Similarly, "if it is determined to," or "if [the stated condition or event] is detected," will be understood to mean, optionally, "upon determining," or "in response to determining," "upon detecting [the stated condition or event]," or "in response to detecting [the stated condition or event]."

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다. The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments may be implemented using one or more general-purpose computers or special-purpose computers, such as a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing instructions and responding to them. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For ease of understanding, the processing device is sometimes described as being used alone, but those skilled in the art will appreciate that the processing device may include multiple processing elements and/or multiple types of processing elements. For example, the processing device may include multiple processors, or a processor and a controller. Other processing configurations, such as parallel processors, are also possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다. The software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing device to perform a desired operation or may independently or collectively command the processing device. The software and/or data may be embodied in any type of machine, component, physical device, computer storage medium, or device for interpretation by the processing device or for providing instructions or data to the processing device. The software may be distributed over network-connected computer systems and stored or executed in a distributed manner. The software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. The method according to the embodiment may be implemented in the form of program commands that can be executed through various computer means and recorded on a computer-readable medium. At this time, the medium may be one that continuously stores a program executable by a computer, or one that temporarily stores it for execution or downloading. In addition, the medium may be various recording means or storage means in the form of a single or multiple hardware combinations, and is not limited to a medium directly connected to a computer system, and may also be distributed on a network. Examples of the medium may include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROMs, RAMs, flash memories, etc., configured to store program commands. In addition, examples of other media may include recording media or storage media managed by app stores that distribute applications, sites that supply or distribute various software, servers, etc.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. Although the embodiments have been described above by way of limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, appropriate results can be achieved even if the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or are replaced or substituted by other components or equivalents.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents to the claims are also included in the scope of the claims described below.

Claims (15)

전자 장치(electronic device)(101; 901)에 있어서,In an electronic device (101; 901), 디스플레이(120);display (120); 인스트럭션들을 저장하는 하나 이상의 저장 매체들을 포함하는 메모리(215); 및A memory (215) including one or more storage media storing instructions; and 처리 회로를 포함하는 적어도 하나의 프로세서(210)를 포함하고,At least one processor (210) comprising a processing circuit, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 제1 다이나믹 레인지를 갖는 제1 이미지(112), 상기 제1 이미지의 적어도 일부의 밝기 또는 색상별 계조와 관련된 맵 정보(114), 및 표시 시의 밝기 레벨과 관련된 디스플레이 제어 정보(116)를 획득하고;Obtaining a first image (112) having a first dynamic range, map information (114) related to brightness or color gradation of at least a part of the first image, and display control information (116) related to a brightness level at the time of display; 상기 제1 이미지 및 상기 맵 정보에 기반하여, 제2 이미지(130)를 생성하고;Based on the first image and the map information, a second image (130) is generated; 상기 디스플레이 제어 정보에 기반하여, 상기 디스플레이의 적어도 일부의 밝기 레벨을 결정하고;Based on the display control information, determining a brightness level of at least a portion of the display; 상기 결정된 밝기 레벨에 기반하여, 상기 제2 이미지를 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지에 따라 표시하도록,Based on the determined brightness level, the second image is displayed according to a second dynamic range that is wider than the first dynamic range. 상기 전자 장치를 야기하는,causing said electronic device, 전자 장치.Electronic devices. 청구항 1에 있어서,In claim 1, 상기 맵 정보(114)는, The above map information (114) is 상기 제1 이미지(112)의 적어도 일부, 및 상기 제1 이미지의 촬영 시와 다른 노출 값에 기반하여 동일한 객체에 대하여 촬영된 제3 이미지의 적어도 일부 간 밝기 또는 색상별 계조의 차이에 대한 정보를 포함하는,Containing information about differences in brightness or color gradation between at least a portion of the first image (112) and at least a portion of a third image captured of the same object based on a different exposure value than when the first image was captured. 전자 장치.Electronic devices. 청구항 1 내지 청구항 2에 있어서,In claims 1 and 2, 상기 디스플레이 제어 정보는,The above display control information is, 상기 제2 이미지의 표시에 요구되는 최대 밝기 정보, 또는 상기 제1 이미지의 표시에 요구되는 최대 밝기와 상기 제2 이미지의 표시에 요구되는 최대 밝기 사이의 비율 정보 중 적어도 하나를 포함하는,At least one of information on the maximum brightness required for displaying the second image, or information on the ratio between the maximum brightness required for displaying the first image and the maximum brightness required for displaying the second image, 전자 장치.Electronic devices. 청구항 1 내지 청구항 3에 있어서,In claims 1 to 3, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 제1 이미지(112)와 함께 상기 맵 정보(114)가 메타 데이터로 포함된 파일을 획득하고;Obtain a file including the map information (114) as metadata together with the first image (112); 상기 맵 정보(114)에 기반하여 상기 디스플레이 제어 정보를 생성하도록, 상기 전자 장치를 야기하는,Causing the electronic device to generate the display control information based on the above map information (114). 전자 장치.Electronic devices. 청구항 1 내지 청구항 4에 있어서,In claims 1 to 4, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 제1 이미지(112)와 함께 상기 맵 정보(114) 및 상기 디스플레이 제어 정보(116)가 메타 데이터로 포함된 파일을 획득하도록, 상기 전자 장치를 야기하는,Causing the electronic device to obtain a file including the map information (114) and the display control information (116) as metadata together with the first image (112). 전자 장치.Electronic devices. 청구항 1 내지 청구항 5에 있어서,In claims 1 to 5, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 디스플레이의 적어도 일부에 상기 제1 이미지의 사이즈보다 작은 사이즈를 갖는 썸네일 이미지를 표시하고;Displaying a thumbnail image having a size smaller than the size of the first image on at least a portion of the display; 상기 썸네일 이미지와 관련된 입력에 기반하여 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기하는,Causing the electronic device to perform an action of displaying the second image based on an input related to the thumbnail image; 전자 장치.Electronic devices. 청구항 6에 있어서,In claim 6, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 썸네일 이미지와 관련된 상기 입력에 기반하여 상기 제1 이미지를 적어도 일부의 시간 동안 표시하고;Displaying said first image for at least some of the time based on said input related to said thumbnail image; 상기 적어도 일부의 시간 후에 상기 제1 이미지를 상기 제2 이미지로 변경함으로써 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기하는,causing the electronic device to perform an action of displaying the second image by changing the first image to the second image after at least a portion of the time; 전자 장치.Electronic devices. 청구항 1 내지 청구항 7에 있어서,In claims 1 to 7, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 디스플레이 제어 정보에 기반하여:Based on the above display control information: 상기 제1 다이나믹 레인지의 최소 밝기를 가지는 상기 제1 이미지의 일부분에 대응하는 상기 디스플레이의 적어도 하나의 픽셀이 상기 제2 다이나믹 레인지의 최소 밝기를 가지도록, 상기 디스플레이를 제어하고;Controlling the display so that at least one pixel of the display corresponding to a portion of the first image having a minimum brightness of the first dynamic range has a minimum brightness of the second dynamic range; 상기 제1 다이나믹 레인지의 최대 밝기를 가지는 상기 제1 이미지의 다른 부분에 대응하는 상기 디스플레이의 적어도 하나의 다른 픽셀이 상기 제2 다이나믹 레인지의 최대 밝기를 가지도록, 상기 디스플레이를 제어하도록, 상기 전자 장치를 야기하는,causing the electronic device to control the display so that at least one other pixel of the display corresponding to another portion of the first image having a maximum brightness of the first dynamic range has a maximum brightness of the second dynamic range; 전자 장치.Electronic devices. 청구항 1 내지 청구항 8에 있어서,In claims 1 to 8, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 맵 정보에 기반하여, 상기 제1 이미지에 포함된 서로 다른 부분들의 밝기 레벨들을 각각 나타내는 값들이 포함된 2 차원 배열(array)을 생성하도록, 상기 전자 장치를 야기하고,Causing the electronic device to generate a two-dimensional array containing values each representing brightness levels of different parts included in the first image based on the map information; 상기 2 차원 배열의 가로 픽셀 수, 및 세로 픽셀 수 각각은, 상기 제1 이미지의 가로 픽셀 수, 및 세로 픽셀 수 각각보다 작은,The number of horizontal pixels and the number of vertical pixels of the two-dimensional array are each smaller than the number of horizontal pixels and the number of vertical pixels of the first image, 전자 장치.Electronic devices. 청구항 1 내지 청구항 9에 있어서,In claims 1 to 9, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 밝기 레벨로 설정된 상기 디스플레이 상에, 상기 제2 이미지가 배치된 실행 화면을 표시할 시에, 상기 제2 이미지에 대응하는 상기 디스플레이의 제1 표시 영역 내 픽셀들이 상기 밝기 레벨에서 동작하고, 상기 제2 이미지에 인접한 상기 실행 화면에 대응하는 상기 디스플레이의 제2 표시 영역 내 픽셀들이 상기 밝기 레벨보다 낮은 다른 밝기 레벨에서 동작하도록, 상기 디스플레이를 제어하도록, 상기 전자 장치를 야기하는,When displaying an execution screen on which the second image is placed on the display set to the brightness level, the electronic device controls the display so that pixels in the first display area of the display corresponding to the second image operate at the brightness level, and pixels in the second display area of the display corresponding to the execution screen adjacent to the second image operate at a different brightness level lower than the brightness level. 전자 장치.Electronic devices. 청구항 1 내지 청구항 10에 있어서,In claims 1 to 10, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 파일로부터 획득된 상기 디스플레이 제어 정보와 함께, 상기 디스플레이에 의해 표시가능한 밝기 레벨의 레인지, 상기 전자 장치의 배터리의 충전 상태(SOC; state of charge), 또는 상기 제2 이미지를 표시할 시 상기 디스플레이의 전체 픽셀들 중 지정된 계조 이상을 갖는 픽셀들의 비율(OPR; on pixel ratio) 중 적어도 하나에 기반하여 상기 밝기 레벨을 결정하도록, 상기 전자 장치를 야기하는,Causing the electronic device to determine the brightness level based on at least one of a range of brightness levels displayable by the display, a state of charge (SOC) of a battery of the electronic device, or a ratio of pixels having a specified grayscale or higher among all pixels of the display when displaying the second image (OPR; on pixel ratio), together with the display control information obtained from the file. 전자 장치.Electronic devices. 청구항 1 내지 청구항 11에 있어서,In claims 1 to 11, 폴더블 하우징을 포함하고,Includes a foldable housing, 상기 폴더블 하우징에 수용된 상기 디스플레이는, 상기 폴더블 하우징이 접혀졌다 펼쳐짐에 따라 접혀졌다 펼쳐지는 폴딩부와 평평하게 유지되는 평면부를 포함하는 폴더블 디스플레이를 포함하고,The display accommodated in the foldable housing includes a foldable display including a folding portion that folds and unfolds as the foldable housing is folded and unfolded and a flat portion that remains flat, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 폴더블 하우징의 폴딩 상태 및 상기 디스플레이 제어 정보에 기반하여, 상기 폴딩부의 적어도 일부가 제1 밝기 레벨을 갖고 상기 평면부의 적어도 일부가 상기 제1 밝기 레벨과 다른 제2 밝기 레벨을 갖도록 상기 밝기 레벨을 결정하는 동작을 수행하고;Based on the folding state of the foldable housing and the display control information, an operation of determining the brightness level such that at least a part of the folding portion has a first brightness level and at least a part of the flat portion has a second brightness level different from the first brightness level is performed; 상기 폴딩부의 적어도 일부가 상기 제1 밝기 레벨을 갖고 상기 평면부의 적어도 일부가 상기 제2 밝기 레벨을 갖는 상기 폴더블 디스플레이에, 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기하는,Causing the electronic device to perform an operation of displaying the second image on the foldable display, wherein at least a portion of the folding portion has the first brightness level and at least a portion of the flat portion has the second brightness level. 전자 장치.Electronic devices. 청구항 12에 있어서,In claim 12, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 제1 밝기 레벨이 상기 제2 밝기 레벨보다 높도록, 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기하는,Causing the electronic device to perform an operation of determining the brightness level and an operation of displaying the second image so that the first brightness level is higher than the second brightness level. 전자 장치.Electronic devices. 청구항 12에 있어서,In claim 12, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 개별적으로 또는 집합적으로 실행될 시,The above instructions, when individually or collectively executed by the at least one processor, 상기 폴딩 상태에 기반하여, 상기 제1 밝기 레벨 및 상기 제2 밝기 레벨 중 적어도 하나가 상기 폴더블 하우징이 펼쳐졌다 접혀짐에 따라 상기 제1 밝기 레벨 및 상기 제 2 밝기 레벨보다 낮은 제3 밝기 레벨로 점진적으로 변경되도록, 상기 밝기 레벨을 결정하는 동작 및 상기 제2 이미지를 표시하는 동작을 수행하도록, 상기 전자 장치를 야기하는,Causing the electronic device to perform an operation of determining the brightness level and an operation of displaying the second image, based on the folding state, such that at least one of the first brightness level and the second brightness level is gradually changed to a third brightness level lower than the first brightness level and the second brightness level as the foldable housing is unfolded and folded. 전자 장치.Electronic devices. 디스플레이를 포함하는 전자 장치의 방법에 있어서,A method of an electronic device including a display, 제1 다이나믹 레인지를 갖는 제1 이미지, 상기 제1 이미지의 적어도 일부의 밝기 또는 색상별 계조와 관련된 맵 정보, 및 표시 시의 밝기 레벨과 관련된 디스플레이 제어 정보를 획득하는 동작An operation of obtaining a first image having a first dynamic range, map information related to brightness or color gradation of at least a portion of the first image, and display control information related to a brightness level at the time of display. 상기 제1 이미지 및 상기 맵 정보에 기반하여, 제2 이미지를 생성하는 동작;An operation of generating a second image based on the first image and the map information; 상기 디스플레이 제어 정보에 기반하여, 상기 디스플레이의 적어도 일부의 밝기 레벨을 결정하는 동작; 및An operation of determining a brightness level of at least a portion of the display based on the display control information; and 상기 결정된 밝기 레벨에 기반하여, 상기 제2 이미지를 상기 제1 다이나믹 레인지보다 넓은 제2 다이나믹 레인지에 따라 표시하는 동작을 포함하는,An operation of displaying the second image according to a second dynamic range wider than the first dynamic range, based on the determined brightness level. 방법.method.
PCT/KR2024/018790 2023-12-31 2024-11-25 Electronic device for controlling brightness of display by using metadata of image, and method thereof Pending WO2025143564A1 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2023-0198127 2023-12-31
KR20230198127 2023-12-31
KR10-2024-0007443 2024-01-17
KR20240007443 2024-01-17
KR10-2024-0054210 2024-04-23
KR1020240054210A KR20250105564A (en) 2023-12-31 2024-04-23 Electronic device for controlling luminance of display by using metadata of image and method thereof

Publications (1)

Publication Number Publication Date
WO2025143564A1 true WO2025143564A1 (en) 2025-07-03

Family

ID=96219331

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2024/018790 Pending WO2025143564A1 (en) 2023-12-31 2024-11-25 Electronic device for controlling brightness of display by using metadata of image, and method thereof

Country Status (1)

Country Link
WO (1) WO2025143564A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180336669A1 (en) * 2015-11-24 2018-11-22 Koninklijke Philips N.V. Handling multiple hdr image sources
US20210174761A1 (en) * 2014-12-11 2021-06-10 Koninklijke Philips N.V. Optimizing high dynamic range images for particular displays
KR20210155743A (en) * 2020-06-15 2021-12-23 삼성전자주식회사 Method for image processing of high dynamic range sensors for handling white balance
US20220044615A1 (en) * 2018-09-17 2022-02-10 Dolby Laboratories Licensing Corporation Display mapping for high dynamic range images on power-limiting displays
WO2023244616A1 (en) * 2022-06-14 2023-12-21 Dolby Laboratories Licensing Corporation Video delivery system capable of dynamic-range changes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210174761A1 (en) * 2014-12-11 2021-06-10 Koninklijke Philips N.V. Optimizing high dynamic range images for particular displays
US20180336669A1 (en) * 2015-11-24 2018-11-22 Koninklijke Philips N.V. Handling multiple hdr image sources
US20220044615A1 (en) * 2018-09-17 2022-02-10 Dolby Laboratories Licensing Corporation Display mapping for high dynamic range images on power-limiting displays
KR20210155743A (en) * 2020-06-15 2021-12-23 삼성전자주식회사 Method for image processing of high dynamic range sensors for handling white balance
WO2023244616A1 (en) * 2022-06-14 2023-12-21 Dolby Laboratories Licensing Corporation Video delivery system capable of dynamic-range changes

Similar Documents

Publication Publication Date Title
WO2020032582A1 (en) Electronic device for displaying avatar corresponding to external object according to change in position of external object
WO2020204668A1 (en) Electronic device and method for controlling camera using external electronic device
WO2021071179A1 (en) Apparatus and method for providing illumination of camera in electronic device
WO2022031047A1 (en) Electronic device comprising display and screen operation method thereof
WO2022154387A1 (en) Electronic device and operation method therefor
WO2022154388A1 (en) Electronic device and image processing method thereof
WO2022139262A1 (en) Electronic device for editing video by using object of interest, and operating method therefor
WO2022102972A1 (en) Electronic device comprising image sensor and method of operating same
WO2023090833A1 (en) Method for providing preview images, and electronic device thereof
WO2022092706A1 (en) Method for taking photograph by using plurality of cameras, and device therefor
WO2022203285A1 (en) Camera module including image stabilization assembly, and electronic device including same
WO2022108201A1 (en) Method for providing image and electronic device for supporting same
WO2022097930A1 (en) Electronic device and display method therefor
WO2021230485A1 (en) Method and apparatus for providing image
WO2022119112A1 (en) Electronic device and method for predicting and compensating for burn-in of display
WO2025143564A1 (en) Electronic device for controlling brightness of display by using metadata of image, and method thereof
WO2021172901A1 (en) Electronic device for providing camera preview and operating method thereof
WO2022154166A1 (en) Method for providing content creation function and electronic device supporting same
WO2025009694A1 (en) Wearable device and method for processing camera image on basis of region of interest, and non-transitory computer-readable storage medium
WO2022098001A1 (en) Electronic device having flexible display, and camera module control method therefor
WO2022139238A1 (en) Method for providing image, and electronic device supporting same
WO2025146948A1 (en) Electronic device and method for acquiring metadata of image
WO2025264093A1 (en) Electronic device including plurality of cameras, method, and computer-readable storage medium
WO2025146931A1 (en) Electronic device for generating metadata for enhancing brightness of display that displays image, and method therefor
WO2023136532A1 (en) Method for providing image and electronic device supporting same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24913457

Country of ref document: EP

Kind code of ref document: A1