[go: up one dir, main page]

WO2025150740A1 - Electronic device comprising image sensor, and operating method thereof - Google Patents

Electronic device comprising image sensor, and operating method thereof

Info

Publication number
WO2025150740A1
WO2025150740A1 PCT/KR2024/020768 KR2024020768W WO2025150740A1 WO 2025150740 A1 WO2025150740 A1 WO 2025150740A1 KR 2024020768 W KR2024020768 W KR 2024020768W WO 2025150740 A1 WO2025150740 A1 WO 2025150740A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
data
phase difference
image sensor
ois
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2024/020768
Other languages
French (fr)
Korean (ko)
Inventor
박재형
정상범
원종훈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020240041308A external-priority patent/KR20250110677A/en
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of WO2025150740A1 publication Critical patent/WO2025150740A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays

Definitions

  • An electronic device employing the AF method includes an image sensor in which two PDs (photodiodes) having a 2x1 array are arranged under one micro lens, and the AF function is performed by classifying the AF data output from each PD into left data and right data and focusing using the phase difference between the two.
  • PDs photodiodes
  • the AF function is performed by classifying the AF data output from each PD into left data and right data and focusing using the phase difference between the two.
  • the output of the PD pixel has a very large difference in sensitivity depending on the chief ray angle (CRA) of the incident light, and if the value of the PD pixel is used as is to generate actual image data, deviation in the pixel value may occur depending on the physical location of the lens and pixel.
  • CRA chief ray angle
  • FIG. 3 is a diagram showing the main hardware configuration of an electronic device according to one embodiment.
  • FIG. 11 illustrates an example of weights determined based on OIS positions according to one embodiment.
  • an electronic device and a method of operating the same can be provided that can correct a pattern that occurs due to a mismatch between an angle of incidence of light incident on a lens (lens angle of incidence) and an angle of incidence of light incident on a sensor (sensor angle of incidence).
  • the processor (120) may control at least one other component (e.g., a hardware or software component) of an electronic device (101) connected to the processor (120) by executing, for example, software (e.g., a program (140)), and may perform various data processing or calculations.
  • the processor (120) may store a command or data received from another component (e.g., a sensor module (176) or a communication module (190)) in a volatile memory (132), process the command or data stored in the volatile memory (132), and store result data in a nonvolatile memory (134).
  • the processor (120) may include a main processor (121) (e.g., a central processing unit or an application processor) or an auxiliary processor (123) (e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together with the main processor (121).
  • a main processor (121) e.g., a central processing unit or an application processor
  • an auxiliary processor (123) e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor
  • the auxiliary processor (123) may be configured to use less power than the main processor (121) or to be specialized for a given function.
  • the auxiliary processor (123) may be implemented separately from the main processor (121) or as a part thereof.
  • the auxiliary processor (123) may control at least a portion of functions or states associated with at least one of the components of the electronic device (101) (e.g., the display module (160), the sensor module (176), or the communication module (190)), for example, while the main processor (121) is in an inactive (e.g., sleep) state, or together with the main processor (121) while the main processor (121) is in an active (e.g., application execution) state.
  • the auxiliary processor (123) e.g., an image signal processor or a communication processor
  • the program (140) may be stored as software in memory (130) and may include, for example, an operating system (142), middleware (144), or an application (146).
  • the input module (150) can receive commands or data to be used in a component of the electronic device (101) (e.g., a processor (120)) from an external source (e.g., a user) of the electronic device (101).
  • the input module (150) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).
  • the display module (160) can visually provide information to an external party (e.g., a user) of the electronic device (101).
  • the display module (160) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device.
  • the display module (160) can include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module (170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (170) can obtain sound through an input module (150), or output sound through an audio output module (155), or an external electronic device (e.g., an electronic device (102)) (e.g., a speaker or a headphone) directly or wirelessly connected to the electronic device (101).
  • an electronic device e.g., an electronic device (102)
  • a speaker or a headphone directly or wirelessly connected to the electronic device (101).
  • the communication module (190) may include a wireless communication module (192) (e.g., a cellular communication module, a short-range wireless communication module, or a GNSS (global navigation satellite system) communication module) or a wired communication module (194) (e.g., a local area network (LAN) communication module or a power line communication module).
  • a wireless communication module (192) e.g., a cellular communication module, a short-range wireless communication module, or a GNSS (global navigation satellite system) communication module
  • a wired communication module (194) e.g., a local area network (LAN) communication module or a power line communication module.
  • the wireless communication module (192) may support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module (192) may support various requirements specified in an electronic device (101), an external electronic device (e.g., an electronic device (104)), or a network system (e.g., a second network (199)).
  • the wireless communication module (192) can support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 164 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip) for URLLC realization.
  • a peak data rate e.g., 20 Gbps or more
  • a loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip
  • peripheral devices e.g., a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • commands or data may be transmitted or received between the electronic device (101) and an external electronic device (104) via a server (108) connected to a second network (199).
  • Each of the external electronic devices (102, or 104) may be the same or a different type of device as the electronic device (101).
  • all or part of the operations executed in the electronic device (101) may be executed in one or more of the external electronic devices (102, 104, or 108). For example, when the electronic device (101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (101) may, instead of or in addition to executing the function or service itself, request one or more external electronic devices to perform at least a part of the function or service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (101).
  • the electronic device (101) may provide the result, as is or additionally processed, as at least a part of a response to the request.
  • cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used, for example.
  • the electronic device (101) may provide an ultra-low latency service by using distributed computing or mobile edge computing, for example.
  • the external electronic device (104) may include an IoT (Internet of Things) device.
  • the server (108) may be an intelligent server using machine learning and/or a neural network.
  • the electronic devices according to various embodiments disclosed in this document may be devices of various forms.
  • the electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliance devices.
  • portable communication devices e.g., smartphones
  • computer devices portable multimedia devices
  • portable medical devices e.g., cameras
  • wearable devices e.g., smart watch devices
  • home appliance devices e.g., smartphones
  • the electronic devices according to embodiments of this document are not limited to the above-described devices.
  • module used in various embodiments of this document may include a unit implemented in hardware, software or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example.
  • a module may be an integrally configured component or a minimum unit of the component or a part thereof that performs one or more functions.
  • a module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • the image sensor (230) can include one image sensor selected from among image sensors having different properties, such as, for example, an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor, a plurality of image sensors having the same property, or a plurality of image sensors having different properties.
  • Each image sensor included in the image sensor (230) may be implemented using, for example, a CCD (charged coupled device) sensor or a CMOS (complementary metal oxide semiconductor) sensor.
  • the memory (250) can temporarily store at least a portion of an image acquired through the image sensor (230) for the next image processing task. For example, when image acquisition is delayed due to a shutter, or when a plurality of images are acquired at high speed, the acquired original image (e.g., a Bayer-patterned image or a high-resolution image) is stored in the memory (250), and a corresponding copy image (e.g., a low-resolution image) can be previewed through the display module (160). Thereafter, when a specified condition is satisfied (e.g., a user input or a system command), at least a portion of the original image stored in the memory (250) can be acquired and processed by, for example, an image signal processor (260). According to one embodiment, the memory (250) can be configured as at least a portion of the memory (130), or as a separate memory that operates independently therefrom.
  • a specified condition e.g., a user input or a system command
  • an electronic device (101) may include a lens assembly (210) (e.g., the lens assembly (210) of FIG. 2), an image sensor (230) (e.g., the image sensor (230) of FIG. 2), an image signal processor (260) (e.g., the image signal processor (260) of FIG. 2), a processor (120) (e.g., the processor (120) of FIG. 1), a display (160) (e.g., the display module (160) of FIG. 1), and a memory (250) (e.g., the memory (130) of FIG. 1, the memory (250) of FIG. 2).
  • a lens assembly (210) e.g., the lens assembly (210) of FIG. 2
  • an image sensor e.g., the image sensor (230) of FIG. 2
  • an image signal processor (260) e.g., the image signal processor (260) of FIG. 2
  • a processor (120) e.g., the processor (120) of FIG. 1
  • a display
  • the image signal processor (260) and the image sensor (230) are physically separate, there may be a compliant sensor interface.
  • the image signal processor (260) can perform image processing on electrically converted image data.
  • the process in the image signal processor (260) can be divided into pre-ISP (hereinafter, pre-processing) and ISP chain (hereinafter, post-processing).
  • the pre-processing process can include 3A processing, lens shading correction, edge enhancement, dead pixel correction, and knee correction.
  • the 3A can include at least one of AWB (auto white balance), AE (auto exposure), and AF (auto focusing).
  • the post-processing process can include at least one of changing a sensor index value, changing a tuning parameter, and adjusting an aspect ratio.
  • the post-processing process can include a process of processing image data output from the image sensor (230) or image data output from a scaler.
  • the electronic device (101) may include a gyro sensor (330) and a hall sensor (320).
  • the gyro sensor (330) may measure a rotation angle or inclination of the electronic device (101) about three axes (e.g., X-axis, Y-axis, or Z-axis).
  • the gyro sensor is exemplary, and the electronic device (101) may include various sensors (e.g., motion sensors) such as an acceleration sensor or a hall sensor (e.g., sensor module (176) of FIG. 1).
  • FIG. 6 illustrates a shading pattern detected in a plurality of unit pixels (311, 312, 313, 314), each of which includes one micro lens and four photodiodes corresponding to the micro lens.
  • the gain value (612) detected from the photodiode in the (+x, +y) direction can be detected as the highest.
  • the gain value (613) detected from the photodiode in the (-x, -y) direction can be detected as the lowest.
  • the gain value (634) detected from the photodiode in the (+x, -y) direction can be detected as the highest.
  • the gain value (631) detected from the photodiode in the (-x, +y) direction can be detected as the highest.
  • the luminance difference due to shading may not be a problem by using the average value, but when performing AF or a remosaic process, each gain value becomes significant data, and the luminance difference unrelated to the subject may become a problem.
  • the remosaic process may mean an operation of converting the color order of data detected by the image sensor so that a demosaic operation that converts the image data into a color image can be performed.
  • the electronic device may correct the luminance difference due to shading before performing AF or a remosaic process.
  • the present disclosure can provide an electronic device and an operating method thereof capable of efficiently correcting shading caused by a difference between the chief ray angle of a lens and the chief ray angle of an image sensor having unit pixels such as 2PD or 4PD.
  • FIG. 7 is a flowchart (700) illustrating an operating method of an electronic device (e.g., the electronic device (101) of FIG. 1, the electronic device (101) of FIG. 3) according to one embodiment.
  • an electronic device e.g., the electronic device (101) of FIG. 1, the electronic device (101) of FIG. 3
  • FIG. 7 may be performed while the electronic device activates a camera (e.g., the camera module (180) of FIG. 1, the camera module (180) of FIG. 2) to capture an image.
  • a camera e.g., the camera module (180) of FIG. 1, the camera module (180) of FIG. 2
  • the operations illustrated in FIG. 7 may be performed while the electronic device executes a camera application and displays a preview screen including an image acquired through the camera.
  • the electronic device may obtain at least one of motion data and OIS position information.
  • the electronic device may obtain motion data that detects movement of the electronic device through a sensor (e.g., the sensor module (176) of FIG. 1).
  • the sensor may include, for example, a gyro sensor, but the type of the sensor is not limited thereto.
  • the electronic device may control the OIS position of the optical image stabilizer to compensate for the movement of the electronic device based on the motion data.
  • the electronic device may obtain OIS position information indicating the OIS position of the optical image stabilizer.
  • the electronic device may obtain OIS position information from information detected by a Hall sensor (e.g., the Hall sensor (320) of FIG. 3)) disposed in the optical image stabilizer.
  • a Hall sensor e.g., the Hall sensor (320) of FIG. 3
  • the electronic device may determine whether to perform shading compensation based on the satisfaction of a second condition indicating whether an amount of movement of the electronic device during a specified time interval is greater than or equal to a threshold. For example, the electronic device may determine that the second condition is satisfied based on the integration of the motion data detected during the specified time interval is greater than or equal to a threshold. For example, the electronic device may be configured to determine that shading compensation is to be performed based on the satisfaction of both the first condition and the second condition.
  • the at least one specified condition may be configured as a condition for determining whether shading compensation is required, and may include at least one condition other than the conditions described above.
  • the electronic device may also adjust the gain value based on the OIS location. For example, the electronic device may determine a weight based on the OIS location information, and adjust the gain value based on the determined weight.
  • the electronic device can perform an AF operation based on the second AF data corrected in operation 707.
  • the AF operation can include an operation of controlling an AF actuator included in the camera according to an AF position determined based on the second AF data.
  • the electronic device may determine whether to terminate the AF operation. For example, the electronic device may determine to terminate the AF operation if the focus is on a region of interest (ROI) based on the AF operation performed in operation 709. For example, the electronic device may determine to terminate the AF operation if the operation of the camera is determined to be deactivated or terminated (e.g., if the execution of the camera application is terminated). If the AF operation is determined not to be terminated, the electronic device may execute the operations illustrated in the flowchart (700) from operation 701.
  • ROI region of interest
  • the electronic device may be configured to omit operation 705 and perform operation 707, which performs shading compensation.
  • the electronic device can change the direction in which the phase detection is performed based on the direction of the motion data or the direction in which the OIS position is moved.
  • a 4PD image sensor in which PDs are arranged in a 2 x 2 array to correspond to one micro lens can detect phase difference data in a first direction (e.g., horizontal direction) or phase difference data in a second direction (e.g., vertical direction).
  • the electronic device In a state in which the horizontal phase detection is performed, if the value in the horizontal direction among the motion data continues to have a positive value or a negative value (or if the integral value for a specified section is a positive value or a negative value), it means that a horizontal movement is occurring, and therefore the electronic device can change the direction in which the phase detection is performed to a vertical direction. In a state in which the vertical phase detection is performed, if the value in the vertical direction among the motion data continues to have a positive value or a negative value (or if the integral value for a specified section is a positive value or a negative value), it means that a vertical movement is occurring, and therefore the electronic device can change the direction in which the phase detection is performed to a horizontal direction. In one embodiment, the electronic device may be configured to omit operation 707 of compensating for shading if the direction in which the phase detection is performed is changed and there is little movement of the electronic device corresponding to that direction.
  • FIGS. 8 and 9 illustrate the OIS operation of an electronic device according to one embodiment.
  • a gyro sensor (330) can detect acceleration acting on three axes (e.g., X-axis, Y-axis, or Z-axis) of an electronic device (101), and the OIS operation can move on two axes (e.g., X-axis or Y-axis).
  • FIGS. 8 and 9 show a position where a lens assembly (210) is placed by performing an OIS operation based on the X-axis component and the Y-axis component of the gyro sensor (330).
  • the electronic device (101) may perform an OIS operation to control the OIS position (e.g., the x-axis/y-axis direction position of the lens assembly) so that the center of the lens is located at a first position (e.g., 800 of FIG. 8 and 900 of FIG. 9) that is the center of the aperture of the lens.
  • OIS position e.g., the x-axis/y-axis direction position of the lens assembly
  • the electronic device (101) may perform an OIS operation to control an OIS position (e.g., an x-axis direction position of the lens assembly) such that the center of the lens is located at a third position (802) that is moved by a greater amount than the second position (801) from the center of the aperture of the lens.
  • an OIS position e.g., an x-axis direction position of the lens assembly
  • the electronic device (101) may perform an OIS operation to control the OIS position (e.g., the y-axis direction position of the lens assembly) so that the center of the lens is located at a fifth position (902) moved in the -y-axis direction from the center of the aperture of the lens.
  • OIS position e.g., the y-axis direction position of the lens assembly
  • An electronic device may determine whether shading compensation is required by identifying an OIS position based on at least one of an OIS movement direction or a parameter.
  • the electronic device may compare a direction of the OIS with a direction of AF detection (phase difference direction). If the phase difference direction does not match the OIS eccentricity direction and is perpendicular, the electronic device may not perform shading compensation even if the lens assembly is in a specific direction. This is because shading exists in the vertical direction of the phase difference, but shading in the horizontal direction may be small or non-existent.
  • Figure 10 illustrates examples of determining whether to perform shading correction depending on the OIS operation direction when detecting a phase difference in the horizontal direction (x-axis direction).
  • shading included in values acquired from photodiodes arranged in the horizontal direction (911) may be small or non-existent (i.e., shading in the horizontal direction may be small or non-existent). Accordingly, since the influence of shading on phase difference detection in the horizontal direction (x-axis direction) is low, the electronic device can omit an operation for performing shading compensation and perform an AF operation.
  • second data (920) configured based on information acquired from photodiodes of the image sensor may include shading that occurs in values acquired from photodiodes arranged in the vertical and horizontal directions (921) (i.e., shading in the horizontal/vertical directions may occur). Accordingly, since shading may affect phase difference detection in the horizontal direction (x-axis direction), the electronic device may perform an AF operation based on the AF data on which shading compensation has been performed.
  • the electronic device can omit an operation for performing shading compensation and perform an AF operation.
  • the electronic device including the 4PD sensor can also adjust the phase difference operation direction according to the direction requiring correction only when the phase difference direction is not important. Accordingly, shading correction can be omitted by changing the operation direction.
  • the coordinate values shown in Fig. 11 may indicate the OIS location.
  • a higher brightness within the OIS range shown in Fig. 11 may indicate a higher weight value.
  • An electronic device (e.g., the electronic device 101 of FIG. 1, the electronic device 101 of FIG. 3) may include a processor (e.g., the processor 120 of FIG. 1, the processor 120 of FIG. 3) and a memory storing instructions executable by the processor.
  • the instructions according to one embodiment may be configured to cause the electronic device to obtain first AF data from an image sensor.
  • the instructions according to one embodiment may be configured to cause the electronic device to correct the first AF data based on a parameter for an OIS operation to generate second AF data.
  • the instructions according to one embodiment may be configured to cause the electronic device to perform an AF (auto focus) function based on the second AF data.
  • Instructions according to one embodiment may obtain a look up table (LUT) corresponding to at least one of a parameter or a Chief Ray Angle (CRA) of at least one lens, and correct first AF data based on the LUT.
  • LUT look up table
  • CRA Chief Ray Angle
  • Instructions according to one embodiment can identify a phase difference direction of first AF data and determine whether to perform correction based on a relationship between the phase difference direction and the parameter.
  • An instruction according to one embodiment may omit correction if the relationship between the phase difference direction and the parameter corresponds to a vertical relationship.
  • Instructions according to one embodiment can change the direction of phase detection based on first AF data when the direction of movement of at least one lens due to OIS operation is maintained for a defined time period or longer.
  • the first direction can be perpendicular to the second direction.
  • An electronic device and an operating method thereof according to embodiments of the present disclosure can improve the accuracy of a focus adjustment function performed by the electronic device to capture an image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

An electronic device according to one embodiment comprises a camera module including: a lens assembly including at least one lens and a sensor that outputs a signal for acquiring motion data corresponding to motion of the electronic device; an image sensor; and an optical image stabilizer (OIS) for moving the lens assembly and/or the image sensor in order to perform an optical image stabilization operation on the basis of the motion data. The electronic device can perform an autofocus function on the basis of autofocus data corrected on the basis of parameters for the optical image stabilization operation.

Description

이미지 센서를 포함하는 전자 장치 및 그 동작 방법Electronic device including image sensor and method of operating same

본 개시는 이미지 센서를 포함하는 전자 장치에서 AF(auto focus) 기능을 수행하는 기술에 관한 것이다.The present disclosure relates to a technology for performing an AF (auto focus) function in an electronic device including an image sensor.

고해상도 모드가 요구됨에 따라 이미지 센서를 이용하여 AF 성능을 개선하기 위한 방안들이 제시되고 있다. 최근에는 카메라 배치 구조의 제약에 따라 픽셀의 크기를 줄이며 화소의 수를 높이는 방향으로 이미지 센서들이 개발되고 있다. 특히, 단순히 고화소 모드만이 아닌 높은 AF 성능을 가진 이미지 센서까지 요구되면서 전 화소 위상차 검출(phase detection)이 가능한 픽셀 구조가 제시되고 있다.As high-resolution mode is required, methods for improving AF performance using image sensors are being proposed. Recently, image sensors are being developed in the direction of reducing pixel size and increasing the number of pixels due to constraints in camera layout structure. In particular, as image sensors with high AF performance, not just high-pixel mode, are being required, pixel structures capable of full-pixel phase detection are being proposed.

AF 방식을 채용한 전자 장치는, 2x1 배열을 가지는 2개의 PD(photodiode)가 1개의 마이크로 렌즈 아래에 배치되는 이미지 센서를 포함하며, 각 PD에서 출력되는 AF 데이터를 왼쪽 데이터 및 오른쪽 데이터로 분류하고 둘 간의 위상차를 이용해 초점을 맞추는 방식으로 AF 기능을 수행하였다. 그러나, PD의 사이즈가 작아지면서 고해상도를 가질 수 있는 구조에 대한 요구가 높아짐에 따라 2x1 배열이 아닌 2x2 배열을 가지는 4개의 PD가 1개의 마이크로 렌즈를 공유하는 형태가 제안되고 있으며, 이 경우 고해상도를 가질 수 있다는 장점과 함께 좌, 우 그리고 위, 아래의 위상차를 알 수 있어 AF 성능이 더욱 향상된다는 장점이 있다.An electronic device employing the AF method includes an image sensor in which two PDs (photodiodes) having a 2x1 array are arranged under one micro lens, and the AF function is performed by classifying the AF data output from each PD into left data and right data and focusing using the phase difference between the two. However, as the size of the PD decreases and the demand for a structure capable of high resolution increases, a structure in which four PDs having a 2x2 array instead of a 2x1 array share one micro lens is proposed. In this case, in addition to the advantage of high resolution, there is the advantage of further improving the AF performance because the phase differences between the left, right, up, and down can be known.

한편, PD 화소의 출력은 입사되는 빛의 CRA(chief ray angle)에 따라서 매우 큰 감도 차이가 발생하며, 일반적으로 실제 이미지 데이터를 생성하기 위해서 PD 화소의 값을 그대로 사용하게 된다면 렌즈와 화소의 물리적인 위치에 따라 화소 값의 편차가 발생할 수 있다.Meanwhile, the output of the PD pixel has a very large difference in sensitivity depending on the chief ray angle (CRA) of the incident light, and if the value of the PD pixel is used as is to generate actual image data, deviation in the pixel value may occur depending on the physical location of the lens and pixel.

상술한 정보는 본 개시에 대한 이해를 돕기 위한 목적으로 하는 배경 기술(related art)로 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련된 종래 기술(prior art)로서 적용될 수 있는지에 대하여 어떠한 주장이나 결정이 제기되지 않는다.The above information may be provided as related art for the purpose of assisting in understanding the present disclosure. No claim or determination is made as to whether any of the above is applicable as prior art related to the present disclosure.

일 실시예에 따른 전자 장치는 센서, 카메라 모듈, 프로세서 및 메모리를 포함할 수 있다. 센서는 전자 장치의 움직임에 대한 모션 데이터를 획득하기 위한 신호를 출력할 수 있다. 카메라 모듈은 렌즈 어셈블리, 이미지 센서 및 광학적 이미지 안정화기(optical image stabilizer, OIS)를 포함할 수 있다. 렌즈 어셈블리는 적어도 하나의 렌즈를 포함할 수 있다. 광학적 이미지 안정화기는 모션 데이터에 기초하여 광학적 이미지 안정화 동작을 수행하도록 렌즈 어셈블리 또는 이미지 센서 중 적어도 하나를 움직이도록 구성될 수 있다. 메모리는 프로세서에 의해 실행가능한 인스트럭션들(instructions)을 저장할 수 있다. 인스트럭션들은 프로세서에 의해 실행되어 전자 장치가 이미지 센서로부터 제1 AF 데이터를 획득하도록 할 수 있다. 인스트럭션들은 프로세서에 의해 실행되어 전자 장치가 OIS 동작을 위한 파라미터에 기초하여 제1 AF 데이터를 보정하여 제2 AF 데이터를 생성하도록 할 수 있다. 인스트럭션들은 프로세서에 의해 실행되어 전자 장치가 제2 AF 데이터에 기초하여 AF(auto focus) 기능을 수행하도록 할 수 있다.An electronic device according to one embodiment may include a sensor, a camera module, a processor, and a memory. The sensor may output a signal for obtaining motion data regarding a movement of the electronic device. The camera module may include a lens assembly, an image sensor, and an optical image stabilizer (OIS). The lens assembly may include at least one lens. The optical image stabilizer may be configured to move at least one of the lens assembly or the image sensor to perform an optical image stabilization operation based on the motion data. The memory may store instructions executable by the processor. The instructions may be executed by the processor to cause the electronic device to obtain first AF data from the image sensor. The instructions may be executed by the processor to cause the electronic device to correct the first AF data based on parameters for the OIS operation to generate second AF data. The instructions may be executed by the processor to cause the electronic device to perform an AF (auto focus) function based on the second AF data.

일 실시예에 따른 전자 장치의 동작 방법은 전자 장치의 움직임에 대응되는 모션 데이터를 획득하기 위한 신호를 출력하는 동작을 포함할 수 있다. 상기 동작 방법은 모션 데이터에 기초하여 광학적 이미지 안정화 (Optical Image Stabilization, OIS) 동작을 수행하도록 상기 렌즈 어셈블리 또는 이미지 센서를 제어하는 동작을 포함할 수 있다. 상기 동작 방법은 이미지 센서로부터 제1 AF 데이터를 획득하는 동작과 OIS 동작을 위한 파라미터에 기초하여 제1 AF 데이터를 보정한 제2 AF 데이터를 생성하는 동작을 포함할 수 있다. 상기 동작 방법은 제2 AF 데이터에 기초하여 AF(auto focus) 기능을 수행하는 동작을 포함할 수 있다.An operating method of an electronic device according to one embodiment may include an operation of outputting a signal for obtaining motion data corresponding to a movement of the electronic device. The operating method may include an operation of controlling the lens assembly or the image sensor to perform an optical image stabilization (OIS) operation based on the motion data. The operating method may include an operation of obtaining first AF data from the image sensor and an operation of generating second AF data by correcting the first AF data based on a parameter for the OIS operation. The operating method may include an operation of performing an AF (auto focus) function based on the second AF data.

본 기재의 일 실시 예에 따른 컴퓨터로 판독 가능한 비일시적 기록 매체는, 실행 시에 전자 장치가 상술한 방법 또는 전자 장치의 동작을 수행하도록 하는 적어도 하나의 명령어 및/또는 인스트럭션들을 저장한 것일 수 있다.A computer-readable non-transitory recording medium according to one embodiment of the present disclosure may store at least one command and/or instruction that, when executed, causes an electronic device to perform the method described above or an operation of the electronic device.

도 1은 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다. FIG. 1 is a block diagram of an electronic device within a network environment according to various embodiments.

도 2는 다양한 실시예들에 따른 카메라 모듈을 예시하는 블록도이다.FIG. 2 is a block diagram illustrating a camera module according to various embodiments.

도 3은 일 실시예에 따른 전자 장치의 주요 하드웨어 구성을 나타낸 도면이다.FIG. 3 is a diagram showing the main hardware configuration of an electronic device according to one embodiment.

도 4는 일 실시예에 따른 이미지 센서의 픽셀 어레이의 단면도이다.FIG. 4 is a cross-sectional view of a pixel array of an image sensor according to one embodiment.

도 5는 일 실시예에 따른 이미지 센서에 음영이 미치는 영향을 설명하기 위한 도면이다.FIG. 5 is a drawing for explaining the effect of shading on an image sensor according to one embodiment.

도 6은 광학적 이미지 안정화기의 동작에 따라서 검출되는 음영 패턴의 예시를 도시한다.Figure 6 illustrates an example of a shadow pattern detected according to the operation of an optical image stabilizer.

도 7은 일 실시예에 따른 전자 장치의 동작 방법을 도시한 흐름도이다.FIG. 7 is a flowchart illustrating a method of operating an electronic device according to one embodiment.

도 8 및 도 9은 일 실시예에 따른 전자 장치의 OIS 동작을 도시한다.FIGS. 8 and 9 illustrate the OIS operation of an electronic device according to one embodiment.

도 10은 수평 방향의 위상차 검출 시에 OIS 동작 방향에 따라서 음영 보정을 수행할 것인지 여부를 판단하는 예시들을 도시한다.Figure 10 illustrates examples of determining whether to perform shading compensation depending on the OIS operation direction when detecting a horizontal phase difference.

도 11는 일 실시예에 따른 OIS 위치에 기초하여 결정되는 가중치의 예시를 도시한다.FIG. 11 illustrates an example of weights determined based on OIS positions according to one embodiment.

이하, 첨부된 도면을 참조하여 실시예들을 상세히 설명한다. 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 문서에서 개시된 실시예들은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. The advantages and features, and the methods for achieving them, will become clear with reference to the embodiments described in detail below together with the attached drawings. The embodiments disclosed in this document are not limited to the embodiments disclosed below, but may be implemented in various different forms, and are only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 당해 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 실시예를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification can be used in the meaning commonly understood by a person of ordinary skill in the art. In addition, terms defined in commonly used dictionaries are not to be ideally or excessively interpreted unless explicitly specifically defined. The terminology used in this specification is for the purpose of describing embodiments and is not intended to limit the embodiments. In this specification, the singular also includes the plural unless specifically stated in the phrase.

명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 동작, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 동작, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terms "comprises" and/or "comprising", as used in the specification, do not exclude the presence or addition of one or more other components, operations, operations and/or elements.

일 실시예에서, 렌즈로 입사되는 광의 입사각(렌즈 입사각)과 센서로 입사되는 광의 입사각(센서 입사각) 사이의 부조화(mismatch)로 인해서 발생하는 패턴을 보정할 수 있는 전자 장치 및 그 동작 방법이 제공될 수 있다.In one embodiment, an electronic device and a method of operating the same can be provided that can correct a pattern that occurs due to a mismatch between an angle of incidence of light incident on a lens (lens angle of incidence) and an angle of incidence of light incident on a sensor (sensor angle of incidence).

일 실시예에서, 렌즈 입사각 및 센서 입사각의 부조화로 인해서 발생하는 패턴을 보정하여 자동 초점 기능의 구동 시에 정확성을 향상시킬 수 있는 전자 장치 및 그 동작 방법이 제공될 수 있다.In one embodiment, an electronic device and a method of operating the same can be provided to improve accuracy when operating an autofocus function by correcting a pattern that occurs due to a mismatch between a lens incident angle and a sensor incident angle.

본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 개시의 기재에 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in this document are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by a person having ordinary knowledge in the technical field included in the description of the present disclosure.

도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.FIG. 1 is a block diagram of an electronic device (101) in a network environment (100) according to various embodiments. Referring to FIG. 1, in the network environment (100), the electronic device (101) may communicate with the electronic device (102) via a first network (198) (e.g., a short-range wireless communication network), or may communicate with at least one of the electronic device (104) or the server (108) via a second network (199) (e.g., a long-range wireless communication network). According to one embodiment, the electronic device (101) may communicate with the electronic device (104) via the server (108). According to one embodiment, the electronic device (101) may include a processor (120), a memory (130), an input module (150), an audio output module (155), a display module (160), an audio module (170), a sensor module (176), an interface (177), a connection terminal (178), a haptic module (179), a camera module (180), a power management module (188), a battery (189), a communication module (190), a subscriber identification module (196), or an antenna module (197). In some embodiments, the electronic device (101) may omit at least one of these components (e.g., the connection terminal (178)), or may have one or more other components added. In some embodiments, some of these components (e.g., the sensor module (176), the camera module (180), or the antenna module (197)) may be integrated into one component (e.g., the display module (160)).

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor (120) may control at least one other component (e.g., a hardware or software component) of an electronic device (101) connected to the processor (120) by executing, for example, software (e.g., a program (140)), and may perform various data processing or calculations. According to one embodiment, as at least a part of the data processing or calculations, the processor (120) may store a command or data received from another component (e.g., a sensor module (176) or a communication module (190)) in a volatile memory (132), process the command or data stored in the volatile memory (132), and store result data in a nonvolatile memory (134). According to one embodiment, the processor (120) may include a main processor (121) (e.g., a central processing unit or an application processor) or an auxiliary processor (123) (e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together with the main processor (121). For example, when the electronic device (101) includes a main processor (121) and an auxiliary processor (123), the auxiliary processor (123) may be configured to use less power than the main processor (121) or to be specialized for a given function. The auxiliary processor (123) may be implemented separately from the main processor (121) or as a part thereof.

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The auxiliary processor (123) may control at least a portion of functions or states associated with at least one of the components of the electronic device (101) (e.g., the display module (160), the sensor module (176), or the communication module (190)), for example, while the main processor (121) is in an inactive (e.g., sleep) state, or together with the main processor (121) while the main processor (121) is in an active (e.g., application execution) state. In one embodiment, the auxiliary processor (123) (e.g., an image signal processor or a communication processor) may be implemented as a part of another functionally related component (e.g., a camera module (180) or a communication module (190)). In one embodiment, the auxiliary processor (123) (e.g., a neural network processing device) may include a hardware structure specialized for processing artificial intelligence models. The artificial intelligence models may be generated through machine learning. Such learning may be performed, for example, in the electronic device (101) itself on which the artificial intelligence model is executed, or may be performed through a separate server (e.g., server (108)). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above. The artificial intelligence model may include a plurality of artificial neural network layers. The artificial neural network may be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above. In addition to the hardware structure, the artificial intelligence model may additionally or alternatively include a software structure.

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory (130) can store various data used by at least one component (e.g., processor (120) or sensor module (176)) of the electronic device (101). The data can include, for example, software (e.g., program (140)) and input data or output data for commands related thereto. The memory (130) can include volatile memory (132) or nonvolatile memory (134).

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program (140) may be stored as software in memory (130) and may include, for example, an operating system (142), middleware (144), or an application (146).

입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module (150) can receive commands or data to be used in a component of the electronic device (101) (e.g., a processor (120)) from an external source (e.g., a user) of the electronic device (101). The input module (150) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).

음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The audio output module (155) can output an audio signal to the outside of the electronic device (101). The audio output module (155) can include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive an incoming call. According to one embodiment, the receiver can be implemented separately from the speaker or as a part thereof.

디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module (160) can visually provide information to an external party (e.g., a user) of the electronic device (101). The display module (160) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. According to one embodiment, the display module (160) can include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of a force generated by the touch.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module (170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (170) can obtain sound through an input module (150), or output sound through an audio output module (155), or an external electronic device (e.g., an electronic device (102)) (e.g., a speaker or a headphone) directly or wirelessly connected to the electronic device (101).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.The sensor module (176) can detect an operating state (e.g., power or temperature) of the electronic device (101) or an external environmental state (e.g., user state) and generate an electric signal or data value corresponding to the detected state. According to one embodiment, the sensor module (176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.

인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface (177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (101) with an external electronic device (e.g., the electronic device (102)). In one embodiment, the interface (177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal (178) may include a connector through which the electronic device (101) may be physically connected to an external electronic device (e.g., the electronic device (102)). According to one embodiment, the connection terminal (178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module (179) can convert an electrical signal into a mechanical stimulus (e.g., vibration or movement) or an electrical stimulus that a user can perceive through a tactile or kinesthetic sense. According to one embodiment, the haptic module (179) can include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module (180) can capture still images and moving images. According to one embodiment, the camera module (180) can include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module (188) can manage power supplied to the electronic device (101). According to one embodiment, the power management module (188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery (189) can power at least one component of the electronic device (101). In one embodiment, the battery (189) can include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The communication module (190) may support establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and an external electronic device (e.g., the electronic device (102), the electronic device (104), or the server (108)), and performance of communication through the established communication channel. The communication module (190) may operate independently from the processor (120) (e.g., the application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module (190) may include a wireless communication module (192) (e.g., a cellular communication module, a short-range wireless communication module, or a GNSS (global navigation satellite system) communication module) or a wired communication module (194) (e.g., a local area network (LAN) communication module or a power line communication module). Among these communication modules, a corresponding communication module may communicate with an external electronic device (104) via a first network (198) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (199) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)). These various types of communication modules may be integrated into a single component (e.g., a single chip) or implemented as multiple separate components (e.g., multiple chips). The wireless communication module (192) may use subscriber information (e.g., an international mobile subscriber identity (IMSI)) stored in the subscriber identification module (196) to identify or authenticate the electronic device (101) within a communication network such as the first network (198) or the second network (199).

무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module (192) can support a 5G network and next-generation communication technology after a 4G network, for example, NR access technology (new radio access technology). The NR access technology can support high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), terminal power minimization and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency communications)). The wireless communication module (192) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate. The wireless communication module (192) may support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module (192) may support various requirements specified in an electronic device (101), an external electronic device (e.g., an electronic device (104)), or a network system (e.g., a second network (199)). According to one embodiment, the wireless communication module (192) can support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 164 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip) for URLLC realization.

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The antenna module (197) can transmit or receive signals or power to or from the outside (e.g., an external electronic device). According to one embodiment, the antenna module (197) can include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB). According to one embodiment, the antenna module (197) can include a plurality of antennas (e.g., an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network (198) or the second network (199), can be selected from the plurality of antennas by, for example, the communication module (190). A signal or power can be transmitted or received between the communication module (190) and the external electronic device through the selected at least one antenna. According to some embodiments, in addition to the radiator, another component (e.g., a radio frequency integrated circuit (RFIC)) can be additionally formed as a part of the antenna module (197).

다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module (197) may form a mmWave antenna module. According to one embodiment, the mmWave antenna module may include a printed circuit board, an RFIC positioned on or adjacent a first side (e.g., a bottom side) of the printed circuit board and capable of supporting a designated high-frequency band (e.g., a mmWave band), and a plurality of antennas (e.g., an array antenna) positioned on or adjacent a second side (e.g., a top side or a side) of the printed circuit board and capable of transmitting or receiving signals in the designated high-frequency band.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the above components may be interconnected and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)).

일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 일 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. In one embodiment, commands or data may be transmitted or received between the electronic device (101) and an external electronic device (104) via a server (108) connected to a second network (199). Each of the external electronic devices (102, or 104) may be the same or a different type of device as the electronic device (101). In one embodiment, all or part of the operations executed in the electronic device (101) may be executed in one or more of the external electronic devices (102, 104, or 108). For example, when the electronic device (101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (101) may, instead of or in addition to executing the function or service itself, request one or more external electronic devices to perform at least a part of the function or service. One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (101). The electronic device (101) may provide the result, as is or additionally processed, as at least a part of a response to the request. For this purpose, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used, for example. The electronic device (101) may provide an ultra-low latency service by using distributed computing or mobile edge computing, for example. In one embodiment, the external electronic device (104) may include an IoT (Internet of Things) device. The server (108) may be an intelligent server using machine learning and/or a neural network. According to one embodiment, the external electronic device (104) or the server (108) may be included in the second network (199). The electronic device (101) can be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic devices according to various embodiments disclosed in this document may be devices of various forms. The electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliance devices. The electronic devices according to embodiments of this document are not limited to the above-described devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.It should be understood that the various embodiments of this document and the terminology used herein are not intended to limit the technical features described in this document to specific embodiments, but include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly dictates otherwise. In this document, each of the phrases "A or B", "at least one of A and B", "at least one of A or B", "A, B, or C", "at least one of A, B, and C", and "at least one of A, B, or C" can include any one of the items listed together in the corresponding phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order). When a component (e.g., a first) is referred to as "coupled" or "connected" to another (e.g., a second) component, with or without the terms "functionally" or "communicatively," it means that the component can be connected to the other component directly (e.g., wired), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.The term "module" used in various embodiments of this document may include a unit implemented in hardware, software or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrally configured component or a minimum unit of the component or a part thereof that performs one or more functions. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software (e.g., a program (140)) including one or more instructions stored in a storage medium (e.g., an internal memory (136) or an external memory (138)) readable by a machine (e.g., an electronic device (101)). For example, a processor (e.g., a processor (120)) of the machine (e.g., an electronic device (101)) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the called at least one instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, ‘non-transitory’ simply means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.

일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present document may be provided as included in a computer program product. The computer program product may be traded between a seller and a buyer as a commodity. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play Store TM ) or directly between two user devices (e.g., smart phones). In the case of online distribution, at least a part of the computer program product may be at least temporarily stored or temporarily generated in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or an intermediary server.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., a module or a program) of the above-described components may include a single or multiple entities, and some of the multiple entities may be separately arranged in other components. According to various embodiments, one or more components or operations of the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, the multiple components (e.g., a module or a program) may be integrated into one component. In such a case, the integrated component may perform one or more functions of each of the multiple components identically or similarly to those performed by the corresponding component of the multiple components before the integration. According to various embodiments, the operations performed by the module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.

도 2는, 다양한 실시예들에 따른, 카메라 모듈(180)을 예시하는 블럭도(200)이다. 도 2를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(210)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. FIG. 2 is a block diagram (200) illustrating a camera module (180) according to various embodiments. Referring to FIG. 2, the camera module (180) may include a lens assembly (210), a flash (220), an image sensor (230), an image stabilizer (240), a memory (250) (e.g., a buffer memory), or an image signal processor (260). The lens assembly (210) may collect light emitted from a subject that is a target of an image capture. The lens assembly (210) may include one or more lenses. According to one embodiment, the camera module (180) may include a plurality of lens assemblies (210). In this case, the camera module (180) may form, for example, a dual camera, a 360-degree camera, or a spherical camera. Some of the plurality of lens assemblies (210) may have the same lens properties (e.g., angle of view, focal length, autofocus, f number, or optical zoom), or at least one lens assembly may have one or more lens properties that are different from the lens properties of the other lens assemblies. The lens assembly (210) may include, for example, a wide-angle lens or a telephoto lens.

플래쉬(220)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일실시예에 따르면, 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. 이미지 센서(230)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(210)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.The flash (220) can emit light used to enhance light emitted or reflected from a subject. According to one embodiment, the flash (220) can include one or more light-emitting diodes (e.g., red-green-blue (RGB) LED, white LED, infrared LED, or ultraviolet LED), or a xenon lamp. The image sensor (230) can acquire an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the lens assembly (210) into an electrical signal. According to one embodiment, the image sensor (230) can include one image sensor selected from among image sensors having different properties, such as, for example, an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor, a plurality of image sensors having the same property, or a plurality of image sensors having different properties. Each image sensor included in the image sensor (230) may be implemented using, for example, a CCD (charged coupled device) sensor or a CMOS (complementary metal oxide semiconductor) sensor.

이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 이미지 센서(230)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 일실시예에 따르면, 이미지 스태빌라이저(240)은 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(180) 또는 전자 장치(101)의 그런 움직임을 감지할 수 있다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. 메모리(250)는 이미지 센서(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 디스플레이 모듈(160)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The image stabilizer (240) can move at least one lens or image sensor (230) included in the lens assembly (210) in a specific direction or control the operating characteristics of the image sensor (230) (e.g., adjusting read-out timing, etc.) in response to the movement of the camera module (180) or the electronic device (101) including the same. This allows compensating for at least some of the negative effects of the movement on the captured image. In one embodiment, the image stabilizer (240) can detect such movement of the camera module (180) or the electronic device (101) by using a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module (180). In one embodiment, the image stabilizer (240) can be implemented as, for example, an optical image stabilizer. The memory (250) can temporarily store at least a portion of an image acquired through the image sensor (230) for the next image processing task. For example, when image acquisition is delayed due to a shutter, or when a plurality of images are acquired at high speed, the acquired original image (e.g., a Bayer-patterned image or a high-resolution image) is stored in the memory (250), and a corresponding copy image (e.g., a low-resolution image) can be previewed through the display module (160). Thereafter, when a specified condition is satisfied (e.g., a user input or a system command), at least a portion of the original image stored in the memory (250) can be acquired and processed by, for example, an image signal processor (260). According to one embodiment, the memory (250) can be configured as at least a portion of the memory (130), or as a separate memory that operates independently therefrom.

이미지 시그널 프로세서(260)는 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 하나 이상의 이미지 처리들을 수행할 수 있다. 상기 하나 이상의 이미지 처리들은, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 디스플레이 모듈(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 제공될 수 있다. 일실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(260)이 프로세서(120)과 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 적어도 하나의 이미지는 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 디스플레이 모듈(160)를 통해 표시될 수 있다.The image signal processor (260) can perform one or more image processing operations on an image acquired through an image sensor (230) or an image stored in a memory (250). The one or more image processing operations may include, for example, depth map generation, 3D modeling, panorama generation, feature point extraction, image synthesis, or image compensation (e.g., noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening, or softening). Additionally or alternatively, the image signal processor (260) may perform control (e.g., exposure time control, or read-out timing control, etc.) for at least one of the components included in the camera module (180) (e.g., the image sensor (230)). The image processed by the image signal processor (260) may be stored back in the memory (250) for further processing or may be provided to an external component of the camera module (180) (e.g., the memory (130), the display module (160), the electronic device (102), the electronic device (104), or the server (108)). According to one embodiment, the image signal processor (260) may include at least one of the processors (120). It may be configured as a part of the image signal processor (260) or as a separate processor that operates independently of the processor (120). When the image signal processor (260) is configured as a separate processor from the processor (120), at least one image processed by the image signal processor (260) may be displayed through the display module (160) as is or after undergoing additional image processing by the processor (120).

일 실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.According to one embodiment, the electronic device (101) may include a plurality of camera modules (180), each having different properties or functions. In this case, for example, at least one of the plurality of camera modules (180) may be a wide-angle camera and at least another may be a telephoto camera. Similarly, at least one of the plurality of camera modules (180) may be a front camera and at least another may be a rear camera.

도 3은 일 실시예에 따른 전자 장치의 주요 하드웨어 구성을 나타낸다. 도 3의 설명에 있어서, 도 1, 및 도 2에서 설명된 구성은 간략하게 설명되거나 설명이 생략될 수 있다.Fig. 3 illustrates a main hardware configuration of an electronic device according to one embodiment. In the description of Fig. 3, the configurations described in Figs. 1 and 2 may be briefly described or omitted.

도 3을 참고하면, 일 실시예에서 전자 장치(101)(예: 도 1의 전자 장치(101))는 렌즈 어셈블리(210)(예: 도 2의 렌즈 어셈블리(210)), 이미지 센서(230)(예: 도 2의 이미지 센서(230)), 이미지 시그널 프로세서(260)(예: 도 2의 이미지 시그널 프로세서(260)), 프로세서(120)(예: 도 1의 프로세서(120)), 디스플레이(160)(예: 도 1의 디스플레이 모듈(160)) 및 메모리(250)(예: 도 1의 메모리(130), 도 2의 메모리(250))를 포함할 수 있다. Referring to FIG. 3, in one embodiment, an electronic device (101) (e.g., the electronic device (101) of FIG. 1) may include a lens assembly (210) (e.g., the lens assembly (210) of FIG. 2), an image sensor (230) (e.g., the image sensor (230) of FIG. 2), an image signal processor (260) (e.g., the image signal processor (260) of FIG. 2), a processor (120) (e.g., the processor (120) of FIG. 1), a display (160) (e.g., the display module (160) of FIG. 1), and a memory (250) (e.g., the memory (130) of FIG. 1, the memory (250) of FIG. 2).

일 실시예에 따르면, 렌즈 어셈블리(210)는 전면 카메라와 후면 카메라에 따라 렌즈의 개수, 배치, 종류 등이 서로 다를 수 있다. 렌즈 어셈블리(210)의 타입에 따라 전면 카메라와 후면 카메라는 서로 다른 특성(예: 초점거리, 최대 배율 등)을 가질 수 있다.According to one embodiment, the lens assembly (210) may have different numbers, arrangements, types, etc. of lenses depending on the front camera and the rear camera. Depending on the type of the lens assembly (210), the front camera and the rear camera may have different characteristics (e.g., focal length, maximum magnification, etc.).

일 실시예에 따르면, 이미지 시그널 프로세서(260)와 이미지 센서(230)가 물리적으로 구분된 경우, 규격에 맞는 센서 인터페이스가 있을 수 있다. In one embodiment, when the image signal processor (260) and the image sensor (230) are physically separate, there may be a compliant sensor interface.

일 실시예에 따르면, 이미지 시그널 프로세서(260)는 전기적으로 변환된 이미지 데이터에 대하여 이미지 처리를 할 수 있다. 이미지 시그널 프로세서(260)에서의 과정은 pre-ISP(이하, 전처리(pre-processing)) 및 ISP chain(이하, 후처리(post-processing))로 구분될 수 있다. 상기 전처리 과정은 3A 처리, 렌즈 셰이딩 보상(lens shading correction), 엣지 개선(edge enhancement), 데드 픽셀 보정(dead pixel correction) 및 knee 보정 등을 포함할 수 있다. 상기 3A는 AWB(auto white balance), AE(auto exposure), AF(auto focusing) 중 적어도 하나를 포함할 수 있다. 상기 후처리 과정은 적어도 센서 색인 값(index) 변경, 튜닝 파라미터 변경, 화면 비율 조절 중 하나를 포함할 수 있다. 후처리 과정은 상기 이미지 센서(230)로부터 출력되는 이미지 데이터 또는 스케일러로부터 출력되는 이미지 데이터를 처리하는 과정을 포함할 수 있다. 이미지 시그널 프로세서(260)는 후처리 과정을 통해 이미지의 명암대비(contrast), 선명도(sharpness), 채도(saturation), 디더링(dithering) 등을 조정할 수 있다. 여기서, 명암대비(contrast), 선명도(sharpness), 채도(saturation) 조정 절차는 YUV 색 공간에서 실행되고, 디더링 절차(dithering procedure)는 RGB(Red Green Blue) 색 공간(color space)에서 실행될 수 있다. 이미지 시그널 프로세서(260)는 후처리 과정을 처리한 후에 얻어진 이미지 데이터를 메모리(예: 디스플레이 버퍼)(250)로 전송할 수 있다. 디스플레이(160)는 프로세서(120)의 제어에 의해 메모리(예: 디스플레이 버퍼)(220)에 저장된 이미지 데이터를 디스플레이 화면에 표시할 수 있다. According to one embodiment, the image signal processor (260) can perform image processing on electrically converted image data. The process in the image signal processor (260) can be divided into pre-ISP (hereinafter, pre-processing) and ISP chain (hereinafter, post-processing). The pre-processing process can include 3A processing, lens shading correction, edge enhancement, dead pixel correction, and knee correction. The 3A can include at least one of AWB (auto white balance), AE (auto exposure), and AF (auto focusing). The post-processing process can include at least one of changing a sensor index value, changing a tuning parameter, and adjusting an aspect ratio. The post-processing process can include a process of processing image data output from the image sensor (230) or image data output from a scaler. The image signal processor (260) can adjust the contrast, sharpness, saturation, dithering, etc. of the image through a post-processing process. Here, the contrast, sharpness, and saturation adjustment procedures can be performed in a YUV color space, and the dithering procedure can be performed in an RGB (Red Green Blue) color space. The image signal processor (260) can transmit the image data obtained after processing the post-processing process to a memory (e.g., a display buffer) (250). The display (160) can display the image data stored in the memory (e.g., a display buffer) (220) on a display screen under the control of the processor (120).

일 실시예에 따르면, 프로세서(120)는 전자 장치(101)에서 지원하는 다양한 기능을 실행/제어할 수 있다. 예를 들어, 프로세서(120)는 메모리(250)에 저장된 프로그래밍 언어로 작성된 코드를 실행함으로써 어플리케이션을 실행하고, 각종 하드웨어를 제어할 수 있다. 예를 들어, 프로세서(120)는 메모리(250)에 저장된 촬영 기능을 지원하는 어플리케이션을 실행할 수 있다. 또한 프로세서(120)는 카메라 모듈(예: 도 1의 카메라 모듈(180))을 실행하고 카메라 모듈(180)이 사용자가 의도하는 동작을 수행할 수 있도록 적절한 촬영 모드를 설정하고 지원할 수 있다.According to one embodiment, the processor (120) can execute/control various functions supported by the electronic device (101). For example, the processor (120) can execute an application and control various hardware by executing a code written in a programming language stored in the memory (250). For example, the processor (120) can execute an application supporting a shooting function stored in the memory (250). In addition, the processor (120) can execute a camera module (e.g., the camera module (180) of FIG. 1) and set and support an appropriate shooting mode so that the camera module (180) can perform an operation intended by the user.

일 실시예에 따르면, 메모리(250)는 프로세서(120)에 의해 실행 가능한 명령어들이 저장될 수 있다. 메모리(250)는 RAM(random access memory)과 같이 일시적으로 데이터들이 저장되는 구성요소 및/또는 SSD(solid state drive)와 같이 데이터들이 영구적으로 저장되는 구성요소를 포함하는 개념으로 이해될 수 있다. 예를 들어, 프로세서(120)는 SSD에 저장된 명령어들을 호출하여 RAM 공간에 소프트웨어 모듈을 구현할 수 있다. 다양한 실시예에서 메모리(250)는 다양한 종류를 포함할 수 있고, 장치의 용도에 맞게 적절한 종류가 채택될 수 있다. 일 실시 예에 따르면, 메모리(250)는, 하나 이상의 저장 매체(storage medium)들(또는 하나 이상의 저장 장치(storage device)들)을 포함할 수 있다. 예를 들면, 메모리(250)는, 하나 이상의 저장 매체들을 포함하는 메모리 집합체를 포함할 수 있다. 예를 들면, 상기 하나 이상의 저장 매체들은, 하드 드라이브, 플래시 메모리, ROM(read-only memory)과 같은 영구 메모리(permanent memory), RAM(random access memory)과 같은 반-영구 메모리(semi-permanent memory), 어느 다른 적합한 유형(any other suitable type)의 저장소(또는 저장 집합체(storage assembly)), 또는 이들의 어떤 조합(any combination thereof)을 포함할 수 있다. 메모리(250)는, 전자 장치(101)의 기능(function or feature)을 위한 데이터를 일시적으로 저장하기 위해 이용되는 하나 이상의 다른 유형들(one or more different types)의 메모리인 캐시 메모리를 포함할 수 있다. 제한되지 않는 예로, 상기 캐시 메모리는, 프로세서(120) 내에 포함될 수 있다. 메모리(250)는, 전자 장치(101) 안에 고정적으로(fixedly) 임베디드될 수 있거나, 반복적으로(repeatedly) 전자 장치(101) 안으로 삽입되고 전자 장치(101)로부터 제거될 수 있는 하나 이상의 적합한 유형의 구성요소들(onto one or more suitably types of components)(예: SIM(subscriber identity module) 카드 및/또는 SD(secure digital) 카드)에 통합될(incorporated) 수 있다. According to one embodiment, the memory (250) may store instructions executable by the processor (120). The memory (250) may be understood as a concept including a component such as a RAM (random access memory) in which data is temporarily stored and/or a component such as an SSD (solid state drive) in which data is permanently stored. For example, the processor (120) may call instructions stored in the SSD to implement a software module in the RAM space. In various embodiments, the memory (250) may include various types, and an appropriate type may be adopted according to the purpose of the device. According to one embodiment, the memory (250) may include one or more storage media (or one or more storage devices). For example, the memory (250) may include a memory aggregate including one or more storage media. For example, the one or more storage media may include a hard drive, flash memory, permanent memory such as read-only memory (ROM), semi-permanent memory such as random access memory (RAM), any other suitable type of storage (or storage assembly), or any combination thereof. The memory (250) may include a cache memory, which is one or more different types of memory used to temporarily store data for a function or feature of the electronic device (101). As a non-limiting example, the cache memory may be included within the processor (120). The memory (250) may be fixedly embedded within the electronic device (101) or incorporated into one or more suitably types of components (e.g., a subscriber identity module (SIM) card and/or a secure digital (SD) card) that can be repeatedly inserted into and removed from the electronic device (101).

일 실시예에 따르면, 메모리(250)에는 카메라 모듈(180)과 연관된 어플리케이션이 저장될 수 있다. 예를 들어, 메모리(250)에는 카메라 어플리케이션이 저장될 수 있다. 카메라 어플리케이션은 사진 촬영, 동영상 촬영, 파노라마 촬영, 슬로우 모션 촬영 등 다양한 촬영 기능을 지원할 수 있다.According to one embodiment, the memory (250) may store an application associated with the camera module (180). For example, the memory (250) may store a camera application. The camera application may support various shooting functions such as taking pictures, shooting videos, taking panoramas, and taking slow motion pictures.

일 실시 예에 따르면, 메모리(250)는, 운영 체제(operating system)(또는 시스템 소프트웨어 어플리케이션), 펌웨어 소프트웨어 어플리케이션, 드라이버 소프트웨어 어플리케이션, 플러그인(예: 애드-인, 애드-온, 및/또는 어플릿) 소프트웨어 어플리케이션, 및/또는 어느 다른 적합한(any other suitable) 소프트웨어 어플리케이션들과 같은 하나 이상의 소프트웨어 어플리케이션들을 저장할 수 있다. 예를 들면, 상기 하나 이상의 소프트웨어 어플리케이션들은, 적어도 하나의 프로세서(120)에 의해 실행가능한 인스트럭션들을 포함할 수 있다. 예를 들면, 메모리(250)는, API(application programming interface)에 의해 호출가능한 인스트럭션들을 저장할 수 있다. 예를 들면, 메모리(250)는, 라이브러리 내에서 인스트럭션들을 저장할 수 있다.According to one embodiment, the memory (250) may store one or more software applications, such as an operating system (or system software application), a firmware software application, a driver software application, a plug-in (e.g., add-in, add-on, and/or applet) software application, and/or any other suitable software applications. For example, the one or more software applications may include instructions executable by at least one processor (120). For example, the memory (250) may store instructions callable by an application programming interface (API). For example, the memory (250) may store instructions within a library.

일 실시예에 따르면, 프로세서(120)는 프로세서(120)에 의해 실행되는 어플리케이션의 실행 화면이나, 메모리(250)에 저장된 이미지 및/또는 동영상과 같은 컨텐츠들을 디스플레이(160)에 표시할 수 있다. 또한 프로세서(120)는 카메라 모듈(180)을 통해 획득된 이미지 데이터를 디스플레이(160)에 표시할 수 있다.According to one embodiment, the processor (120) may display an execution screen of an application executed by the processor (120) or contents such as images and/or videos stored in the memory (250) on the display (160). In addition, the processor (120) may display image data acquired through the camera module (180) on the display (160).

일 실시예에 따르면, 전자 장치(101)는 자이로 센서(330) 및 홀 센서(320)을 포함할 수 있다. 예를 들면, 자이로 센서(330)는 전자 장치(101)의 3축(예: X축, Y축, 또는 Z축)에 대한 회전각 또는 기울기를 측정할 수 있다. 다만, 자이로 센서는 예시적인 것으로, 전자 장치(101)는 가속도 센서 또는 홀 센서 등의 다양한 센서(예: 모션 센서)(예: 도 1의 센서 모듈(176))를 포함할 수 있다.According to one embodiment, the electronic device (101) may include a gyro sensor (330) and a hall sensor (320). For example, the gyro sensor (330) may measure a rotation angle or inclination of the electronic device (101) about three axes (e.g., X-axis, Y-axis, or Z-axis). However, the gyro sensor is exemplary, and the electronic device (101) may include various sensors (e.g., motion sensors) such as an acceleration sensor or a hall sensor (e.g., sensor module (176) of FIG. 1).

일 실시예에 따르면, OIS 모듈(310)은 자이로 센서(330)로부터 모션 데이터를 획득할 수 있다. OIS 모듈(310)은 모션 데이터를 적분 연산하여 전자 장치(101)가 흔들리는 정도에 대한 정보를 획득할 수 있다. OIS 모듈(310)는 모션 데이터에 대한 정보를 기반으로 카메라 모듈(180)의 OIS 기능을 제어할 수 있다. 도 3에서, OIS 모듈(310)이 렌즈 어셈블리(210)를 제어하는 것으로 도시되었으나, 이에 한정되지 아니한다. 예를 들어, OIS 모듈(310)은 이미지 센서(230)의 위치를 제어하도록 구성될 수도 있다.According to one embodiment, the OIS module (310) can obtain motion data from the gyro sensor (330). The OIS module (310) can obtain information on the degree of shaking of the electronic device (101) by performing an integral operation on the motion data. The OIS module (310) can control the OIS function of the camera module (180) based on the information on the motion data. In FIG. 3, the OIS module (310) is illustrated as controlling the lens assembly (210), but is not limited thereto. For example, the OIS module (310) may be configured to control the position of the image sensor (230).

일 실시예에서, AF(auto focus) 모듈(315)은 프로세서에서 획득된 정보에 기초하여 카메라 모듈(180)의 AF 기능을 제어할 수 있다. 예를 들어, AF 모듈(315)은 이미지 센서(230)에 초점이 맞추어지도록 렌즈 어셈블리(210)의 위치(예를 들어, 렌즈 어셈블리(210)와 이미지 센서(230) 사이의 거리를 조절하도록)를 제어할 수 있다. 도 3에서, AF 모듈(315)이 렌즈 어셈블리(210)를 제어하는 것으로 도시되었으나, 이에 한정되지 아니한다. 예를 들어, AF 모듈(315)은 이미지 센서(230)의 위치를 제어하도록 구성될 수도 있다.In one embodiment, the AF (auto focus) module (315) may control the AF function of the camera module (180) based on information acquired from the processor. For example, the AF module (315) may control the position of the lens assembly (210) (e.g., to adjust the distance between the lens assembly (210) and the image sensor (230)) so that the image sensor (230) is focused. In FIG. 3, the AF module (315) is illustrated as controlling the lens assembly (210), but is not limited thereto. For example, the AF module (315) may also be configured to control the position of the image sensor (230).

일 실시예에 따르면, 카메라 모듈(180)이 렌즈 어셈블리(210)를 이동시키는 렌즈 시프트 방식일 때, 프로세서(120)는 홀 센서(320)를 통해 렌즈 어셈블리(210)가 이동된 위치를 감지할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)이 이미지 센서(230)를 이동시키는 센서 시프트 방식일 때, 프로세서(120)는 홀 센서(320)를 통해 이미지 센서(230)가 이동된 위치를 감지할 수 있다. According to one embodiment, when the camera module (180) is of a lens shift type that moves the lens assembly (210), the processor (120) can detect the position to which the lens assembly (210) has moved through the hall sensor (320). According to one embodiment, when the camera module (180) is of a sensor shift type that moves the image sensor (230), the processor (120) can detect the position to which the image sensor (230) has moved through the hall sensor (320).

도 4는 일 실시예에 따른 이미지 센서(예: 도 2 및 도 3의 이미지 센서(230))의 픽셀 어레이의 단면도이다.FIG. 4 is a cross-sectional view of a pixel array of an image sensor (e.g., the image sensor (230) of FIGS. 2 and 3) according to one embodiment.

도 4를 참조하면, 이미지 센서(230)는, 복수 개의 단위 픽셀(410)들을 포함할 수 있다. 일 실시예에 따르면, 각 단위 픽셀(410)은 4 이상의 포토 다이오드(413)들(photo diodes, PD)을 포함할 수 있다. 일 실시예에 따르면, 복수 개의 단위 픽셀(410)들은 빛이 입사하는 방향에 대응하는 Z 축에 실질적으로 수직한 평면에 위치할 수 있다. 일 실시예에 따르면, 복수 개의 단위 픽셀(410)들의 제1 방향(예: X 축의 방향)은 단위 픽셀(410)의 제2 방향(예: Y 축의 방향)과 실질적으로 수직할 수 있다. 일 실시예에 따르면, 제1 방향(예: X 축의 방향)과 제2 방향(예: Y 축의 방향)은 Z 축의 방향에 실질적으로 수직할 수 있다. Referring to FIG. 4, the image sensor (230) may include a plurality of unit pixels (410). According to one embodiment, each unit pixel (410) may include four or more photo diodes (PD) (413). According to one embodiment, the plurality of unit pixels (410) may be positioned on a plane substantially perpendicular to a Z-axis corresponding to a direction in which light is incident. According to one embodiment, a first direction (e.g., a direction of the X-axis) of the plurality of unit pixels (410) may be substantially perpendicular to a second direction (e.g., a direction of the Y-axis) of the unit pixels (410). According to one embodiment, the first direction (e.g., a direction of the X-axis) and the second direction (e.g., a direction of the Y-axis) may be substantially perpendicular to the direction of the Z-axis.

일 실시예에 따르면, 단위 픽셀(410) 각각은, 마이크로 렌즈(411), 컬러 필터(412) 및 복수의 포토 다이오드(413)들 또는 이들의 조합을 포함할 수 있다. 일 실시예에 따르면, 복수의 포토 다이오드(413)들 각각은, 수광 소자로도 지칭될 수 있다. 일 실시예에 따르면, 복수의 포토 다이오드(413)들은 다중 포토 다이오드로도 지칭될 수 있다. 도 4의 컬러 필터(412)는 동일한 색상 채널의 컬러 필터들이 배치될 수도 있으나, 서로 다른 색상 채널들을 포함하는 컬러 필터가 배치될 수도 있다.According to one embodiment, each of the unit pixels (410) may include a micro lens (411), a color filter (412), and a plurality of photo diodes (413), or a combination thereof. According to one embodiment, each of the plurality of photo diodes (413) may also be referred to as a light-receiving element. According to one embodiment, the plurality of photo diodes (413) may also be referred to as a multi-photo diode. The color filter (412) of FIG. 4 may be arranged with color filters of the same color channel, but color filters including different color channels may also be arranged.

일 실시예에 따르면, 마이크로 렌즈(411)는, 마이크로 렌즈(411)에 입사하는 광을 집광할 수 있다. 일 실시예에 따르면, 마이크로 렌즈(411)는, 복수의 포토 다이오드(413)들 각각에 광이 도달하도록 상기 마이크로 렌즈(411)에 입사된 광의 경로를 조절할 수 있다.According to one embodiment, the micro lens (411) can focus light incident on the micro lens (411). According to one embodiment, the micro lens (411) can adjust the path of light incident on the micro lens (411) so that the light reaches each of the plurality of photodiodes (413).

일 실시예에 따르면, 컬러 필터(412)는 미리 지정된 색(또는, 컬러 채널)의 광을 통과시킬 수 있다. 일 실시예에 따르면, 복수의 포토 다이오드(413)들 각각의 컬러 필터(412)는, 미리 지정된 패턴(예: 베이어 패턴)에 따라, 미리 지정된 색(예: 적색, 청색, 또는 녹색) 중 하나의 색(예: 적색)의 광을 통과시킬 수 있다. 일 실시예에 따르면, 컬러 필터(412)는 미리 지정된 색(또는, 컬러 채널) 이외의 색의 광을 차단할 수 있다. According to one embodiment, the color filter (412) can transmit light of a pre-designated color (or color channel). According to one embodiment, the color filter (412) of each of the plurality of photodiodes (413) can transmit light of one color (e.g., red) among the pre-designated colors (e.g., red, blue, or green) according to a pre-designated pattern (e.g., Bayer pattern). According to one embodiment, the color filter (412) can block light of a color other than the pre-designated color (or color channel).

일 실시예에 따르면, 하나의 마이크로 렌즈(411)에 상응하는 위치에 배치된 복수의 포토 다이오드(413)들은 4개 이상일 수 있다. 다만, 이에 한정되지 않는다. 예를 들어, 하나의 마이크로 렌즈(411)에 상응하는 위치에 2개의 포토 다이오드들이 배치될 수도 있다. 본 개시에서, 포토 다이오드가 "마이크로 렌즈에 상응하는 위치에 배치되었다"고 함은 마이크로 렌즈를 통과한 광을 수신하도록 하는 위치에 배치되었음을 의미할 수 있다. 복수의 포토 다이오드(413)들은 대칭적(symmetric)으로 배치될 수도 있으나, 이에 한정되지 아니한다. 본 개시에서, 하나의 마이크로 렌즈(411)에 상응하는 복수의 포토 다이오드(413)들을 가지는 이미지 센서는 다중 포토 다이오드(multi-photodiode) 이미지 센서라고 언급될 수 있다. 일 실시예에 따르면, 복수의 포토 다이오드(413)들 각각은 입사된 광에 대응하는 값을 출력할 수 있다. 일 실시예에 따르면, 복수의 포토 다이오드(413)들 각각은, 광전 효과에 기반하여 입사된 광에 대응하는 값을 출력할 수 있다. 일 실시예에 따르면, 복수의 포토 다이오드(413)들 각각은, 광전 효과에 기반하여 입사된 광의 세기(또는, 조도)에 대응하는 값을 출력할 수 있다.According to one embodiment, the number of photodiodes (413) arranged at a position corresponding to one micro lens (411) may be four or more. However, the present invention is not limited thereto. For example, two photodiodes may be arranged at a position corresponding to one micro lens (411). In the present disclosure, the phrase “a photodiode is arranged at a position corresponding to a micro lens” may mean that the photodiode is arranged at a position to receive light passing through the micro lens. The plurality of photodiodes (413) may be arranged symmetrically, but the present invention is not limited thereto. In the present disclosure, an image sensor having a plurality of photodiodes (413) corresponding to one micro lens (411) may be referred to as a multi-photodiode image sensor. According to one embodiment, each of the plurality of photodiodes (413) may output a value corresponding to incident light. According to one embodiment, each of the plurality of photodiodes (413) may output a value corresponding to incident light based on the photoelectric effect. According to one embodiment, each of the plurality of photodiodes (413) can output a value corresponding to the intensity (or illuminance) of incident light based on the photoelectric effect.

일 실시예에 따르면, 복수의 포토 다이오드(413)들 각각은, 광전 효과에 기반하여 입사된 광의 세기(또는, 조도)에 따른 전하를 생성할 수 있다. 일 실시예에 따르면, 복수의 포토 다이오드(413)들 각각은, 생성된 전하의 양에 따른 전류를 출력할 수 있다.According to one embodiment, each of the plurality of photodiodes (413) can generate a charge according to the intensity (or illuminance) of the incident light based on the photoelectric effect. According to one embodiment, each of the plurality of photodiodes (413) can output a current according to the amount of the generated charge.

도 5는 일 실시예에 따른 이미지 센서에 음영이 미치는 영향을 설명하기 위한 도면이다.FIG. 5 is a drawing for explaining the effect of shading on an image sensor according to one embodiment.

도 4 및 도 5에 도시된 단위 픽셀(410)은, 빛이 입사하는 각도에 따라 단위 픽셀(410)에 포함된 포토 다이오드(413)에 도달하는 빛이 양이 달라질 수 있다. 따라서, 단위 픽셀(410)은 마이크로 렌즈(411) 또는 포토 다이오드(413)에 대해 빛이 일정한 각도의 범위에서 유입되는 광을 검출할 수 있다. 이미지 센서로 입사되는 광은 주광선(chief ray)과 주변광선(또는, 끝광선, marginal ray)을 포함할 수 있다. 주광선은 이미지 센서로 입사되는 광선 중 주된 광선을 의미할 수 있다. 주변광선은 주광선 주변의 광선을 의미할 수 있다. 이미지 센서의 포토 다이오드(413)에 도달하는 광선 중 주광선이 가장 강하며, 주변 광선으로 갈수록 광의 세기가 약해진다. 주변 광선의 밖에서는 플레어(flare)나 내면 반사로 인해 발생한 광 이외에는 이미지 센서로 입사되지 않을 수 있다. 단위 픽셀(410)이 광을 검출하기 위한 주광선이 이미지 센서(예: 마이크로 렌즈(411) 또는 포토 다이오드(413))로 입사하는 각도의 범위는 입사각 범위라고 언급될 수 있다. 마이크로 렌즈(411)를 통과한 광을 수신하는 복수개의 포토 다이오드(413)(예, 2개의 포토 다이오드, 4개의 포토 다이오드) 중 주광선의 입사각도에 따라서 일부 포토 다이오드에만 주광선이 입사될 수 있다. 주광선이 입사된 포토 다이오드에는 밝은 광이 검출되고, 주광선이 입사되지 않은 포토 다이오드에는 어두운 광이 검출될 수 있다. 이로 인해 음영(쉐이딩(shading)) 현상이 발생할 수 있다.The unit pixel (410) illustrated in FIGS. 4 and 5 may have a different amount of light reaching the photodiode (413) included in the unit pixel (410) depending on the angle at which light is incident. Accordingly, the unit pixel (410) may detect light that is incident within a certain range of angles with respect to the micro lens (411) or the photodiode (413). The light incident on the image sensor may include a chief ray and a marginal ray (or, marginal ray). The chief ray may refer to the main ray among the light rays incident on the image sensor. The marginal ray may refer to the light rays surrounding the chief ray. Among the light rays that reach the photodiode (413) of the image sensor, the chief ray is the strongest, and the intensity of the light becomes weaker as it approaches the marginal ray. Outside of the marginal ray, light other than light generated by flare or internal reflection may not be incident on the image sensor. The range of angles at which the principal light for detecting light is incident on the image sensor (e.g., micro lens (411) or photo diode (413)) of the unit pixel (410) may be referred to as an incidence angle range. The principal light may be incident on only some of the photo diodes (413) (e.g., two photo diodes, four photo diodes) that receive light passing through the micro lens (411) depending on the incidence angle of the principal light. Bright light may be detected on the photo diode to which the principal light is incident, and dark light may be detected on the photo diode to which the principal light is not incident. This may cause a shading phenomenon.

또한, OIS 기능이 마련된 카메라 모듈(180)은 OIS 동작에 따라 광학계의 주광선 각도가 변경될(shifted) 수 있다. OIS 동작에 따라 하나의 마이크로 렌즈에 대응되도록 배치된 복수개의 포토 다이오드를 갖는 이미지 센서에 음영(쉐이딩(shading))이 발생할 수 있다.In addition, the camera module (180) equipped with the OIS function may have the principal ray angle of the optical system shifted according to the OIS operation. Shading may occur in the image sensor having a plurality of photodiodes arranged to correspond to one micro lens according to the OIS operation.

도 5의 (a), (b), (c)는 이미지 센서 내에 포함된 같은 단위 픽셀을 도시한다. 도 5의 (b)를 참조하면, 광학적 이미지 안정화기(예: 도 3의 OIS 모듈(310))의 동작 위치가 기본 위치(예를 들어, OIS 동작 범위의 중앙)인 상태에서는 이미지 센서의 주광선 각도(512)가 렌즈의 주광선 각도(522)와 실질적으로 일치될 수 있다. 이미지 센서의 주광선 각도는 단위 픽셀 내에서 음영 효과 없이 광을 검출할 수 있는 광이 입사되는 각도를 의미할 수 있다. 렌즈의 주광선 각도는 렌즈 어셈블리(예: 도 2의 렌즈 어셈블리(210), 도 3의 렌즈 어셈블리(210))를 통과한 광이 단위 픽셀(또는 이미지 센서의 수광면)로 입사하는 각도를 의미할 수 있다. 광학적 이미지 안정화기의 동작에 의해 카메라 모듈(예: 도 1의 카메라 모듈(180), 도 2의 카메라 모듈(180))의 렌즈 어셈블리(예: 도 2의 렌즈 어셈블리(210), 도 3의 렌즈 어셈블리(210)) 또는 이미지 센서(예: 도 2의 이미지 센서(230), 도 3의 이미지 센서(230))가 이동하거나 기울어질(tilt) 수 있다. 렌즈 어셈블리 또는 이미지 센서의 이동으로 인해서 주광선이 이동될 수 있다. 렌즈 어셈블리 또는 이미지 센서의 기울어짐으로 인해서 렌즈 어셈블리와 이미지 센서가 서로에 대해 정렬된 각도가 변경될 수 있다. 따라서, 단위 픽셀(예: 도 4의 단위 픽셀(410))을 기준으로 렌즈의 주광선 각도(521,522,523)와 단위 픽셀이 바라보는 이미지 센서의 주광선 각도(511,512,513)가 변경될 수 있다. 이로 인해 광학적 이미지 안정화기의 동작에 의해 이미지 센서와 렌즈의 주광선 각도가 부조화(mismatch)될 수 있다. 도 5의 (a)는 광학적 이미지 안정화기가 제1 방향으로 동작한 상태에서의 이미지 센서의 주광선 각도(511) 및 렌즈의 주광선 각도(521)을 도시한다. 도 5의 (c)는 광학적 이미지 안정화기가 제1 방향과 다른 제2 방향으로 동작한 상태에서의 이미지 센서의 주광선 각도(513) 및 렌즈의 주광선 각도(523)를 도시한다. 도 5의 (a) 및 (c)를 참조하면, 포토 다이오드들(413-1, 413-2) 중에서 렌즈의 주광선이 이미지 센서의 주광선과 다른 각도를 갖고 입사 되어 하나의 포토 다이오드가 다른 포토 다이오드보다 강한 광을 흡수하게 됨으로써 포토 다이오드들(413-1, 413-2)을 통해서 검출되는 광에 음영이 발생할 수 있다. 주광선이 입사되는 각도에 따라서 포토 다이오드들(413-1, 413-2)에서 검출되는 광량이 달라질 수 있다. 포토 다이오드들(413-1, 413-2)을 통해서 검출된 값들에 OIS 동작으로 인해 발생한 음영이 포함된 상태에서 위상차를 검출하는 경우, 상기 검출된 값들에 대한 상관 연산을 통해서 결정된 위상차가 음영으로 인해서 발생한 것인지 실제 피사체에 대한 위상차로 인해서 발생한 것인지 구분되지 않을 수 있다. 이로 인해 광학적 이미지 안정화기가 동작하는 동안 위상차에 기반한 자동 초점 기능을 수행하는 경우 자동 초점 기능의 정확도가 낮아질 수 있다. 또는 제1 포토다이오드(413-1) 및 제2 포토다이오드(413-2)로부터 검출된 데이터를 각각을 하나의 픽셀 값으로 사용하여 이미지를 구성하는 경우(예: 데이터를 병합하는 처리(예: 비닝(binning) 연산) 없이 이미지를 구성하는 경우), 획득된 이미지의 화질이 낮을 수 있다.FIG. 5 (a), (b), and (c) illustrate the same unit pixel included in the image sensor. Referring to FIG. 5 (b), when the operating position of the optical image stabilizer (e.g., the OIS module (310) of FIG. 3) is at a basic position (e.g., the center of the OIS operating range), the chief ray angle (512) of the image sensor may substantially coincide with the chief ray angle (522) of the lens. The chief ray angle of the image sensor may mean an angle at which light is incident so as to detect light without a shading effect within the unit pixel. The chief ray angle of the lens may mean an angle at which light passing through the lens assembly (e.g., the lens assembly (210) of FIG. 2, the lens assembly (210) of FIG. 3) is incident on the unit pixel (or the light-receiving surface of the image sensor). The operation of the optical image stabilizer may cause a lens assembly (e.g., lens assembly (210) of FIG. 2, lens assembly (210) of FIG. 3) or an image sensor (e.g., image sensor (230) of FIG. 2, image sensor (230) of FIG. 3) of a camera module (e.g., camera module (180) of FIG. 1, camera module (180) of FIG. 2) to move or tilt. The movement of the lens assembly or the image sensor may cause a shift in the chief ray. The tilting of the lens assembly or the image sensor may cause an angle at which the lens assembly and the image sensor are aligned with respect to each other to change. Accordingly, the chief ray angle (521, 522, 523) of the lens with respect to a unit pixel (e.g., unit pixel (410) of FIG. 4)) and the chief ray angle (511, 512, 513) of the image sensor viewed by the unit pixel may change. This may cause a mismatch in the chief ray angles of the image sensor and the lens due to the operation of the optical image stabilizer. Fig. 5 (a) illustrates the chief ray angle (511) of the image sensor and the chief ray angle (521) of the lens when the optical image stabilizer operates in a first direction. Fig. 5 (c) illustrates the chief ray angle (513) of the image sensor and the chief ray angle (523) of the lens when the optical image stabilizer operates in a second direction different from the first direction. Referring to Figs. 5 (a) and (c), among the photodiodes (413-1, 413-2), the chief ray of the lens is incident at a different angle from the chief ray of the image sensor, and one photodiode absorbs stronger light than the other photodiode, so that shading may occur in the light detected through the photodiodes (413-1, 413-2). Depending on the angle at which the principal light is incident, the amount of light detected by the photodiodes (413-1, 413-2) may vary. When detecting a phase difference in a state where shadows caused by OIS operation are included in the values detected through the photodiodes (413-1, 413-2), it may not be possible to distinguish whether the phase difference determined through a correlation operation for the detected values is caused by the shadows or caused by the phase difference for the actual subject. As a result, when an auto-focus function based on the phase difference is performed while the optical image stabilizer is operating, the accuracy of the auto-focus function may be reduced. Alternatively, when an image is composed by using each of the data detected from the first photodiode (413-1) and the second photodiode (413-2) as a single pixel value (e.g., when an image is composed without a process that merges data (e.g., a binning operation)), the image quality of the acquired image may be low.

도 6은 광학적 이미지 안정화기의 동작에 따라서 검출되는 음영 패턴의 예시를 도시한다.Figure 6 illustrates an example of a shadow pattern detected according to the operation of an optical image stabilizer.

도 6은 각각 하나의 마이크로 렌즈와 그 마이크로렌즈에 상응하는 네 개의 포토 다이오드들을 포함하는 복수의 단위 픽셀(311, 312, 313, 314)들에서 검출되는 음영 패턴(shading pattern)을 도시한다. FIG. 6 illustrates a shading pattern detected in a plurality of unit pixels (311, 312, 313, 314), each of which includes one micro lens and four photodiodes corresponding to the micro lens.

도 6은 광학적 이미지 안정화기의 네 가지 동작 상태(601, 602, 603, 604)(예: 광학적 이미지 안정화기가 서로 다른 위치로 제어된 상태)에서 검출되는 음영 패턴을 도시한다. 도 6에서, XOIS는 이미지 안정화기의 동작 상태(또는 동작 위치)를 나타내는 X축 좌표 값을 의미할 수 있다. 또는, XOIS는 이미지 센서의 중심을 기준점으로 하여 정의된 렌즈 어셈블리 중심의 X축 방향 제1 변위 값을 의미할 수 있다. 도 6에서, YOIS는 이미지 안정화기의 동작 상태(또는 동작 위치)를 나타내는 Y축 좌표 값을 의미할 수 있다. 또는, YOIS는 이미지 센서의 중심을 기준점으로 하여 정의된 렌즈 어셈블리 중심의 Y축 방향 제2 변위 값을 의미할 수 있다. 제1 상태(601)는 제1 방향의 OIS 위치가 약 -3도 (XOIS = 8)이고, 제1 방향과 다른 제2 방향의 OIS 위치가 약 -3도 (YOIS = 8)인 경우를 도시한다. 제2 상태(602)는 제1 방향의 OIS 위치가 약 3도(XOIS = 248)이고 제2 방향의 OIS 위치가 약 -3도(YOIS = 8)인 경우를 도시한다. 제3 상태(603)는 제1 방향의 OIS 위치가 약 -3도(XOIS = 8)이고 제2 방향의 OIS 위치가 약 3도 (YOIS 248)인 경우를 도시한다. 제4 상태(604)는 제1 방향의 OIS 위치가 약 3도 (XOIS = 248)이고 제2 방향의 OIS 위치가 약 3도 (YOIS = 248)인 경우를 도시한다.FIG. 6 illustrates shadow patterns detected in four operating states (601, 602, 603, 604) of the optical image stabilizer (e.g., states in which the optical image stabilizer is controlled to different positions). In FIG. 6, XOIS may mean an X-axis coordinate value indicating an operating state (or operating position) of the image stabilizer. Alternatively, XOIS may mean a first displacement value in the X-axis direction of the center of the lens assembly defined with the center of the image sensor as a reference point. In FIG. 6, YOIS may mean a Y-axis coordinate value indicating an operating state (or operating position) of the image stabilizer. Alternatively, YOIS may mean a second displacement value in the Y-axis direction of the center of the lens assembly defined with the center of the image sensor as a reference point. The first state (601) illustrates a case in which the OIS position in a first direction is about -3 degrees (XOIS = 8) and the OIS position in a second direction different from the first direction is about -3 degrees (YOIS = 8). The second state (602) illustrates a case where the OIS position in the first direction is about 3 degrees (XOIS = 248) and the OIS position in the second direction is about -3 degrees (YOIS = 8). The third state (603) illustrates a case where the OIS position in the first direction is about -3 degrees (XOIS = 8) and the OIS position in the second direction is about 3 degrees (YOIS 248). The fourth state (604) illustrates a case where the OIS position in the first direction is about 3 degrees (XOIS = 248) and the OIS position in the second direction is about 3 degrees (YOIS = 248).

제1 상태(601)에서, 제1 단위 픽셀(311)에 포함된 포토 다이오드들의 검출 값들(611, 612, 613, 614) 중에서 (+x, +y) 방향의 포토 다이오드에서 검출된 게인 값(612)이 가장 높게 검출될 수 있다. 반대로, (-x, -y) 방향의 포토 다이오드에서 검출된 게인 값(613)이 가장 낮게 검출될 수 있다.In the first state (601), among the detection values (611, 612, 613, 614) of the photodiodes included in the first unit pixel (311), the gain value (612) detected from the photodiode in the (+x, +y) direction can be detected as the highest. Conversely, the gain value (613) detected from the photodiode in the (-x, -y) direction can be detected as the lowest.

제2 상태에서(602), 제1 단위 픽셀(311)에 포함된 포토 다이오드들의 검출 값들(621, 622, 623, 624) 중에서 (-x, +y) 방향의 포토 다이오드에서 검출된 게인 값(621)이 가장 높게 검출될 수 있다. 반대로, (+x, -y) 방향의 포토 다이오드에서 검출된 게인 값(624)이 가장 낮게 검출될 수 있다.In the second state (602), among the detection values (621, 622, 623, 624) of the photodiodes included in the first unit pixel (311), the gain value (621) detected from the photodiode in the (-x, +y) direction can be detected as the highest. Conversely, the gain value (624) detected from the photodiode in the (+x, -y) direction can be detected as the lowest.

제3 상태에서(603), 제1 단위 픽셀(311)에 포함된 포토 다이오드들의 검출 값들(631, 632, 633, 634) 중에서 (+x, -y) 방향의 포토 다이오드에서 검출된 게인 값(634)이 가장 높게 검출될 수 있다. 반대로, (-x, +y) 방향의 포토 다이오드에서 검출된 게인 값(631)이 가장 높게 검출될 수 있다.In the third state (603), among the detection values (631, 632, 633, 634) of the photodiodes included in the first unit pixel (311), the gain value (634) detected from the photodiode in the (+x, -y) direction can be detected as the highest. Conversely, the gain value (631) detected from the photodiode in the (-x, +y) direction can be detected as the highest.

제4 상태에서(604), 제1 단위 픽셀(6311)에 포함된 포토 다이오드들의 검출 값들(631, 632, 633, 634) 중에서 (-x, -y) 방향의 포토 다이오드에서 검출된 게인 값(643)이 가장 높게 검출될 수 있다. 반대로, (+x, +y) 방향의 포토 다이오드에서 검출된 게인 값(642)이 가장 낮게 검출될 수 있다.In the fourth state (604), among the detection values (631, 632, 633, 634) of the photodiodes included in the first unit pixel (6311), the gain value (643) detected from the photodiode in the (-x, -y) direction can be detected as the highest. Conversely, the gain value (642) detected from the photodiode in the (+x, +y) direction can be detected as the lowest.

음영 패턴으로 인해 각 포토 다이오드의 게인 값은 대략 -80% 내지 대략 +80%까지 차이가 발생할 수 있다. Due to the shading pattern, the gain value of each photodiode can vary from approximately -80% to approximately +80%.

4PD의 이미지가 비닝(binning) 될 때에는 음영에 의한 휘도차는 평균값을 이용하여 문제되지 않을 수 있으나, AF를 수행하거나 리모자이크(remosaic) 과정에서는 각 게인 값이 유의미한 데이터가 되어 피사체와 상관없는 휘도차는 문제가 될 수 있다. 리모자이크 과정은 이미지 데이터를 컬러 영상으로 변환하는 디모자이크 동작을 수행할 수 있도록 이미지 센서에서 검출된 데이터의 컬러 오더(color order)를 변환하는 동작을 의미할 수 있다. 일 실시예에서, 전자 장치는 음영에 의한 휘도차를 AF 수행 또는 리모자이크 과정 전에 보정할 수 있다. When the image of 4PD is binned, the luminance difference due to shading may not be a problem by using the average value, but when performing AF or a remosaic process, each gain value becomes significant data, and the luminance difference unrelated to the subject may become a problem. The remosaic process may mean an operation of converting the color order of data detected by the image sensor so that a demosaic operation that converts the image data into a color image can be performed. In one embodiment, the electronic device may correct the luminance difference due to shading before performing AF or a remosaic process.

본 개시는 2PD 또는 4PD 등의 단위 픽셀을 가지는 이미지 센서에서 렌즈의 주광선 각도와 이미지 센서의 주광선 각도 간의 차이에 의해 발생하는 음영을 효율적으로 보정할 수 있는 전자 장치 및 그 동작 방법을 제공할 수 있다.The present disclosure can provide an electronic device and an operating method thereof capable of efficiently correcting shading caused by a difference between the chief ray angle of a lens and the chief ray angle of an image sensor having unit pixels such as 2PD or 4PD.

도 7은 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101), 도 3의 전자 장치(101)의 동작 방법을 도시한 흐름도(700)이다.FIG. 7 is a flowchart (700) illustrating an operating method of an electronic device (e.g., the electronic device (101) of FIG. 1, the electronic device (101) of FIG. 3) according to one embodiment.

본 개시에서, 전자 장치의 동작은 전자 장치의 프로세서(예: 도 1의 프로세서(120), 도 3의 프로세서(120))가 메모리(예: 도 1의 메모리(130))에 저장된 인스트럭션들을 실행하여 연산을 수행하거나 전자 장치의 구성요소를 제어함으로써 수행되는 것으로 이해될 수 있다. 일 실시예에서, 도 7은 전자 장치가 카메라(예: 도 1의 카메라 모듈(180), 도 2의 카메라 모듈(180))을 활성화하여 영상을 촬영하는 동안 수행될 수 있다. 예를 들어, 전자 장치가 카메라 어플리케이션을 실행하여 카메라를 통해서 획득된 영상을 포함하는 프리뷰 화면을 표시하는 동안 도 7에 도시된 동작들이 실행될 수 있다.In the present disclosure, it can be understood that the operation of the electronic device is performed by a processor of the electronic device (e.g., the processor (120) of FIG. 1, the processor (120) of FIG. 3) executing instructions stored in a memory (e.g., the memory (130) of FIG. 1) to perform operations or control components of the electronic device. In one embodiment, FIG. 7 may be performed while the electronic device activates a camera (e.g., the camera module (180) of FIG. 1, the camera module (180) of FIG. 2) to capture an image. For example, the operations illustrated in FIG. 7 may be performed while the electronic device executes a camera application and displays a preview screen including an image acquired through the camera.

일 실시예에 따르면, 동작 701에서 전자 장치는 이미지 센서(예: 도 2의 이미지 센서(230), 도 3의 이미지 센서(230))로부터 제1 AF 데이터를 획득할 수 있다. 예를 들어, 도 4에 따른 단위 픽셀(예: 도 4의 단위 픽셀(410))은 하나의 마이크로 렌즈(예: 도 4의 마이크로 렌즈(411))에 상응하는 PD들(예: 도 4의 포토 다이오드(413))에 입사되는 광의 위상이 분리되는 다중 포토 다이오드 구조를 포함할 수 있다. 전자 장치는 적어도 하나의 방향의 적어도 하나의 위상차에 대한 위상차 정보를 포함하는 제1 AF 데이터를 획득할 수 있다. According to one embodiment, in operation 701, the electronic device may obtain first AF data from an image sensor (e.g., the image sensor (230) of FIG. 2, the image sensor (230) of FIG. 3). For example, a unit pixel according to FIG. 4 (e.g., the unit pixel (410) of FIG. 4) may include a multi-photodiode structure in which the phases of light incident on PDs (e.g., the photodiodes (413) of FIG. 4) corresponding to one micro lens (e.g., the micro lens (411) of FIG. 4) are separated. The electronic device may obtain first AF data including phase difference information for at least one phase difference in at least one direction.

일 실시 예에 따르면, 동작 703에서, 전자 장치는 모션 데이터 또는 OIS 위치 정보 중 적어도 하나를 획득할 수 있다. 예를 들어, 전자 장치는 센서(예: 도 1의 센서 모듈(176))을 통해서 전자 장치의 움직임을 검출한 모션 데이터를 획득할 수 있다. 센서는, 예를 들어, 자이로(gyro) 센서를 포함할 수 있으나, 센서의 종류는 이에 한정되지 아니한다. 예를 들어, 전자 장치는 모션 데이터에 기초하여 전자 장치의 움직임을 보상하도록 광학적 이미지 안정화기의 OIS 위치를 제어할 수 있다. 전자 장치는 광학적 이미지 안정화기의 OIS 위치를 지시하는 OIS 위치 정보를 획득할 수 있다. 예를 들어, 전자 장치는 광학적 이미지 안정화기에 배치된 홀 센서(예: 도 3의 홀 센서(320)))를 이용하여 감지된 정보로부터 OIS 위치 정보를 획득할 수 있다.According to one embodiment, in operation 703, the electronic device may obtain at least one of motion data and OIS position information. For example, the electronic device may obtain motion data that detects movement of the electronic device through a sensor (e.g., the sensor module (176) of FIG. 1). The sensor may include, for example, a gyro sensor, but the type of the sensor is not limited thereto. For example, the electronic device may control the OIS position of the optical image stabilizer to compensate for the movement of the electronic device based on the motion data. The electronic device may obtain OIS position information indicating the OIS position of the optical image stabilizer. For example, the electronic device may obtain OIS position information from information detected by a Hall sensor (e.g., the Hall sensor (320) of FIG. 3)) disposed in the optical image stabilizer.

일 실시예에 따르면, 동작 705에서, 전자 장치는 제1 AF 데이터에 대한 음영 보정을 수행할 것인지 여부를 판단할 수 있다. 전자 장치는 적어도 하나의 지정된 조건이 만족되었는지 여부에 기초하여 음영 보정을 수행할 것인지 여부를 판단하도록 구성될 수 있다. 예를 들어, 전자 장치는 모션 데이터 또는 OIS 위치 정보 중 적어도 하나에 상응하는 방향(예: 모션 데이터의 방향 또는 OIS가 이동된 방향)이 제1 AF 데이터의 위상차 방향과 상응하는지 여부를 지시하는 제1 조건이 만족하는지 판단할 수 있다. 전자 장치는 제1 조건의 만족에 기초하여 음영 보정의 수행 여부를 판단할 수 있다. 제1 조건에 대한 보다 구체적인 설명은 도 10을 참조하여 보다 상세히 후술한다. 예를 들어, 전자 장치는 지정된 시간 구간 동안의 전자 장치의 움직임의 양이 임계치 이상인지 여부를 지시하는 제2 조건이 만족된 것에 기초하여 음영 보정의 수행 여부를 판단할 수 있다. 예를 들어, 전자 장치는 지정된 시간 구간 동안에 검출된 모션 데이터를 적분한 값이 임계치 이상인 것에 기초하여 제2 조건이 만족된 것으로 판단할 수 있다. 예를 들어, 전자 장치는 제1 조건 및 제2 조건이 함께 만족된 것에 기초하여 음영 보정을 수행하는 것으로 판단하도록 구성될 수도 있다. 적어도 하나의 지정된 조건은 음영 보정이 요구되는지 여부를 판단하기 위한 조건으로서, 상술한 조건과 다른 적어도 하나의 조건으로 구성될 수도 잇다.According to one embodiment, in operation 705, the electronic device may determine whether to perform shading compensation on the first AF data. The electronic device may be configured to determine whether to perform shading compensation based on whether at least one specified condition is satisfied. For example, the electronic device may determine whether a first condition indicating whether a direction corresponding to at least one of the motion data or the OIS position information (e.g., a direction of the motion data or a direction in which the OIS is moved) corresponds to a phase difference direction of the first AF data is satisfied. The electronic device may determine whether to perform shading compensation based on the satisfaction of the first condition. A more specific description of the first condition will be described in more detail later with reference to FIG. 10. For example, the electronic device may determine whether to perform shading compensation based on the satisfaction of a second condition indicating whether an amount of movement of the electronic device during a specified time interval is greater than or equal to a threshold. For example, the electronic device may determine that the second condition is satisfied based on the integration of the motion data detected during the specified time interval is greater than or equal to a threshold. For example, the electronic device may be configured to determine that shading compensation is to be performed based on the satisfaction of both the first condition and the second condition. The at least one specified condition may be configured as a condition for determining whether shading compensation is required, and may include at least one condition other than the conditions described above.

일 실시예에 따르면, 동작 705에서 음영 보정을 수행하지 않는 것으로 판단된 것에 기초하여, 전자 장치는 동작 701에서 획득된 제1 AF 데이터에 기초하여 AF 동작을 수행할 수 있다. AF 동작은 제1 AF 데이터에 기초하여 결정된 AF 위치에 따라서 카메라에 포함된 AF 액추에이터(예: 도 3의 AF 모듈(315)의 액추에이터)를 제어하는 동작을 포함할 수 있다.According to one embodiment, based on the determination that shading compensation is not performed in operation 705, the electronic device may perform an AF operation based on the first AF data acquired in operation 701. The AF operation may include an operation of controlling an AF actuator included in the camera (e.g., an actuator of the AF module (315) of FIG. 3) according to an AF position determined based on the first AF data.

일 실시예에 따르면, 동작 705에서 음영 보정을 수행하는 것으로 판단된 것에 기초하여, 전자 장치는 동작 707에서 제1 AF 데이터에 대한 음영 보정을 수행할 수 있다. 일 실시예에서, 전자 장치는 메모리에 저장된 룩-업 테이블(look-up table, LUT)에 기초하여 제1 AF 데이터에 대한 음영 보정을 수행할 수 있다. 룩-업 테이블은 음영 패턴(예: 도 6에 도시된 음영 패턴)에 기초하여 OIS 위치 정보에 따라서 제1 AF 데이터를 보정하기 위한 게인 값을 포함할 수 있다. 게인 값은 제1 AF 데이터에 포함된 픽셀의 휘도 값을 보정하는 값을 포함할 수 있다. 전자 장치는 OIS 위치 정보에 상응하는 게인 값을 룩-업 테이블을 통해서 획득하고, 획득된 게인 값을 제1 AF 데이터에 적용함으로써 보정된 제2 AF 데이터를 획득할 수 있다. 일 실시예에서, 전자 장치는 OIS 위치에 기초하여 게인 값을 조정할 수도 있다. 예를 들어, 전자 장치는 OIS 위치 정보에 기초하여 가중치를 결정하고, 결정된 가중치에 기초하여 게인 값을 조정할 수 있다. 동작 709에서, 전자 장치는 동작 707에서 보정된 제2 AF 데이터에 기초하여 AF 동작을 수행할 수 있다. AF 동작은 제2 AF 데이터에 기초하여 결정된 AF 위치에 따라서 카메라에 포함된 AF 액추에이터를 제어하는 동작을 포함할 수 있다.According to one embodiment, based on the determination that shading correction is performed in operation 705, the electronic device may perform shading correction on the first AF data in operation 707. In one embodiment, the electronic device may perform shading correction on the first AF data based on a look-up table (LUT) stored in a memory. The look-up table may include a gain value for correcting the first AF data according to OIS location information based on a shading pattern (e.g., the shading pattern illustrated in FIG. 6). The gain value may include a value for correcting a luminance value of a pixel included in the first AF data. The electronic device may obtain a gain value corresponding to the OIS location information through the look-up table, and obtain corrected second AF data by applying the obtained gain value to the first AF data. In one embodiment, the electronic device may also adjust the gain value based on the OIS location. For example, the electronic device may determine a weight based on the OIS location information, and adjust the gain value based on the determined weight. In operation 709, the electronic device can perform an AF operation based on the second AF data corrected in operation 707. The AF operation can include an operation of controlling an AF actuator included in the camera according to an AF position determined based on the second AF data.

일 실시예에 따르면, 동작 711에서 전자 장치는 AF 동작을 종료할 것인지 여부를 판단할 수 있다. 예를 들어, 전자 장치는 동작 709에서 수행된 AF 동작에 기초하여 관심 영역(region of interest, ROI)에 대한 초점이 맞추어진 경우, AF 동작을 종료하는 것으로 판단할 수 있다. 예를 들어, 전자 장치는 카메라의 동작이 비활성화되거나 종료된 것으로 판단되는 경우(예를 들어, 카메라 어플리케이션의 실행이 종료된 경우) AF 동작을 종료하는 것으로 판단할 수 있다. AF 동작이 종료되지 않은 것으로 판단된 경우, 전자 장치는 동작 701부터 흐름도(700)에 도시된 동작을 실행할 수 있다.According to one embodiment, in operation 711, the electronic device may determine whether to terminate the AF operation. For example, the electronic device may determine to terminate the AF operation if the focus is on a region of interest (ROI) based on the AF operation performed in operation 709. For example, the electronic device may determine to terminate the AF operation if the operation of the camera is determined to be deactivated or terminated (e.g., if the execution of the camera application is terminated). If the AF operation is determined not to be terminated, the electronic device may execute the operations illustrated in the flowchart (700) from operation 701.

일 실시예에서, 전자 장치는 동작 705를 생략하고 음영(shading) 보정을 수행하는 동작 707을 수행하도록 구성될 수도 있다.In one embodiment, the electronic device may be configured to omit operation 705 and perform operation 707, which performs shading compensation.

일 실시예에서, 전자 장치는 모션 데이터의 방향 또는 OIS 위치가 이동된 방향에 기초하여 위상차 검출을 수행하는 방향을 변경할 수 있다. 예를 들어, 하나의 마이크로 렌즈에 상응하도록 2 x 2 배열의 PD들이 배열된 4PD 이미지 센서는 제1 방향(예: 수평 방향)의 위상차 데이터를 검출하거나 제2 방향(예: 수직 방향)의 위상차 데이터를 검출할 수 있다. 수평 방향의 위상차 검출을 수행하는 상태에서 모션 데이터 중 수평 방향의 값이 양의 값이 지속되거나 음의 값이 지속되는 경우(또는 지정된 구간 동안의 적분 값이 양의 값 또는 음의 값인 경우), 수평 방향의 움직임이 발생하고 있는 것이므로, 전자 장치는 위상차 검출을 수행하는 방향을 수직 방향으로 변경할 수 있다. 수직 방향의 위상차 검출을 수행하는 상태에서 모션 데이터 중 수직 방향의 값이 양의 값이 지속되거나 음의 값이 지속되는 경우(또는 지정된 구간 동안의 적분 값이 양의 값 또는 음의 값인 경우), 수직 방향의 움직임이 발생하고 있는 것이므로, 전자 장치는 위상차 검출을 수행하는 방향을 수평 방향으로 변경할 수 있다. 일 실시예에서, 전자 장치는 위상차 검출을 수행하는 방향이 변경된 경우, 해당 방향에 상응하는 전자 장치의 움직임이 적은 경우 음영을 보정하는 동작 707을 생략하도록 구성될 수 있다.In one embodiment, the electronic device can change the direction in which the phase detection is performed based on the direction of the motion data or the direction in which the OIS position is moved. For example, a 4PD image sensor in which PDs are arranged in a 2 x 2 array to correspond to one micro lens can detect phase difference data in a first direction (e.g., horizontal direction) or phase difference data in a second direction (e.g., vertical direction). In a state in which the horizontal phase detection is performed, if the value in the horizontal direction among the motion data continues to have a positive value or a negative value (or if the integral value for a specified section is a positive value or a negative value), it means that a horizontal movement is occurring, and therefore the electronic device can change the direction in which the phase detection is performed to a vertical direction. In a state in which the vertical phase detection is performed, if the value in the vertical direction among the motion data continues to have a positive value or a negative value (or if the integral value for a specified section is a positive value or a negative value), it means that a vertical movement is occurring, and therefore the electronic device can change the direction in which the phase detection is performed to a horizontal direction. In one embodiment, the electronic device may be configured to omit operation 707 of compensating for shading if the direction in which the phase detection is performed is changed and there is little movement of the electronic device corresponding to that direction.

도 8 및 도 9은 일 실시예에 따른 전자 장치의 OIS 동작을 도시한다.FIGS. 8 and 9 illustrate the OIS operation of an electronic device according to one embodiment.

일 실시예에 따른 자이로 센서(330)는 전자 장치(101)의 3축(예: X축, Y축 또는 Z축)으로 작용하는 가속도를 검출할 수 있고, OIS 동작은 2축 상에서(예: X축 또는 Y축)으로 움직일 수 있다. 도 8 및 도 9는 자이로 센서(330)의 X축 성분 및 Y축 성분에 기초하여 OIS 동작을 수행함으로써 렌즈 어셈블리(210)가 배치된 위치를 나타낸다.A gyro sensor (330) according to one embodiment can detect acceleration acting on three axes (e.g., X-axis, Y-axis, or Z-axis) of an electronic device (101), and the OIS operation can move on two axes (e.g., X-axis or Y-axis). FIGS. 8 and 9 show a position where a lens assembly (210) is placed by performing an OIS operation based on the X-axis component and the Y-axis component of the gyro sensor (330).

일 실시예에 따르면, 자이로 센서로부터 획득한 모션 데이터의 값이 0인 경우, 전자 장치(101)는 렌즈의 중심이 렌즈의 구경(aperture)의 중심인 제1 위치(예: 도 8의 800, 도 9의 900)에 위치하도록 OIS 위치(예: 렌즈 어셈블리의 x축/y축 방향 위치)를 제어하는 OIS 동작을 수행할 수 있다.According to one embodiment, when the value of the motion data acquired from the gyro sensor is 0, the electronic device (101) may perform an OIS operation to control the OIS position (e.g., the x-axis/y-axis direction position of the lens assembly) so that the center of the lens is located at a first position (e.g., 800 of FIG. 8 and 900 of FIG. 9) that is the center of the aperture of the lens.

일 실시예에 따르면, 자이로 센서로부터 획득한 모션 데이터가 제1 크기의 x축 방향 가속도 값(Gx)을 포함하는 경우, 전자 장치(101)는 렌즈의 중심이 렌즈의 구경의 중심으로부터 이동된 제2 위치(801)에 위치하도록 OIS 위치(예: 렌즈 어셈블리의 x축 방향 위치)를 제어하는 OIS 동작을 수행할 수 있다.According to one embodiment, when motion data acquired from the gyro sensor includes an x-axis acceleration value (Gx) of a first magnitude, the electronic device (101) can perform an OIS operation to control an OIS position (e.g., an x-axis direction position of the lens assembly) so that the center of the lens is located at a second position (801) moved from the center of the aperture of the lens.

일 실시예에 따르면, 자이로 센서로부터 획득한 모션 데이터가 제1 크기보다 큰 제2 크기의 x축 방향 가속도 값(2Gx)을 포함하는 경우, 전자 장치(101)는 렌즈의 중심이 렌즈의 구경의 중심으로부터 제2 위치(801)보다 많은 양이 이동된 제3 위치(802)에 위치하도록 OIS 위치(예: 렌즈 어셈블리의 x축 방향 위치)를 제어하는 OIS 동작을 수행할 수 있다.According to one embodiment, when motion data acquired from the gyro sensor includes an x-axis acceleration value (2Gx) of a second magnitude greater than the first magnitude, the electronic device (101) may perform an OIS operation to control an OIS position (e.g., an x-axis direction position of the lens assembly) such that the center of the lens is located at a third position (802) that is moved by a greater amount than the second position (801) from the center of the aperture of the lens.

일 실시예에 따르면, 자이로 센서로부터 획득한 모션 데이터가 y축 방향의 가속도 값(Gy)을 포함하는 경우, 전자 장치(101)는 렌즈의 중심이 렌즈의 구경의 중심으로부터 y축 방향으로 이동된 제4 위치(901)에 위치하도록 OIS 위치(예: 렌즈 어셈블리의 y축 방향 위치)를 제어하는 OIS 동작을 수행할 수 있다.According to one embodiment, when motion data acquired from a gyro sensor includes an acceleration value (Gy) in the y-axis direction, the electronic device (101) can perform an OIS operation to control the OIS position (e.g., the y-axis direction position of the lens assembly) so that the center of the lens is located at a fourth position (901) moved in the y-axis direction from the center of the aperture of the lens.

일 실시예에 따르면, 자이로 센서로부터 획득한 모션 데이터가 -y축 방향의 가속도 값(-Gy)을 포함하는 경우, 전자 장치(101)는 렌즈의 중심이 렌즈의 구경의 중심으로부터 -y축 방향으로 이동된 제5 위치(902)에 위치하도록 OIS 위치(예: 렌즈 어셈블리의 y축 방향 위치)를 제어하는 OIS 동작을 수행할 수 있다.According to one embodiment, when motion data acquired from a gyro sensor includes an acceleration value (-Gy) in the -y-axis direction, the electronic device (101) may perform an OIS operation to control the OIS position (e.g., the y-axis direction position of the lens assembly) so that the center of the lens is located at a fifth position (902) moved in the -y-axis direction from the center of the aperture of the lens.

일 실시예에 따르면, 전자 장치는 모션 데이터에 기초하여 OIS 동작을 수행하므로, 전자 장치는 모션 데이터에 기초하여 음영 보정을 수행할지 여부를 판단하는 동작(예: 도 7의 동작 705)을 수행하도록 구성될 수 있다. 일 실시예에서, 전자 장치는 광학적 이미지 안정화기에 배치된 홀 센서(예: 도 3의 홀 센서(320))를 통해서 획득된 파라미터(예: OIS 위치를 지시하는 파라미터)에 기초하여 음영 보정을 수행할지 여부를 판단하는 동작(예: 도 7의 동작 705)을 수행하도록 구성될 수도 있다.In one embodiment, since the electronic device performs the OIS operation based on the motion data, the electronic device may be configured to perform an operation (e.g., operation 705 of FIG. 7) of determining whether to perform shading compensation based on the motion data. In one embodiment, the electronic device may also be configured to perform an operation (e.g., operation 705 of FIG. 7) of determining whether to perform shading compensation based on a parameter (e.g., a parameter indicating an OIS position) obtained through a Hall sensor (e.g., the Hall sensor (320) of FIG. 3) disposed in the optical image stabilizer.

일 실시예에 따른 전자 장치는 OIS 움직임 방향 또는 파라미터 중 적어도 하나에 기초하여 OIS 위치를 파악하여 음영 보정을 해야 하는지 여부를 결정할 수 있다. 전자 장치는 OIS의 방향과 AF 검출의 방향(위상차 방향)을 비교할 수 있다. 위상차 방향이 OIS 편심 방향과 일치하지 않고 수직하는 경우에는 전자 장치는 렌즈 어셈블리가 특정 방향에 있다고 하더라도 음영 보정을 수행하지 않을 수 있다. 이는, 위상차의 수직 방향은 음영이 존재하지만, 수평 방향의 음영은 작거나 존재하지 않을 수 있기 때문이다.An electronic device according to one embodiment may determine whether shading compensation is required by identifying an OIS position based on at least one of an OIS movement direction or a parameter. The electronic device may compare a direction of the OIS with a direction of AF detection (phase difference direction). If the phase difference direction does not match the OIS eccentricity direction and is perpendicular, the electronic device may not perform shading compensation even if the lens assembly is in a specific direction. This is because shading exists in the vertical direction of the phase difference, but shading in the horizontal direction may be small or non-existent.

도 10은 수평 방향(x축 방향)의 위상차 검출 시에 OIS 동작 방향에 따라서 음영 보정을 수행할 것인지 여부를 판단하는 예시들을 도시한다.Figure 10 illustrates examples of determining whether to perform shading correction depending on the OIS operation direction when detecting a phase difference in the horizontal direction (x-axis direction).

일 실시예에서, 이미지 센서로부터 획득된 데이터는 도 10에 도시된 패턴을 반복하여 포함할 수 있다. 예를 들어, 도 10에 도시된 데이터는 지정된 패턴을 가지는 이미지 센서로부터 획득된 데이터를 나타낸 것일 수 있다. 지정된 패턴은 하나의 마이크로 렌즈에 상응하는 위치에 배치된 2 X 2 배열의 포토다이오드들이 반복되는 패턴을 포함할 수 있다. 지정된 패턴은 동일한 색상 패턴에 상응하도록 배치된 2 X 2 배열의 마이크로렌즈들이 반복되는 패턴을 포함할 수 있다. 따라서, 지정된 패턴은 4 X 4 배열의 포토다이오드들이 동일한 색상 패턴에 상응하도록 배치된 것일 수 있다. 도 10을 참조하면 데이터 내에서 4 X 4 배열 단위로 패턴이 형성될 수 있다. 도 10에 도시된 패턴은 획득된 데이터에 포함된 픽셀 값의 패턴을 나타낼 수 있다.In one embodiment, data acquired from an image sensor may include a repeating pattern as illustrated in FIG. 10. For example, the data illustrated in FIG. 10 may represent data acquired from an image sensor having a designated pattern. The designated pattern may include a pattern in which a 2 X 2 array of photodiodes arranged at positions corresponding to one micro lens are repeated. The designated pattern may include a pattern in which a 2 X 2 array of microlenses arranged to correspond to the same color pattern are repeated. Accordingly, the designated pattern may be a 4 X 4 array of photodiodes arranged to correspond to the same color pattern. Referring to FIG. 10, a pattern may be formed in units of 4 X 4 arrays within the data. The pattern illustrated in FIG. 10 may represent a pattern of pixel values included in the acquired data.

Y축 방향으로 OIS 동작이 수행되고 있는 상태에서 이미지 센서의 포토다이오드들로부터 획득된 정보에 기초하여 구성된 제1 데이터(910)에서는 수평 방향(911)으로 배치된 포토 다이오드들에서 획득된 값들에 포함된 음영은 적거나 존재하지 않을 수 있다(즉, 수평 방향의 음영은 적거나 발생하지 않을 수 있다). 따라서 수평 방향(x축 방향)의 위상차 검출에 음영이 미치는 영향이 낮으므로, 전자 장치는 음영 보정을 수행하는 동작을 생략하고 AF 동작을 수행할 수 있다.In the first data (910) configured based on information acquired from photodiodes of the image sensor while the OIS operation is performed in the Y-axis direction, shading included in values acquired from photodiodes arranged in the horizontal direction (911) may be small or non-existent (i.e., shading in the horizontal direction may be small or non-existent). Accordingly, since the influence of shading on phase difference detection in the horizontal direction (x-axis direction) is low, the electronic device can omit an operation for performing shading compensation and perform an AF operation.

X축 방향 및 Y축 방향으로 OIS 동작이 수행되고 있는 상태에서(예를 들어, X축 및 Y축에 대해 대각선 방향으로 카메라 모듈이 움직이는 상태에서) 이미지 센서의 포토다이오드들로부터 획득된 정보에 기초하여 구성된 제2 데이터(920)에서는 수직 및 수평 방향(921)으로 배치된 포토 다이오드들에서 획득된 값들에 발생한 음영이 포함될 수 있다(즉, 수평/수직 방향의 음영이 발생할 수 있다). 따라서 수평 방향(x축 방향)의 위상차 검출에 음영이 영향을 미칠 수 있으므로, 전자 장치는 음영 보정을 수행한 AF 데이터에 기초하여 AF 동작을 수행할 수 있다.In a state where an OIS operation is performed in the X-axis direction and the Y-axis direction (for example, in a state where the camera module moves diagonally with respect to the X-axis and the Y-axis), second data (920) configured based on information acquired from photodiodes of the image sensor may include shading that occurs in values acquired from photodiodes arranged in the vertical and horizontal directions (921) (i.e., shading in the horizontal/vertical directions may occur). Accordingly, since shading may affect phase difference detection in the horizontal direction (x-axis direction), the electronic device may perform an AF operation based on the AF data on which shading compensation has been performed.

OIS 위치가 중심(예: 도 8 또는 도 9의 제1 위치(800, 900))인 상태에서 이미지 센서의 포토다이오드들로부터 획득된 정보에 기초하여 구성된 제3 데이터(930)에서는 OIS의 동작으로 인한 음영이 발생하지 않으므로, 전자 장치는 음영 보정을 수행하는 동작을 생략하고 AF 동작을 수행할 수 있다.Since no shading occurs due to the operation of the OIS in the third data (930) configured based on information acquired from the photodiodes of the image sensor in a state where the OIS position is at the center (e.g., the first position (800, 900) of FIG. 8 or FIG. 9), the electronic device can omit an operation for performing shading compensation and perform an AF operation.

X축 방향으로 OIS 동작이 수행되고 있는 상태에서 이미지 센서의 포토다이오드들로부터 획득된 정보에 기초하여 구성된 제4 데이터(940)에서는 수평 방향(941)으로 배치된 포토 다이오드들에서 획득된 값들에 음영이 포함될 수 있다(즉, 수평 방향의 음영이 발생할 수 있다). 따라서 수평 방향(x축 방향)의 위상차 검출에 음영이 영향을 미칠 수 있으므로, 전자 장치는 음영 보정을 수행한 AF 데이터에 기초하여 AF 동작을 수행할 수 있다.In the fourth data (940) configured based on information acquired from photodiodes of the image sensor while the OIS operation is performed in the X-axis direction, shading may be included in values acquired from photodiodes arranged in the horizontal direction (941) (i.e., shading in the horizontal direction may occur). Accordingly, since shading may affect phase difference detection in the horizontal direction (x-axis direction), the electronic device may perform the AF operation based on the AF data on which shading compensation has been performed.

일 실시예에서, 위상차 방향과 OIS 방향이 일치할 때에는, 음영 보정의 수행 여부와 보정량을 조절할 수도 있지만, 4PD 센서를 포함하는 전자 장치는 위상차 방향이 중요하지 않은 경우에 한해 보정 필요 방향에 따라 위상차 연산 방향을 조정할 수도 있다. 따라서, 연산 방향을 변경함에 따라 음영 보정이 생략될 수 있다.In one embodiment, when the phase difference direction and the OIS direction are identical, it is possible to adjust whether or not to perform shading correction and the amount of correction, but the electronic device including the 4PD sensor can also adjust the phase difference operation direction according to the direction requiring correction only when the phase difference direction is not important. Accordingly, shading correction can be omitted by changing the operation direction.

도 11는 일 실시예에 따른 OIS 위치에 기초하여 결정되는 가중치의 예시를 도시한다.FIG. 11 illustrates an example of weights determined based on OIS positions according to one embodiment.

음영 보정을 수행하기 위한 M x N개의 픽셀 별 휘도 보정 값은 OIS 위치에 따라 서로 다를 수 있다. LUT(look up table)에는 M x N개의 픽셀 별 휘도 보정 값이 할당되어 있고, 각각의 보정값은 단위 픽셀마다 구비된 마이크로 렌즈의 CRA 특성을 고려하여 결정될 수 있다.The M x N pixel-by-pixel luminance correction values for performing shading correction may be different depending on the OIS location. The M x N pixel-by-pixel luminance correction values are assigned to a look up table (LUT), and each correction value can be determined by considering the CRA characteristics of the micro lens provided for each unit pixel.

도 11에 도시된 좌표 값은 OIS 위치를 의미할 수 있다. 도 11에 도시된 OIS 범위(range) 내에서 명도가 높을수록 가중치 값이 높은 것을 의미할 수 있다.The coordinate values shown in Fig. 11 may indicate the OIS location. A higher brightness within the OIS range shown in Fig. 11 may indicate a higher weight value.

도 11은 OIS의 동작 방향이 X 축일 때에 적용되는 가중치 분포를 도시한다. 예를 들어, OIS 동작에 의해 X 축 방향에 대한 편심이 심할 때(C 구간)에서는 LUT에 할당된 보정 값을 높일 수 있다. 반대로, OIS 동작에 의해 X 축 방향에 대한 편심이 약할 때(B 구간)에서는 LUT에 할당된 보정 값을 낮출 수 있다. 그리고, OIS 동작에 의해 X 축 방향에 대한 편심이 중간치(B 구간)일 때에는 A 구간과 C 구간에서 사용된 보정 값을 고려하여 평균치를 적용할 수도 있다.Fig. 11 illustrates a weight distribution applied when the operating direction of the OIS is the X-axis. For example, when the eccentricity in the X-axis direction is severe due to the OIS operation (section C), the correction value assigned to the LUT can be increased. Conversely, when the eccentricity in the X-axis direction is weak due to the OIS operation (section B), the correction value assigned to the LUT can be decreased. In addition, when the eccentricity in the X-axis direction due to the OIS operation is intermediate (section B), the correction values used in sections A and C can be considered and an average value can be applied.

도 11에 도시된 가중치를 이용하여 음영 보정을 수행하기 위한 보정 값을 결정함으로써, 전자 장치가 모든 OIS 위치에 대한 LUT를 저장하지 않고도 음영 보정을 수행할 수 있도록 할 수 있다. 따라서 메모리의 저장 용량에 대한 사용량이 절약될 수 있다. By determining a correction value for performing shading correction using the weights illustrated in Fig. 11, it is possible to enable an electronic device to perform shading correction without storing a LUT for all OIS positions. Accordingly, the amount of storage capacity of the memory can be saved.

본 개시에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 개시에 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by a person having ordinary knowledge in the technical field to which the present disclosure belongs.

일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101), 도 3의 전자 장치(101))는 전자 장치의 움직임에 대응되는 모션 데이터를 획득하기 위한 신호를 출력하는 센서를 포함할 수 있다. 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101), 도 3의 전자 장치(101))는 적어도 하나의 렌즈를 포함하는 렌즈 어셈블리(예: 도 2의 렌즈 어셈블리(210) 및 도 3의 렌즈 어셈블리(210)), 이미지 센서(예: 도 2의 이미지 센서(230), 도 3의 이미지 센서(230)) 및 모션데이터에 기초하여 광학적 이미지 안정화 동작을 수행하도록 렌즈 어셈블리 또는 이미지 센서 중 적어도 하나를 움직이도록 구성된 광학적 이미지 안정화기(optical image stabilizer, OIS)를 포함하는 카메라 모듈(예: 도 1의 카메라 모듈(180), 도 2의 카메라 모듈(180))을 포함할 수 있다. 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101), 도 3의 전자 장치(101))는 프로세서(예: 도 1의 프로세서(120), 도 3의 프로세서(120)) 및 프로세서에 의해 실행 가능한 인스트럭션들을 저장하는 메모리를 포함할 수 있다. 일 실시예에 따른 인스트럭션들은 전자 장치로 하여금 이미지 센서로부터 제1 AF 데이터를 획득하도록 구성될 수 있다. 일 실시예에 따른 인스트럭션들은 전자 장치로 하여금 OIS 동작을 위한 파라미터에 기초하여 상기 제1 AF 데이터를 보정하여 제2 AF 데이터를 생성하도록 구성될 수 있다. 일 실시예에 따른 인스트럭션들은 전자 장치로 하여금 제2 AF 데이터에 기초하여 AF(auto focus) 기능을 수행하도록 구성될 수 있다.An electronic device (e.g., the electronic device (101) of FIG. 1, the electronic device (101) of FIG. 3) according to one embodiment may include a sensor that outputs a signal for obtaining motion data corresponding to a movement of the electronic device. An electronic device (e.g., the electronic device (101) of FIG. 1, the electronic device (101) of FIG. 3) according to one embodiment may include a lens assembly (e.g., the lens assembly (210) of FIG. 2 and the lens assembly (210) of FIG. 3) including at least one lens, an image sensor (e.g., the image sensor (230) of FIG. 2, the image sensor (230) of FIG. 3) and a camera module (e.g., the camera module (180) of FIG. 1, the camera module (180) of FIG. 2) including an optical image stabilizer (OIS) configured to move at least one of the lens assembly or the image sensor to perform an optical image stabilization operation based on motion data. An electronic device (e.g., the electronic device 101 of FIG. 1, the electronic device 101 of FIG. 3) according to one embodiment may include a processor (e.g., the processor 120 of FIG. 1, the processor 120 of FIG. 3) and a memory storing instructions executable by the processor. The instructions according to one embodiment may be configured to cause the electronic device to obtain first AF data from an image sensor. The instructions according to one embodiment may be configured to cause the electronic device to correct the first AF data based on a parameter for an OIS operation to generate second AF data. The instructions according to one embodiment may be configured to cause the electronic device to perform an AF (auto focus) function based on the second AF data.

일 실시예에 따른 파라미터는, 이미지 센서(예: 도 2의 230, 도 3의 230)의 중심을 기준점으로 하여 정의된 렌즈 어셈블리(예: 도 2의 210 및 도 3의 210) 중심의 좌표 값인 제1 변위 값 및 제2 변위 값을 포함할 수 있다.According to one embodiment, the parameters may include first displacement values and second displacement values, which are coordinate values of the center of a lens assembly (e.g., 210 of FIG. 2 and 210 of FIG. 3) defined with the center of the image sensor (e.g., 230 of FIG. 2 and 230 of FIG. 3) as a reference point.

일 실시예에 따른 인스트럭션은, 파라미터 또는 적어도 하나의 렌즈의 CRA(Chief Ray Angle) 중 적어도 하나에 대응하는 LUT(look up table)을 획득하고, LUT에 기초하여 제1 AF 데이터를 보정할 수 있다.Instructions according to one embodiment may obtain a look up table (LUT) corresponding to at least one of a parameter or a Chief Ray Angle (CRA) of at least one lens, and correct first AF data based on the LUT.

일 실시예에 따른 인스트럭션은, 제1 AF 데이터의 위상차 방향을 확인하고, 위상차 방향 및 상기 파라미터 간의 관계에 기초하여 보정의 수행 여부를 결정할 수 있다.Instructions according to one embodiment can identify a phase difference direction of first AF data and determine whether to perform correction based on a relationship between the phase difference direction and the parameter.

일 실시예에 따른 인스트럭션은, 위상차 방향과 파라미터 간의 관계가 수직 관계에 상응하는 경우, 보정을 생략할 수 있다.An instruction according to one embodiment may omit correction if the relationship between the phase difference direction and the parameter corresponds to a vertical relationship.

일 실시예에 따른 인스트럭션은, 위상차 방향과 파라미터 간의 관계가 수평 관계에 상응하는 경우, 보정을 위한 LUT의 가중치를 조절할 수 있다.Instructions according to one embodiment can adjust the weights of a LUT for compensation when the relationship between the phase difference direction and the parameter corresponds to a horizontal relationship.

일 실시예에 따른 인스트럭션은, OIS 동작에 의한 적어도 하나의 렌즈의 이동 방향이 정의된 시간 이상 유지된 경우, 제1 AF 데이터에 기초한 위상차 검출의 방향을 변경할 수 있다.Instructions according to one embodiment can change the direction of phase detection based on first AF data when the direction of movement of at least one lens due to OIS operation is maintained for a defined time period or longer.

일 실시예에 따른 인스트럭션은, 휘도 값이 변경된 상기 제2 AF 데이터에 포함된 제1 위상차 및 제2 위상차에 기초하여 AF(auto focus) 기능을 수행할 수 있다. 상기 제1 위상차는 제1 방향에 대한 위상차를 지시하고, 상기 제2 위상차는 상기 제1 방향과 다른 제2 방향에 대한 위상차를 지시할 수 있다.An instruction according to one embodiment may perform an AF (auto focus) function based on a first phase difference and a second phase difference included in the second AF data having a changed luminance value. The first phase difference may indicate a phase difference in a first direction, and the second phase difference may indicate a phase difference in a second direction different from the first direction.

일 실시예에 따른 이미지 센서(예: 도 2의 230, 도 3의 230)는, 복수 개의 단위 픽셀들을 포함하고, 각 단위 픽셀은 4개 이상의 PD들(photo diodes)을 포함하고 상기 PD들은 제1 방향 및 상기 제1 방향에 상이한 제2 방향으로 서로 인접하게 배치되고, 상기 단위 픽셀 각각은, 상기 단위 픽셀에 포함된 4개 이상의 PD들(photo diodes) 위에 형성된 적어도 하나의 컬러 필터 및 상기 적어도 하나의 컬러 필터의 위에 형성된 적어도 하나의 마이크로 렌즈를 포함할 수 있다.An image sensor according to one embodiment (e.g., 230 of FIG. 2, 230 of FIG. 3) includes a plurality of unit pixels, each unit pixel including four or more PDs (photo diodes), the PDs being arranged adjacent to each other in a first direction and a second direction different from the first direction, and each of the unit pixels may include at least one color filter formed over the four or more PDs (photo diodes) included in the unit pixel, and at least one micro lens formed over the at least one color filter.

일 실시예에 따르면, 상기 제1 방향은 상기 제2 방향에 수직일 수 있다.In one embodiment, the first direction can be perpendicular to the second direction.

일 실시예에 따른 전자 장치(예: 도 1의 101, 도 3의 101)의 동작 방법은 전자 장치의 움직임에 대응되는 모션 데이터를 획득하기 위한 신호를 출력하는 동작을 포함할 수 있다. 일 실시예에 따른 전자 장치(예: 도 1의 101, 도 3의 101)의 동작 방법은 모션 데이터에 기초하여 광학적 이미지 안정화 (Optical Image Stabilization, OIS) 동작을 수행하도록 렌즈 어셈블리(예: 도 2의 210 및 도 3의 210) 또는 이미지 센서(예: 도 2의 230, 도 3의 230)를 제어하는 동작을 포함할 수 있다. 일 실시예에 따른 전자 장치(예: 도 1의 101, 도 3의 101)의 동작 방법은 이미지 센서(예: 도 2의 230, 도 3의 230)로부터 제1 AF 데이터를 획득하는 동작을 포함할 수 있다. 일 실시예에 따른 전자 장치(예: 도 1의 101, 도 3의 101)의 동작 방법은 OIS 동작을 위한 파라미터에 기초하여 제1 AF 데이터를 보정하여 제2 AF 데이터를 생성하는 동작을 포함할 수 있다. 일 실시예에 따른 전자 장치(예: 도 1의 101, 도 3의 101)의 동작 방법은 제2 AF 데이터에 기초하여 AF(auto focus) 기능을 수행하는 동작을 포함할 수 있다.An operating method of an electronic device (e.g., 101 of FIG. 1, 101 of FIG. 3) according to an embodiment may include an operation of outputting a signal for obtaining motion data corresponding to a movement of the electronic device. An operating method of an electronic device (e.g., 101 of FIG. 1, 101 of FIG. 3) according to an embodiment may include an operation of controlling a lens assembly (e.g., 210 of FIG. 2 and 210 of FIG. 3) or an image sensor (e.g., 230 of FIG. 2, 230 of FIG. 3) to perform an optical image stabilization (OIS) operation based on the motion data. An operating method of an electronic device (e.g., 101 of FIG. 1, 101 of FIG. 3) according to an embodiment may include an operation of obtaining first AF data from an image sensor (e.g., 230 of FIG. 2, 230 of FIG. 3). An operating method of an electronic device (e.g., 101 of FIG. 1, 101 of FIG. 3) according to one embodiment may include an operation of generating second AF data by correcting first AF data based on parameters for OIS operation. An operating method of an electronic device (e.g., 101 of FIG. 1, 101 of FIG. 3) according to one embodiment may include an operation of performing an AF (auto focus) function based on the second AF data.

일 실시예에 따른 파라미터는, 상기 이미지 센서의 중심을 기준점으로 하여 정의된 상기 렌즈 어셈블리 중심의 좌표 값인 제1 변위 값 및 제2 변위 값을 포함할 수 있다.According to one embodiment, the parameters may include a first displacement value and a second displacement value, which are coordinate values of the center of the lens assembly defined with the center of the image sensor as a reference point.

일 실시예에 따른 전자 장치의 동작 방법은, 상기 파라미터 또는 상기 적어도 하나의 렌즈의 CRA(Chief Ray Angle) 중 적어도 하나에 대응하는 LUT(look up table)을 획득하는 동작; 상기 LUT에 기초하여 상기 제1 AF 데이터를 보정하는 동작을 더 포함할 수 있다.An operating method of an electronic device according to one embodiment may further include an operation of obtaining a look up table (LUT) corresponding to at least one of the parameters or a Chief Ray Angle (CRA) of the at least one lens; and an operation of correcting the first AF data based on the LUT.

일 실시예에 따른 전자 장치의 동작 방법은, 상기 제1 AF 데이터의 위상차 방향을 확인하는 동작; 상기 위상차 방향 및 상기 파라미터 간의 관계에 기초하여 상기 보정의 수행 여부를 결정하는 동작을 더 포함할 수 있다.An operating method of an electronic device according to one embodiment may further include an operation of checking a phase difference direction of the first AF data; and an operation of determining whether to perform the correction based on a relationship between the phase difference direction and the parameter.

일 실시예에 따른 전자 장치의 동작 방법은, 상기 위상차 방향과 상기 파라미터 간의 관계가 수직 관계에 상응하는 경우, 상기 제2 AF 데이터를 생성하는 동작을 생략할 수 있다.The operating method of the electronic device according to one embodiment may omit the operation of generating the second AF data when the relationship between the phase difference direction and the parameter corresponds to a vertical relationship.

일 실시예에 따른 전자 장치의 동작 방법은, 상기 위상차 방향과 상기 파라미터 간의 관계가 수평 관계에 상응하는 경우, 상기 보정을 위한 LUT의 가중치를 조절하는 동작을 더 포함할 수 있다.The operating method of the electronic device according to one embodiment may further include an operation of adjusting a weight of an LUT for the correction when the relationship between the phase difference direction and the parameter corresponds to a horizontal relationship.

일 실시예에 따른 전자 장치의 동작 방법은, 상기 OIS 동작에 의한 상기 적어도 하나의 렌즈의 이동 방향이 정의된 시간 이상 유지된 경우, 상기 제1 AF 데이터에 기초한 위상차 검출의 방향을 변경하는 동작을 더 포함할 수 있다.An operating method of an electronic device according to one embodiment may further include an operation of changing a direction of phase difference detection based on the first AF data when a direction of movement of the at least one lens by the OIS operation is maintained for a defined time or longer.

일 실시예에 따른 전자 장치의 동작 방법은, 휘도 값이 변경된 상기 제2 AF 데이터에 포함된 제1 위상차 및 제2 위상차에 기초하여 AF(auto focus) 기능을 수행하는 동작을 더 포함할 수 있다. 상기 제1 위상차는 제1 방향에 대한 위상차를 지시하고, 상기 제2 위상차는 상기 제1 방향과 다른 제2 방향에 대한 위상차를 지시할 수 있다.The operating method of the electronic device according to one embodiment may further include an operation of performing an AF (auto focus) function based on a first phase difference and a second phase difference included in the second AF data having a changed luminance value. The first phase difference may indicate a phase difference for a first direction, and the second phase difference may indicate a phase difference for a second direction different from the first direction.

일 실시예에 따른 이미지 센서는, 복수 개의 단위 픽셀들을 포함하고, 각 단위 픽셀은 4개 이상의 PD들(photo diodes)을 포함하고 상기 PD들은 제1 방향 및 상기 제1 방향에 상이한 제2 방향으로 인접하게 배치되고, 상기 단위 픽셀 각각은, 상기 단위 픽셀에 포함된 4개 이상의 PD들(photo diodes) 위에 형성된 적어도 하나의 컬러 필터 및 상기 적어도 하나의 컬러 필터의 위에 형성된 적어도 하나의 마이크로 렌즈를 포함할 수 있다.An image sensor according to one embodiment includes a plurality of unit pixels, each unit pixel including four or more PDs (photo diodes) and the PDs are arranged adjacent to each other in a first direction and a second direction different from the first direction, and each of the unit pixels may include at least one color filter formed over the four or more PDs (photo diodes) included in the unit pixel and at least one micro lens formed over the at least one color filter.

일 실시예에 따르면, 상기 제1 방향은 상기 제2 방향에 수직일 수 있다.In one embodiment, the first direction can be perpendicular to the second direction.

본 개시의 실시예들에 따른 전자 장치 및 이의 동작 방법은 전자 장치가 영상을 촬영하기 위해 수행하는 초점 조절 기능의 정확도를 향상시킬 수 있다.An electronic device and an operating method thereof according to embodiments of the present disclosure can improve the accuracy of a focus adjustment function performed by the electronic device to capture an image.

본 개시의 실시예들에 따른 전자 장치 및 이의 동작 방법은 전자 장치가 영상을 촬영하는 상황에 기초하여 자동 초점 데이터를 보정하여 자동 초점 기능의 정확도를 향상시킬 수 있다. 예를 들어, 피사체를 추적하여 영상을 촬영하는 상황, 카메라를 패닝(panning)하면서 영상을 촬영하는 상황, 광학적 이미지 안정화기를 이용하여 초해상도(super-resolution) 영상을 촬영하는 상황 또는 파노라마 영상을 촬영하는 상황에서 자동 초점 기능의 정확도를 향상시킬 수 있다.An electronic device and an operating method thereof according to embodiments of the present disclosure can improve the accuracy of an auto-focus function by correcting auto-focus data based on a situation in which the electronic device captures an image. For example, the accuracy of an auto-focus function can be improved in a situation in which an image is captured by tracking a subject, a situation in which an image is captured while panning a camera, a situation in which a super-resolution image is captured using an optical image stabilizer, or a situation in which a panoramic image is captured.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by a person skilled in the art to which the present disclosure belongs.

Claims (15)

전자 장치에 있어서,In electronic devices, 상기 전자 장치의 움직임에 대응되는 모션 데이터를 획득하기 위한 신호를 출력하는 센서;A sensor that outputs a signal for obtaining motion data corresponding to the movement of the electronic device; 적어도 하나의 렌즈를 포함하는 렌즈 어셈블리, 이미지 센서 및 상기 모션데이터에 기초하여 광학적 이미지 안정화(OIS) 동작을 수행하기 위해 상기 렌즈 어셈블리 또는 상기 이미지 센서 중 적어도 하나를 움직이도록 구성된 광학적 이미지 안정화기(optical image stabilizer, OIS)를 포함하는 카메라 모듈;A camera module comprising a lens assembly including at least one lens, an image sensor, and an optical image stabilizer (OIS) configured to move at least one of the lens assembly or the image sensor to perform an optical image stabilization (OIS) operation based on the motion data; 프로세서;processor; 상기 프로세서에 의해 실행 가능한 인스트럭션들을 저장하는 메모리;를 포함하고,a memory storing instructions executable by the processor; 상기 인스트럭션들은 상기 전자 장치로 하여금:The above instructions cause the electronic device to: 상기 이미지 센서로부터 제1 AF 데이터를 획득하고,Acquire first AF data from the image sensor, 상기 OIS 동작을 위한 파라미터에 기초하여 상기 제1 AF 데이터를 보정하여 제2 AF 데이터를 생성하고,Generate second AF data by correcting the first AF data based on the parameters for the above OIS operation, 상기 제2 AF 데이터에 기초하여 AF(auto focus) 기능을 수행하는 전자 장치.An electronic device that performs an AF (auto focus) function based on the second AF data. 제 1 항에 있어서,In paragraph 1, 상기 파라미터는,The above parameters are, 상기 이미지 센서의 중심을 기준점으로 하여 정의된 상기 렌즈 어셈블리 중심의 좌표 값인 제1 변위 값 및 제2 변위 값을 포함하는 전자 장치.An electronic device including a first displacement value and a second displacement value, which are coordinate values of the center of the lens assembly defined with the center of the image sensor as a reference point. 제 2 항에 있어서,In the second paragraph, 상기 적어도 하나의 인스트럭션은, 상기 전자 장치가,At least one of the above instructions causes the electronic device to: 상기 파라미터 또는 상기 적어도 하나의 렌즈의 CRA(Chief Ray Angle) 중 적어도 하나에 대응하는 LUT(look up table)을 획득하고,Obtain a look up table (LUT) corresponding to at least one of the above parameters or the CRA (Chief Ray Angle) of the at least one lens, 상기 LUT에 기초하여 상기 제1 AF 데이터를 보정하도록 하는 전자 장치.An electronic device for correcting the first AF data based on the LUT. 제 2 항에 있어서,In the second paragraph, 상기 적어도 하나의 인스트럭션은, 상기 전자 장치가,At least one of the above instructions causes the electronic device to: 상기 제1 AF 데이터의 위상차 방향을 확인하고,Check the phase difference direction of the above first AF data, 상기 위상차 방향 및 상기 파라미터 간의 관계에 기초하여 상기 보정의 수행 여부를 결정하도록 하는 전자 장치.An electronic device that determines whether to perform the correction based on the relationship between the phase difference direction and the parameters. 제 4 항에 있어서,In paragraph 4, 상기 적어도 하나의 인스트럭션은, 상기 전자 장치가,At least one of the above instructions causes the electronic device to: 상기 위상차 방향과 상기 파라미터 간의 관계가 수직 관계에 상응하는 경우, 상기 보정을 생략하도록 하는 전자 장치.An electronic device that allows the correction to be omitted when the relationship between the phase difference direction and the parameter corresponds to a vertical relationship. 제 4 항에 있어서,In paragraph 4, 상기 적어도 하나의 인스트럭션은, 상기 전자 장치가,At least one of the above instructions causes the electronic device to: 상기 위상차 방향과 상기 파라미터 간의 관계가 수평 관계에 상응하는 경우, 상기 보정을 위한 LUT의 가중치를 조절하도록 하는 전자 장치.An electronic device that adjusts the weight of the LUT for the correction when the relationship between the phase difference direction and the parameter corresponds to a horizontal relationship. 제 1 항에 있어서,In paragraph 1, 상기 적어도 하나의 인스트럭션은, 상기 전자 장치가,At least one of the above instructions causes the electronic device to: 상기 OIS 동작에 의한 상기 적어도 하나의 렌즈의 이동 방향이 정의된 시간 이상 유지된 경우, 상기 제1 AF 데이터에 기초한 위상차 검출의 방향을 변경하도록 하는 전자 장치.An electronic device that changes the direction of phase difference detection based on the first AF data when the direction of movement of at least one lens by the OIS operation is maintained for a defined period of time or longer. 제 1 항에 있어서,In paragraph 1, 상기 적어도 하나의 인스트럭션은, 상기 전자 장치가,At least one of the above instructions causes the electronic device to: 휘도 값이 변경된 상기 제2 AF 데이터에 포함된 제1 위상차 및 제2 위상차에 기초하여 AF(auto focus) 기능을 수행하도록 하며,The AF (auto focus) function is performed based on the first phase difference and the second phase difference included in the second AF data whose brightness value has been changed. 상기 제1 위상차는 제1 방향에 대한 위상차를 지시하고, 상기 제2 위상차는 상기 제1 방향과 다른 제2 방향에 대한 위상차를 지시하는 전자 장치.An electronic device wherein the first phase difference indicates a phase difference in a first direction, and the second phase difference indicates a phase difference in a second direction different from the first direction. 제 1 항에 있어서,In paragraph 1, 상기 이미지 센서는,The above image sensor, 복수 개의 단위 픽셀들을 포함하고, 각 단위 픽셀은 4개 이상의 PD들(photo diodes)을 포함하고 상기 PD들은 제1 방향 및 상기 제1 방향에 상이한 제2 방향으로 서로 인접하게 배치되고,A plurality of unit pixels, each unit pixel including four or more PDs (photo diodes), the PDs being arranged adjacent to each other in a first direction and a second direction different from the first direction, 상기 단위 픽셀 각각은, 상기 단위 픽셀에 포함된 4개 이상의 PD들(photo diodes) 위에 형성된 적어도 하나의 컬러 필터 및 상기 적어도 하나의 컬러 필터의 위에 형성된 적어도 하나의 마이크로 렌즈를 포함하는 전자 장치.An electronic device wherein each of the unit pixels includes at least one color filter formed on four or more photo diodes (PDs) included in the unit pixel and at least one micro lens formed on the at least one color filter. 제 9 항에 있어서,In Article 9, 상기 제1 방향은 상기 제2 방향에 수직인, 전자 장치.An electronic device, wherein the first direction is perpendicular to the second direction. 전자 장치의 동작 방법에 있어서,In a method of operating an electronic device, 상기 전자 장치의 움직임에 대응되는 모션 데이터를 획득하기 위한 신호를 출력하는 동작;An action of outputting a signal for obtaining motion data corresponding to the movement of the electronic device; 상기 모션 데이터에 기초하여 광학적 이미지 안정화 (Optical Image Stabilization, OIS) 동작을 수행하도록 상기 렌즈 어셈블리 또는 상기 이미지 센서를 제어하는 동작;An operation of controlling the lens assembly or the image sensor to perform an optical image stabilization (OIS) operation based on the motion data; 상기 이미지 센서로부터 제1 AF 데이터를 획득하는 동작;An operation of acquiring first AF data from the image sensor; 상기 OIS 동작을 위한 파라미터에 기초하여 상기 제1 AF 데이터를 보정하여 제2 AF 데이터를 생성하는 동작; 및An operation of generating second AF data by correcting the first AF data based on the parameters for the OIS operation; and 상기 제2 AF 데이터에 기초하여 AF(auto focus) 기능을 수행하는 동작을 포함하는 전자 장치의 동작 방법.An operating method of an electronic device including an operation of performing an AF (auto focus) function based on the second AF data. 제 11 항에 있어서,In Article 11, 상기 파라미터는,The above parameters are, 상기 이미지 센서의 중심을 기준점으로 하여 정의된 상기 렌즈 어셈블리 중심의 좌표 값인 제1 변위 값 및 제2 변위 값을 포함하는 전자 장치의 동작 방법.An operating method of an electronic device including a first displacement value and a second displacement value, which are coordinate values of the center of the lens assembly defined with the center of the image sensor as a reference point. 제 12 항에 있어서,In Article 12, 상기 파라미터 또는 상기 적어도 하나의 렌즈의 CRA(Chief Ray Angle) 중 적어도 하나에 대응하는 LUT(look up table)을 획득하는 동작; 및An operation of obtaining a look up table (LUT) corresponding to at least one of the above parameters or the CRA (Chief Ray Angle) of the at least one lens; and 상기 LUT에 기초하여 상기 제1 AF 데이터를 보정하는 동작을 더 포함하는 전자 장치의 동작 방법.An operating method of an electronic device further comprising an operation of correcting the first AF data based on the LUT. 제 12 항에 있어서,In Article 12, 상기 제1 AF 데이터의 위상차 방향을 확인하는 동작; 및An operation for checking the phase difference direction of the above first AF data; and 상기 위상차 방향 및 상기 파라미터 간의 관계에 기초하여 상기 보정의 수행 여부를 결정하는 동작을 더 포함하는 전자 장치의 동작 방법.A method of operating an electronic device further comprising an operation of determining whether to perform the correction based on the relationship between the phase difference direction and the parameters. 제 14 항에 있어서,In Article 14, 상기 위상차 방향과 상기 파라미터 간의 관계가 수직 관계에 상응하는 경우, 상기 제2 AF 데이터를 생성하는 동작을 생략하는 전자 장치의 동작 방법.An operating method of an electronic device, wherein an operation of generating the second AF data is omitted when the relationship between the phase difference direction and the parameter corresponds to a vertical relationship.
PCT/KR2024/020768 2024-01-12 2024-12-20 Electronic device comprising image sensor, and operating method thereof Pending WO2025150740A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20240005588 2024-01-12
KR10-2024-0005588 2024-01-12
KR1020240041308A KR20250110677A (en) 2024-01-12 2024-03-26 Electronic device including image sensor and operating method thereof
KR10-2024-0041308 2024-03-26

Publications (1)

Publication Number Publication Date
WO2025150740A1 true WO2025150740A1 (en) 2025-07-17

Family

ID=96386926

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2024/020768 Pending WO2025150740A1 (en) 2024-01-12 2024-12-20 Electronic device comprising image sensor, and operating method thereof

Country Status (1)

Country Link
WO (1) WO2025150740A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4670647B2 (en) * 2006-01-12 2011-04-13 セイコーエプソン株式会社 Imaging apparatus, control method, and control program
JP2020099055A (en) * 2017-03-16 2020-06-25 富士フイルム株式会社 Imaging device
KR20220068034A (en) * 2020-11-18 2022-05-25 삼성전자주식회사 A camera module and an electronic device including the camera module
KR20220115493A (en) * 2021-02-10 2022-08-17 삼성전자주식회사 Electronic device including image sensor and operating method thereof
JP7130473B2 (en) * 2018-07-09 2022-09-05 キヤノン株式会社 IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4670647B2 (en) * 2006-01-12 2011-04-13 セイコーエプソン株式会社 Imaging apparatus, control method, and control program
JP2020099055A (en) * 2017-03-16 2020-06-25 富士フイルム株式会社 Imaging device
JP7130473B2 (en) * 2018-07-09 2022-09-05 キヤノン株式会社 IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
KR20220068034A (en) * 2020-11-18 2022-05-25 삼성전자주식회사 A camera module and an electronic device including the camera module
KR20220115493A (en) * 2021-02-10 2022-08-17 삼성전자주식회사 Electronic device including image sensor and operating method thereof

Similar Documents

Publication Publication Date Title
WO2023277665A1 (en) Electronic device and control method therefor
WO2022203447A1 (en) Electronic device comprising image sensor and operating method therefor
WO2021215795A1 (en) Color filter for electronic device, and electronic device having same
WO2022203355A1 (en) Electronic device including plurality of cameras
WO2022149654A1 (en) Electronic device for performing image stabilization, and operating method therefor
WO2023018127A1 (en) Method for providing image and electronic device supporting same
WO2022203169A1 (en) Image capturing method for electronic device, and electronic device therefor
WO2022250305A1 (en) Image stabilization method during capturing, and electronic device therefor
WO2022196993A1 (en) Electronic device and method for capturing image by using angle of view of camera module
WO2022173236A1 (en) Electronic device comprising image sensor and method of operating same
WO2023153743A1 (en) Electronic device and operating method therefor
WO2022240186A1 (en) Image distortion correction method and electronic device therefor
WO2025150740A1 (en) Electronic device comprising image sensor, and operating method thereof
WO2023043132A1 (en) Electronic device for applying bokeh effect to image and operation method of same
WO2022211304A1 (en) Electronic device comprising camera module
WO2023038459A1 (en) Electronic device and method for controlling same
WO2022220590A1 (en) Method of processing image and electronic device for performing same
WO2022092607A1 (en) Electronic device comprising image sensor and operation method of same
WO2021261737A1 (en) Electronic device comprising image sensor, and method for controlling same
KR20220115493A (en) Electronic device including image sensor and operating method thereof
KR20250110677A (en) Electronic device including image sensor and operating method thereof
WO2025084638A1 (en) Electronic device for processing output of image sensor, and operating method thereof
WO2025258959A1 (en) Method for acquiring image and electronic device therefor
WO2024242518A1 (en) Image processing device and image processing method
WO2024262831A1 (en) Electronic device for detecting bad pixel of image sensor and operation method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24917334

Country of ref document: EP

Kind code of ref document: A1