[go: up one dir, main page]

WO2018150902A1 - 撮像素子および電子機器 - Google Patents

撮像素子および電子機器 Download PDF

Info

Publication number
WO2018150902A1
WO2018150902A1 PCT/JP2018/003505 JP2018003505W WO2018150902A1 WO 2018150902 A1 WO2018150902 A1 WO 2018150902A1 JP 2018003505 W JP2018003505 W JP 2018003505W WO 2018150902 A1 WO2018150902 A1 WO 2018150902A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
semiconductor substrate
pixel
inter
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/003505
Other languages
English (en)
French (fr)
Inventor
宏利 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to US16/484,985 priority Critical patent/US11411030B2/en
Priority to JP2018568106A priority patent/JP7079739B2/ja
Publication of WO2018150902A1 publication Critical patent/WO2018150902A1/ja
Anticipated expiration legal-status Critical
Priority to US17/682,157 priority patent/US11869911B2/en
Priority to JP2022083621A priority patent/JP7395650B2/ja
Priority to US18/529,579 priority patent/US12272706B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/806Optical elements or arrangements associated with the image sensors
    • H10F39/8063Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors
    • H10F39/199Back-illuminated image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/805Coatings
    • H10F39/8057Optical shielding
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/806Optical elements or arrangements associated with the image sensors
    • H10F39/8067Reflectors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/807Pixel isolation structures
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F77/00Constructional details of devices covered by this subclass
    • H10F77/40Optical elements or arrangements

Definitions

  • the present disclosure relates to an imaging element and an electronic device, and more particularly, to an imaging element and an electronic device that can capture a higher quality image.
  • CCD Charge-Coupled Device
  • CMOS Complementary-Metal-Oxide-Semiconductor
  • Patent Document 1 discloses a solid-state imaging device in which an inter-pixel light shielding portion provided at a boundary portion between adjacent pixels is unevenly distributed between the semiconductor substrate and the color filter layer at a boundary portion in a combination of different color pixels. Is disclosed.
  • the present disclosure has been made in view of such a situation, and is capable of capturing a higher quality image.
  • An imaging device is provided in a semiconductor substrate for each pixel, and in the semiconductor substrate, a photoelectric conversion unit that photoelectrically converts light incident through a filter layer that transmits light in a predetermined wavelength range, A predetermined distance from the light-receiving surface of the semiconductor substrate between the element separation unit that separates the photoelectric conversion units between the adjacent pixels and the pixels in a layer provided between the semiconductor substrate and the filter layer.
  • An inter-pixel light-shielding portion arranged at an interval, and the interval between the light-receiving surface of the semiconductor substrate and the front-end surface of the inter-pixel light-shielding portion is set narrower than the width of the front-end surface of the inter-pixel light-shielding portion.
  • An electronic apparatus in a semiconductor substrate for each pixel, and a photoelectric conversion unit that photoelectrically converts light incident through a filter layer that transmits light in a predetermined wavelength range, and the semiconductor substrate, A predetermined distance from the light-receiving surface of the semiconductor substrate between the element separation unit that separates the photoelectric conversion units between the adjacent pixels and the pixels in a layer provided between the semiconductor substrate and the filter layer.
  • An inter-pixel light-shielding portion arranged at an interval, and the interval between the light-receiving surface of the semiconductor substrate and the front-end surface of the inter-pixel light-shielding portion is set narrower than the width of the front-end surface of the inter-pixel light-shielding portion.
  • light incident through a filter layer that transmits light in a predetermined wavelength range is photoelectrically converted by a photoelectric conversion unit provided in a semiconductor substrate for each pixel.
  • the photoelectric conversion units are separated from each other by the element separation unit.
  • an inter-pixel light shielding portion is disposed between pixels in a layer provided between the semiconductor substrate and the filter layer, with a predetermined interval from the light receiving surface of the semiconductor substrate.
  • interval of the light-receiving surface of a semiconductor substrate and the front end surface of the light shielding part between pixels is set narrower than the width
  • FIG. 1 shows an example of a sectional configuration of two pixels 12-1 and 12-2 among a plurality of pixels 12 arranged in an array on the light receiving surface of the image sensor 11.
  • the pixels 12-1 and 12-2 are simply referred to as the pixel 12 and the parts constituting the pixel 12 are also referred to as the same.
  • the image sensor 11 is configured by laminating a wiring layer 21, a semiconductor substrate 22, a planarizing film 23, a filter layer 24, and an on-chip lens layer 25 in order from the bottom.
  • the imaging device 11 is a backside illumination type CMOS image sensor in which light is irradiated on the back surface that is opposite to the front surface of the semiconductor substrate 22.
  • a photoelectric conversion unit 31 an inner lens 33, a color filter 34, and a microlens 35 are provided for each pixel 12.
  • the wiring layer 21 is configured by forming wirings for reading out charges from the pixels 12 and wirings for transmitting signals supplied to the transistors that drive the pixels 12 in the interlayer insulating film.
  • the semiconductor substrate 22 is formed of, for example, a wafer obtained by thinly slicing single crystal silicon, and a photoelectric conversion unit 31 that converts light incident through the filter layer 24 into charges is provided for each pixel 12. Further, in the semiconductor substrate 22, an element isolation unit 41 is provided between the photoelectric conversion units 31 of adjacent pixels 12, and each photoelectric conversion unit 31 is electrically isolated by the element isolation unit 41.
  • a material used as the photoelectric conversion unit 31 that is, a material that converts light into electric charge, silicon (Si), germanium (Ge), CIGS (Copper Indium Gallium Selenide), InGaAs (Indium Gallium Arsenide), and the like. Can be used.
  • the flattening film 23 is formed inside the transparent resin layer 32 for flattening the light receiving surface which is the surface on the side where the photoelectric conversion unit 31 of the semiconductor substrate 22 receives light. Is formed and configured. In addition, it can replace with the transparent resin layer 32, can use a transparent insulating film, or can use the combination of a transparent insulating film and a resin layer.
  • the inner lens 33 is provided for each pixel 12 and condenses the light transmitted through the filter layer 24 at the center of the photoelectric conversion unit 31.
  • the inter-pixel light-shielding part 42 is provided between adjacent pixels 12 similarly to the element separation part 41, shields light in an oblique direction that has passed through the filter layer 24, and other pixels in which the light is adjacent. 12 is prevented.
  • a metal film having a light shielding property capable of cutting incident light of 20 to 30 degrees or more can be used for the element isolation portion 41.
  • the filter layer 24 includes a color filter 34 that transmits light in a wavelength region corresponding to a color received by each pixel 12 and is arranged in a plane for each pixel 12.
  • the on-chip lens layer 25 includes a microlens 35 that condenses light irradiated to the image sensor 11 for each pixel 12 and is arranged in a plane for each pixel 12.
  • the inter-pixel light shielding portion 42 is arranged at a predetermined interval from the light receiving surface of the semiconductor substrate 22 in the planarization film 23 provided between the semiconductor substrate 22 and the filter layer 24. It has a structure. As will be described later, the image pickup device 11 has an effect of suppressing the occurrence of color mixing caused by diffracted light or reflected light below the inter-pixel light-shielding portion 42 by appropriately setting the interval. Can be improved. Thereby, the image sensor 11 can capture a high-quality image in which no color mixture occurs.
  • FIG. 2 shows an enlarged view of a portion surrounded by a broken-line circle in FIG. 1, that is, a structure between the light receiving surface of the semiconductor substrate 22 and the front end surface of the inter-pixel light shielding portion 42.
  • the element isolation part 41 is provided in the semiconductor substrate 22 so as to isolate between the photoelectric conversion parts 31-1 and 31-2, and the low refractive index insulating films 51-1 and 51 are separated.
  • the high refractive index light absorbing portion 52 is sandwiched by -2.
  • a trench is dug so as to divide the semiconductor substrate 22 for each pixel 12 from the surface of the semiconductor substrate 22 (the surface facing the lower side in FIG. 1).
  • a material having an insulating property to be 51 (for example, SiO2: silicon dioxide) is formed.
  • the low refractive index insulating film 51-1 is formed on the side surface on the photoelectric conversion unit 31-1 side
  • the low refractive index insulating film 51-2 is formed on the side surface on the photoelectric conversion unit 31-2 side.
  • separation part 41 is formed by embedding the material (for example, Poly-Si: polysilicon) provided with the light absorptivity used as the high refractive index light absorption part 52 in the trench.
  • the high refractive index light absorbing portion 52 As a material used as the high refractive index light absorbing portion 52, that is, a material that absorbs light, in addition to polysilicon, for example, silicon, germanium, CIGS, InGaAs, or a pigment (dye) may be used. it can.
  • the low refractive index insulating films 51-1 and 51-2 are preferably made of a material having a refractive index significantly different from that of both the photoelectric conversion unit 31 and the high refractive index light absorption unit 52.
  • silicon nitride (SiN), hafnium oxide (HfO), aluminum oxide (AlO), or the like can be used.
  • an insulating film 53 having an insulating property is formed on the light receiving surface (the surface facing the upper side in FIG. 2) of the semiconductor substrate 22 in the same manner as the low refractive index insulating film 51, and hafnium is formed on the insulating film 53.
  • a high dielectric constant insulating film (High-K film) 54 is formed.
  • a barrier metal 55 is formed on the tip surface of the inter-pixel light-shielding portion 42 (the surface facing downward in FIG. 2) to prevent the metal constituting the inter-pixel light-shielding portion 42 from diffusing.
  • a gap A is set between the light receiving surface of the semiconductor substrate 22 and the front end surface of the inter-pixel light shielding portion 42, and a transparent resin is interposed between them.
  • Layer 32 is disposed.
  • the distance A between the light receiving surface of the semiconductor substrate 22 and the front end surface of the inter-pixel light shielding portion 42 is set to be sufficiently narrower than the width B of the front end surface of the inter-pixel light shielding portion 42.
  • the front end portion of the inter-pixel light-shielding portion 42 is shown in a cross-sectional view as illustrated so that the width B is sufficiently wider than the interval A in the direction between the pixels 12 (the left-right direction in FIG. 2).
  • the image sensor 11 can The effect of suppressing the occurrence of color mixing due to diffracted light or reflected light below the light shielding part 42 can be improved.
  • light incident obliquely on the pixel 12 is diffracted at the end of the tip portion of the inter-pixel light-shielding portion 42, and the light-receiving surface of the semiconductor substrate 22 and the inter-pixel light-shielding portion 42 may enter the gap with the tip surface of 42. Then, it is assumed that the light repeatedly reflects between the light receiving surface of the semiconductor substrate 22 and the front end surface of the inter-pixel light shielding portion 42 and reaches other adjacent pixels 12.
  • the image sensor 11 by setting the interval A to be sufficiently narrower than the width B, the number of times of light reflection between the light receiving surface of the semiconductor substrate 22 and the front end surface of the inter-pixel light shielding portion 42 is increased. This can sufficiently attenuate the light. Therefore, in the image pickup device 11, light is prevented from leaking to other adjacent pixels 12 through the space between the light receiving surface of the semiconductor substrate 22 and the front end surface of the inter-pixel light-shielding portion 42, resulting in diffracted light or reflected light. Generation of color mixing caused by light or the like can be suppressed.
  • part of the light that enters the gap between the light receiving surface of the semiconductor substrate 22 and the front end surface of the inter-pixel light blocking portion 42 enters the photoelectric conversion portion 31-1 and enters the low refractive index insulating film 51. It is reflected inward by -1 and is photoelectrically converted.
  • a part of the light entering the gap between the light receiving surface of the semiconductor substrate 22 and the front end surface of the inter-pixel light-shielding portion 42 enters the element isolation portion 41 and is formed by the low refractive index insulating films 51-1 and 51-2.
  • the reflection is repeated and absorbed by the high refractive index light absorbing portion 52. That is, by providing the element isolation part 41 so as to separate the pixels 12-1 and 12-2, the light that has entered the gap between the light receiving surface of the semiconductor substrate 22 and the front end surface of the inter-pixel light shielding part 42 is transmitted to the pixel 12. -2 is suppressed from leaking out. Thereby, the image pick-up element 11 can suppress generation
  • the width C of the element separation unit 41 is set to be narrower than the width B of the front end surface of the inter-pixel light shielding unit 42. In this way, by setting the width C of the element isolation part 41 and the width B of the front end face of the inter-pixel light shielding part 42, direct entry of light into the element isolation part 41 is avoided, and the element isolation part It can be prevented that the pixel passes through 41 and is mixed into another adjacent pixel 12.
  • the directly entering light passes through the element isolation part 41 and is adjacent to another pixel 12. It is assumed that the effect of suppressing the occurrence of color mixing is reduced.
  • the element isolation part 41 is illustrated as indicated by a white arrow.
  • the light that directly enters the light will be generated.
  • the absolute amount of light entering the element isolation unit 41 is increased, and there are only two interfaces with respect to the incident light. Therefore, light passing through the element isolation unit 41 is mixed into the photoelectric conversion unit 31-2.
  • the width C of the element isolation unit 41 is set wide, the effective area of the photoelectric conversion unit 31 is reduced. Therefore, it is preferable to set the width C of the element isolation unit 41 narrower.
  • the imaging element 11 has a width C of the element separation unit 41 of the inter-pixel light shielding unit 42 as shown in FIG. It is configured to be narrower than the width B of the tip surface.
  • the image pickup device 11 can effectively prevent color mixing. Therefore, it is possible to capture a higher quality image.
  • the image pickup device 11 is configured such that light that enters the gap between the light receiving surface of the semiconductor substrate 22 and the tip surface of the inter-pixel light blocking portion 42 enters the element separating portion 41. Then, as shown in FIG. 4, the light incident on the element isolation unit 41 is attenuated by being repeatedly reflected inside the element isolation unit 41, and is prevented from leaking to other adjacent pixels 12.
  • the vertical axis indicates the ratio of the reaching light that reaches the photoelectric conversion unit 31 of another adjacent pixel 12 when the light incident on the element separation unit 41 is 1.
  • the ratio of this reaching light is the assumed color mixture value.
  • the horizontal axis indicates the number of reflections, which is the number of times the light is reflected inside the element isolation part 41.
  • the assumed mixed color value shown in FIG. 5 shows the result of simulation assuming that the wavelength of incident light is 650 nm and the photoelectric conversion in the element separation unit 41 is not performed. As shown in the figure, the ratio of the reaching light decreases as the number of reflections increases, and the light incident on the element separation unit 41 reaches the photoelectric conversion unit 31 of another adjacent pixel 12. It is recognized that the probability of color mixing is reduced.
  • the image sensor 11 secures the optical path length of the light incident on the element separation unit 41 so that the number of reflections is such that the assumed color mixture value is substantially zero.
  • the imaging element 11 is configured such that the element isolation portion 41 has a length that penetrates the semiconductor substrate 22, thereby sufficiently attenuating the light incident on the element isolation portion 41, and color mixing is caused by the light. Probability of occurrence can be reduced.
  • the element isolation portion 41 when configured to penetrate the semiconductor substrate 22, the effect of suppressing the occurrence of color mixing can be improved by increasing the thickness of the semiconductor substrate 22. That is, as shown in FIG. 7, by forming the element isolation portion 41 so as to penetrate the semiconductor substrate 22 having a large film thickness, it is possible to ensure a longer optical path length of the light incident on the element isolation portion 41. Can be attenuated more. For example, by setting the film thickness of the semiconductor substrate 22 to 2.55 ⁇ m or more, it is possible to secure a sufficient optical path length for attenuating the light incident on the element isolation part 41.
  • the imaging element 11 is configured such that the element isolation portion 41 penetrates the semiconductor substrate 22, and by increasing the thickness of the semiconductor substrate 22, it is possible to reduce the probability of color mixing. Therefore, it is possible to capture a higher quality image.
  • the optical path length through which the light penetrates the element isolation part 41 is short with respect to the amount of light incident on the element isolation part 41, the light that could not be absorbed inside the element isolation part 41 is There is a possibility of reaching the end surface on the wiring layer 21 side through the separation part 41. In this case, the light leaking from the element isolation part 41 to the wiring layer 21 is reflected by the wiring provided in the wiring layer 21 and enters the other adjacent pixels 12 to cause color mixing.
  • FIG. 9 is a diagram illustrating a configuration example of the second embodiment of the imaging element.
  • the imaging element 11A shown in FIG. 9 has a reflective member 61 disposed in a location closer to the element isolation portion 41 than the other wiring in the wiring layer 21 on the distal end side of the element isolation portion 41. Composed.
  • the reflecting member 61 can be disposed so as to be in contact with the distal end surface of the element isolation portion 41 that penetrates the semiconductor substrate 22.
  • the image pickup device 11A the light that has not been absorbed by the element separation unit 41 is reflected by the reflecting member 61 and returned to the element separation unit 41 as indicated by a dashed line arrow in FIG. Thereby, the image sensor 11A can avoid the occurrence of color mixing as described above with reference to FIG.
  • the reflecting member 61 reflects light that has reached the wiring layer 21 through the photoelectric conversion unit 31-1 to the photoelectric conversion unit 31-1 side. Can do. As a result, it is possible to prevent such light from entering the photoelectric conversion unit 31-2. As a result, the imaging element 11A can improve the effect of suppressing the occurrence of color mixing.
  • the reflecting member 61 ′ may be formed to have at least the same width as the element isolation part 41, and the tip of the element isolation part 41 penetrating the semiconductor substrate 22 is used. Arranged to contact the surface.
  • the reflecting member 61 ′ is formed by digging a trench from the surface of the semiconductor substrate 22 (the surface facing the lower side in FIG. 10), and directly above the element isolation portion 41 provided in the trench. It is possible to form such that at least a part of is in contact with the element isolation portion 41. Further, as illustrated, the reflecting member 61 ′ may be formed so as to be connected to the first layer wiring formed in the wiring layer 21.
  • the first layer wiring and the reflecting member 61 ′ may be connected to each other. , It is formed in a shape like an inverted T-shape.
  • the first-layer wiring may not be used as a wiring, but may be a dedicated light-shielding film used for light-shielding.
  • the imaging element 11A ′ provided with the reflection member 61 ′ having such a shape can avoid the occurrence of color mixing as described above with reference to FIG. It is possible to prevent light from leaking to other adjacent pixels 12 through the gap.
  • FIG. 11 is a diagram illustrating a configuration example of the third embodiment of the imaging device.
  • the imaging element 11B shown in FIG. 11 has a convex reflecting member 62 in the wiring layer 21 on the distal end side of the element isolation part 41 and at a location closer to the element isolation part 41 than other wirings. Arranged and configured.
  • the reflecting member 62 has an inverted T shape so that a part of the center on the semiconductor substrate 22 side is embedded in a trench formed between the photoelectric conversion units 31-1 and 31-2. It is formed into a shape.
  • the image sensor 11B can reflect the light that has not been absorbed by the element isolation unit 41 to the element isolation unit 41 and light that has passed through the photoelectric conversion unit 31-1, as with the image sensor 11A of FIG. Can be reflected toward the photoelectric conversion unit 31-1.
  • the imaging element 11B has a structure in which a part of the reflecting member 62 is embedded in the trench, and a part of the imaging element 11B is deeper than the STI (ShallowsolTrench ⁇ ⁇ ⁇ ⁇ ⁇ Isolation) of the transistor included in the pixel 12-1. It is formed to protrude. Therefore, in the image pickup device 11B, as indicated by a broken arrow in FIG. 11, the light reflected by the STI of the transistor included in the pixel 12-1 and directed to the photoelectric conversion unit 31-2 is reflected by the reflecting member 62. be able to. As a result, it is possible to prevent such light from entering the photoelectric conversion unit 31-2. As a result, the imaging element 11B can improve the effect of suppressing the occurrence of color mixing.
  • STI ShallowsolTrench ⁇ ⁇ ⁇ ⁇ ⁇ Isolation
  • the reflection member 62 ′ embedded in the trench formed in the semiconductor substrate 22 in order to form the element isolation portion 41 is replaced with the reflection member 62 of FIG. You may form so that it may become shorter than a part. That is, as described above, in the reflecting member 62 of FIG. 11, the convex portion embedded in the trench is formed to protrude upward so as to be deeper than the STI, whereas in the reflecting member 62 ′, A convex portion embedded in the trench is formed shallower than the STI.
  • the imaging element 11B ′ provided with the reflection member 62 ′ having such a shape can prevent light that has not been absorbed by the element isolation part 41 from being reflected by the element isolation part 41 and leaking to the wiring layer 21 side. And the occurrence of color mixing can be suppressed.
  • FIG. 13 is a diagram illustrating a configuration example of the fourth embodiment of the imaging device.
  • the imaging element 11C shown in FIG. 13 is on the tip side of the element isolation part 41, in the wiring layer 21 on the side thereof, and closer to the element isolation part 41 than other wirings.
  • a reflecting member 63 is arranged.
  • the reflecting member 63 can be disposed so as to cover the space between the first-layer wiring and the semiconductor substrate 22 on the side of the distal end surface of the element isolation portion 41 that penetrates the semiconductor substrate 22.
  • the image pickup device 11C as indicated by a two-dot chain line arrow in FIG. 13, the light that has passed through the photoelectric conversion unit 31-1 and reached the wiring layer 21 is reflected by the reflecting member 63 and is reflected in the first layer. From entering between the wiring and the semiconductor substrate 22 into the photoelectric conversion unit 31-2 is prevented. Of course, the light that has not been absorbed by the element isolation unit 41 is prevented from being mixed into the photoelectric conversion unit 31-2 by the reflecting member 63. Then, the light reflected by the reflecting member 63 is absorbed by being incident on the element isolation part 41, for example. Thereby, the image sensor 11C can improve the effect of suppressing the occurrence of color mixing.
  • the wavelength range of light received by the pixel 12-1 is longer than the wavelength range of light received by the pixel 12-2, the light received by the pixel 12-1 is converted into the photoelectric conversion unit 31-1. It is assumed that it will be easy to penetrate. Therefore, in this case, in the image pickup device 11C, it is preferable to dispose the reflection member 63 on the side of the element separation unit 41 on the pixel 12-2 side as shown in the drawing.
  • FIG. 14 is a view showing a modified example of the structure between the semiconductor substrate 22 and the inter-pixel light-shielding portion 42.
  • the imaging device 11 has a structure that can sufficiently suppress the occurrence of color mixing.
  • a structure that can sufficiently suppress the occurrence of color mixing.
  • the color filter 34 such as white (transparent) or cyan is arranged, it is assumed that light absorption by the color filter 34 is small and stronger light enters the pixel 12.
  • the embedded light shielding film 71 can be formed on the light receiving surface side of the element isolation portion 41 for the purpose of improving the effect of suppressing the occurrence of color mixing.
  • the embedded light shielding film 71 having a width larger than the width C of the element isolation portion 41 and narrower than the width B of the tip portion of the inter-pixel light shielding portion 42 is formed on the element isolation portion 41.
  • the structure is embedded on the light receiving surface side.
  • the back side of the semiconductor substrate 22 is dug according to the shape of the buried light shielding film 71, and after the insulating film 53 and the high dielectric constant insulating film 54 are formed, a material having light shielding properties is buried in the dug portion. Thereby, the buried light shielding film 71 is formed.
  • the semiconductor substrate 22 is distorted, and it is difficult to uniformly process the entire area of the silicon wafer.
  • the trench formed in the semiconductor substrate 22 in order to provide the element isolation portion 41 is preferably formed narrowly, and digging for forming the buried light shielding film 71 in the trench is a process. It is assumed that the difficulty level becomes high.
  • the buried light shielding film 71 with a width slightly larger than the width of the trench formed in the semiconductor substrate 22 in order to provide the element isolation portion 41. Therefore, it is possible to improve the effect of suppressing the occurrence of color mixing in a state where the manufacturing margin of the image sensor 11 can be expanded.
  • FIGS. 15 and 16 are diagrams illustrating configuration examples of the fifth and sixth embodiments of the imaging device.
  • the pixel 12-1 is a special pixel such as an image plane phase difference pixel for detecting a phase difference on the image pickup surface of the image pickup element 11, there is a concern that the color mixture may locally deteriorate.
  • the flattening film 23 of the pixel 12-1 shields approximately half of the photoelectric conversion unit 31-1.
  • a phase difference light shielding film 81 for detecting the phase difference is formed.
  • the pixel 12-1 on which the phase difference light shielding film 81 is formed is also referred to as an image plane phase difference pixel 12-1, and the pixel on which the phase difference light shielding film 81 is not formed.
  • 12-2 is also referred to as a normal pixel 12-2.
  • the image pickup device 11D shown in FIG. 15 has a light shielding property by, for example, dug the light receiving surface of the semiconductor substrate 22 so as to surround the outer periphery of the photoelectric conversion unit 31-1 of the image plane phase difference pixel 12-1. And a buried light shielding film 82 formed by embedding a metallic material.
  • the light receiving surface of the semiconductor substrate 22 is dug and the light shielding metal is embedded, it becomes a source of dark electrons due to damage or metal contamination, and the normal pixel 12-2 is dark. There is a risk of deteriorating characteristics.
  • the imaging element 11D has a structure in which the embedded light shielding film 82 is provided only on the image plane phase difference pixel 12-1 side with respect to the element separation unit 41.
  • the imaging device 11D can suppress the occurrence of color mixture due to light reflection on the side surface of the phase difference light-shielding film 81 while avoiding deterioration of dark characteristics due to dark electrons.
  • the retardation light shielding film 81 and the embedded light shielding film 82 are integrally formed in the imaging element 11D may be employed.
  • the imaging element 11E shown in FIG. 16 is made of a metal material having light shielding properties from the light receiving surface side of the semiconductor substrate 22 up to a predetermined depth of a trench formed in the semiconductor substrate 22 in order to provide the element isolation portion 41.
  • An embedded light shielding film 83 formed by embedding is provided.
  • the image sensor 11E configured in this manner can suppress the occurrence of color mixing due to light reflection on the side surface of the phase difference light-shielding film 81 by the embedded light-shielding film 83, similarly to the image sensor 11D of FIG. Further, unlike the image pickup device 11D of FIG. 15, the image pickup device 11E does not need to dig up the light receiving surface of the semiconductor substrate 22, so that it is possible to avoid the risk of deterioration in dark characteristics.
  • imaging device 11 As described above is applied to various electronic devices such as an imaging system such as a digital still camera and a digital video camera, a mobile phone having an imaging function, or other devices having an imaging function. can do.
  • an imaging system such as a digital still camera and a digital video camera
  • a mobile phone having an imaging function or other devices having an imaging function. can do.
  • FIG. 17 is a block diagram illustrating a configuration example of an imaging device mounted on an electronic device.
  • the imaging apparatus 101 includes an optical system 102, an imaging element 103, a signal processing circuit 104, a monitor 105, and a memory 106, and can capture still images and moving images.
  • the optical system 102 includes one or more lenses, guides image light (incident light) from a subject to the image sensor 103, and forms an image on a light receiving surface (sensor unit) of the image sensor 103.
  • the above-described image sensor 11 is applied.
  • the image sensor 103 electrons are accumulated for a certain period according to an image formed on the light receiving surface via the optical system 102. Then, a signal corresponding to the electrons accumulated in the image sensor 103 is supplied to the signal processing circuit 104.
  • the signal processing circuit 104 performs various signal processing on the pixel signal output from the image sensor 103.
  • An image (image data) obtained by performing signal processing by the signal processing circuit 104 is supplied to the monitor 105 and displayed, or supplied to the memory 106 and stored (recorded).
  • a higher quality image can be captured by applying the imaging element 11 described above.
  • FIG. 18 is a diagram illustrating a usage example in which the above-described image sensor is used.
  • the image sensor described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray as follows.
  • Devices for taking images for viewing such as digital cameras and mobile devices with camera functions
  • Devices used for traffic such as in-vehicle sensors that capture the back, surroundings, and interiors of vehicles, surveillance cameras that monitor traveling vehicles and roads, and ranging sensors that measure distances between vehicles, etc.
  • Equipment used for home appliances such as TVs, refrigerators, air conditioners, etc. to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, equipment that performs blood vessel photography by receiving infrared light, etc.
  • Equipment used for medical and health care ⁇ Security equipment such as security surveillance cameras and personal authentication cameras ⁇ Skin measuring instrument for photographing skin and scalp photography Such as a microscope to do beauty Equipment used for sports-Equipment used for sports such as action cameras and wearable cameras for sports applications-Used for agriculture such as cameras for monitoring the condition of fields and crops apparatus
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device that is mounted on any type of mobile body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, and a robot. May be.
  • FIG. 19 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a driving force generator for generating a driving force of a vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism that adjusts and a braking device that generates a braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a blinker, or a fog lamp.
  • the body control unit 12020 can be input with radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle on which the vehicle control system 12000 is mounted.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle and receives the captured image.
  • the vehicle outside information detection unit 12030 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or a character on a road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal corresponding to the amount of received light.
  • the imaging unit 12031 can output an electrical signal as an image, or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared rays.
  • the vehicle interior information detection unit 12040 detects vehicle interior information.
  • a driver state detection unit 12041 that detects a driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the vehicle interior information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether the driver is asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside / outside the vehicle acquired by the vehicle outside information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 realizes an ADAS (Advanced Driver Assistance System) function including vehicle collision avoidance or impact mitigation, following traveling based on inter-vehicle distance, vehicle speed maintaining traveling, vehicle collision warning, or vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of automatic driving that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare, such as switching from a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits an output signal of at least one of sound and image to an output device capable of visually or audibly notifying information to a vehicle occupant or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 20 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the vehicle 12100 includes imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door, and an upper part of a windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided in the front nose and the imaging unit 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire an image of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 20 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of the imaging part 12104 provided in the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, an overhead image when the vehicle 12100 is viewed from above is obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance before the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • cooperative control for the purpose of autonomous driving or the like autonomously traveling without depending on the operation of the driver can be performed.
  • the microcomputer 12051 converts the three-dimensional object data related to the three-dimensional object to other three-dimensional objects such as a two-wheeled vehicle, a normal vehicle, a large vehicle, a pedestrian, and a utility pole based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles.
  • the microcomputer 12051 identifies obstacles around the vehicle 12100 as obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is connected via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration or avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether a pedestrian is present in the captured images of the imaging units 12101 to 12104. Such pedestrian recognition is, for example, whether or not the user is a pedestrian by performing a pattern matching process on a sequence of feature points indicating the outline of an object and a procedure for extracting feature points in the captured images of the imaging units 12101 to 12104 as infrared cameras. It is carried out by the procedure for determining.
  • the audio image output unit 12052 When the microcomputer 12051 determines that there is a pedestrian in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 has a rectangular contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to be superimposed and displayed.
  • voice image output part 12052 may control the display part 12062 so that the icon etc. which show a pedestrian may be displayed on a desired position.
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the imaging element 11 of FIG. 1 can be applied to the imaging unit 12031.
  • a photoelectric conversion unit that is provided on a semiconductor substrate for each pixel and photoelectrically converts light incident through a filter layer that transmits light in a predetermined wavelength range; and In the semiconductor substrate, an element separation unit that separates the photoelectric conversion units between adjacent pixels; An inter-pixel light-shielding portion disposed between the pixels in a layer provided between the semiconductor substrate and the filter layer and spaced from the light-receiving surface of the semiconductor substrate by a predetermined distance; An imaging device in which a distance between a light receiving surface of the semiconductor substrate and a front end surface of the inter-pixel light shielding portion is set to be narrower than a width of the front end surface of the inter-pixel light shielding portion.
  • STI Shallow Trench Isolation
  • the imaging element according to any one of (1) to (3), wherein a reflecting member that reflects light is disposed at a location in the vicinity of the separation portion.
  • the pixel is an image plane phase difference pixel having a phase difference light-shielding film for detecting a phase difference on an image plane of the image sensor, and a light receiving surface so as to surround the photoelectric conversion unit of the image plane phase difference pixel.
  • the imaging device according to any one of (1) to (8), wherein an embedded light shielding film embedded from the side is provided.
  • a photoelectric conversion unit that is provided on a semiconductor substrate for each pixel and photoelectrically converts light incident through a filter layer that transmits light in a predetermined wavelength range; and In the semiconductor substrate, an element separation unit that separates the photoelectric conversion units between adjacent pixels; An inter-pixel light-shielding portion disposed between the pixels in a layer provided between the semiconductor substrate and the filter layer and spaced from the light-receiving surface of the semiconductor substrate by a predetermined distance; An electronic apparatus comprising: an imaging device in which a distance between a light receiving surface of the semiconductor substrate and a front end surface of the inter-pixel light shielding unit is set to be narrower than a width of a front end surface of the inter-pixel light shielding unit.
  • 11 Image sensor 12 pixels, 21 wiring layer, 22 semiconductor substrate, 23 flattening film, 24 filter layer, 25 on-chip lens layer, 31 photoelectric conversion part, 32 resin layer, 33 inner lens, 34 color filter, 35 micro lens , 41 element isolation part, 42 inter-pixel light shielding part, 51 low refractive index insulating film, 52 high refractive index light absorbing part, 53 insulating film, 54 high dielectric constant insulating film, 55 barrier metal, 61 to 63 reflective member, 71 embedded Light shielding film, 81 phase difference light shielding film, 82 and 83 embedded light shielding film

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Light Receiving Elements (AREA)

Abstract

本開示は、より高画質な画像を撮像することができるようにする撮像素子および電子機器に関する。 撮像素子は、画素ごとに半導体基板に設けられ、所定の波長域の光を透過するフィルタ層を介して入射する光を光電変換する光電変換部と、半導体基板において、隣接する画素どうしの光電変換部の間を分離する素子分離部と、半導体基板およびフィルタ層の間に設けられる層における画素どうしの間に、半導体基板の受光面から所定の間隔を隔てて配置される画素間遮光部とを備える。そして、半導体基板の受光面と画素間遮光部の先端面との間隔が、画素間遮光部の先端面の幅よりも狭く設定される。本技術は、例えば、裏面照射型のCMOSイメージセンサに適用できる。

Description

撮像素子および電子機器
 本開示は、撮像素子および電子機器に関し、特に、より高画質な画像を撮像することができるようにした撮像素子および電子機器に関する。
 従来、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像素子では、入射光を適正量に絞るのと同時に、異色の画素間における混色の発生を抑制することが重要となっている。
 例えば、特許文献1には、半導体基板とカラーフィルタ層との間にて、互いに隣接する画素間の境界部分に設けられる画素間遮光部が、異色画素の組み合わせにおける境界部分に偏在する固体撮像装置が開示されている。
特開2012-204449号公報
 ところで、上述の特許文献1に開示されている固体撮像装置の構成では、画素間遮光部よりも下側で発生する回折光や反射光などによる混色の発生を抑制することは困難であった。そのため、従来よりも混色の発生を抑制する効果を向上させて、より高画質な画像の撮像を可能とすることが求められている。
 本開示は、このような状況に鑑みてなされたものであり、より高画質な画像を撮像することができるようにするものである。
 本開示の一側面の撮像素子は、画素ごとに半導体基板に設けられ、所定の波長域の光を透過するフィルタ層を介して入射する光を光電変換する光電変換部と、前記半導体基板において、隣接する前記画素どうしの前記光電変換部の間を分離する素子分離部と、前記半導体基板および前記フィルタ層の間に設けられる層における前記画素どうしの間に、前記半導体基板の受光面から所定の間隔を隔てて配置される画素間遮光部とを備え、前記半導体基板の受光面と前記画素間遮光部の先端面との間隔が、前記画素間遮光部の先端面の幅よりも狭く設定される。
 本開示の一側面の電子機器は、画素ごとに半導体基板に設けられ、所定の波長域の光を透過するフィルタ層を介して入射する光を光電変換する光電変換部と、前記半導体基板において、隣接する前記画素どうしの前記光電変換部の間を分離する素子分離部と、前記半導体基板および前記フィルタ層の間に設けられる層における前記画素どうしの間に、前記半導体基板の受光面から所定の間隔を隔てて配置される画素間遮光部とを有し、前記半導体基板の受光面と前記画素間遮光部の先端面との間隔が、前記画素間遮光部の先端面の幅よりも狭く設定される撮像素子を備える。
 本開示の一側面においては、画素ごとに半導体基板に設けられる光電変換部により、所定の波長域の光を透過するフィルタ層を介して入射する光が光電変換され、半導体基板において、隣接する画素どうしの光電変換部の間が素子分離部により分離される。また、半導体基板およびフィルタ層の間に設けられる層における画素どうしの間に、半導体基板の受光面から所定の間隔を隔てて画素間遮光部が配置される。そして、半導体基板の受光面と画素間遮光部の先端面との間隔が、画素間遮光部の先端面の幅よりも狭く設定されている。
 本開示の一側面によれば、より高画質な画像を撮像することができる。
本技術を適用した撮像素子の第1の実施の形態の構成例を示す図である。 半導体基板の受光面と画素間遮光部の先端面との間の構造を説明する図である。 画素間遮光部の先端面の幅が狭く設定された構造を示す図である。 素子分離部に入射した光について説明する図である。 混色想定値について説明する図である。 素子分離部が半導体基板を貫通していない構成を示す図である。 素子分離部による光路長を増した構成における効果を説明する図である。 素子分離部を通過した光による混色について説明する図である。 撮像素子の第2の実施の形態の構成例を示す図である。 図9の撮像素子の変形例を示す図である。 撮像素子の第3の実施の形態の構成例を示す図である。 図11の撮像素子の変形例を示す図である。 撮像素子の第4の実施の形態の構成例を示す図である。 半導体基板と画素間遮光部との間の構造の変形例を示す図である。 撮像素子の第5の実施の形態の構成例を示す図である。 撮像素子の第6の実施の形態の構成例を示す図である。 撮像装置の構成例を示すブロック図である。 イメージセンサを使用する使用例を示す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 <撮像素子の第1の構成例>
 図1を参照して、本技術を適用した撮像素子の第1の実施の形態について説明する。
 図1には、撮像素子11の受光面にアレイ状に配置される複数の画素12のうち、2つの画素12-1および12-2の断面的な構成の一例が示されている。なお、以下適宜、画素12-1および12-2それぞれを区別する必要がない場合には、単に、画素12と称し、画素12を構成する各部も同様に称する。
 図1に示すように、撮像素子11は、下側から順に、配線層21、半導体基板22、平坦化膜23、フィルタ層24、およびオンチップレンズ層25が積層されて構成される。例えば、撮像素子11は、半導体基板22の表面に対して反対側となる裏面に光が照射される裏面照射型のCMOSイメージセンサである。また、撮像素子11では、画素12ごとに、光電変換部31、インナーレンズ33、カラーフィルタ34、およびマイクロレンズ35が設けられている。
 配線層21は、画素12から電荷を読み出すための配線や、画素12を駆動するトランジスタに供給される信号を伝送する配線などが、層間絶縁膜中に形成されて構成される。
 半導体基板22は、例えば、単結晶のシリコンを薄くスライスしたウェハにより構成され、フィルタ層24を介して入射する光を電荷に変換する光電変換部31が画素12ごとに設けられる。また、半導体基板22では、隣接する画素12どうしの光電変換部31の間に素子分離部41が設けられており、それぞれの光電変換部31は素子分離部41により電気的に分離されている。なお、光電変換部31として用いられる材料、即ち、光を電荷に変換する材料には、シリコン(Si)や、ゲルマニウム(Ge)、CIGS(Copper Indium Gallium Selenide)、InGaAs(Indium Gallium Arsenide)などを用いることができる。
 平坦化膜23は、半導体基板22の光電変換部31が光を受光する側の表面である受光面を平坦化するための透明な樹脂層32の内部に、インナーレンズ33および画素間遮光部42が形成されて構成される。なお、透明な樹脂層32に替えて、透明な絶縁膜を使用したり、透明な絶縁膜および樹脂層の組み合わせを使用したりすることができる。インナーレンズ33は、画素12ごとに設けられており、フィルタ層24を透過した光を、光電変換部31の中央に集光する。画素間遮光部42は、素子分離部41と同様に、隣接する画素12どうしの間に設けられており、フィルタ層24を透過した斜め方向の光を遮光し、その光が隣接する他の画素12へ混入することを防止する。例えば、素子分離部41には、20~30deg以上の入射光をカットすることが可能な遮光性を備えた金属膜を使用することができる。
 フィルタ層24は、それぞれの画素12が受光する色に対応する波長域の光を透過するカラーフィルタ34が、画素12ごとに平面的に配置されて構成される。
 オンチップレンズ層25は、撮像素子11に照射される光を画素12ごとに集光するマイクロレンズ35が、画素12ごとに平面的に配置されて構成される。
 このように構成される撮像素子11では、半導体基板22およびフィルタ層24の間に設けられる平坦化膜23において、画素間遮光部42が、半導体基板22の受光面から所定の間隔を隔てて配置される構造となっている。そして、撮像素子11は、後述するように、この間隔などを適切に設定することにより、画素間遮光部42よりも下側における回折光や反射光などに起因する混色の発生を抑制する効果を向上させることができる。これにより、撮像素子11は、混色の発生していない高画質な画像を撮像することができる。
 図2には、図1の破線の丸で囲われている箇所、即ち、半導体基板22の受光面と画素間遮光部42の先端面との間の構造が拡大して示されている。
 図2に示すように、素子分離部41は、半導体基板22において、光電変換部31-1および31-2の間を分離するように設けられており、低屈折率絶縁膜51-1および51-2により高屈折率光吸収部52が挟み込まれた構造となっている。
 例えば、撮像素子11の製造工程において、半導体基板22の表面(図1の下側を向く面)側から、画素12ごとに半導体基板22を分割するようにトレンチを掘り込み、低屈折率絶縁膜51となる絶縁性を備えた材料(例えば、SiO2:二酸化ケイ素)を成膜する。これにより、光電変換部31-1側の側面に低屈折率絶縁膜51-1が形成され、光電変換部31-2側の側面に低屈折率絶縁膜51-2が形成される。そして、そのトレンチに高屈折率光吸収部52となる光吸収性を備えた材料(例えば、Poly-Si:ポリシリコン)を埋め込むことによって、素子分離部41が形成される。
 なお、高屈折率光吸収部52として用いられる材料、即ち、光を吸収する材料には、ポリシリコンの他、例えば、シリコンや、ゲルマニウム、CIGS、InGaAsの他、顔料(色素)を用いることができる。また、低屈折率絶縁膜51-1および51-2には、光電変換部31および高屈折率光吸収部52のどちらに対しても屈折率が大きく異なる材料を用いることが好ましく、二酸化ケイ素の他、例えば、窒化ケイ素(SiN)や、酸化ハフニウム(HfO)、酸化アルミニウム(AlO)などを用いることができる。
 また、半導体基板22の受光面(図2において上側を向く面)対し、低屈折率絶縁膜51と同様に絶縁性を備えた絶縁膜53が成膜されており、絶縁膜53に対してハフニウムなどの高誘電率絶縁膜(High-K膜)54が成膜されている。さらに、画素間遮光部42の先端面(図2において下側を向く面)に対し、画素間遮光部42を構成する金属が拡散すること防止するためのバリアメタル55が成膜されている。
 図2に示すように、撮像素子11では、半導体基板22の受光面と画素間遮光部42の先端面との間が間隔Aとなるように設定されており、それらの間には透明な樹脂層32が配されている。そして、半導体基板22の受光面と画素間遮光部42の先端面との間隔Aは、画素間遮光部42の先端面における幅Bよりも十分に狭くなるように設定されている。ここで、画素間遮光部42の先端部分は、画素12どうしの間の方向(図2の左右方向)に亘って間隔Aよりも十分に広い幅Bとなるように、図示するような断面視においてT字型を逆さにしたような形状に形成される。
 このように、半導体基板22の受光面と画素間遮光部42の先端面との間隔A、および、画素間遮光部42の先端面の幅Bを設定することで、撮像素子11は、画素間遮光部42よりも下側における回折光や反射光などに起因する混色の発生を抑制する効果を向上させることができる。
 例えば、白抜きの矢印で図示するように、画素12に対して斜めに入射した光は、画素間遮光部42の先端部分の端部において回折し、半導体基板22の受光面と画素間遮光部42の先端面との隙間に入り込むことがある。そして、その光は、半導体基板22の受光面と画素間遮光部42の先端面との間で反射を繰り返し、隣接する他の画素12まで到達することが想定される。
 そこで、撮像素子11では、間隔Aが幅Bよりも十分に狭くなるように設定することで、半導体基板22の受光面と画素間遮光部42の先端面との間における光の反射回数を増加させることができ、これにより光を十分に減衰させることができる。従って、撮像素子11では、半導体基板22の受光面と画素間遮光部42の先端面との間を通って隣接する他の画素12に光が漏れ出すことが抑制される結果、回折光や反射光などに起因する混色の発生を抑制することができる。
 また、撮像素子11では、半導体基板22の受光面と画素間遮光部42の先端面との隙間に入り込んだ光の一部は、光電変換部31-1に入射して低屈折率絶縁膜51-1によって内側に向かって反射されて光電変換される。
 さらに、半導体基板22の受光面と画素間遮光部42の先端面との隙間に入り込んだ光の一部は、素子分離部41に入射し、低屈折率絶縁膜51-1および51-2によって反射を繰り返して、高屈折率光吸収部52に吸収されることになる。即ち、画素12-1および12-2を分離するように素子分離部41を設けることによって、半導体基板22の受光面と画素間遮光部42の先端面との隙間に入り込んだ光が、画素12-2に漏れ出ることが抑制される。これにより、撮像素子11は、混色の発生を抑制することができる。
 ここで、図2に示すように、撮像素子11では、素子分離部41の幅Cが、画素間遮光部42の先端面の幅Bよりも狭くなるように設定されている。このように、素子分離部41の幅Cおよび画素間遮光部42の先端面の幅Bを設定することにより、素子分離部41に対して直接的に光が入り込むことが回避され、素子分離部41を通り抜けて隣接する他の画素12に混入することを防止することができる。
 即ち、逆に、素子分離部41の幅Cが、画素間遮光部42の先端面の幅Bよりも広い構造では、直接的に入り込む光が素子分離部41を通り抜けて隣接する他の画素12に混入する恐れがあり、混色の発生を抑制する効果が低下することが想定される。
 例えば、図3に示すように、素子分離部41の幅Cよりも画素間遮光部42’の先端部分の幅B’が狭い構造では、白抜きの矢印で図示するように、素子分離部41に直接的に入り込む光が生じてしまう。この場合、素子分離部41に入り込む光の絶対量が増加することになり、その入射光に対する界面は2つしかないため、素子分離部41を通り抜けた光が光電変換部31-2に混入する可能性が高くなる。また、素子分離部41の幅Cを広く設定した構成では、光電変換部31の有効面積が削減されてしまうため、素子分離部41の幅Cは、より狭く設定することが好ましい。
 従って、素子分離部41に直接的に入射する光が生じることを回避するために、撮像素子11は、図2に示したように、素子分離部41の幅Cが、画素間遮光部42の先端面の幅Bよりも狭く構成される。これにより、図3を参照して説明したように素子分離部41を通り抜けて光電変換部31-2に光が混入することを回避することができる結果、撮像素子11は、混色の発生を効果的に抑制することができ、より高画質な画像を撮像することが可能となる。
 また、上述したように、撮像素子11は、半導体基板22の受光面と画素間遮光部42の先端面との隙間に入り込んだ光が素子分離部41に入射するように構成されている。そして、素子分離部41に入射した光は、図4に示すように、素子分離部41の内部で反射を繰り返すことによって減衰して、隣接する他の画素12に漏れ出ることが抑制される。
 ここで、図5を参照して、隣接する画素12に光が漏れ出て、混色が発生することが想定される確率を示す混色想定値について説明する。
 図5において、縦軸は、素子分離部41に入射した光を1としたときに、その光が、隣接する他の画素12の光電変換部31に到達する到達光の割合を示しており、この到達光の割合が混色想定値となる。また、横軸は、素子分離部41の内部で光が反射する回数である反射回数を示している。
 例えば、図5に示す混色想定値は、入射光の波長を650nmとし、素子分離部41における光電変換は行われないものとして、シミュレーションを行った結果を示している。図示するように、反射回数が増加するのに伴って到達光の割合が減少しており、素子分離部41に入射した光が、隣接する他の画素12の光電変換部31に到達することにより混色が発生する確率が低減すると認められる。
 このように、撮像素子11は、混色想定値がほぼ0となるような反射回数となるように、素子分離部41に入射した光の光路長を確保することが好ましい。具体的には、撮像素子11は、素子分離部41が半導体基板22を貫通する長さとなるように構成することで、素子分離部41に入射した光を十分に減衰させ、その光により混色が発生する確率を低減することができる。
 一方、例えば、図6に示すように、素子分離部41が半導体基板22を貫通していない構造の場合には、素子分離部41に入射した光が十分に減衰しない状態で他の光電変換部31に入り込んでしまい、混色が発生することが想定される。
 また、素子分離部41が半導体基板22を貫通するような構成とした場合、半導体基板22の膜厚を、より厚くする方が、混色の発生を抑制する効果を向上させることができる。即ち、図7に示すように、膜厚を厚くした半導体基板22を貫通するように素子分離部41を形成することで、素子分離部41に入射した光の光路長をより長く確保することができ、より光を減衰させることができる。例えば、半導体基板22の膜厚を2.55μm以上に設定することで、素子分離部41に入射した光を減衰させるのに十分な光路長を確保することができる。
 これにより、素子分離部41に入射した光が再度、他の光電変換部31に入り込むことにより混色が発生する確率を、さらに低減させることができる。
 このように、撮像素子11は、素子分離部41が半導体基板22を貫通するような構成とし、半導体基板22の膜厚をより厚くすることによって、混色が発生する確率を低減させることができる結果、より高画質な画像を撮像することができる。
 ところで、図8に示すように、半導体基板22を貫通するように素子分離部41が形成されていても、一点鎖線の矢印で図示するように、素子分離部41を通過した光が、配線で反射して、隣接する他の画素12に入り込んで混色が発生することも想定される。
 例えば、素子分離部41に入射する光の光量に対して、その光が素子分離部41を貫通する光路長が短い場合、素子分離部41の内部で吸収することができなかった光は、素子分離部41を伝わって配線層21側の端面まで到達する可能性がある。この場合、素子分離部41から配線層21に漏れ出た光は、配線層21に設けられている配線で反射し、隣接する他の画素12に入り込み、混色が発生してしまう。
 このように発生する混色に対して、図9乃至図13を参照して後述するような対策を施すことができる。なお、以下の図9乃至図13において、上述した図1に示す撮像素子11と共通する構成については、同一の符号を付し、その詳細な説明は省略する。
 <撮像素子の第2の構成例>
 図9は、撮像素子の第2の実施の形態の構成例を示す図である。
 図9に示す撮像素子11Aは、素子分離部41の先端側となる配線層21中であって、他の配線よりも素子分離部41に対して近傍となる箇所に反射部材61が配置されて構成される。例えば、反射部材61は、半導体基板22を貫通する素子分離部41の先端面に接するように配置することができる。
 従って、撮像素子11Aでは、素子分離部41において吸収されなかった光は、図9において一点鎖線の矢印で示すように、反射部材61により反射されて素子分離部41に戻されることになる。これにより、撮像素子11Aは、図8を参照して上述したような混色の発生を回避することができる。
 さらに、反射部材61は、図9において二点鎖線の矢印で示すように、光電変換部31-1を貫通して配線層21まで到達した光を、光電変換部31-1側に反射することができる。これにより、そのような光が光電変換部31-2に混入することを防止することができる結果、撮像素子11Aは、混色の発生を抑制する効果を向上させることができる。
 なお、図10に示す撮像素子11A’のように、反射部材61’は、少なくとも素子分離部41と略同一の幅で形成されていればよく、半導体基板22を貫通する素子分離部41の先端面に接するように配置される。例えば、反射部材61’は、半導体基板22の表面(図10の下側を向く面)側からトレンチを掘り込み、そのトレンチの内部に設けられる素子分離部41の真上に、反射部材61’の少なくとも一部が素子分離部41と接するように形成することができる。また、図示するように、反射部材61’は、配線層21に形成される1層目の配線に接続するように形成してもよく、例えば、その1層目の配線および反射部材61’が、T字型を逆さにしたような形状に形成される。なお、この1層目の配線は、配線として用いられるのではなく、遮光膜として遮光に用いられる専用のものであってもよい。
 このような形状の反射部材61’が設けられる撮像素子11A’は、図8を参照して上述したような混色の発生を回避することができるとともに、素子分離部41と1層目の配線との間を通って隣接する他の画素12に光が漏れ出すことを防止することができる。
 <撮像素子の第3の構成例>
 図11は、撮像素子の第3の実施の形態の構成例を示す図である。
 図11に示す撮像素子11Bは、素子分離部41の先端側となる配線層21中であって、他の配線よりも素子分離部41に対して近傍となる箇所に凸形状の反射部材62が配置されて構成される。そして、反射部材62は、半導体基板22側の中央の一部分が、光電変換部31-1および31-2の間に形成されるトレンチ内部に埋め込まれるように、T字型を逆さにしたような形状に形成される。
 従って、撮像素子11Bは、図9の撮像素子11Aと同様に、素子分離部41において吸収されなかった光を素子分離部41に反射することができるとともに、光電変換部31-1を貫通した光を光電変換部31-1側に反射することができる。
 さらに、撮像素子11Bは、反射部材62の一部分がトレンチ内部に埋め込まれる構造となっており、その一部分は、画素12-1が備えるトランジスタのSTI(Shallow Trench Isolation)よりも深く、図11では上側に突出するように形成される。従って、撮像素子11Bでは、図11において破線の矢印で示すように、画素12-1が備えるトランジスタのSTIにおいて反射して光電変換部31-2に向かうような光を、反射部材62によって反射することができる。これにより、そのような光が光電変換部31-2に混入することを防止することができる結果、撮像素子11Bは、混色の発生を抑制する効果を向上させることができる。
 なお、図12に示す撮像素子11B’のように、素子分離部41を形成するために半導体基板22に形成されたトレンチ内部に埋め込まれる反射部材62’の一部分を、図11の反射部材62の一部分よりも短くなるように形成してもよい。即ち、上述したように図11の反射部材62では、トレンチ内部に埋め込まれる凸部分が、STIよりも深くなるように上側に突出するように形成されていたのに対し、反射部材62’では、トレンチ内部に埋め込まれる凸部分が、STIよりも浅く形成されている。
 このよう形状の反射部材62’が設けられる撮像素子11B’は、素子分離部41において吸収されなかった光を素子分離部41に反射して、配線層21側へ漏れ出ることを防止することができ、混色の発生を抑制することができる。
 <撮像素子の第4の構成例>
 図13は、撮像素子の第4の実施の形態の構成例を示す図である。
 図13に示す撮像素子11Cは、素子分離部41の先端側であって、その側方となる配線層21中であって、他の配線よりも素子分離部41に対して近傍となる箇所に反射部材63が配置されて構成される。例えば、反射部材63は、半導体基板22を貫通する素子分離部41の先端面の側方において、1層目の配線と半導体基板22との間を覆うように配置することができる。
 従って、撮像素子11Cでは、図13において二点鎖線の矢印で示すように、光電変換部31-1を貫通して配線層21まで到達した光は、反射部材63によって反射されて、1層目の配線と半導体基板22との間から光電変換部31-2に混入することが防止される。もちろん、素子分離部41において吸収されなかった光も、反射部材63により光電変換部31-2に混入することが防止される。そして、反射部材63によって反射された光は、例えば、素子分離部41に入射することで吸収される。これにより、撮像素子11Cは、混色の発生を抑制する効果を向上させることができる。
 なお、画素12-1が受光する光の波長域が、画素12-2が受光する光の波長域よりも長波長である場合、画素12-1が受光する光は、光電変換部31-1を貫通しやすくなると想定される。従って、この場合、撮像素子11Cは、図示するように、素子分離部41の画素12-2側の側方に反射部材63を配置することが好ましい。
 <撮像素子の変形例>
 図14は、半導体基板22と画素間遮光部42との間の構造の変形例を示す図である。
 上述したように、撮像素子11は、混色の発生を十分に抑制することができる構造となっているが、このような構造であっても抑制することができない程の強い光が入射する場合には、やはり混色が発生することが懸念される。例えば、白色(透明)やシアンなどのカラーフィルタ34が配置された画素12では、カラーフィルタ34における光の吸収が少なく、より強い光が画素12内に入射することが想定される。
 そこで、撮像素子11では、混色の発生を抑制する効果を向上させることを目的として、素子分離部41の受光面側に埋め込み遮光膜71を形成することができる。
 即ち、図14に示すように、素子分離部41の幅Cよりも広く、かつ、画素間遮光部42の先端部分の幅Bよりも狭い幅となる埋め込み遮光膜71が、素子分離部41の受光面側に埋め込まれた構造とする。例えば、半導体基板22の裏面側を埋め込み遮光膜71の形状に応じて掘り込み、絶縁膜53および高誘電率絶縁膜54を成膜した後に、その掘り込んだ箇所に遮光性を備える材料を埋め込むことによって埋め込み遮光膜71が形成される。
 一般的に、暗時特性の視点から、素子分離部41を設けるために半導体基板22に形成されたトレンチ中のみに遮光膜を形成することが望ましい。しかしながら、撮像素子11を製造する製造工程においてシリコンウェハに反りが発生する結果、半導体基板22が歪んでしまい、シリコンウェハの全域で均一に加工を行うことは困難である。特に、素子分離部41を設けるために半導体基板22に形成するトレンチは、幅細に形成することが好ましく、そのトレンチに対して埋め込み遮光膜71を形成するための掘り込みを行うことは、加工難易度が高くなることが想定される。
 そこで、撮像素子11では、図14に示すように、素子分離部41を設けるために半導体基板22に形成されるトレンチの幅よりも、少し大きな幅で埋め込み遮光膜71を形成することが好ましい。これにより、撮像素子11の製造上のマージンを拡大できた状態で、混色の発生を抑制する効果の向上を図ることができる。
 <撮像素子の第5および第6の構成例>
 図15および図16は、撮像素子の第5および第6の実施の形態の構成例を示す図である。
 例えば、画素12-1が、撮像素子11の撮像面における位相差を検出するための像面位相差画素などのように特殊な画素である場合、局所的に、混色が悪化することが懸念される。
 即ち、図15および図16に示すように、画素12-1が像面位相差画素である場合、画素12-1の平坦化膜23には、光電変換部31-1の略半分を遮光して位相差を検出するための位相差遮光膜81が形成されている。ここで、図15および図16における説明では、位相差遮光膜81が形成されている画素12-1を、像面位相差画素12-1とも称し、位相差遮光膜81が形成されていない画素12-2を、通常画素12-2とも称する。
 そして、像面位相差画素12-1に入射した光が位相差遮光膜81の側面で反射すると、その反射光が、白抜きの矢印で図示するように、通常画素12-2に向かことがある。このような反射光は、像面位相差画素12-1および通常画素12-2の間に設けられた素子分離部41だけで確実に遮光することは困難であり、通常画素12-2の光電変換部31-2に入り込んだ反射光によって混色が悪化することになる。
 そこで、図15に示す撮像素子11Dは、像面位相差画素12-1の光電変換部31-1の外周を囲うように、例えば、半導体基板22の受光面を掘り込んで、遮光性を備えた金属材料を埋め込むことにより形成された埋め込み遮光膜82を備えて構成される。
 ここで、半導体基板22の受光面を掘り込んで遮光金属を埋め込む構成では、ダメージ発生や、金属のコンタミネーションなどにより、暗電子の湧き出し源となってしまい、通常画素12-2の暗時特性を悪化させる要因となる恐れがある。
 これに対し、撮像素子11Dは、素子分離部41よりも像面位相差画素12-1側にのみ埋め込み遮光膜82を設ける構造となっている。これにより、埋め込み遮光膜82を設けるために受光面を掘り込んでも、その掘り込んだ箇所で発生した暗電子が通常画素12-2に漏れることが防止される。従って、撮像素子11Dは、暗電子によって暗時特性が悪化することを回避しつつ、位相差遮光膜81の側面における光の反射による混色の発生を抑制することができる。
 なお、例えば、撮像素子11Dにおいて、位相差遮光膜81および埋め込み遮光膜82が一体となって形成される構造を採用してもよい。
 また、図16に示す撮像素子11Eは、素子分離部41を設けるために半導体基板22に形成されるトレンチの所定の深さまで、半導体基板22の受光面側から、遮光性を備えた金属材料を埋め込むことにより形成された埋め込み遮光膜83を備えて構成される。
 このように構成される撮像素子11Eは、図15の撮像素子11Dと同様に、埋め込み遮光膜83によって、位相差遮光膜81の側面における光の反射による混色の発生を抑制することができる。さらに、撮像素子11Eは、図15の撮像素子11Dとは異なり、半導体基板22の受光面を掘り込む必要がないため、暗時特性の悪化させるリスクを回避することができる。
 <撮像装置の構成例>
 なお、上述したような撮像素子11は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像システム、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図17は、電子機器に搭載される撮像装置の構成例を示すブロック図である。
 図17に示すように、撮像装置101は、光学系102、撮像素子103、信号処理回路104、モニタ105、およびメモリ106を備えて構成され、静止画像および動画像を撮像可能である。
 光学系102は、1枚または複数枚のレンズを有して構成され、被写体からの像光(入射光)を撮像素子103に導き、撮像素子103の受光面(センサ部)に結像させる。
 撮像素子103としては、上述した撮像素子11が適用される。撮像素子103には、光学系102を介して受光面に結像される像に応じて、一定期間、電子が蓄積される。そして、撮像素子103に蓄積された電子に応じた信号が信号処理回路104に供給される。
 信号処理回路104は、撮像素子103から出力された画素信号に対して各種の信号処理を施す。信号処理回路104が信号処理を施すことにより得られた画像(画像データ)は、モニタ105に供給されて表示されたり、メモリ106に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置101では、上述した撮像素子11を適用することで、例えば、より高画質な画像を撮像することができる。
 <イメージセンサの使用例>
 図18は、上述のイメージセンサを使用する使用例を示す図である。
 上述したイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図19は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図19に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図19の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図20は、撮像部12031の設置位置の例を示す図である。
 図20では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図20には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031などに適用され得る。具体的には、例えば、図1の撮像素子11を撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、例えば、車外の情報を、より高画質に取得することができ、自動運転の安全性の向上等を実現することができる。
 <構成の組み合わせ例>
 なお、本技術は以下のような構成も取ることができる。
(1)
 画素ごとに半導体基板に設けられ、所定の波長域の光を透過するフィルタ層を介して入射する光を光電変換する光電変換部と、
 前記半導体基板において、隣接する前記画素どうしの前記光電変換部の間を分離する素子分離部と、
 前記半導体基板および前記フィルタ層の間に設けられる層における前記画素どうしの間に、前記半導体基板の受光面から所定の間隔を隔てて配置される画素間遮光部と
 を備え、
 前記半導体基板の受光面と前記画素間遮光部の先端面との間隔が、前記画素間遮光部の先端面の幅よりも狭く設定される
 撮像素子。
(2)
 前記素子分離部の幅が、前記画素間遮光部の先端面の幅よりも狭く設定される
 上記(1)に記載の撮像素子。
(3)
 前記素子分離部は、前記半導体基板を貫通して設けられる
 上記(1)または(2)に記載の撮像素子。
(4)
 前記半導体基板の受光面に対して反対側の面に積層される配線層における前記素子分離部の先端側となる箇所であって、前記配線層に形成される配線よりも前記素子分離部に対して近傍となる箇所に、光を反射する反射部材が配置される
 上記(1)から(3)までのいずれかに記載の撮像素子。
(5)
 前記反射部材は、前記半導体基板に形成されるトレンチ内に設けられる前記素子分離部と接するように配置される
 上記(4)に記載の撮像素子。
(6)
 前記反射部材は、その一部分が、前記素子分離部を形成するために前記半導体基板に形成されたトレンチの内部に埋め込まれた形状とされる
 上記(4)に記載の撮像素子。
(7)
 前記反射部材の前記トレンチの内部に埋め込まれた一部分は、前記画素が備えるトランジスタのSTI(Shallow Trench Isolation)よりも深く形成される
 上記(6)に記載の撮像素子。
(8)
 前記半導体基板の受光面に対して反対側の面に積層される配線層における前記素子分離部の先端に対して側方となる箇所であって、前記配線層に形成される配線よりも前記素子分離部に対して近傍となる箇所に、光を反射する反射部材が配置される
 上記(1)から(3)までのいずれかに記載の撮像素子。
(9)
 前記画素は、前記撮像素子の像面における位相差を検出するための位相差遮光膜を有した像面位相差画素であり、その像面位相差画素の前記光電変換部を囲うように受光面側から埋め込まれた埋め込み遮光膜が設けられる
 上記(1)から(8)までのいずれかに記載の撮像素子。
(10)
 画素ごとに半導体基板に設けられ、所定の波長域の光を透過するフィルタ層を介して入射する光を光電変換する光電変換部と、
 前記半導体基板において、隣接する前記画素どうしの前記光電変換部の間を分離する素子分離部と、
 前記半導体基板および前記フィルタ層の間に設けられる層における前記画素どうしの間に、前記半導体基板の受光面から所定の間隔を隔てて配置される画素間遮光部と
 を有し、
 前記半導体基板の受光面と前記画素間遮光部の先端面との間隔が、前記画素間遮光部の先端面の幅よりも狭く設定される
 撮像素子を備える電子機器。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 11 撮像素子, 12 画素, 21 配線層, 22 半導体基板, 23 平坦化膜, 24 フィルタ層, 25 オンチップレンズ層, 31 光電変換部, 32 樹脂層, 33 インナーレンズ, 34 カラーフィルタ, 35 マイクロレンズ, 41 素子分離部, 42 画素間遮光部, 51 低屈折率絶縁膜, 52 高屈折率光吸収部, 53 絶縁膜, 54 高誘電率絶縁膜, 55 バリアメタル, 61乃至63 反射部材, 71 埋め込み遮光膜, 81 位相差遮光膜, 82および83 埋め込み遮光膜

Claims (10)

  1.  画素ごとに半導体基板に設けられ、所定の波長域の光を透過するフィルタ層を介して入射する光を光電変換する光電変換部と、
     前記半導体基板において、隣接する前記画素どうしの前記光電変換部の間を分離する素子分離部と、
     前記半導体基板および前記フィルタ層の間に設けられる層における前記画素どうしの間に、前記半導体基板の受光面から所定の間隔を隔てて配置される画素間遮光部と
     を備え、
     前記半導体基板の受光面と前記画素間遮光部の先端面との間隔が、前記画素間遮光部の先端面の幅よりも狭く設定される
     撮像素子。
  2.  前記素子分離部の幅が、前記画素間遮光部の先端面の幅よりも狭く設定される
     請求項1に記載の撮像素子。
  3.  前記素子分離部は、前記半導体基板を貫通して設けられる
     請求項1に記載の撮像素子。
  4.  前記半導体基板の受光面に対して反対側の面に積層される配線層における前記素子分離部の先端側となる箇所であって、前記配線層に形成される配線よりも前記素子分離部に対して近傍となる箇所に、光を反射する反射部材が配置される
     請求項3に記載の撮像素子。
  5.  前記反射部材は、前記半導体基板に形成されるトレンチ内に設けられる前記素子分離部と接するように配置される
     請求項4に記載の撮像素子。
  6.  前記反射部材は、その一部分が、前記素子分離部を形成するために前記半導体基板に形成されたトレンチの内部に埋め込まれた形状とされる
     請求項4に記載の撮像素子。
  7.  前記反射部材の前記トレンチの内部に埋め込まれた一部分は、前記画素が備えるトランジスタのSTI(Shallow Trench Isolation)よりも深く形成される
     請求項6に記載の撮像素子。
  8.  前記半導体基板の受光面に対して反対側の面に積層される配線層における前記素子分離部の先端に対して側方となる箇所であって、前記配線層に形成される配線よりも前記素子分離部に対して近傍となる箇所に、光を反射する反射部材が配置される
     請求項3に記載の撮像素子。
  9.  前記画素は、前記撮像素子の像面における位相差を検出するための位相差遮光膜を有した像面位相差画素であり、その像面位相差画素の前記光電変換部を囲うように受光面側から埋め込まれた埋め込み遮光膜が設けられる
     請求項1に記載の撮像素子。
  10.  画素ごとに半導体基板に設けられ、所定の波長域の光を透過するフィルタ層を介して入射する光を光電変換する光電変換部と、
     前記半導体基板において、隣接する前記画素どうしの前記光電変換部の間を分離する素子分離部と、
     前記半導体基板および前記フィルタ層の間に設けられる層における前記画素どうしの間に、前記半導体基板の受光面から所定の間隔を隔てて配置される画素間遮光部と
     を有し、
     前記半導体基板の受光面と前記画素間遮光部の先端面との間隔が、前記画素間遮光部の先端面の幅よりも狭く設定される
     撮像素子を備える電子機器。
PCT/JP2018/003505 2017-02-17 2018-02-02 撮像素子および電子機器 Ceased WO2018150902A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/484,985 US11411030B2 (en) 2017-02-17 2018-02-02 Imaging element and electronic apparatus
JP2018568106A JP7079739B2 (ja) 2017-02-17 2018-02-02 撮像素子および電子機器
US17/682,157 US11869911B2 (en) 2017-02-17 2022-02-28 Imaging element and electronic apparatus
JP2022083621A JP7395650B2 (ja) 2017-02-17 2022-05-23 撮像素子および電子機器
US18/529,579 US12272706B2 (en) 2017-02-17 2023-12-05 Imaging element and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017027533 2017-02-17
JP2017-027533 2017-02-17

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/484,985 A-371-Of-International US11411030B2 (en) 2017-02-17 2018-02-02 Imaging element and electronic apparatus
US17/682,157 Continuation US11869911B2 (en) 2017-02-17 2022-02-28 Imaging element and electronic apparatus

Publications (1)

Publication Number Publication Date
WO2018150902A1 true WO2018150902A1 (ja) 2018-08-23

Family

ID=63170654

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/003505 Ceased WO2018150902A1 (ja) 2017-02-17 2018-02-02 撮像素子および電子機器

Country Status (3)

Country Link
US (3) US11411030B2 (ja)
JP (2) JP7079739B2 (ja)
WO (1) WO2018150902A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019140252A (ja) * 2018-02-09 2019-08-22 キヤノン株式会社 光電変換装置および機器
JP2020054640A (ja) * 2018-10-02 2020-04-09 パナソニックi−PROセンシングソリューションズ株式会社 内視鏡
JPWO2020230675A1 (ja) * 2019-05-10 2020-11-19
JPWO2021176839A1 (ja) * 2020-03-06 2021-09-10
JPWO2021199681A1 (ja) * 2020-03-31 2021-10-07
EP3879572A4 (en) * 2018-11-05 2022-01-26 Sony Semiconductor Solutions Corporation IMAGING ELEMENT, METHOD OF MANUFACTURE AND ELECTRONIC DEVICE
EP3905330A4 (en) * 2018-12-27 2022-03-30 Sony Semiconductor Solutions Corporation IMAGING ELEMENT AND METHOD OF MAKING AN IMAGING ELEMENT
JP2022140234A (ja) * 2021-03-11 2022-09-26 采▲ぎょく▼科技股▲ふん▼有限公司 半導体装置
WO2022270110A1 (ja) 2021-06-25 2022-12-29 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
WO2023145606A1 (ja) * 2022-01-26 2023-08-03 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
WO2024018904A1 (ja) * 2022-07-19 2024-01-25 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018150902A1 (ja) 2017-02-17 2018-08-23 ソニーセミコンダクタソリューションズ株式会社 撮像素子および電子機器
JP7465120B2 (ja) * 2020-03-10 2024-04-10 キヤノン株式会社 半導体装置、その製造方法及び機器
TW202207484A (zh) * 2020-03-27 2022-02-16 日商索尼半導體解決方案公司 攝像裝置及電子機器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014157579A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 撮像素子および撮像装置
JP2015060855A (ja) * 2013-09-17 2015-03-30 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP2015164210A (ja) * 2015-04-16 2015-09-10 ソニー株式会社 固体撮像装置、及び電子機器
JP2015228510A (ja) * 2015-07-31 2015-12-17 ソニー株式会社 固体撮像素子および製造方法、並びに電子機器
JP2016100347A (ja) * 2014-11-18 2016-05-30 ソニー株式会社 固体撮像装置及びその製造方法、並びに電子機器

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100646093B1 (ko) 2004-12-17 2006-11-15 엘지이노텍 주식회사 발광소자 패키지
JP4785433B2 (ja) * 2005-06-10 2011-10-05 キヤノン株式会社 固体撮像装置
US7638804B2 (en) * 2006-03-20 2009-12-29 Sony Corporation Solid-state imaging device and imaging apparatus
JP4816768B2 (ja) 2009-06-22 2011-11-16 ソニー株式会社 固体撮像装置とその製造方法、及び電子機器
JP5172819B2 (ja) 2009-12-28 2013-03-27 株式会社東芝 固体撮像装置
JP5810551B2 (ja) * 2011-02-25 2015-11-11 ソニー株式会社 固体撮像装置、および、その製造方法、電子機器
JP6299058B2 (ja) 2011-03-02 2018-03-28 ソニー株式会社 固体撮像装置、固体撮像装置の製造方法及び電子機器
JP5935237B2 (ja) 2011-03-24 2016-06-15 ソニー株式会社 固体撮像装置および電子機器
FR2979154B1 (fr) 2011-08-18 2014-04-11 Commissariat Energie Atomique Procede de realisation d'un dispositif de phase a base de cristal liquide twiste a structure optimisee fonctionnant en lumiere non polarisee
JP2014112580A (ja) * 2012-12-05 2014-06-19 Sony Corp 固体撮像素子および駆動方法
JP2014154662A (ja) * 2013-02-07 2014-08-25 Sony Corp 固体撮像素子、電子機器、および製造方法
KR102198446B1 (ko) 2013-03-29 2021-01-05 소니 주식회사 촬상 소자 및 촬상 장치
JP6130221B2 (ja) * 2013-05-24 2017-05-17 ソニー株式会社 固体撮像装置、および電子機器
JP2015012127A (ja) * 2013-06-28 2015-01-19 ソニー株式会社 固体撮像素子および電子機器
JP6465545B2 (ja) * 2013-09-27 2019-02-06 ソニー株式会社 撮像素子およびその製造方法ならびに電子機器
JP2016096234A (ja) 2014-11-14 2016-05-26 ソニー株式会社 固体撮像素子および電子機器
WO2018150902A1 (ja) 2017-02-17 2018-08-23 ソニーセミコンダクタソリューションズ株式会社 撮像素子および電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014157579A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 撮像素子および撮像装置
JP2015060855A (ja) * 2013-09-17 2015-03-30 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP2016100347A (ja) * 2014-11-18 2016-05-30 ソニー株式会社 固体撮像装置及びその製造方法、並びに電子機器
JP2015164210A (ja) * 2015-04-16 2015-09-10 ソニー株式会社 固体撮像装置、及び電子機器
JP2015228510A (ja) * 2015-07-31 2015-12-17 ソニー株式会社 固体撮像素子および製造方法、並びに電子機器

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019140252A (ja) * 2018-02-09 2019-08-22 キヤノン株式会社 光電変換装置および機器
JP7376057B2 (ja) 2018-10-02 2023-11-08 i-PRO株式会社 内視鏡
JP2020054640A (ja) * 2018-10-02 2020-04-09 パナソニックi−PROセンシングソリューションズ株式会社 内視鏡
JP7556008B2 (ja) 2018-11-05 2024-09-25 ソニーセミコンダクタソリューションズ株式会社 光検出装置
EP3879572A4 (en) * 2018-11-05 2022-01-26 Sony Semiconductor Solutions Corporation IMAGING ELEMENT, METHOD OF MANUFACTURE AND ELECTRONIC DEVICE
US12356747B2 (en) 2018-11-05 2025-07-08 Sony Semiconductor Solutions Corporation Image capturing element, manufacturing method, and electronic device
JP2023010758A (ja) * 2018-11-05 2023-01-20 ソニーセミコンダクタソリューションズ株式会社 光検出装置
EP3905330A4 (en) * 2018-12-27 2022-03-30 Sony Semiconductor Solutions Corporation IMAGING ELEMENT AND METHOD OF MAKING AN IMAGING ELEMENT
WO2020230675A1 (ja) * 2019-05-10 2020-11-19 ソニーセミコンダクタソリューションズ株式会社 撮像素子および電子機器
US11930287B2 (en) 2019-05-10 2024-03-12 Sony Semiconductor Solutions Corporation Imaging element and electronic device
KR102794555B1 (ko) 2019-05-10 2025-04-14 소니 세미컨덕터 솔루션즈 가부시키가이샤 촬상 소자 및 전자 기기
KR20220006522A (ko) * 2019-05-10 2022-01-17 소니 세미컨덕터 솔루션즈 가부시키가이샤 촬상 소자 및 전자 기기
JP7600103B2 (ja) 2019-05-10 2024-12-16 ソニーセミコンダクタソリューションズ株式会社 撮像素子および電子機器
JPWO2020230675A1 (ja) * 2019-05-10 2020-11-19
US12356736B2 (en) 2020-03-06 2025-07-08 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic device
JPWO2021176839A1 (ja) * 2020-03-06 2021-09-10
WO2021199681A1 (ja) * 2020-03-31 2021-10-07 ソニーセミコンダクタソリューションズ株式会社 受光素子および電子機器
JPWO2021199681A1 (ja) * 2020-03-31 2021-10-07
US12166053B2 (en) 2021-03-11 2024-12-10 Visera Technologies Company Limited Semiconductor device for receiving and collecting inclined light
JP2022140234A (ja) * 2021-03-11 2022-09-26 采▲ぎょく▼科技股▲ふん▼有限公司 半導体装置
KR20240023514A (ko) 2021-06-25 2024-02-22 소니 세미컨덕터 솔루션즈 가부시키가이샤 촬상 장치 및 전자 기기
WO2022270110A1 (ja) 2021-06-25 2022-12-29 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
WO2023145606A1 (ja) * 2022-01-26 2023-08-03 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
WO2024018904A1 (ja) * 2022-07-19 2024-01-25 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Also Published As

Publication number Publication date
US20220190021A1 (en) 2022-06-16
US11869911B2 (en) 2024-01-09
JP7079739B2 (ja) 2022-06-02
US20240105742A1 (en) 2024-03-28
US20200027913A1 (en) 2020-01-23
JP7395650B2 (ja) 2023-12-11
JP2022113711A (ja) 2022-08-04
JPWO2018150902A1 (ja) 2020-01-16
US11411030B2 (en) 2022-08-09
US12272706B2 (en) 2025-04-08

Similar Documents

Publication Publication Date Title
JP7395650B2 (ja) 撮像素子および電子機器
JP7566940B2 (ja) 光検出装置および電子機器
US11240452B2 (en) Solid-state imaging device and electronic device including light-shielding film for suppression of light leakage to memory
US11843018B2 (en) Solid-state imaging device and electronic apparatus
US20210288192A1 (en) Sensor element and electronic device
US11855112B2 (en) Sensor chip and electronic apparatus
JP2024052924A (ja) 撮像装置
CN110199394B (zh) 图像传感器及图像传感器的制造方法
JP7629867B2 (ja) 固体撮像装置及び電子機器
WO2018030138A1 (ja) 固体撮像素子および製造方法、並びに電子機器
US20240282793A1 (en) Solid-state imaging device and electronic apparatus
US20240290802A1 (en) Imaging element and electronic device
WO2023105783A1 (ja) 固体撮像装置およびその製造方法
JPWO2019087527A1 (ja) 固体撮像装置及び電子機器
JP2024164446A (ja) 光検出装置および電子機器
WO2025121000A1 (ja) 光検出装置
KR20240042421A (ko) 광 검출 장치 및 그 제조 방법
WO2021241243A1 (ja) 固体撮像装置及び光検出方法
JP2019125757A (ja) 撮像素子、製造方法、および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18755108

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018568106

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18755108

Country of ref document: EP

Kind code of ref document: A1