[go: up one dir, main page]

WO2023119840A1 - 撮像素子、撮像素子の製造方法、電子機器 - Google Patents

撮像素子、撮像素子の製造方法、電子機器 Download PDF

Info

Publication number
WO2023119840A1
WO2023119840A1 PCT/JP2022/039480 JP2022039480W WO2023119840A1 WO 2023119840 A1 WO2023119840 A1 WO 2023119840A1 JP 2022039480 W JP2022039480 W JP 2022039480W WO 2023119840 A1 WO2023119840 A1 WO 2023119840A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
semiconductor substrate
shielding portion
photoelectric conversion
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2022/039480
Other languages
English (en)
French (fr)
Inventor
将崇 石田
晴美 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to US18/718,507 priority Critical patent/US20250056910A1/en
Publication of WO2023119840A1 publication Critical patent/WO2023119840A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/803Pixels having integrated switching, control, storage or amplification elements
    • H10F39/8037Pixels having integrated switching, control, storage or amplification elements the integrated elements comprising a transistor
    • H10F39/80373Pixels having integrated switching, control, storage or amplification elements the integrated elements comprising a transistor characterised by the gate of the transistor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/532Control of the integration time by controlling global shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/011Manufacture or treatment of image sensors covered by group H10F39/12
    • H10F39/014Manufacture or treatment of image sensors covered by group H10F39/12 of CMOS image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors
    • H10F39/199Back-illuminated image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/803Pixels having integrated switching, control, storage or amplification elements
    • H10F39/8037Pixels having integrated switching, control, storage or amplification elements the integrated elements comprising a transistor
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/80Constructional details of image sensors
    • H10F39/805Coatings
    • H10F39/8057Optical shielding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10FINORGANIC SEMICONDUCTOR DEVICES SENSITIVE TO INFRARED RADIATION, LIGHT, ELECTROMAGNETIC RADIATION OF SHORTER WAVELENGTH OR CORPUSCULAR RADIATION
    • H10F39/00Integrated devices, or assemblies of multiple devices, comprising at least one element covered by group H10F30/00, e.g. radiation detectors comprising photodiode arrays
    • H10F39/10Integrated devices
    • H10F39/12Image sensors
    • H10F39/18Complementary metal-oxide-semiconductor [CMOS] image sensors; Photodiode array image sensors

Definitions

  • the present disclosure relates to an imaging device that performs imaging by photoelectric conversion, a method for manufacturing the imaging device, and an electronic device.
  • a global shutter imaging device that captures all pixels at the same timing is known.
  • each pixel is provided with a charge holding portion that stores charges generated by the photoelectric conversion portion.
  • unnecessary charges are generated and optical noise is generated.
  • Patent Documents 1 and 2 there has been proposed a technique of suppressing the incidence of light on the charge holding portion by forming a light shielding portion around the charge holding portion.
  • An object of the present disclosure is to provide an imaging device in which the generation of optical noise is suppressed.
  • An imaging device includes a semiconductor substrate, a photoelectric conversion unit arranged in the semiconductor substrate and configured to generate electric charges according to the amount of light received by photoelectric conversion, and a charge holding portion for holding charges transferred from a portion; a gate of a transfer transistor arranged on a bottom surface of the semiconductor substrate in a region overlapping with the charge holding portion; and a side formed around the gate.
  • an in-substrate light-shielding portion which is a light-shielding portion arranged in a boundary region of the sensor pixels in the semiconductor substrate and extending from the light-receiving surface of the semiconductor substrate toward the bottom surface, wherein the in-substrate light-shielding portion is and a penetrating portion that penetrates the semiconductor substrate, and is in contact with the sidewall at the penetrating portion.
  • the width of the sidewall may be wider than the width of the end portion of the through portion on the bottom surface side.
  • the imaging device further includes a light receiving surface light shielding portion which is a light shielding portion covering the light receiving surface of the semiconductor substrate, the light receiving surface light shielding portion having an opening formed in a region overlapping with the photoelectric conversion portion, An end portion of the in-substrate light shielding portion on the light receiving surface side may be separated from the opening portion. A distance from the opening to an end portion of the in-substrate light shielding portion on the light receiving surface side may be 50 nm or more.
  • the imaging element may be a global shutter type back-illuminated image sensor.
  • a method for manufacturing an imaging device includes a photoelectric conversion portion forming step of forming a photoelectric conversion portion that generates a charge corresponding to an amount of light received by photoelectric conversion in a semiconductor substrate; a charge holding portion forming step of forming a charge holding portion holding charges transferred from a photoelectric conversion portion; and forming a gate of a transfer transistor in a region overlapping with the charge holding portion on the bottom surface of the semiconductor substrate.
  • the intra-substrate light-shielding portion forming step may include a trench forming step of forming a trench by etching using the sidewall as an etching stopper.
  • the method for manufacturing the imaging element includes a light receiving surface light shielding portion forming step of forming a light receiving surface light shielding portion which is a light shielding portion covering the light receiving surface, and forming an opening in a region of the light receiving surface light shielding portion overlapping with the photoelectric conversion portion. and an opening forming step, wherein the opening forming step forms the opening such that an end portion of the light shielding portion in the substrate on the light receiving surface side is separated from the opening. good too.
  • An electronic device is an electronic device including an imaging device, wherein the imaging device is arranged on a semiconductor substrate and in the semiconductor substrate, and generates an electric charge according to the amount of light received by photoelectric conversion.
  • a photoelectric conversion unit a charge holding unit arranged in the semiconductor substrate and holding charges transferred from the photoelectric conversion unit; a gate of the transfer transistor, sidewalls formed around the gate, and a light shielding portion arranged in a boundary region of sensor pixels in the semiconductor substrate and extending from the light receiving surface of the semiconductor substrate toward the back surface.
  • an intra-substrate light-shielding portion the in-substrate light-shielding portion having a penetrating portion penetrating through the semiconductor substrate, and being in contact with the sidewall at the penetrating portion.
  • FIG. 1 is a block diagram showing a schematic configuration of an imaging device according to an embodiment
  • FIG. 2 is an equivalent circuit diagram of a sensor pixel
  • FIG. 3 is a plan layout diagram of a partial pixel region in the pixel array section
  • FIG. 4 is a vertical cross-sectional view showing the cross-sectional structure of the imaging element of the present embodiment, showing the AA cross section of FIG. 3
  • FIG. 3 is a plan layout diagram showing the arrangement of the first light shielding portion
  • FIG. 4 is a plan layout diagram showing the arrangement of second and third light shielding portions
  • FIG. 2 is a vertical cross-sectional view showing details of the cross-sectional structure of the imaging element of the present embodiment; 3 is an enlarged vertical cross-sectional view showing the cross-sectional structure of an imaging device of Comparative Example 1.
  • FIG. 10 is an enlarged vertical cross-sectional view showing the cross-sectional structure of an imaging device of Comparative Example 2; FIG. It is a plane layout figure showing that an opening can be enlarged.
  • FIG. 11 is a plan layout diagram showing the arrangement of second and third light shielding portions in the imaging device of Modification 1; FIG.
  • FIG. 11 is a longitudinal sectional view showing a sectional structure of an imaging device of Modified Example 2; It is a longitudinal cross-sectional view showing an example of the manufacturing method of the imaging device of the present embodiment, showing processing on the bottom side of the semiconductor substrate.
  • FIG. 13B is a longitudinal sectional view following FIG. 13A;
  • FIG. 13B is a longitudinal cross-sectional view following FIG. 13B;
  • FIG. 13D is a vertical cross-sectional view following FIG. 13C;
  • FIG. 13C is a vertical cross-sectional view following FIG. 13D;
  • It is a longitudinal section showing an example of the manufacturing method of the image pick-up element of this embodiment, and shows processing of the light-receiving surface side of a semiconductor substrate.
  • FIG. 14B is a vertical sectional view following FIG.
  • FIG. 14A is a block diagram showing a configuration example of a camera as an electronic device;
  • FIG. 14C is a longitudinal cross-sectional view following FIG. 14B;
  • FIG. 14D is a longitudinal sectional view continued from FIG. 14C;
  • FIG. 14C is a longitudinal cross-sectional view following FIG. 14D;
  • FIG. 14E is a vertical sectional view continued from FIG. 14E;
  • FIG. 14F is a vertical sectional view continued from FIG. 14F;
  • FIG. 14G is a vertical sectional view continued from FIG. 14G;
  • FIG. 14H is a longitudinal sectional view continued from FIG. 14H;
  • FIG. 14I is a vertical sectional view continued from FIG. 14I;
  • 1 is a block diagram showing a configuration example of a camera as an electronic device;
  • FIG. 14D is a longitudinal sectional view continued from FIG. 14C;
  • FIG. 14C is a longitudinal cross-sectional view following FIG. 14D;
  • FIG. 14E
  • FIG. 1 is a block diagram showing a schematic configuration example of a vehicle control system as an example of a mobile body control system
  • FIG. FIG. 4 is a diagram showing an example of an installation position of an imaging unit
  • 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system
  • FIG. 3 is a block diagram showing an example of functional configurations of a camera head and a CCU;
  • this embodiment an example of an embodiment of the present disclosure (hereinafter referred to as "this embodiment") will be described with reference to the drawings. The description will be given in the following order. 1. 2. Structure of image sensor of this embodiment. Modification 3. 4. Manufacturing method of the imaging device of the present embodiment. Example of application to electronic equipment5. Example of application to moving body6. Application example to endoscopic surgery system7. summary
  • the imaging device 10 of the present embodiment is a global shutter type back-illuminated image sensor using a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the image pickup device 10 of the present embodiment receives light from a subject for each pixel, photoelectrically converts the light, and generates a pixel signal, which is an electrical signal.
  • the global shutter method is a method that simultaneously starts and ends exposure of all pixels.
  • all pixels refer to all pixels that form a valid image, excluding dummy pixels that do not contribute to image formation. Moreover, if the distortion of the image and the difference in exposure time are small enough to cause no problem, they do not necessarily have to be performed at the same time.
  • the global shutter method also includes a case where the operation of simultaneously exposing a plurality of rows (several tens of rows, etc.) is repeated while shifting the plurality of rows in the row direction.
  • the global shutter method also includes simultaneous exposure of only a part of the pixel regions.
  • a back-illuminated image sensor receives light from a subject and converts it into an electrical signal between the light-receiving surface where the light from the subject enters and the wiring layer where wiring such as transistors that drive each pixel is provided. It is an image sensor in which a photoelectric conversion unit such as a photodiode for conversion is arranged for each pixel. It should be noted that the technology according to the present disclosure may also be applicable to image sensors other than CMOS image sensors.
  • FIG. 1 is a block diagram showing a schematic configuration of an imaging device 10 of this embodiment.
  • the imaging device 10 of the present embodiment is formed on a semiconductor substrate 101, so it is strictly a solid-state imaging device, but hereinafter simply referred to as an imaging device.
  • the imaging device 10 includes, for example, a pixel array section 11, a vertical driving section 12, a column signal processing section 13, a horizontal driving section 14, a system control section 15, and a signal processing section 16.
  • the pixel array section 11 has a plurality of sensor pixels 50 each including a photoelectric conversion section PD that generates and accumulates charges according to the amount of light incident from the object.
  • the plurality of sensor pixels 50 are arranged in the horizontal direction (row direction) and the vertical direction (column direction), respectively, as shown in FIG.
  • the sensor pixels 50 correspond to the pixels of the imaging device 10 .
  • the pixel array section 11 also has pixel drive lines 17 and vertical signal lines 18 .
  • the pixel drive line 17 is wired along the row direction for each pixel row composed of the sensor pixels 50 arranged in a line in the row direction.
  • the vertical signal line 18 is wired along the column direction for each pixel column composed of sensor pixels 50 arranged in a row in the column direction.
  • the vertical driving section 12 is composed of a shift register, an address decoder, and the like.
  • the vertical drive section 12 supplies signals and the like to the plurality of sensor pixels 50 via the plurality of pixel drive lines 17, thereby simultaneously driving all of the plurality of sensor pixels 50 in the pixel array section 11, or , is driven in units of pixel rows.
  • the column signal processing unit 13 consists of a shift register, an address decoder, etc., performs noise removal processing, correlated double sampling processing, A/D conversion processing, etc., and generates pixel signals.
  • the column signal processing unit 13 supplies the generated pixel signals to the signal processing unit 16 .
  • the horizontal driving section 14 sequentially selects unit circuits corresponding to the pixel columns of the column signal processing section 13 . By selective scanning by the horizontal drive section 14 , the pixel signals that have undergone signal processing for each unit circuit in the column signal processing section 13 are sequentially output to the signal processing section 16 .
  • the system control unit 15 consists of a timing generator that generates various timing signals.
  • the system control unit 15 controls the driving of the vertical driving unit 12, the column signal processing unit 13 and the horizontal driving unit 14 based on the timing signal generated by the timing generator.
  • the signal processing unit 16 performs signal processing such as arithmetic processing on the pixel signals supplied from the column signal processing unit 13 as necessary, and outputs an image signal composed of each pixel signal.
  • FIG. 2 is an equivalent circuit diagram of the sensor pixel 50.
  • FIG. 3 is a plan layout diagram of a partial pixel region in the pixel array section 11. As shown in FIG. FIG. 3 shows a pixel area of four pixels.
  • the sensor pixel 50 includes a photoelectric conversion portion PD, a charge holding portion MEM, three transfer transistors TRY, TRX, and TRG, a floating diffusion region FD, an ejection transistor OFG, and a reset transistor OFG. It has a transistor RST, an amplification transistor AMP, and a selection transistor SEL.
  • the photoelectric conversion unit PD is configured as, for example, a photodiode, and generates charges according to the amount of light received by photoelectric conversion.
  • the charge holding portion MEM is a region that temporarily holds charges generated and accumulated in the photoelectric conversion portion PD in order to realize the global shutter function.
  • the charge holding portion MEM holds charges transferred from the photoelectric conversion portion PD.
  • the transfer transistors TRY and TRX are arranged in the order of the transfer transistors TRY and TRX from the photoelectric conversion unit PD side on the charge holding unit MEM. Gates of the transfer transistors TRY and TRX are connected to the pixel drive line 17 .
  • the transfer transistors TRY and TRX control the potential of the charge holding portion MEM by a control signal applied to the gate electrode, and transfer charges photoelectrically converted by the photoelectric conversion portion PD.
  • the transfer transistors TRY and TRX when the transfer transistors TRY and TRX are turned on, the potential of the charge holding portion MEM becomes deep, and when the transfer transistors TRY and TRX are turned off, the potential of the charge holding portion MEM becomes shallow. Then, for example, when the transfer transistors TRY and TRX are turned on, the charges accumulated in the photoelectric conversion unit PD are transferred to the charge holding unit MEM via the transfer transistors TRY and TRX.
  • the transfer transistor TRG is arranged between the transfer transistor TRX and the floating diffusion region FD.
  • the source of the transfer transistor TRG is electrically connected to the drain of the transfer transistor TRX, and the drain of the transfer transistor TRG is electrically connected to the floating diffusion region FD.
  • a gate of the transfer transistor TRG is connected to the pixel drive line 17 .
  • the transfer transistor TRG transfers the charge held in the charge holding portion MEM to the floating diffusion region FD according to the control signal applied to the gate electrode.
  • the transfer transistor TRX when the transfer transistor TRX is turned off and the transfer transistor TRG is turned on, the charge held in the charge holding portion MEM is transferred to the floating diffusion region FD.
  • the floating diffusion region FD is a region that temporarily holds charges output from the photoelectric conversion unit PD via the transfer transistor TRG.
  • the reset transistor RST is connected to the floating diffusion region FD, and the vertical signal line 18 (VSL) is connected via the amplification transistor AMP and the selection transistor SEL.
  • the amplification transistor AMP has a gate electrode connected to the floating diffusion region FD and a drain connected to the power supply line VDD, and serves as an input part of a source follower circuit that reads out charges obtained by photoelectric conversion in the photoelectric conversion part PD. That is, the amplification transistor AMP is a constant current source (not shown) connected to one end of the vertical signal line 18 (VSL) by connecting the source to the vertical signal line 18 (VSL) via the selection transistor SEL. and constitute a source follower circuit.
  • the selection transistor SEL is connected between the source of the amplification transistor AMP and the vertical signal line 18 (VSL).
  • a control signal is supplied as a selection signal to the gate electrode of the selection transistor SEL.
  • the selection transistor SEL becomes conductive when the control signal is turned on, and the sensor pixel 50 connected to the selection transistor SEL is selected.
  • the pixel signal output from the amplification transistor AMP is read out to the column signal processing section 13 through the vertical signal line 18 (VSL).
  • the discharge transistor OFG initializes (resets) the photoelectric conversion unit PD according to the control signal applied to the gate electrode.
  • the drain of the discharge transistor OFG is connected to the power supply line VDD.
  • the source of the discharge transistor OFG is connected between the photoelectric conversion unit PD and the transfer transistor TRY.
  • the discharge transistor OFG when the discharge transistor OFG is turned on, the potential of the photoelectric conversion unit PD is reset to the potential level of the power supply line VDD. That is, initialization of the photoelectric conversion unit PD is performed. Further, the discharge transistor OFG forms an overflow path between the photoelectric conversion unit PD and the power supply line VDD, for example, and discharges charges overflowing from the photoelectric conversion unit PD to the power supply line VDD.
  • the reset transistor RST initializes (resets) each region from the charge holding portion MEM to the floating diffusion region FD according to the control signal applied to the gate electrode.
  • a drain of the reset transistor RST is connected to the power supply line VDD.
  • a source of the reset transistor RST is connected to the floating diffusion region FD.
  • the transfer transistor TRG and the reset transistor RST are turned on, the potentials of the charge holding portion MEM and the floating diffusion region FD are reset to the potential level of the power supply line VDD. That is, by turning on the reset transistor RST, the charge holding portion MEM and the floating diffusion region FD are initialized.
  • each transistor in the sensor pixel 50 is not limited to that shown in FIG. If the arrangement of each transistor in the sensor pixel 50 changes, the arrangement locations of the photoelectric conversion unit PD and the charge holding unit MEM arranged below also change.
  • FIG. 4 is a vertical cross-sectional view showing the cross-sectional structure of the imaging device 10 of this embodiment, showing the AA cross section of FIG. 5 and 6 are plan layout diagrams showing the arrangement of the light shielding section 110.
  • FIG. 5 shows the arrangement of the first light shielding part 111
  • FIG. 6 shows the arrangement of the second and third light shielding parts 112, 113. As shown in FIG.
  • the imaging device 10 has a semiconductor substrate 101, insulating layers 102 and 103, a light shielding layer 104, and a wiring layer 105, which are stacked in order from the top of the drawing.
  • the imaging element 10 also includes a photoelectric conversion portion PD and a charge holding portion MEM formed in the semiconductor substrate 101 and a gate 130 formed between the insulating layers 102 and 103 .
  • a sidewall 131 is formed around the gate 130 .
  • the imaging device 10 has a light shielding portion 110 formed on and inside the light receiving surface 101B of the semiconductor substrate 101 .
  • one main surface of the semiconductor substrate 101 on which the wiring layer 105 is arranged (lower side in FIG. 4) is referred to as a bottom surface 101A, and one main surface on the opposite side (upper side in FIG. 4) is referred to as a light receiving surface.
  • the bottom surface 101A is the surface opposite to the light incident surface of the semiconductor substrate 101 .
  • the light receiving surface 101B is the light incident surface of the semiconductor substrate 101.
  • the bottom surface 101A is sometimes called the front surface or the first surface
  • the light receiving surface 101B is sometimes called the rear surface or the second surface.
  • the semiconductor substrate 101 is made of, for example, a silicon substrate.
  • the insulating layers 102 and 103 are layers having insulating properties.
  • the insulating layers 102 and 103 insulate the semiconductor substrate 101 and the wiring layer 105 from each other.
  • the insulating layer 102 also serves as an insulating film between the gate 130 and the semiconductor substrate 101 .
  • the light-shielding layer 104 is a layer having a light-shielding property and is excellent in light absorption or reflection properties.
  • the light shielding layer 104 suppresses light that has passed through the semiconductor substrate 101 without being absorbed by the photoelectric conversion part PD from entering the wiring layer 105 . This suppresses light that has passed through the semiconductor substrate 101 from entering the wiring layer 105, being reflected by the wiring layer 105, and entering the charge storage unit MEM.
  • the gate 130 corresponds to the gate of the transfer transistor TRY.
  • a sidewall 131 of the gate 130 is made of an insulating material and a material that functions as an etching stopper.
  • the width W1 of the sidewall 131 is set wider than the width W2 of the end portions of the penetrating portions 112A and 113A of the second and third light shielding portions 112 and 113, which will be described later, on the side of the bottom surface 101A.
  • the gate 130 shown in FIG. 4 corresponds to the gate of the transfer transistor TRY, and the gates 130 of the transfer transistors TRX and TRG have a similar structure.
  • the light shielding part 110 is a member having a light shielding property and is excellent in light absorption or reflection characteristics.
  • the light shielding portion 110 includes a first light shielding portion 111 formed on the light receiving surface 101B of the semiconductor substrate 101, and a wall connected to the first light shielding portion 111 and extending from the light receiving surface 101B of the semiconductor substrate 101 toward the bottom surface 101A. and second and third light shielding portions 112 and 113 having a shape.
  • the first light shielding portion 111 may be referred to as "light receiving surface light shielding portion”
  • the second and third light shielding portions 112 and 113 may be referred to as "substrate light shielding portions”.
  • the first light shielding part 111 is formed so as to cover the area of the light receiving surface 101B excluding the area above the photoelectric conversion part PD. That is, the first light shielding portion 111 has an opening 120 formed in a region overlapping with the photoelectric conversion portion PD. The first light shielding part 111 suppresses light from entering a region other than the region of the photoelectric conversion part PD.
  • the second light shielding portion 112 is located in the boundary region of the sensor pixel 50, extends from the light receiving surface 101B toward the bottom surface 101A, and extends in a plane perpendicular to the light receiving surface 101B. It is formed so as to spread in the direction. In the illustrated example, the second light shielding portion 112 extends in the in-plane direction of the XZ plane. Also, the second light shielding portion 112 extends over the plurality of sensor pixels 50 in the X-axis direction. The second light shielding portion 112 suppresses incident light that has not been absorbed by the photoelectric conversion portion PD from entering the charge holding portion MEM of the adjacent sensor pixel 50 .
  • the second light shielding portion 112 has a penetrating portion 112A penetrating through the semiconductor substrate 101 and a non-penetrating portion 112B not penetrating through the semiconductor substrate 101 .
  • the penetrating portion 112A penetrates the semiconductor substrate 101 and contacts the sidewall 131 of the gate 130 .
  • the non-penetrating portion 112B does not penetrate the semiconductor substrate 101 and its end on the bottom surface 101A side exists inside the semiconductor substrate 101 .
  • the penetrating portion 112A is arranged in a region around the photoelectric conversion part PD, and the non-penetrating portion 112B is arranged in another region.
  • the third light shielding portion 113 is located in an intermediate region between the photoelectric conversion portion PD and the charge holding portion MEM in the sensor pixel 50 and extends from the light receiving surface 101B toward the bottom surface 101A. In addition, it is formed so as to extend in the in-plane direction of a plane perpendicular to the light receiving surface 101B. In the illustrated example, the third light shielding portion 113 extends in the in-plane direction of the XZ plane. Also, the third light shielding portion 113 extends over the plurality of sensor pixels 50 in the X-axis direction. The third light shielding portion 113 suppresses incident light that has not been absorbed by the photoelectric conversion portion PD from entering the charge holding portion MEM in the sensor pixel 50 .
  • the third light shielding part 113 has a penetrating part 113A penetrating through the semiconductor substrate 101 and a non-penetrating part 113B not penetrating the semiconductor substrate 101, like the second light shielding part 112 does.
  • the penetrating portion 113 ⁇ /b>A penetrates the semiconductor substrate 101 and connects to the sidewall 131 of the gate 130 .
  • the non-penetrating portion 113B does not penetrate the semiconductor substrate 101 and its end on the bottom surface 101A side exists inside the semiconductor substrate 101 .
  • the penetrating portion 113A is arranged in a region between the photoelectric conversion portion PD and the transfer transistors TRX and TRG, and the non-penetrating portion 113B is arranged in another region.
  • the ends of the second and third light shielding portions 112 and 113 on the light receiving surface 101B side are separated from the opening 120 of the first light shielding portion 111. .
  • the distance d1 from the opening 120 of the first light shielding section 111 to the end of the second light shielding section 112 on the side of the light receiving surface 101B is 50 nm or more.
  • the distance d2 from the opening 120 of the first light shielding section 111 to the end of the third light shielding section 113 on the side of the light receiving surface 101B is 50 nm or more.
  • an insulating layer 106 for example, is laminated on the light receiving surface 101B of the semiconductor substrate 101.
  • a color filter 107 for example, is laminated on the light receiving surface 101B of the semiconductor substrate 101.
  • a support substrate for example, is laminated on the bottom surface of the wiring layer 105 . In the drawings below, illustration of the support substrate, the insulating layer 106, the color filter 107, the microlens 108, and the like is omitted.
  • FIG. 7 is a vertical cross-sectional view showing details of the cross-sectional structure of the imaging device 10 of this embodiment.
  • N-type silicon substrate is used as the semiconductor substrate 101 in the imaging device 10 of the present embodiment.
  • "n-sub” in the figure indicates an N-type substrate region
  • "p-well” indicates a P-type well region.
  • the symbols “P” and “N” in the drawing represent a P-type semiconductor region and an N-type semiconductor region, respectively.
  • the "+” or “-” at the end of each of the symbols “P+”, “N-” and “N+” represents the impurity concentration.
  • “+” indicates a high impurity concentration
  • "-” indicates a low impurity concentration.
  • a P-type well (p-well) is formed in an N-type semiconductor substrate 101, and a photoelectric conversion portion PD and a charge holding portion MEM are formed in the P-type well.
  • the photoelectric conversion part PD has a P-type semiconductor region (p-well) and an N ⁇ type semiconductor region in order from the position closer to the light receiving surface 101B. Light incident from the light-receiving surface 101B is photoelectrically converted in the N ⁇ type semiconductor region to generate charges. The charge generated there is stored in the N-type semiconductor region.
  • a P+ semiconductor region is formed between the N ⁇ type semiconductor region and the bottom surface 101A of the semiconductor substrate 101. As shown in FIG. This P+ type semiconductor region is a region for pinning the surface level of the semiconductor substrate 101 . Note that the layer configuration of the photoelectric conversion unit PD formed in the semiconductor substrate 101 is not necessarily limited to that shown in FIG.
  • the charge holding portion MEM is configured as an N+ semiconductor region provided within a P-type semiconductor region (p-well).
  • a P+ semiconductor region is formed between the N+ type semiconductor region and the bottom surface 101A of the semiconductor substrate 101 .
  • This P+ type semiconductor region is a region for pinning the surface level of the semiconductor substrate 101 .
  • the insulating layers 102 and 103 are made of, for example, SiO 2 (silicon oxide), SiN (silicon nitride), or the like.
  • the insulating layer 102 also serves as an insulating film for the gate 130, which will be described later.
  • the insulating layer 103 may have multiple layers each made of a different insulating material. Also, the insulating layer 102 may be partly or wholly formed integrally with the insulating layer 102 .
  • the light shielding layer 104 is made of, for example, tungsten (W), aluminum (Al), copper (Cu), silver (Ag), Au (gold), platinum (Pt), molybdenum (Mo), chromium (Cr), titanium (Ti ), nickel (Ni), iron (Fe) and other metals, silicon (Si), germanium (Ge), tellurium (Te) and other semiconductors, and alloys thereof.
  • the light shielding layer 104 can also have a laminated structure of these metals or the like.
  • the gate 130 of the transfer transistor TRY is provided on the bottom surface 101A side of the semiconductor substrate 101 with the insulating layer 102 interposed therebetween.
  • the gate 130 is arranged in a region that at least partially overlaps the charge holding portion MEM.
  • the gate 130 is made of, for example, P-type polysilicon.
  • a sidewall 131 formed around the gate 130 is made of an insulating material such as SiN (silicon nitride) and a material that functions as an etching stopper.
  • the gates of the transfer transistors TRX and TRG also have the same configuration as the gate 130 of the transfer transistor TRY.
  • the floating diffusion region FD is configured as an N+ type semiconductor region provided within a P type semiconductor region (p-well).
  • the light shielding portion 110 has a light shielding material portion 110a and an insulating film 110b surrounding it. Further, the light shielding part 110 may have a fixed charge layer formed around the insulating film 110b.
  • the fixed charge layer can be formed, for example, as a P+ type semiconductor region.
  • the light shielding material portion 110a is made of metal such as tungsten (W), aluminum (Al), copper (Cu), or the like.
  • the insulating film 110b is made of an insulating material such as SiO 2 (silicon oxide). Electrical insulation between the light shielding material portion 110a and the semiconductor substrate 101 is ensured by the insulating film 110b.
  • the penetrating portion 112A of the second light shielding portion 112 is in contact with the sidewall 131 of the gate 130.
  • the end portion of the penetrating portion 112A of the second light shielding portion 112 on the side of the bottom surface 101A is in contact with the sidewall 131 of the gate 130 .
  • FIG. 8 is an enlarged vertical cross-sectional view showing the cross-sectional structure of the imaging device 10 of Comparative Example 1.
  • FIG. 1 the bottom of the penetrating portion 112A of the second light shielding portion 112 is positioned away from the sidewall 131 of the gate 130 .
  • the light passes through the semiconductor substrate 101 without being absorbed by the photoelectric conversion portion PD, and passes between the penetrating portion 112A of the second light shielding portion 112 and the light shielding layer 104.
  • the light reaches the charge holding portion MEM of the adjacent sensor pixel 50 only through the insulating layer 103 .
  • the light is transmitted through the semiconductor substrate 101 without being absorbed by the photoelectric conversion portion PD, and passes through the penetrating portion 112A of the second light shielding portion 112 and the light shielding layer 104.
  • the light that reaches between them passes through the three layers of the insulating layer 103, the sidewall 131, and the insulating film 110b, and reaches the charge holding portion MEM of the adjacent sensor pixel 50.
  • FIG. As the number of layers through which light passes increases, so does the number of interfaces through which light passes. Since light is reflected and scattered at the interface, the more layers through which light passes, the more the light is suppressed from entering the charge holding unit MEM.
  • the light transmitted through the semiconductor substrate 101 without being absorbed by the photoelectric conversion portion PD reaches the charge holding portion MEM of the adjacent sensor pixel 50 more than the image pickup device 10 of Comparative Example 1. Incident is suppressed. In short, in the imaging device 10 of this embodiment, the occurrence of crosstalk between adjacent sensor pixels 50 is suppressed.
  • the more layers the light passes through before reaching the charge holding portion MEM the more the light is suppressed from entering the charge holding portion MEM. It preferably has a plurality of layers of insulating material.
  • FIG. 9 is an enlarged vertical cross-sectional view showing the cross-sectional structure of the imaging device 10 of Comparative Example 2.
  • FIG. 9 In the imaging device 10 of Comparative Example 2, the penetrating portion 112A of the second light shielding portion 112 also penetrates the insulating layer 103 and is in contact with the light shielding layer 104 .
  • the penetrating portion 112A of the second light shielding portion 112 and the light shielding layer 104 are in contact with each other, so crosstalk is suppressed.
  • the dark characteristics of the imaging element 10 deteriorate due to damage to the semiconductor substrate 101 or the like due to etching during trench processing for forming the penetrating portion 112A, contamination due to exposure of the light shielding material of the light shielding layer 104, and the like. It has been found by the present disclosure applicants to degrade.
  • the generation of crosstalk between the adjacent sensor pixels 50 is suppressed without such deterioration of the implicit characteristics.
  • the penetrating portion 112A of the second light shielding portion 112 arranged in the boundary region of the sensor pixel 50 has been described.
  • the same description applies also to the penetration portion 113A of the third light shielding portion 113.
  • the through portion 113A of the third light shielding portion 113 is also in contact with the sidewall 131 of the gate 130 (see FIG. 6). Therefore, in the imaging device 10 of the present embodiment, light that has passed through the semiconductor substrate 101 without being absorbed by the photoelectric conversion portion PD is prevented from entering the charge holding portion MEM in the sensor pixel 50 . In short, in the imaging device 10 of the present embodiment, the occurrence of crosstalk within the sensor pixels 50 is suppressed. Further, the imaging element 10 of the present embodiment does not cause such deterioration of the implicit characteristic, and the occurrence of crosstalk in the sensor pixels 50 is suppressed.
  • FIGS. 10A and 10B are plan layout diagrams showing that the opening 120 can be enlarged.
  • the left diagram shows the conventional imaging device 10
  • the right diagram shows the imaging device 10 of the present embodiment.
  • the imaging device 10 of the present embodiment can simultaneously achieve suppression of crosstalk, miniaturization of the sensor pixels 50, and improvement of the sensitivity, Qs (saturation charge amount), and oblique incidence characteristics of the imaging device 10. It is a thing.
  • the disclosing persons of the present disclosure have found that the distance d1 from the opening 120 of the first light shielding portion 111 to the end of the second light shielding portion 112 on the light receiving surface 101B side, It has been found that by increasing the distance d2 from the opening 120 of the portion 111 to the end portion of the third light shielding portion 113 on the side of the light receiving surface 101B, generation of white spots in the image sensor 10 is suppressed.
  • the disclosing persons of the present disclosure have found that the occurrence of white spots is suppressed by increasing the distances d1 and d2 described above, so that when the opening 120 is formed in manufacturing the imaging device 10 described later, (See FIG. 14J), it was found that the etching damage caused in the peripheral regions of the side walls of the second and third light shielding portions 112 and 113 is reduced.
  • the peripheral regions of the side walls of the second and third light shielding portions 112 and 113 are specifically boundary regions between the second or third light shielding portions 112 and 113 and the semiconductor substrate 101 region.
  • the disclosing persons of the present disclosure have found that the occurrence of white spots can be effectively suppressed by setting the above-described distances d1 and d2 to 50 nm or more.
  • the imaging element 10 of this embodiment is characterized in that the ends of the second and third light shielding portions 112 and 113 on the light receiving surface 101B side are separated from the opening 120 of the first light shielding portion 111. is one of Furthermore, the imaging element 10 of the present embodiment is characterized in that the distance d1 from the opening 120 of the first light shielding section 111 to the end of the light receiving surface 101B side of the second light shielding section 112 is 50 nm or more. is one of One of the features is that the distance d2 from the opening 120 of the first light shielding part 111 to the end of the third light shielding part 113 on the side of the light receiving surface 101B is 50 nm or more.
  • the positions of the end portions of the second and third light shielding portions 112 and 113 on the side of the light receiving surface 101B are the positions of the processing interface of the semiconductor substrate 101, more specifically, the trenches 301T formed during the manufacturing described later. , 302T (see FIG. 14G) on the side of the light receiving surface 101B.
  • the positions of the ends of the second and third light shielding portions 112 and 113 on the side of the light receiving surface 101B are the ends of the boundary surface between the insulating film 110b and the semiconductor substrate 101 region on the side of the light receiving surface 101B. becomes.
  • the imaging device 10 of the present embodiment by setting the above-described distances d1 and d2 to 50 nm or more, etching occurring in the peripheral regions of the side walls of the second and third light shielding portions 112 and 113 during manufacturing can be prevented. The damage is reduced and the occurrence of white spots is suppressed.
  • one or both of the distances d1 and d2 may be less than 50 nm. If the advantage obtained by enlarging the opening 120 outweighs the disadvantages caused by reducing the distances d1 and d2, setting the distances d1 and d2 to less than 50 nm may be considered.
  • the imaging element 10 of this embodiment includes a semiconductor substrate 101, a photoelectric conversion unit PD, a charge holding unit MEM, and a region on the bottom surface 101A of the semiconductor substrate 101 that overlaps with the charge holding unit MEM.
  • the second light shielding portion (in-substrate light shielding portion) 112 has a penetrating portion 112A penetrating through the semiconductor substrate 101, and is in contact with the sidewall 130 at the penetrating portion 112A.
  • the imaging element 10 of the present embodiment further includes a first light shielding portion (light receiving surface light shielding portion) 111 covering the light receiving surface 101B of the semiconductor substrate 101, and the first light shielding portion (light receiving surface light shielding portion) 111 is An opening 120 is formed in a region overlapping the photoelectric conversion unit MEM, and the end of the second light shielding portion (in-substrate light shielding portion) 112 on the side of the light receiving surface 101B is separated from the opening 120.
  • Such an imaging device 10 has reduced etching damage at the time of manufacturing, and thus suppresses the occurrence of white spots.
  • FIG. 11 is a plan layout diagram showing the arrangement of the second and third light shielding portions 112 and 113 in the imaging device 10 of Modification 1. As shown in FIG.
  • the penetrating portion 113A of the third light shielding portion 113 is positioned away from the sidewall 131. In this way, in the imaging device 10 of the present disclosure, the penetrating portion 113A of the third light shielding portion 113 may be positioned away from the sidewall 131 . In this case, the number of changes from the conventional imaging device 10 is reduced. Therefore, the imaging device 10 of Modification 1 has the advantage that most of the design of the conventional imaging device 10 can be used. However, as in the image pickup device 10 of the present embodiment, the through portion 113A of the third light shielding portion 113 is also in contact with the sidewall 131, thereby further suppressing crosstalk in the sensor pixel 50. Together with this, it is possible to further improve the miniaturization of the sensor pixels 50 and the sensitivity, Qs (saturation charge amount), and oblique incidence characteristics of the imaging element 10 .
  • FIG. 12 is a longitudinal sectional view showing the structure of the imaging device 10 of Modification 2. As shown in FIG.
  • part of the penetrating portions 112A and 113A of the second and third light shielding portions 112 and 113 are in contact with the sidewall 131 of the gate 130. More specifically, in the imaging device 10 of Modification 2, all of the end portions of the penetrating portions 112A and 113A of the second and third light shielding portions 112 and 113 on the side of the bottom surface 101A are in contact with the sidewall 131. Instead, a part of it is in contact with the sidewall 131 .
  • the imaging device 10 of Modification 2 has the advantage that the conventional process for forming the sidewalls 131 can be used as it is in its manufacture.
  • the end portions of the penetrating portions 112A and 113A of the second and third light shielding portions 112 and 113 on the side of the bottom surface 101A are all in contact with the sidewall 131. , the occurrence of crosstalk between and within the sensor pixels 50 is further suppressed.
  • FIGS. 13A to 13E and 14A to 14J are vertical cross-sectional views showing an example of a method for manufacturing the imaging device 10.
  • FIG. 13A to 13E show processing on the bottom surface 101A side of the semiconductor substrate 101
  • FIGS. 14A to 14J show processing on the light receiving surface 101B side of the semiconductor substrate 101.
  • the photoelectric conversion portion PD and the charge holding portion MEM are formed in the semiconductor substrate 101.
  • the formation of the photoelectric conversion part PD and the charge holding part MEM can be realized by, for example, ion implantation.
  • the gate 130 is formed on the insulating layer 102.
  • the insulating layer 102 can be formed by, for example, a thermal oxidation method, a CVD (Chemical Vapor Deposition) method, an ALD (Atomic Layer Deposition) method, sputtering, or the like.
  • width W1 of the sidewall 131 is set to be wider than the width W2 (see FIG. 14D) at the bottom of the trench 301T, which will be described later.
  • the width W1 of the sidewall 131 can be adjusted by, for example, the amount of SiN film formed.
  • the insulating layer 103 and the light shielding layer 104 are sequentially laminated on the gate 130 and the insulating layer 102 .
  • Formation of the insulating layer 103 can be achieved by, for example, a CVD method, an ALD method, sputtering, or the like.
  • Formation of the light shielding layer 104 can be achieved by, for example, a CVD method, sputtering, or the like.
  • the wiring layer 105 is composed of, for example, a plurality of metal layers forming wiring and insulating layers formed between the metal layers.
  • the wiring layer 105 is formed by repeatedly forming a metal layer and an insulating layer.
  • This metal layer can be formed by, for example, plating a metal such as copper (Cu) and polishing the plated layer by CMP (Chemical Mechanical Polishing). Film formation of the insulating layer can be achieved by, for example, the CVD method or sputtering.
  • a supporting substrate is adhered onto the wiring layer 105, the semiconductor substrate 101 is turned over so that the light receiving surface 101B side faces upward, and then the light receiving surface 101B side is processed.
  • the light receiving surface 101B side of the semiconductor substrate 101 is thinned by CMP or the like.
  • the semiconductor substrate 101 is thinned to a thickness of 3 ⁇ m.
  • a hard mask 201 is formed on the light-receiving surface 101B to cover regions other than regions where the second and third light shielding portions 112 and 113 are formed.
  • the hard mask 201 is made of SIO 2 , SiN, or the like, for example.
  • the hard mask 201 is formed by, for example, laminating SIO 2 , covering regions other than the regions where the second and third light shielding portions 112 and 113 are formed with a resistor, and forming the second and third light shielding portions 112 and 113. It can be realized by performing anisotropic etching in the region where 113 is formed.
  • the regions not covered with the hard mask 201 are covered with a resist 202. Then, dry etching is performed. As a result, a trench 301T extending to the middle of the thickness direction of the semiconductor substrate 101 without penetrating the semiconductor substrate 101 is formed in the regions where the penetrating portions 112A and 113A are to be formed.
  • etching of the trench 301T penetrating the semiconductor substrate 101 is stopped by the sidewall 131 of the gate 130 functioning as an etching stopper.
  • the sidewall 131 is positioned below the trench 301T penetrating the semiconductor substrate 101 and has a width W1 larger than the width W2 of the end of the trench 301T on the bottom surface 101A side. It is a thing.
  • the sidewall 131 as an etching stopper in this manner, the in-plane uniformity of the processing depth of the trench 301T becomes excellent. This increases the processing margin and facilitates the formation of the trench 301T.
  • the imaging devices 10 of Modifications 1 and 2 described above all or part of the trenches 301T penetrating the semiconductor substrate 101 come out of the sidewalls 131 and come into contact with the insulating layer 103 . Therefore, in the imaging devices 10 of Modifications 1 and 2, the insulating layer 103 functions as an etching stopper.
  • a resist 203 is embedded in the trenches 301T and 302T in order to protect the trenches 301T and 302T in the step of removing the hard mask 201 later.
  • the filling of the trenches 301T and 302T with the resist 203 can be achieved by, for example, coating the semiconductor substrate 101 with the resist 203 so as to fill the trenches 301T and 302T and then performing etchback.
  • the hard mask 201 is removed. Removal of the hard mask 201 can be achieved by wet etching, for example.
  • the resist 203 embedded in the trenches 301T and 302T is removed.
  • the removal of the resist 203 embedded in the trenches 301T and 302T can be achieved by, for example, SH cleaning.
  • an insulating film 110b is formed to cover the inner surfaces of the trenches 301T and 302T and the light receiving surface 101B.
  • the insulating film 110b can be formed, for example, by depositing SiO 2 (silicon oxide) using an ALD (Atomic Layer Deposition) method.
  • the trenches 301T and 302T in which the insulating film 110b is formed are filled with a light-shielding material forming the light-shielding material portion 101a, and the light-shielding material is laminated on the light-receiving surface 101B. , to form the light shielding material portion 110a of the light shielding portion 110.
  • the embedding and lamination of the light shielding material can be achieved by, for example, the CVD method.
  • the opening 120 is formed by removing the light shielding material portion 110a and the insulating film 101b in the region where the opening 120 is to be formed.
  • the removal of the light shielding material portion 110a and the insulating film 101b can be achieved by wet etching, for example.
  • the region of the opening 120 is the light receiving portion of the second and third light shielding portions 112 and 113.
  • the end on the surface 101B side is set to be separated from the opening 120 . More preferably, the distance d1 from the opening 120 to the end of the second light shield 112 on the light receiving surface 101B side is set to 50 nm or more. Further, the distance d2 from the opening 120 to the end of the third light shielding portion 113 on the side of the light receiving surface 101B is set to 50 nm or more.
  • the insulating layer 106, the color filter 107, and the microlens 108 are sequentially laminated on the light receiving surface 101B (see FIG. 4).
  • the method for manufacturing the imaging device 10 of the present embodiment includes a photoelectric conversion portion forming step of forming the photoelectric conversion portion PD in the semiconductor substrate 101, and a charge holding portion forming step of forming the charge holding portion MEM in the semiconductor substrate 101.
  • the second light shielding portion (in-substrate light shielding portion) 112 has a penetrating portion 112A penetrating through the semiconductor substrate 101, and is in contact with the sidewall 130 at the penetrating portion 112A.
  • the above-described intra-substrate light shielding portion forming step includes a trench forming step of forming the trench 301T by etching using the sidewall 131 as an etching stopper.
  • the manufacturing method of the imaging device 10 as described above it is possible to easily form the penetrating portion 112A of the second light shielding portion 112 that penetrates the semiconductor substrate 101.
  • the method for manufacturing the imaging element 10 of the present embodiment includes a light receiving surface light shielding portion forming step of forming a first light shielding portion ((light receiving surface light shielding portion) 111 covering the light receiving surface 101B, and a first light shielding portion (light and an opening forming step of forming an opening 120 in a region overlapping the photoelectric conversion portion PD of the surface light shielding portion 111.
  • This opening forming step is a second light shielding portion (substrate light shielding portion).
  • the opening 120 is formed so that the end of the light receiving surface 101B side of 112 is separated from the opening 120 .
  • FIG. 15 is a block diagram showing a configuration example of a camera 2000 as an electronic device to which technology according to the present disclosure is applied.
  • a camera 2000 includes an optical unit 2001 including a group of lenses, an image pickup apparatus (image pickup device) 2002 to which the above-described image pickup device 10 or the like is applied, and a DSP (Digital Signal Processor) circuit 2003 which is a camera signal processing circuit. Prepare. Camera 2000 further includes frame memory 2004 , display unit 2005 , recording unit 2006 , operation unit 2007 , and power supply unit 2008 . The DSP circuit 2003 , frame memory 2004 , display section 2005 , recording section 2006 , operation section 2007 and power supply section 2008 are interconnected via a bus line 2009 .
  • An optical unit 2001 captures incident light (image light) from a subject and forms an image on an imaging surface of an imaging device 2002 .
  • the imaging device 2002 converts the amount of incident light imaged on the imaging surface by the optical unit 2001 into an electric signal for each pixel, and outputs the electric signal as a pixel signal.
  • the display unit 2005 is made up of a panel-type display device such as a liquid crystal panel or an organic EL panel, and displays moving images or still images captured by the imaging device 2002 .
  • a recording unit 2006 records a moving image or still image captured by the imaging device 2002 in a recording medium such as a hard disk or a semiconductor memory.
  • the operation unit 2007 issues operation commands for various functions of the camera 2000 under the user's operation.
  • a power supply unit 2008 appropriately supplies various power supplies as operating power supplies for the DSP circuit 2003, the frame memory 2004, the display unit 2005, the recording unit 2006, and the operation unit 2007 to these supply targets.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may
  • FIG. 16 is a block diagram showing a schematic configuration example of a vehicle control system 12000, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • a vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive train control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an inside information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (Interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 17 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 has imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose, side mirrors, rear bumper, back door, and windshield of the vehicle 12100, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • the imaging unit 12105 provided above the windshield in the passenger compartment is mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 17 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided in the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the course of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above. Specifically, the imaging device 10 or the like shown in FIG. By applying the technology according to the present disclosure to the imaging unit 12031, excellent operation of the vehicle control system can be expected.
  • Example of application to an endoscopic surgery system The technology according to the present disclosure (this technology) may be applied to an endoscopic surgery system, for example.
  • FIG. 18 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology (this technology) according to the present disclosure can be applied.
  • FIG. 18 shows a state in which an operator (doctor) 11131 is performing surgery on a patient 11132 on a patient bed 11133 using an endoscopic surgery system 11000 .
  • an endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as a pneumoperitoneum tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 for supporting the endoscope 11100. , and a cart 11200 loaded with various devices for endoscopic surgery.
  • An endoscope 11100 is composed of a lens barrel 11101 whose distal end is inserted into the body cavity of a patient 11132 and a camera head 11102 connected to the proximal end of the lens barrel 11101 .
  • an endoscope 11100 configured as a so-called rigid scope having a rigid lens barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible scope having a flexible lens barrel. good.
  • the tip of the lens barrel 11101 is provided with an opening into which the objective lens is fitted.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the lens barrel 11101 by a light guide extending inside the lens barrel 11101, where it reaches the objective. Through the lens, the light is irradiated toward the observation object inside the body cavity of the patient 11132 .
  • the endoscope 11100 may be a straight scope, a perspective scope, or a side scope.
  • An optical system and an imaging element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the imaging element by the optical system.
  • the imaging device photoelectrically converts the observation light to generate an electrical signal corresponding to the observation light, that is, an image signal corresponding to the observation image.
  • the image signal is transmitted to a camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the operations of the endoscope 11100 and the display device 11202 in an integrated manner. Further, the CCU 11201 receives an image signal from the camera head 11102 and performs various image processing such as development processing (demosaicing) for displaying an image based on the image signal.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201 .
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light for photographing a surgical site or the like.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light for photographing a surgical site or the like.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204 .
  • the user inputs an instruction or the like to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100 .
  • the treatment instrument control device 11205 controls driving of the energy treatment instrument 11112 for tissue cauterization, incision, blood vessel sealing, or the like.
  • the pneumoperitoneum device 11206 inflates the body cavity of the patient 11132 for the purpose of securing the visual field of the endoscope 11100 and securing the operator's working space, and injects gas into the body cavity through the pneumoperitoneum tube 11111. send in.
  • the recorder 11207 is a device capable of recording various types of information regarding surgery.
  • the printer 11208 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the endoscope 11100 with irradiation light for photographing the surgical site can be composed of, for example, a white light source composed of an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. It can be carried out.
  • the observation target is irradiated with laser light from each of the RGB laser light sources in a time division manner, and by controlling the drive of the imaging device of the camera head 11102 in synchronization with the irradiation timing, each of RGB can be handled. It is also possible to pick up images by time division. According to this method, a color image can be obtained without providing a color filter in the imaging element.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of the output light every predetermined time.
  • the drive of the imaging device of the camera head 11102 in synchronism with the timing of the change in the intensity of the light to obtain an image in a time-division manner and synthesizing the images, a high dynamic A range of images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissues, by irradiating light with a narrower band than the irradiation light (i.e., white light) during normal observation, the mucosal surface layer So-called narrow band imaging is performed, in which a predetermined tissue such as a blood vessel is imaged with high contrast.
  • fluorescence observation may be performed in which an image is obtained from fluorescence generated by irradiation with excitation light.
  • the body tissue is irradiated with excitation light and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is A fluorescence image can be obtained by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 can be configured to be able to supply narrowband light and/or excitation light corresponding to such special light observation.
  • FIG. 19 is a block diagram showing an example of functional configurations of the camera head 11102 and CCU 11201 shown in FIG.
  • the camera head 11102 has a lens unit 11401, an imaging section 11402, a drive section 11403, a communication section 11404, and a camera head control section 11405.
  • the CCU 11201 has a communication section 11411 , an image processing section 11412 and a control section 11413 .
  • the camera head 11102 and the CCU 11201 are communicably connected to each other via a transmission cable 11400 .
  • a lens unit 11401 is an optical system provided at a connection with the lens barrel 11101 . Observation light captured from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401 .
  • a lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 is composed of an imaging element.
  • the imaging device constituting the imaging unit 11402 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • image signals corresponding to RGB may be generated by each image pickup element, and a color image may be obtained by synthesizing the image signals.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for respectively acquiring right-eye and left-eye image signals corresponding to 3D (Dimensional) display.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of systems of lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102 .
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is configured by an actuator, and moves the zoom lens and focus lens of the lens unit 11401 by a predetermined distance along the optical axis under control from the camera head control unit 11405 . Thereby, the magnification and focus of the image captured by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400 .
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies it to the camera head control unit 11405 .
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and/or information to specify the magnification and focus of the captured image. Contains information about conditions.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls driving of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102 .
  • the communication unit 11411 receives image signals transmitted from the camera head 11102 via the transmission cable 11400 .
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102 .
  • Image signals and control signals can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on the image signal, which is RAW data transmitted from the camera head 11102 .
  • the control unit 11413 performs various controls related to imaging of the surgical site and the like by the endoscope 11100 and display of the captured image obtained by imaging the surgical site and the like. For example, the control unit 11413 generates control signals for controlling driving of the camera head 11102 .
  • control unit 11413 causes the display device 11202 to display a captured image showing the surgical site and the like based on the image signal that has undergone image processing by the image processing unit 11412 .
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edges of objects included in the captured image, thereby detecting surgical instruments such as forceps, specific body parts, bleeding, mist during use of the energy treatment instrument 11112, and the like. can recognize.
  • the control unit 11413 may use the recognition result to display various types of surgical assistance information superimposed on the image of the surgical site. By superimposing and presenting the surgery support information to the operator 11131, the burden on the operator 11131 can be reduced and the operator 11131 can proceed with the surgery reliably.
  • a transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to the imaging unit 11402 among the configurations described above. Specifically, the imaging element 10 and the like shown in FIG. By applying the technology according to the present disclosure to the imaging unit 11402, a clearer image of the surgical site can be obtained, so that the operator can reliably check the surgical site.
  • the technology according to the present disclosure may also be applied to, for example, a microsurgery system.
  • the present disclosure can also be configured as follows.
  • a semiconductor substrate a photoelectric conversion unit arranged in the semiconductor substrate and configured to generate electric charges according to the amount of light received by photoelectric conversion; a charge holding unit arranged in the semiconductor substrate and holding charges transferred from the photoelectric conversion unit; a gate of a transfer transistor arranged on the bottom surface of the semiconductor substrate and in a region overlapping with the charge holding portion; sidewalls formed around the gate; an intra-substrate light-shielding portion, which is a light-shielding portion arranged in a boundary region of the sensor pixels in the semiconductor substrate and extending from the light-receiving surface of the semiconductor substrate toward the bottom surface;
  • the in-substrate light shielding portion has a through portion penetrating through the semiconductor substrate, and is in contact with the sidewall at the through portion.
  • the imaging device according to item 1 The imaging device, wherein the width of the sidewall is wider than the width of the end portion of the through portion on the bottom surface side.
  • the imaging device according to item 1 or 2 further comprising a light-receiving surface light-shielding portion that is a light-shielding portion covering the light-receiving surface of the semiconductor substrate;
  • the light-receiving surface light-shielding portion has an opening formed in a region overlapping with the photoelectric conversion portion, An end portion of the in-substrate light shielding portion on the light receiving surface side is separated from the opening portion.
  • a method for manufacturing an imaging device according to claim 6 or 7, a light-receiving surface light-shielding portion forming step of forming a light-receiving surface light-shielding portion that is a light-shielding portion covering the light-receiving surface; an opening forming step of forming an opening in a region of the light receiving surface shielding portion that overlaps with the photoelectric conversion portion; The opening forming step forms the opening such that an end portion of the light shielding portion in the substrate on the light receiving surface side is separated from the opening.
  • An electronic device comprising an imaging element,
  • the imaging element is a semiconductor substrate; a photoelectric conversion unit arranged in the semiconductor substrate and configured to generate electric charges according to the amount of light received by photoelectric conversion; a charge holding unit arranged in the semiconductor substrate and holding charges transferred from the photoelectric conversion unit; a gate of a transfer transistor arranged on the back surface of the semiconductor substrate in a region overlapping with the charge holding portion; sidewalls formed around the gate; an intra-substrate light-shielding portion, which is a light-shielding portion arranged in a boundary region of the sensor pixels in the semiconductor substrate and extending from the light-receiving surface of the semiconductor substrate toward the back surface;
  • the electronic device wherein the in-substrate light shielding portion has a penetrating portion that penetrates the semiconductor substrate, and is in contact with the sidewall at the penetrating portion.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

[課題]光学的ノイズの発生が抑えられた撮像素子を提供する。 [解決手段]撮像素子10であって、半導体基板101と、半導体基板101内に配置された光電変換部PDと、半導体基板101内に配置された電荷保持部MEMと、半導体基板101の底面101A上であって、電荷保持部MEMと重なる領域に配置された転送トランジスタTRX、TRY、TRGのゲート130と、ゲート130の周囲に形成されたサイドウォール131と、半導体基板101内のセンサ画素50の境界領域に配置され、半導体基板101の受光面101Bから底面101A側に向かって壁状に延びる遮光部である基板内遮光部112と、を備え、基板内遮光部112は、半導体基板101を貫通する貫通部112Aを有し、貫通部112Aにおいて、サイドウォール130に接している。

Description

撮像素子、撮像素子の製造方法、電子機器
 本開示は、光電変換による撮像を行う撮像素子、撮像素子の製造方法、電子機器に関する。
 全画素を同じタイミングで撮像するグローバルシャッタ方式の撮像素子が知られている。この種の撮像素子では、各画素に、光電変換部で生成された電荷を蓄積する電荷保持部が設けられている。このような撮像素子において、電荷保持部に光が入射すると、不要な電荷が発生し、光学的ノイズが発生する。これに対して、電荷保持部の周囲に遮光部を形成することによって、電荷保持部への光の入射を抑制する技術が提案されている(例えば、特許文献1及び2)。
特開2015-228510号公報 国際公開第2018/008614号
 本開示は、光学的ノイズの発生が抑えられた撮像素子を提供することを目的とする。
 本開示の一側面による撮像素子は、半導体基板と、前記半導体基板内に配置され、受光量に応じた電荷を光電変換により生成する光電変換部と、前記半導体基板内に配置され、前記光電変換部から転送された電荷を保持する電荷保持部と、前記半導体基板の底面上であって、前記電荷保持部と重なる領域に配置された転送トランジスタのゲートと、前記ゲートの周囲に形成されたサイドウォールと、前記半導体基板内のセンサ画素の境界領域に配置され、前記半導体基板の受光面から前記底面側に向かって延びる遮光部である基板内遮光部と、を備え、前記基板内遮光部は、前記半導体基板を貫通する貫通部を有し、前記貫通部において、前記サイドウォールに接している。前記サイドウォールの幅は、前記貫通部の前記底面側の端部の幅よりも広くてもよい。
 前記撮像素子は、前記半導体基板の前記受光面を覆う遮光部である受光面遮光部をさらに備え、前記受光面遮光部は、前記光電変換部と重なる領域に形成された開口部を有し、前記基板内遮光部の前記受光面側の端部は、前記開口部から離間していてもよい。前記開口部から前記基板内遮光部の前記受光面側の端部までの距離は、50nm以上であってもよい。
 前記撮像素子は、グローバルシャッタ方式の裏面照射型イメージセンサであってもよい。
 本開示の一側面による撮像素子の製造方法は、半導体基板内に、受光量に応じた電荷を光電変換により生成する光電変換部を形成する光電変換部形成工程と、前記半導体基板内に、前記光電変換部から転送された電荷を保持する電荷保持部を形成する電荷保持部形成工程と、前記半導体基板の底面上であって、前記電荷保持部と重なる領域に、転送トランジスタのゲートを形成するゲート形成工程と、前記ゲートの周囲にサイドウォールを形成するサイドウォール形成工程と、前記半導体基板内のセンサ画素の境界領域に、前記半導体基板の受光面から前記底面側に向かって延びる遮光部である基板内遮光部を形成する基板内遮光部形成工程と、を備え、前記基板内遮光部は、前記半導体基板を貫通する貫通部を有し、前記貫通部において、前記サイドウォールに接するものである。前記基板内遮光部形成工程は、前記サイドウォールをエッチングストッパとするエッチングによってトレンチを形成するトレンチ形成工程を有していてもよい。
 前記撮像素子の製造方法は、前記受光面を覆う遮光部である受光面遮光部を形成する受光面遮光部形成工程と、前記受光面遮光部の前記光電変換部と重なる領域に開口部を形成する開口部形成工程と、をさらに備え、前記開口部形成工程は、前記基板内遮光部の前記受光面側の端部が前記開口部から離間するように前記開口部を形成するものであってもよい。
 本開示の一側面による電子機器は、撮像素子を備えた電子機器であって、前記撮像素子は、半導体基板と、前記半導体基板内に配置され、受光量に応じた電荷を光電変換により生成する光電変換部と、前記半導体基板内に配置され、前記光電変換部から転送された電荷を保持する電荷保持部と、前記半導体基板の裏面上であって、前記電荷保持部と重なる領域に配置された転送トランジスタのゲートと、前記ゲートの周囲に形成されたサイドウォールと、前記半導体基板内のセンサ画素の境界領域に配置され、前記半導体基板の受光面から前記裏面側に向かって延びる遮光部である基板内遮光部と、を備え、前記基板内遮光部は、前記半導体基板を貫通する貫通部を有し、前記貫通部において、前記サイドウォールに接している。
本実施形態の撮像素子の概略構成を示すブロック図である。 センサ画素の等価回路図である。 画素アレイ部内の一部の画素領域の平面レイアウト図である。 本実施形態の撮像素子の断面構造を示す縦断面図であり、図3のA-A断面を示す。 第1の遮光部の配置を示す平面レイアウト図である。 第2及び第3の遮光部の配置を示す平面レイアウト図である。 本実施形態の撮像素子の断面構造の詳細を示す縦断面図である。 比較例1の撮像素子の断面構造を示す拡大縦断面図である。 比較例2の撮像素子の断面構造を示す拡大縦断面図である。 開口部を大きくできることを示す平面レイアウト図である。 変形例1の撮像素子における第2及び第3の遮光部の配置を示す平面レイアウト図である。 変形例2の撮像素子の断面構造を示す縦断面図である。 本実施形態の撮像素子の製造方法の一例を示す縦断面図であり、半導体基板の底面側の処理を示す。 図13Aに続く縦断面図である。 図13Bに続く縦断面図である。 図13Cに続く縦断面図である。 図13Dに続く縦断面図である。 本実施形態の撮像素子の製造方法の一例を示す縦断面図であり、半導体基板の受光面側の処理を示す。 図14Aに続く縦断面図である。 図14Bに続く縦断面図である。 図14Cに続く縦断面図である。 図14Dに続く縦断面図である。 図14Eに続く縦断面図である。 図14Fに続く縦断面図である。 図14Gに続く縦断面図である。 図14Hに続く縦断面図である。 図14Iに続く縦断面図である。 電子機器としてのカメラの構成例を示すブロック図である。 移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 撮像部の設置位置の例を示す図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下、本開示の実施の形態の一例(以下、「本実施形態」という。)について、図面を参照しつつ説明する。なお、説明は以下の順序で行う。
1.本実施形態の撮像素子の構造
2.変形例
3.本実施形態の撮像素子の製造方法
4.電子機器への適用例
5.移動体への適用例
6.内視鏡手術システムへの応用例
7.まとめ
<1.本実施形態の撮像素子の構造>
 本実施形態の撮像素子10は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサによるグローバルシャッタ方式の裏面照射型のイメージセンサである。本実施形態の撮像素子10は、被写体からの光を画素ごとに受光して光電変換し、電気信号である画素信号を生成する。
 グローバルシャッタ方式とは、全画素の露光の開始と終了とを同時に行う方式である。ここで、全画素とは、有効な画像を形成する全ての画素を指し、画像形成に寄与しないダミー画素等は除外される。また、画像の歪みや露光時間差が問題にならない程度に十分小さければ、必ずしも同時で無くてもよい。例えば、複数行(数十行など)単位で同時露光を行う動作を、行方向に複数行単位でずらしながら繰り返す場合も、グローバルシャッタ方式に含まれる。また、一部の画素領域に対してのみ、同時露光を行う場合も、グローバルシャッタ方式に含まれる。
 裏面照射型のイメージセンサとは、被写体からの光が入射する受光面と各画素を駆動させるトランジスタ等の配線が設けられた配線層との間に、被写体からの光を受光して電気信号に変換するフォトダイオード等の光電変換部を、画素ごとに配置したイメージセンサである。なお、本開示に係る技術は、CMOSイメージセンサ以外の撮像方式のイメージセンサにも適用できる場合がありうる。
 (撮像素子10のブロック構成)
 図1は、本実施形態の撮像素子10の概略構成を示すブロック図である。
 本実施形態の撮像素子10は、後述するとおり、半導体基板101上に形成されるものであるため、正確には固体撮像素子であるが、以下では、単に撮像素子と呼ぶ。
 撮像素子10は、例えば、画素アレイ部11と、垂直駆動部12と、カラム信号処理部13と、水平駆動部14と、システム制御部15と、信号処理部16と、を備える。
 画素アレイ部11は、被写体から入射した光の量に応じた電荷を生成して蓄積する光電変換部PDを含むセンサ画素50を複数有する。複数のセンサ画素50は、図1に示すように、横方向(行方向)及び縦方向(列方向)のそれぞれに配列される。センサ画素50は、撮像素子10の画素に対応する。
 また、画素アレイ部11は、画素駆動線17と、垂直信号線18と、を有する。画素駆動線17は、行方向に一列に配列されたセンサ画素50からなる画素行ごとに、行方向に沿って配線されている。垂直信号線18は、列方向に一列に配列されたセンサ画素50からなる画素列ごとに、列方向に沿って配線されている。
 垂直駆動部12は、シフトレジスタやアドレスデコーダなどからなる。垂直駆動部12は、複数の画素駆動線17を介して複数のセンサ画素50に対して信号等をそれぞれ供給することにより、画素アレイ部11における複数のセンサ画素50の全てを同時に駆動させ、又は、画素行単位で駆動させる。
 カラム信号処理部13は、シフトレジスタやアドレスデコーダなどからなり、ノイズ除去処理、相関二重サンプリング処理、A/D変換処理等を行い、画素信号を生成する。カラム信号処理部13は、生成した画素信号を信号処理部16に供給する。
 水平駆動部14は、カラム信号処理部13の画素列に対応する単位回路を順番に選択する。この水平駆動部14による選択走査により、カラム信号処理部13において単位回路ごとに信号処理された画素信号が、順番に信号処理部16に出力されるようになっている。
 システム制御部15は、各種のタイミング信号を生成するタイミングジェネレータなどからなる。システム制御部15は、タイミングジェネレータで生成されたタイミング信号に基づいて、垂直駆動部12、カラム信号処理部13及び水平駆動部14の駆動制御を行なう。
 信号処理部16は、必要に応じて、カラム信号処理部13から供給された画素信号に対して演算処理等の信号処理を行ない、各画素信号からなる画像信号を出力するものである。
 (センサ画素50の回路構成)
 図2は、センサ画素50の等価回路図である。図3は、画素アレイ部11内の一部の画素領域の平面レイアウト図である。図3は、4画素分の画素領域を示している。
 図2及び図3に示すように、センサ画素50は、光電変換部PDと、電荷保持部MEMと、3つの転送トランジスタTRY、TRX、TRGと、浮遊拡散領域FDと、排出トランジスタOFGと、リセットトランジスタRSTと、増幅トランジスタAMPと、選択トランジスタSELと、を有する。
 光電変換部PDは、例えば、フォトダイオードとして構成され、受光量に応じた電荷を光電変換により生成する。
 電荷保持部MEMは、グローバルシャッタ機能を実現するために、光電変換部PDで生成及び蓄積された電荷を一時的に保持する領域である。電荷保持部MEMは、光電変換部PDから転送されてきた電荷を保持する。
 転送トランジスタTRY及びTRXは、電荷保持部MEM上に、光電変換部PDの側から転送トランジスタTRY及びTRXの順に並んで、配置されている。転送トランジスタTRY及びTRXのゲートは、画素駆動線17に接続されている。転送トランジスタTRY及びTRXは、ゲート電極に印加される制御信号によって電荷保持部MEMのポテンシャルを制御して、光電変換部PDで光電変換された電荷を転送する。
 例えば、転送トランジスタTRY及びTRXがオンすると、電荷保持部MEMのポテンシャルが深くなり、転送トランジスタTRY及びTRXがオフすると、電荷保持部MEMのポテンシャルが浅くなる。そして、例えば、転送トランジスタTRY及びTRXがオンすると、光電変換部PDに蓄積されている電荷が、転送トランジスタTRY及びTRXを介して、電荷保持部MEMに転送されることになる。
 転送トランジスタTRGは、転送トランジスタTRXと浮遊拡散領域FDとの間に配置されている。転送トランジスタTRGのソースは、転送トランジスタTRXのドレインに電気的に接続され、転送トランジスタTRGのドレインは、浮遊拡散領域FDに電気的に接続されている。転送トランジスタTRGのゲートは、画素駆動線17に接続されている。転送トランジスタTRGは、ゲート電極に印加される制御信号に応じて、電荷保持部MEMに保持されている電荷を浮遊拡散領域FDに転送する。
 例えば、転送トランジスタTRXがオフして、転送トランジスタTRGがオンすると、電荷保持部MEMに保持されている電荷が、浮遊拡散領域FDに転送される。
 浮遊拡散領域FDは、転送トランジスタTRGを介して光電変換部PDから出力された電荷を一時的に保持する領域である。浮遊拡散領域FDには、例えば、リセットトランジスタRSTが接続されるとともに、増幅トランジスタAMP及び選択トランジスタSELを介して垂直信号線18(VSL)が接続されている。
 増幅トランジスタAMPは、ゲート電極が浮遊拡散領域FDに接続され、ドレインが電源線VDDに接続されており、光電変換部PDでの光電変換によって得られる電荷を読み出すソースフォロワ回路の入力部となる。すなわち、増幅トランジスタAMPは、ソースが選択トランジスタSELを介して垂直信号線18(VSL)に接続されることにより、垂直信号線18(VSL)の一端に接続される定電流源(図示を省略)とソースフォロワ回路を構成する。
 選択トランジスタSELは、増幅トランジスタAMPのソースと垂直信号線18(VSL)との間に接続されている。選択トランジスタSELのゲート電極には、選択信号として制御信号が供給される。選択トランジスタSELは、制御信号がオンすると導通状態となり、選択トランジスタSELに連結されたセンサ画素50が選択状態となる。センサ画素50が選択状態になると、増幅トランジスタAMPから出力される画素信号が、垂直信号線18(VSL)を介してカラム信号処理部13に読み出される。
 排出トランジスタOFGは、ゲート電極に印加される制御信号に応じて、光電変換部PDを初期化(リセット)する。排出トランジスタOFGのドレインは、電源線VDDに接続されている。排出トランジスタOFGのソースは、光電変換部PDと転送トランジスタTRYとの間に接続されている。
 例えば、排出トランジスタOFGがオンすると、光電変換部PDの電位が電源線VDDの電位レベルにリセットされる。すなわち、光電変換部PDの初期化が行われる。また、排出トランジスタOFGは、例えば、光電変換部PDと電源線VDDとの間にオーバーフローパスを形成し、光電変換部PDから溢れた電荷を電源線VDDに排出する。
 リセットトランジスタRSTは、ゲート電極に印加される制御信号に応じて、電荷保持部MEMから浮遊拡散領域FDまでの各領域を初期化(リセット)する。リセットトランジスタRSTのドレインは、電源線VDDに接続されている。リセットトランジスタRSTのソースは、浮遊拡散領域FDに接続されている。
 例えば、転送トランジスタTRG及びリセットトランジスタRSTがオンすると、電荷保持部MEM及び浮遊拡散領域FDの電位が電源線VDDの電位レベルにリセットされる。すなわち、リセットトランジスタRSTをオンすることで、電荷保持部MEM及び浮遊拡散領域FDの初期化が行われる。
 なお、センサ画素50内の各トランジスタの平面レイアウトは、図3に示したものに限定されない。センサ画素50内の各トランジスタの配置が変われば、その下方に配置される光電変換部PDや電荷保持部MEMの配置場所も変化する。
(撮像素子10の構造の概要)
 図4は、本実施形態の撮像素子10の断面構造を示す縦断面図であり、図3のA-A断面を示す。図5及び図6は、遮光部110の配置を示す平面レイアウト図である。図5は、第1の遮光部111の配置を示し、図6は、第2及び第3の遮光部112、113の配置を示す。
 撮像素子10は、図面の上から順に積層された、半導体基板101と、絶縁層102、103と、遮光層104と、配線層105と、を有する。また、撮像素子10は、半導体基板101内に形成された光電変換部PD及び電荷保持部MEMと、絶縁層102と絶縁層103との間に形成されたゲート130と、を有する。このゲート130の周囲には、サイドウォール131が形成されている。さらに、撮像素子10は、半導体基板101の受光面101B上及び内部に形成された遮光部110を有する。
 本明細書では、半導体基板101における配線層105が配置される側(図4の下側)の一主面を底面101Aと呼び、その反対側(図4の上側)の一主面を受光面101Bと呼ぶ。底面101Aは、半導体基板101の光入射面とは反対の面である。受光面101Bは、半導体基板101の光入射面である。また、本明細書において、底面101Aを表面又は第1面と呼び、受光面101Bを裏面又は第2面と呼ぶこともある。
 半導体基板101は、例えば、シリコン基板からなる。
 絶縁層102、103は、絶縁性を有する層である。絶縁層102、103は、半導体基板101と配線層105とを絶縁する。絶縁層102は、ゲート130と半導体基板101との間の絶縁膜を兼ねている。
 遮光層104は、遮光性を有する層であり、光の吸収特性又は反射特性に優れている。遮光層104は、光電変換部PDで吸収されずに半導体基板101を透過した光が配線層105に入射することを抑制する。これにより、半導体基板101を透過した光が、配線層105に入射し、配線層105で反射されて、電荷保持部MEMに入射することが抑制される。
 ゲート130は、転送トランジスタTRYのゲートに相当する。ゲート130のサイドウォール131は、絶縁材料であって、且つ、エッチングストッパとして機能する材料により構成される。また、サイドウォール131の幅W1は、後述の第2及び第3の遮光部112、113の貫通部112A、113Aの底面101A側の端部における幅W2よりも広く設定される。図4で示されているゲート130は、転送トランジスタTRYのゲートに相当するものであるが、転送トランジスタTRX、TRGのゲート130も同様の構造を有する。
 遮光部110は、遮光性を有する部材であり、光の吸収特性又は反射特性に優れている。遮光部110は、半導体基板101の受光面101B上に形成された第1の遮光部111と、第1の遮光部111に接続し、半導体基板101の受光面101Bから底面101Aに向かって延びる壁状の第2及び第3の遮光部112、113と、を有する。なお、本明細書において、第1の遮光部111を「受光面遮光部」と呼び、第2及び第3の遮光部112、113を「基板内遮光部」と呼ぶこともある。
 第1の遮光部111は、図4及び図5に示すように、受光面101Bのうち光電変換部PDの上方を除く領域を覆うように形成されている。つまり、第1の遮光部111は、光電変換部PDと重なる領域に形成された開口部120を有する。第1の遮光部111は、光電変換部PDの領域以外の領域に光が入射することを抑制する。
 第2の遮光部112は、図4及び図6に示すように、センサ画素50の境界領域に位置し、受光面101Bから底面101Aに向かって延びるとともに、受光面101Bと直交する平面の面内方向に広がるように形成されている。図示された例では、第2の遮光部112は、XZ平面の面内方向に広がったものとなっている。また、第2の遮光部112は、X軸方向には複数のセンサ画素50にわたって延びている。第2の遮光部112は、光電変換部PDで吸収されなかった入射光が、隣接するセンサ画素50の電荷保持部MEMに入射することを抑制する。
 第2の遮光部112は、半導体基板101を貫通する貫通部112Aと、半導体基板101を貫通しない非貫通部112Bと、を有する。貫通部112Aは、半導体基板101を貫通して、ゲート130のサイドウォール131に接している。一方、非貫通部112Bは、半導体基板101を貫通せずに、その底面101A側の端部が半導体基板101の内部に存在する。図示された例では、貫通部112Aは、光電変換部PDの周辺の領域に配置され、非貫通部112Bは、その他の領域に配置されている。
 このように第2の遮光部112の貫通部112Aがゲート130のサイドウォール131に接している点は、本実施形態の撮像素子10の技術的特徴の一つとなっている。この点の詳細については、後述する。
 第3の遮光部113は、図4及び図6に示すように、センサ画素50内の光電変換部PDと電荷保持部MEMとの中間領域に位置し、受光面101Bから底面101Aに向かって延びるとともに、受光面101Bと直交する平面の面内方向に広がるように形成されている。図示された例では、第3の遮光部113は、XZ平面の面内方向に広がったものとなっている。また、第3の遮光部113は、X軸方向には複数のセンサ画素50にわたって延びている。第3の遮光部113は、光電変換部PDで吸収されなかった入射光が、センサ画素50内の電荷保持部MEMに入射することを抑制する。
 第3の遮光部113は、第2の遮光部112と同様、半導体基板101を貫通する貫通部113Aと、半導体基板101を貫通しない非貫通部113Bと、を有する。貫通部113Aは、半導体基板101を貫通して、ゲート130のサイドウォール131に接続している。一方、非貫通部113Bは、半導体基板101を貫通せずに、その底面101A側の端部が半導体基板101の内部に存在する。図示された例では、貫通部113Aは、光電変換部PDと転送トランジスタTRX、TRGとの間の領域に配置され、非貫通部113Bは、その他の領域に配置されている。
 また、本実施形態の撮像素子10は、第2及び第3の遮光部112、113の受光面101B側の端部が、第1の遮光部111の開口部120から離間したものとなっている。さらに、本実施形態の撮像素子10は、第1の遮光部111の開口部120から第2の遮光部112の受光面101B側の端部までの距離d1が50nm以上となっている。また、本実施形態の撮像素子10は、第1の遮光部111の開口部120から第3の遮光部113の受光面101B側の端部までの距離d2が50nm以上となっている。
 この構成によって、本実施形態の撮像素子10は、製造時において第2及び第3の遮光部112、113の側壁部の周辺領域に発生するエッチングダメージが軽減され、白点の発生が抑制されたものとなっている。この点の詳細については、後述する。
 なお、図4に示すように、半導体基板101の受光面101B上には、例えば、絶縁層106、カラーフィルタ107及びマイクロレンズ108等が積層される。また、図示を省略するが、配線層105の底面には、例えば、支持基板が積層される。以下の図面においては、支持基板、絶縁層106、カラーフィルタ107及びマイクロレンズ108等の図示を省略する。
(撮像素子10の構造の詳細)
 図7は、本実施形態の撮像素子10の断面構造の詳細を示す縦断面図である。
 本実施形態の撮像素子10では、半導体基板101として、N型のシリコン基板を用いている。図中の「n-sub」は、N型基板の領域を示し、「p-well」は、P型ウェルの領域を示している。また、図中の「P」及び「N」の記号は、それぞれP型半導体領域及びN型半導体領域を表している。さらに、「P+」、「N-」及び「N+」の各記号における末尾の「+」又は「-」は、不純物濃度を表している。「+」は、不純物濃度が高いことを示し、「-」は、不純物濃度が低いことを示す。これらは、以降の図面についても同様である。
 図7に示す例では、N型の半導体基板101内にP型ウェル(p-well)が形成され、そのP型ウェル内に、光電変換部PD及び電荷保持部MEMが形成されている。
 光電変換部PDは、受光面101Bに近い位置から順に、P型半導体領域(p-well)とN-型半導体領域とを有する。受光面101Bから入射した光がN-型半導体領域で光電変換されて、電荷が生成される。そこで生成された電荷は、そのN-型半導体領域に蓄積される。また、N-型半導体領域と半導体基板101の底面101Aとの間に P+半導体領域が形成されている。このP+型半導体領域は、半導体基板101の表面準位をピンニングする領域である。なお、半導体基板101内に形成される光電変換部PDの層構成は、必ずしも図7に示したものに限定されない。
 電荷保持部MEMは、P型半導体領域(p-well)内に設けられたN+半導体領域として構成されている。また、N+型半導体領域と半導体基板101の底面101Aとの間にP+半導体領域が形成されている。このP+型半導体領域は、半導体基板101の表面準位をピンニングする領域である。
 絶縁層102、103は、例えば、SiO(シリコン酸化物)、SiN(シリコン窒化物)などにより構成される。絶縁層102は、後述のゲート130の絶縁膜を兼ねる。絶縁層103は、それぞれ異なる絶縁材料からなる複数の層を有するものであってもよい。また、絶縁層102は、その一部又は全部が絶縁層102と一体的に形成されたものであってもよい。
 遮光層104は、例えば、タングステン(W)、アルミニウム(Al)、銅(Cu)、銀(Ag)、Au(金)、白金(Pt)、モリブデン(Mo)、クロム(Cr)、チタン(Ti)、ニッケル(Ni)、鉄(Fe)等の金属、シリコン(Si)、ゲルマニウム(Ge)、テルル(Te)等の半導体、並びに、これらの合金などにより構成される。また、遮光層104は、これらの金属等の積層構造にすることもできる。
 転送トランジスタTRYのゲート130は、半導体基板101の底面101A側に、絶縁層102を介して設けられている。また、ゲート130は、電荷保持部MEMと少なくとも部分的に重なる領域に配置される。ゲート130は、例えば、P型のポリシリコンにより構成される。
 ゲート130の周囲に形成されたサイドウォール131は、例えば、SiN(シリコン窒化物)など、絶縁材料であって、且つ、エッチングストッパとして機能する材料により構成される。転送トランジスタTRX、TRGのゲートも、転送トランジスタTRYのゲート130と同じ構成を有する。
 浮遊拡散領域FDは、図示を省略するが、P型半導体領域(p-well)内に設けられたN+型半導体領域として構成されている。
 遮光部110は、遮光材料部110aと、その周囲を覆う絶縁膜110bと、を有する。また、遮光部110は、その絶縁膜110bの周囲に固定電荷層が形成されていてもよい。固定電荷層は、例えば、P+型半導体領域として形成できる。
 遮光材料部110aは、例えば、タングステン(W)、アルミニウム(Al)、銅(Cu)等の金属により構成される。
 絶縁膜110bは、例えば、SiO(シリコン酸化物)などの絶縁材料により構成される。絶縁膜110bにより、遮光材料部110aと半導体基板101との電気的絶縁性が確保される。
 図7に示すとおり、本実施形態の撮像素子10は、第2の遮光部112の貫通部112Aが、ゲート130のサイドウォール131に接したものとなっている。より具体的には、本実施形態の撮像素子10は、第2の遮光部112の貫通部112Aの底面101A側の端部が、ゲート130のサイドウォール131に接したものとなっている。
 図8は、比較例1の撮像素子10の断面構造を示す拡大縦断面図である。この比較例1の撮像素子10は、第2の遮光部112の貫通部112Aの底部が、ゲート130のサイドウォール131から離れた場所に位置している。
 比較例1の撮像素子10においては、図8で示すとおり、光電変換部PDで吸収されずに半導体基板101を透過し、第2の遮光部112の貫通部112Aと遮光層104との間に至った光が、絶縁層103のみを通って、隣接するセンサ画素50の電荷保持部MEMに至ることになる。
 一方、本実施形態の撮像素子10においては、図7で示すとおり、光電変換部PDで吸収されずに半導体基板101を透過し、第2の遮光部112の貫通部112Aと遮光層104との間に至った光が、絶縁層103と、サイドウォール131と、絶縁膜110bと、の3つの層を通って、隣接するセンサ画素50の電荷保持部MEMに至ることになる。光が通過する層の数が増えると、その分、光が通過する界面の数も増えることになる。光は、界面において反射、散乱されるので、光が通過する層の数が増えるほど、電荷保持部MEMへの光の入射が抑制されることになる。
 そのため、本実施形態の撮像素子10は、比較例1の撮像素子10よりも、光電変換部PDで吸収されずに半導体基板101を透過した光の隣接するセンサ画素50の電荷保持部MEMへの入射が抑制されたものとなっている。要するに、本実施形態の撮像素子10は、隣接するセンサ画素50間のクロストークの発生が抑制されたものとなっている。
 また、上述のとおり、光が電荷保持部MEMに至るまでに通過する層の数が多いほど電荷保持部MEMへの光の入射が抑制されることになることから、絶縁層103は、それぞれ異なる絶縁材料からなる複数の層を有するものであることが好ましい。
 図9は、比較例2の撮像素子10の断面構造を示す拡大縦断面図である。この比較例2の撮像素子10は、第2の遮光部112の貫通部112Aが、絶縁層103も貫通し、遮光層104に接したものとなっている。
 比較例2の撮像素子10においては、第2の遮光部112の貫通部112Aと遮光層104とが接していることから、クロストークの発生が抑制されたものとなっている。しかし、この構成においては、貫通部112Aの形成のためのトレンチ加工におけるエッチングによる半導体基板101等へのダメージや、遮光層104の遮光材料の露出による汚染などによって、撮像素子10の暗時特性が劣化することが、本開示の開示者らによって見出されている。
 一方、本実施形態の撮像素子10は、このような暗示特性の劣化が生じることなく、隣接するセンサ画素50間におけるクロストークの発生が抑制されたものとなっている。
 以上においては、センサ画素50の境界領域に配置される第2の遮光部112の貫通部112Aについて説明したが、センサ画素50内の光電変換部PDと電荷保持部MEMとの中間領域に配置される第3の遮光部113の貫通部113Aについても、同様の説明が当てはまる。
 つまり、本実施形態の撮像素子10は、第3の遮光部113の貫通部113Aも、ゲート130のサイドウォール131に接したものとなっている(図6参照)。そのため、本実施形態の撮像素子10は、光電変換部PDで吸収されずに半導体基板101を透過した光のセンサ画素50内の電荷保持部MEMへの入射が抑制されたものとなっている。要するに、本実施形態の撮像素子10は、センサ画素50内でのクロストークの発生が抑制されたものとなっている。また、本実施形態の撮像素子10は、このような暗示特性の劣化が生じることなく、センサ画素50内におけるクロストークの発生が抑制されたものとなっている。
 また、本実施形態の撮像素子10は、図6及び図10に示すように、第2及び第3の遮光部112、113がゲート130に近接した位置に配置されることになることから、センサ画素50の微細化や、光電変換部PD及び開口部120を大きくすることが可能である。図10は、開口部120を大きくできることを示す平面レイアウト図であり、左図が従来の撮像素子10を示し、右図が本実施形態の撮像素子10を示している。
 光電変換部PDを大きくすることによって、撮像素子10の感度及びQs(飽和電荷量)の改善を図ることが可能となる。また、開口部120を大きくすることによって、撮像素子10の感度及び斜入射特性の改善を図ることが可能となる。
 つまり、本実施形態の撮像素子10は、クロストークの発生の抑制と、センサ画素50の微細化並びに撮像素子10の感度、Qs(飽和電荷量)及び斜入射特性の改善と、を同時に実現できるものとなっている。
 さらに、本開示の開示者らは、研究の結果、第1の遮光部111の開口部120から第2の遮光部112の受光面101B側の端部からまでの距離d1と、第1の遮光部111の開口部120から第3の遮光部113の受光面101B側の端部までの距離d2と、を大きくとることによって、撮像素子10における白点の発生が抑制されることを見出した。
 また、本開示の開示者らは、白点の発生が抑制されるのは、上述の距離d1、d2を大きくとることによって、後述の撮像素子10の製造時における開口部120の形成の際に(図14J参照)、第2及び第3の遮光部112、113の側壁部の周辺領域に生じるエッチングダメージが軽減されるためであることを見出した。この第2及び第3の遮光部112、113の側壁部の周辺領域は、具体的には、第2又は第3の遮光部112、113と半導体基板101領域との境界領域である。
 さらに、本開示の開示者らは、上述の距離d1、d2を50nm以上とすることによって、効果的に白点の発生が抑制されることを見出した。
 そのため、本実施形態の撮像素子10は、第2及び第3の遮光部112、113の受光面101B側の端部が、第1の遮光部111の開口部120から離間していることを特徴の一つとしている。さらに、本実施形態の撮像素子10は、第1の遮光部111の開口部120から第2の遮光部112の受光面101B側の端部までの距離d1が50nm以上となっていることを特徴の一つとしている。また、第1の遮光部111の開口部120から第3の遮光部113の受光面101B側の端部までの距離d2が50nm以上となっていることを特徴の一つとしている。
 ここで、第2及び第3の遮光部112、113の受光面101B側の端部の位置は、半導体基板101の加工界面の位置、より具体的には、後述の製造時に形成されるトレンチ301T、302T(図14G参照)の受光面101B側の開口縁部の位置をいうものとする。図7に示す例では、第2及び第3の遮光部112、113の受光面101B側の端部の位置は、絶縁膜110bと半導体基板101領域との境界面の受光面101B側の端部となる。
 このように、本実施形態の撮像素子10は、上述の距離d1、d2を50nm以上とすることによって、製造時において第2及び第3の遮光部112、113の側壁部の周辺領域に生じるエッチングダメージが軽減され、白点の発生が抑制されたものとなっている。
 しかし、本開示の撮像素子10は、上述の距離d1及びd2の一方又は双方が50nm未満であってもよい。上述の距離d1、d2を小さくすることによって生じる欠点よりも、開口部120を大きくすることによって得られる利点が上回る場合には、上述の距離d1、d2を50nm未満とすることも考えられる。
 以上をまとめると、本実施形態の撮像素子10は、半導体基板101と、光電変換部PDと、電荷保持部MEMと、半導体基板101の底面101A上であって、電荷保持部MEMと重なる領域に配置された転送トランジスタTRX、TRY、TRGのゲート130と、ゲート130の周囲に形成されたサイドウォール131と、半導体基板101内のセンサ画素50の境界領域に配置された第2の遮光部(基板内遮光部)112と、を備える。そして、第2の遮光部(基板内遮光部)112は、半導体基板101を貫通する貫通部112Aを有し、貫通部112Aにおいて、サイドウォール130に接しているものとなっている。
 このような撮像素子10は、センサ画素50間及びセンサ画素50内におけるクロストークの発生が抑制されていることから、光学的ノイズの発生が抑制されたものとなっている。
 さらに、本実施形態の撮像素子10は、半導体基板101の受光面101Bを覆う第1の遮光部(受光面遮光部)111をさらに備え、第1の遮光部(受光面遮光部)111は、光電変換部MEMと重なる領域に形成された開口部120を有し、第2の遮光部(基板内遮光部)112の受光面101B側の端部は、開口部120から離間したものとなっている。
 このような撮像素子10は、製造時におけるエッチングダメージが軽減されたものとなっていることから、白点の発生が抑制されたものとなっている。
<2.変形例>
 次に、変形例の撮像素子10について説明する。
(変形例1)
 図11は、変形例1の撮像素子10における第2及び第3の遮光部112、113の配置を示す平面レイアウト図である。
 変形例1の撮像素子10は、第3の遮光部113の貫通部113Aがサイドウォール131から離れた場所に位置するものとなっている。このように、本開示の撮像素子10は、第3の遮光部113の貫通部113Aがサイドウォール131から離れた場所に位置するものであってもよい。この場合、従来の撮像素子10からの変更点が少なくなる。そのため、変形例1の撮像素子10は、従来の撮像素子10の設計の多くを流用できるという利点を有する。ただし、本実施形態の撮像素子10のように、第3の遮光部113の貫通部113Aもサイドウォール131に接するものとすることで、センサ画素50内のクロストークがより抑制されたものになるとともに、センサ画素50の微細化並びに撮像素子10の感度、Qs(飽和電荷量)及び斜入射特性のさらなる改善を測ることが可能となる。
(変形例2)
 図12は、変形例2の撮像素子10の構造を示す縦断面図である。
 変形例2の撮像素子10は、第2及び第3の遮光部112、113の貫通部112A、113Aの一部が、ゲート130のサイドウォール131に接するものとなっている。より具体的には、変形例2の撮像素子10は、第2及び第3の遮光部112、113の貫通部112A、113Aの底面101A側の端部の全部がサイドウォール131に接しているのではなく、その一部がサイドウォール131に接するものとなっている。
 このように、本開示の撮像素子10は、第2及び第3の遮光部112、113の貫通部112A、113Aの一部のみがサイドウォール131に接するものであってもよい。この場合、サイドウォール131の幅W1を第2及び第3の遮光部112、113の貫通部112A、113Aの底面101A側の端部における幅W2よりも広く設定する必要はない。そのため、変形例2の撮像素子10は、その製造において、従来のサイドウォール131の形成プロセスをそのまま流用できるという利点を有する。ただし、本実施形態の撮像素子10のように、第2及び第3の遮光部112、113の貫通部112A、113Aの底面101A側の端部の全部がサイドウォール131に接するものとすることで、センサ画素50間及びセンサ画素50内におけるクロストークの発生がより抑制されたものとなる。
<3.本実施形態の撮像素子10の製造方法>
 次に、本実施形態の撮像素子10の製造方法の一例について説明する。
 図13A~図13E、図14A~図14Jは、撮像素子10の製造方法の一例を示す縦断面図である。図13A~図13Eは、半導体基板101の底面101A側での処理を示しており、図14A~図14Jは、半導体基板101の受光面101B側での処理を示している。このことから、図13A~図13Eでは、底面101A側が図面の上方に配置され、図14A~図14Jでは、逆に、受光面101B側が図面の上方に配置されている。
 底面101A側の処理においては、まず、図13Aに示すように、半導体基板101内に、光電変換部PD及び電荷保持部MEMを形成する。光電変換部PD及び電荷保持部MEMの形成は、例えば、イオン注入などによって実現できる。
 次に、図13Bに示すように、半導体基板101の底面101Aに絶縁層102を形成した後、その絶縁層102上にゲート130を形成する。絶縁層102の形成は、例えば、熱酸化法、CVD(Chemical Vaper Deposition)法、ALD(Atomic Layer Deposition)法、スパッタリングなどによって実現できる。
 次に、図13Cに示すように、ゲート130の周囲にサイドウォール131を形成する。このとき、サイドウォール131の幅W1は、後述のトレンチ301Tの底部における幅W2(図14D参照)よりも広くなるように設定する。サイドウォール131の幅W1は、例えば、SiNの成膜量によって調整できる。
 なお、上述の変形例2の撮像素子10においては、第2及び第3の遮光部112、113の貫通部112A、113Aの一部のみが、ゲート130のサイドウォール131に接するものとなっているので、サイドウォール131の幅W1をトレンチ301Tの底面101A側の端部における幅W2よりも広くなるように設定する必要はない。
 次に、図13Dに示すように、ゲート130及び絶縁層102上に、絶縁層103と、遮光層104と、を順次積層する。絶縁層103の形成は、例えば、CVD法、ALD法、スパッタリングなどによって実現できる。遮光層104の形成は、例えば、CVD法やスパッタリングなどによって実現できる。
 次に、図13Eに示すように、絶縁層103上に配線層105を形成する。配線層105は、例えば、配線を構成する複数の金属層と、各金属層の間に形成された絶縁層と、によって構成される。この場合、配線層105は、金属層と絶縁層との成膜を繰り返すことによって形成される。この金属層の成膜は、例えば、銅(Cu)などの金属をめっきし、そのめっき層をCMP(Chemical Mechanical Polishing)により研磨することによって実現できる。絶縁層の成膜は、例えば、CVD法やスパッタリングなどによって実現できる。
 最後に、図示を省略するが、配線層105上に支持基板を接着し、半導体基板101を受光面101B側が上になるようにひっくり返した上で、受光面101B側の処理に移る。
 受光面101B側の処理においては、まず、図14Aに示すように、半導体基板101の受光面101B側をCMP等により薄肉化する。例えば、半導体基板101を、その厚みが3μmになるまで薄肉化する。
 次に、図14Bに示すように、受光面101B上に第2及び第3の遮光部112、113が形成される領域以外の領域を覆うハードマスク201を形成する。ハードマスク201は、例えば、SIO、SiNなどにより形成される。ハードマスク201の形成は、例えば、SIOを積層した後、第2及び第3の遮光部112、113が形成される領域以外の領域をレジスタで覆い、第2及び第3の遮光部112、113が形成される領域において異方性エッチングを行うことなどによって実現できる。
 次に、図14Cに示すように、ハードマスク201で覆われていない領域のうち、第2及び第3の遮光部112、113の非貫通部112B、113Bが形成される領域をレジスト202で塞いだ上で、ドライエッチングを行う。これによって、貫通部112A、113Aが形成される領域に、半導体基板101を貫通せずに、半導体基板101の厚み方向の中程まで延びるトレンチ301Tを形成する。
 次に、図14Dに示すように、非貫通部112B、113Bが形成される領域を塞いでいたレジスト202を除去した上で、さらに、ドライエッチングを行う。これによって、上述のトレンチ301Tを、半導体基板101を貫通するものにするとともに、非貫通部112B、113Bが形成される領域に、半導体基板101を貫通せずに、半導体基板101の厚み方向の中程まで延びるトレンチ302Tを形成する。
 このとき、半導体基板101を貫通したトレンチ301Tは、エッチングストッパとして機能するゲート130のサイドウォール131によって、そのエッチングが止められることになる。サイドウォール131は、このようなエッチングストッパとして機能するために、半導体基板101を貫通するトレンチ301Tの下方に位置するとともに、その幅W1がトレンチ301Tの底面101A側の端部の幅W2よりも広いものとなっている。
 このように、サイドウォール131をエッチングストッパとして利用することによって、トレンチ301Tの加工深さの面内均一性が優れたものとなる。これにより、加工マージンが拡大し、トレンチ301Tの形成が容易となる。
 なお、上述の変形例1及び2の撮像素子10においては、半導体基板101を貫通したトレンチ301Tの全部又は一部が、サイドウォール131から外れて絶縁層103に接することになる。そのため、変形例1及び2の撮像素子10は、絶縁層103がエッチングストッパとしての機能を有するものとなっている。
 次に、図14Eに示すように、後のハードマスク201の除去の工程においてトレンチ301T、302Tを保護するために、トレンチ301T、302T内にレジスト203を埋め込む。トレンチ301T、302T内へのレジスト203の埋め込みは、例えば、半導体基板101上にトレンチ301T、302Tを埋めるようにレジスト203をコートした後に、エッチバックを行うことなどにより実現できる。
 次に、図14Fに示すように、ハードマスク201を除去する。ハードマスク201の除去は、例えば、ウェットエッチングによって実現できる。
 次に、図14Gに示すように、トレンチ301T、302T内に埋め込まれたレジスト203を除去する。トレンチ301T、302Tに埋め込まれたレジスト203の除去は、例えば、SH洗浄を行うことなどにより実現できる。
 次に、図14Hに示すように、トレンチ301T、302Tの内面と受光面101Bとを覆うように、絶縁膜110bを形成する。絶縁膜110bの形成は、例えば、ALD(Atomic Layer Deposition)法を用いてSiO(酸化珪素)を堆積させることによって実現できる。
 次に、図13Iに示すように、絶縁膜110bが形成されたトレンチ301T、302Tの内部に遮光材料部101aを構成する遮光材料を埋め込むとともに、受光面101B上にその遮光材料を積層することによって、遮光部110の遮光材料部110aを形成する。遮光材料の埋め込み及び積層は、例えば、CVD法によって実現できる。
 次に、図14Jに示すように、開口部120が形成される領域の遮光材料部110a及び絶縁膜101bを除去することによって、開口部120を形成する。遮光材料部110a及び絶縁膜101bの除去は、例えば、ウェットエッチングによって実現できる。
 このとき、第2及び第3の遮光部112、113の側壁部の周辺領域に生じるエッチングダメージを軽減するために、開口部120の領域は、第2及び第3の遮光部112、113の受光面101B側の端部が開口部120から離間するように設定される。より好ましくは、開口部120から第2の遮光部112の受光面101B側の端部までの距離d1が50nm以上となるように設定される。また、開口部120から第3の遮光部113の受光面101B側の端部までの距離d2が50nm以上となるように設定される。
 最後に、受光面101B上に、絶縁層106、カラーフィルタ107及びマイクロレンズ108を順次積層する(図4参照)。
 以上をまとめると、本実施形態の撮像素子10の製造方法は、半導体基板101内に光電変換部PDを形成する光電変換部形成工程と、半導体基板101内に電荷保持部MEMを形成する電荷保持部形成工程と、半導体基板101の底面101A上であって、電荷保持部MEMと重なる領域に、転送トランジスタTRX、TRY、TRGのゲート130を形成するゲート形成工程と、ゲート130の周囲にサイドウォール131を形成するサイドウォール形成工程と、半導体基板101内のセンサ画素50の境界領域に第2の遮光部(基板内遮光部)112を形成する基板内遮光部形成工程と、を備える。そして、第2の遮光部(基板内遮光部)112は、半導体基板101を貫通する貫通部112Aを有し、貫通部112Aにおいて、サイドウォール130に接しているものとなっている。
 このような撮像素子10の製造方法によれば、光学的ノイズの発生が抑えられた撮像素子10を製造することが可能となる。
 また、本実施形態の撮像素子10の製造方法は、上述の基板内遮光部形成工程が、サイドウォール131をエッチングストッパとするエッチングによってトレンチ301Tを形成するトレンチ形成工程を有するものとなっている。
 このような撮像素子10の製造方法によれば、半導体基板101を貫通する第2の遮光部112の貫通部112Aの形成を容易に行うことが可能となる。
 また、本実施形態の撮像素子10の製造方法は、受光面101Bを覆う第1の遮光部((受光面遮光部)111を形成する受光面遮光部形成工程と、第1の遮光部(受光面遮光部)111の光電変換部PDと重なる領域に開口部120を形成する開口部形成工程と、をさらに備える。そして、この開口部形成工程は、第2の遮光部(基板内遮光部)112の受光面101B側の端部が開口部120から離間するように開口部120を形成するものとなっている。
 このような撮像素子10の製造方法によれば、白点の発生が抑えられた撮像素子10を製造することが可能となる。
<4.電子機器への適用例>
 図15は、本開示による技術を適用した電子機器としてのカメラ2000の構成例を示すブロック図である。
 カメラ2000は、レンズ群などからなる光学部2001と、上述の撮像素子10等が適用される撮像装置(撮像デバイス)2002と、カメラ信号処理回路であるDSP(Digital Signal Processor)回路2003と、を備える。また、カメラ2000は、さらに、フレームメモリ2004と、表示部2005と、記録部2006と、操作部2007と、電源部2008と、を備える。DSP回路2003、フレームメモリ2004、表示部2005、記録部2006、操作部2007及び電源部2008は、バスライン2009を介して相互に接続されている。
 光学部2001は、被写体からの入射光(像光)を取り込んで撮像装置2002の撮像面上に結像する。撮像装置2002は、光学部2001によって撮像面上に結像された入射光の光量を、画素単位で電気信号に変換して、画素信号として出力する。
 表示部2005は、例えば、液晶パネルや有機ELパネル等のパネル型表示装置からなり、撮像装置2002で撮像された動画又は静止画を表示する。記録部2006は、撮像装置2002で撮像された動画又は静止画を、ハードディスクや半導体メモリ等の記録媒体に記録する。
 操作部2007は、ユーザによる操作の下に、カメラ2000が持つ様々な機能について操作指令を発する。電源部2008は、DSP回路2003、フレームメモリ2004、表示部2005、記録部2006及び操作部2007の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 上述したように、撮像装置2002として、上述した撮像素子10等を用いることで、良好な画像の取得が期待できる。
<5.移動体への適用例>
 本開示に係る技術は、様々な製品へ適用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図16は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム12000の概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図16に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムに従って車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図16の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図17は、撮像部12031の設置位置の例を示す図である。
 図17では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図17には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、図1などに示した撮像素子10等を撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、車両制御システムの優れた動作が期待できる。
 <6.内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図18は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図18では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図19は、図18に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。具体的には、図1などに示した撮像素子10等は、撮像部11402に適用することができる。撮像部11402に本開示に係る技術を適用することにより、より鮮明な術部画像を得ることができるため、術者が術部を確実に確認することが可能になる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
<7.まとめ>
 以上、本開示の実施の形態の一例を説明したが、本開示は、その他の様々な形態で実施することが可能である。例えば、本開示の要旨を逸脱しない範囲で、種々の変形、置換、省略又はこれらの組み合わせが可能である。そのような変形、置換、省略等を行った形態も、本開示の範囲に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
 また、本明細書に記載された本開示の効果は例示に過ぎず、その他の効果があってもよい。
  なお、本開示は以下のような構成をとることも可能である。
[項目1]
 半導体基板と、
 前記半導体基板内に配置され、受光量に応じた電荷を光電変換により生成する光電変換部と、
 前記半導体基板内に配置され、前記光電変換部から転送された電荷を保持する電荷保持部と、
 前記半導体基板の底面上であって、前記電荷保持部と重なる領域に配置された転送トランジスタのゲートと、
 前記ゲートの周囲に形成されたサイドウォールと、
 前記半導体基板内のセンサ画素の境界領域に配置され、前記半導体基板の受光面から前記底面側に向かって延びる遮光部である基板内遮光部と、を備え、
 前記基板内遮光部は、前記半導体基板を貫通する貫通部を有し、前記貫通部において、前記サイドウォールに接している
 撮像素子。
[項目2]
 項目1に記載の撮像素子であって、
 前記サイドウォールの幅は、前記貫通部の前記底面側の端部の幅よりも広い撮像素子。
[項目3]
 項目1又は2に記載の撮像素子であって、
 前記半導体基板の前記受光面を覆う遮光部である受光面遮光部をさらに備え、
 前記受光面遮光部は、前記光電変換部と重なる領域に形成された開口部を有し、
 前記基板内遮光部の前記受光面側の端部は、前記開口部から離間している
 撮像素子。
[項目4]
 項目3に記載の撮像素子であって、
 前記開口部から前記基板内遮光部の前記受光面側の端部までの距離は、50nm以上である撮像素子。
[項目5]
 項目1から5のいずれか1つに記載の撮像素子であって、
 グローバルシャッタ方式の裏面照射型イメージセンサである撮像素子。
[項目6]
 半導体基板内に、受光量に応じた電荷を光電変換により生成する光電変換部を形成する光電変換部形成工程と、
 前記半導体基板内に、前記光電変換部から転送された電荷を保持する電荷保持部を形成する電荷保持部形成工程と、
 前記半導体基板の底面上であって、前記電荷保持部と重なる領域に、転送トランジスタのゲートを形成するゲート形成工程と、
 前記ゲートの周囲にサイドウォールを形成するサイドウォール形成工程と、
 前記半導体基板内のセンサ画素の境界領域に、前記半導体基板の受光面から前記底面側に向かって延びる遮光部である基板内遮光部を形成する基板内遮光部形成工程と、を備え、
 前記基板内遮光部は、前記半導体基板を貫通する貫通部を有し、前記貫通部において、前記サイドウォールに接するものである
 撮像素子の製造方法。
[項目7]
 項目6に記載の撮像素子の製造方法であって、
 前記基板内遮光部形成工程は、前記サイドウォールをエッチングストッパとするエッチングによってトレンチを形成するトレンチ形成工程を有する撮像素子の製造方法。
[項目8]
 請求項6又は7に記載の撮像素子の製造方法であって、
 前記受光面を覆う遮光部である受光面遮光部を形成する受光面遮光部形成工程と、
 前記受光面遮光部の前記光電変換部と重なる領域に開口部を形成する開口部形成工程と、をさらに備え、
 前記開口部形成工程は、前記基板内遮光部の前記受光面側の端部が前記開口部から離間するように前記開口部を形成するものである
 撮像素子の製造方法。
[項目9]
 撮像素子を備えた電子機器であって、
 前記撮像素子は、
 半導体基板と、
 前記半導体基板内に配置され、受光量に応じた電荷を光電変換により生成する光電変換部と、
 前記半導体基板内に配置され、前記光電変換部から転送された電荷を保持する電荷保持部と、
 前記半導体基板の裏面上であって、前記電荷保持部と重なる領域に配置された転送トランジスタのゲートと、
 前記ゲートの周囲に形成されたサイドウォールと、
 前記半導体基板内のセンサ画素の境界領域に配置され、前記半導体基板の受光面から前記裏面側に向かって延びる遮光部である基板内遮光部と、を備え、
 前記基板内遮光部は、前記半導体基板を貫通する貫通部を有し、前記貫通部において、前記サイドウォールに接している
 電子機器。
10 撮像素子
 11 画素アレイ部
 12 垂直駆動部
 13 カラム信号処理部
 14 水平駆動部
 15 システム制御部
 16 信号処理部
 17 画素駆動線
 18 垂直信号線
50 センサ画素
101 半導体基板
102、103、106 絶縁層
104 遮光層
105 配線層
107 カラーフィルタ
108 マイクロレンズ
110 遮光部、110a 遮光材料部、110b 絶縁膜
 111 第1の遮光部(受光面遮光部)
 112 第2の遮光部(基板内遮光部)、112A 貫通部、112B 非貫通部
 113 第3の遮光部(基板内遮光部)、113A 貫通部、113B 非貫通部
120 開口部
130 ゲート
131 サイドウォール
201 ハードマスク
202、203 レジスト
301T トレンチ(貫通部)
302T トレンチ(非貫通部)
PD 光電変換部
MEM 電荷保持部
TRX、TRY、TRG 転送トランジスタ
FD 浮遊拡散領域
OFG 排出トランジスタ
RST リセットトランジスタ
AMP 増幅トランジスタ
SEL 選択トランジスタ
VDD 電源線
VSL 垂直信号線

Claims (9)

  1.  半導体基板と、
     前記半導体基板内に配置され、受光量に応じた電荷を光電変換により生成する光電変換部と、
     前記半導体基板内に配置され、前記光電変換部から転送された電荷を保持する電荷保持部と、
     前記半導体基板の底面上であって、前記電荷保持部と重なる領域に配置された転送トランジスタのゲートと、
     前記ゲートの周囲に形成されたサイドウォールと、
     前記半導体基板内のセンサ画素の境界領域に配置され、前記半導体基板の受光面から前記底面側に向かって延びる遮光部である基板内遮光部と、を備え、
     前記基板内遮光部は、前記半導体基板を貫通する貫通部を有し、前記貫通部において、前記サイドウォールに接している
     撮像素子。
  2.  請求項1に記載の撮像素子であって、
     前記サイドウォールの幅は、前記貫通部の前記底面側の端部の幅よりも広い撮像素子。
  3.  請求項1に記載の撮像素子であって、
     前記半導体基板の前記受光面を覆う遮光部である受光面遮光部をさらに備え、
     前記受光面遮光部は、前記光電変換部と重なる領域に形成された開口部を有し、
     前記基板内遮光部の前記受光面側の端部は、前記開口部から離間している
     撮像素子。
  4.  請求項3に記載の撮像素子であって、
     前記開口部から前記基板内遮光部の前記受光面側の端部までの距離は、50nm以上である撮像素子。
  5.  請求項1に記載の撮像素子であって、
     グローバルシャッタ方式の裏面照射型イメージセンサである撮像素子。
  6.  半導体基板内に、受光量に応じた電荷を光電変換により生成する光電変換部を形成する光電変換部形成工程と、
     前記半導体基板内に、前記光電変換部から転送された電荷を保持する電荷保持部を形成する電荷保持部形成工程と、
     前記半導体基板の底面上であって、前記電荷保持部と重なる領域に、転送トランジスタのゲートを形成するゲート形成工程と、
     前記ゲートの周囲にサイドウォールを形成するサイドウォール形成工程と、
     前記半導体基板内のセンサ画素の境界領域に、前記半導体基板の受光面から前記底面側に向かって延びる遮光部である基板内遮光部を形成する基板内遮光部形成工程と、を備え、
     前記基板内遮光部は、前記半導体基板を貫通する貫通部を有し、前記貫通部において、前記サイドウォールに接するものである
     撮像素子の製造方法。
  7.  請求項6に記載の撮像素子の製造方法であって、
     前記基板内遮光部形成工程は、前記サイドウォールをエッチングストッパとするエッチングによってトレンチを形成するトレンチ形成工程を有する撮像素子の製造方法。
  8.  請求項6に記載の撮像素子の製造方法であって、
     前記受光面を覆う遮光部である受光面遮光部を形成する受光面遮光部形成工程と、
     前記受光面遮光部の前記光電変換部と重なる領域に開口部を形成する開口部形成工程と、をさらに備え、
     前記開口部形成工程は、前記基板内遮光部の前記受光面側の端部が前記開口部から離間するように前記開口部を形成するものである
     撮像素子の製造方法。
  9.  撮像素子を備えた電子機器であって、
     前記撮像素子は、
     半導体基板と、
     前記半導体基板内に配置され、受光量に応じた電荷を光電変換により生成する光電変換部と、
     前記半導体基板内に配置され、前記光電変換部から転送された電荷を保持する電荷保持部と、
     前記半導体基板の裏面上であって、前記電荷保持部と重なる領域に配置された転送トランジスタのゲートと、
     前記ゲートの周囲に形成されたサイドウォールと、
     前記半導体基板内のセンサ画素の境界領域に配置され、前記半導体基板の受光面から前記裏面側に向かって延びる遮光部である基板内遮光部と、を備え、
     前記基板内遮光部は、前記半導体基板を貫通する貫通部を有し、前記貫通部において、前記サイドウォールに接している
     電子機器。
PCT/JP2022/039480 2021-12-20 2022-10-24 撮像素子、撮像素子の製造方法、電子機器 Ceased WO2023119840A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/718,507 US20250056910A1 (en) 2021-12-20 2022-10-24 Imaging element, method for manufacturing imaging element, and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021206410 2021-12-20
JP2021-206410 2021-12-20

Publications (1)

Publication Number Publication Date
WO2023119840A1 true WO2023119840A1 (ja) 2023-06-29

Family

ID=86902008

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039480 Ceased WO2023119840A1 (ja) 2021-12-20 2022-10-24 撮像素子、撮像素子の製造方法、電子機器

Country Status (2)

Country Link
US (1) US20250056910A1 (ja)
WO (1) WO2023119840A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008614A1 (ja) * 2016-07-06 2018-01-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、撮像素子の製造方法、及び、電子機器
JP2018160485A (ja) * 2017-03-22 2018-10-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器
JP2018160486A (ja) * 2017-03-22 2018-10-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器
WO2019069556A1 (ja) * 2017-10-03 2019-04-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、固体撮像素子の製造方法、及び、電子機器
WO2020246133A1 (ja) * 2019-06-07 2020-12-10 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008614A1 (ja) * 2016-07-06 2018-01-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、撮像素子の製造方法、及び、電子機器
JP2018160485A (ja) * 2017-03-22 2018-10-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器
JP2018160486A (ja) * 2017-03-22 2018-10-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器
WO2019069556A1 (ja) * 2017-10-03 2019-04-11 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、固体撮像素子の製造方法、及び、電子機器
WO2020246133A1 (ja) * 2019-06-07 2020-12-10 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像装置

Also Published As

Publication number Publication date
US20250056910A1 (en) 2025-02-13

Similar Documents

Publication Publication Date Title
KR102805549B1 (ko) 촬상 소자 및 반도체 소자
JP7586709B2 (ja) 固体撮像装置および電子機器
US20240379709A1 (en) Light detection device, method of manufacturing light detection device, and electronic equipment
US20230052040A1 (en) Semiconductor device, imaging device, and manufacturing apparatus
US20240088191A1 (en) Photoelectric conversion device and electronic apparatus
TW202139447A (zh) 攝像裝置
US20240038807A1 (en) Solid-state imaging device
WO2019181466A1 (ja) 撮像素子、電子機器
US11417696B2 (en) Imaging element comprising polarization unit with a conductive member as an electrode for a charge holder
CN114051657A (zh) 半导体元件和电子设备
CN114270516A (zh) 摄像元件和摄像装置
CN114616822A (zh) 摄像元件和摄像装置
US20250221070A1 (en) Imaging device and semiconductor device
WO2019176302A1 (ja) 撮像素子および撮像素子の製造方法
WO2023017650A1 (ja) 撮像装置及び電子機器
US20250056910A1 (en) Imaging element, method for manufacturing imaging element, and electronic device
WO2023105783A1 (ja) 固体撮像装置およびその製造方法
JP7759387B2 (ja) 固体撮像装置およびその製造方法
JP7744921B2 (ja) 固体撮像装置
US20240387593A1 (en) Solid-state imaging device
CN115023811B (en) Imaging element, manufacturing method, and electronic device
WO2023021740A1 (ja) 撮像素子、撮像装置、製造方法
WO2024057814A1 (ja) 光検出装置および電子機器
TW202508039A (zh) 半導體裝置、半導體裝置之製造方法及光檢測裝置
TW202433097A (zh) 光學元件,光偵測器及電子裝置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22910562

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18718507

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22910562

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP