WO2025192627A1 - 顕微鏡装置 - Google Patents
顕微鏡装置Info
- Publication number
- WO2025192627A1 WO2025192627A1 PCT/JP2025/009243 JP2025009243W WO2025192627A1 WO 2025192627 A1 WO2025192627 A1 WO 2025192627A1 JP 2025009243 W JP2025009243 W JP 2025009243W WO 2025192627 A1 WO2025192627 A1 WO 2025192627A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- specimen
- illumination light
- light
- area
- illumination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/06—Means for illuminating specimens
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/02—Mountings, adjusting means, or light-tight connections, for optical elements for lenses
- G02B7/04—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/02—Illuminating scene
Definitions
- the present invention relates to a microscope device.
- a microscope device that divides the imaging area of a specimen, such as a tissue slice, into multiple regions in advance, images each of these regions at high magnification, and then combines the images.
- a microscope device performs so-called real-time AF, in which a stage on which the specimen is placed is moved in the scanning direction, and while imaging a certain region, in-focus position information for the next region to be imaged is calculated in parallel (see, for example, Patent Document 1).
- the microscope apparatus comprises a stage on which a specimen is placed facing an objective lens; a drive unit that moves the position of the stage relative to the objective lens in a scan direction that intersects the optical axis of the objective lens; an illumination optical system that emits illumination light to be irradiated onto the specimen; a detection optical system that includes the objective lens and a single image sensor and directs, to different regions of the image sensor, first illumination light that passes through a first region of the specimen and second illumination light that passes through a second region of the specimen different from the first region; a calculation unit that calculates focus position information of the objective lens for the second region based on image data of the second region acquired by the image sensor; and a control unit; when the first illumination light is irradiated as the first region onto a region including at least a portion of the second region for which the focus position information was calculated, as the first region in conjunction with movement in the scan direction by the drive unit, the control unit controls the positional relationship between the specimen and the focal position of the objective lens along the optical
- the microscope device comprises a stage on which a specimen is placed facing an objective lens; a drive unit that moves the relative position of the stage with respect to the objective lens in a scanning direction that intersects with the optical axis of the objective lens; an illumination optical system that emits light from a single light source as illumination light to be irradiated onto the specimen; a detection optical system that includes the objective lens and an image sensor and that guides, to different regions of the image sensor, first illumination light that passes through a first region of the specimen and second illumination light that passes through a second region of the specimen that is different from the first region; and an image sensor that detects the second region and captures the first illumination light.
- the system includes a calculation unit that calculates focal position information of the objective lens for the second region based on image data, and a control unit, wherein the cross-sectional shape of the first illumination light and the cross-sectional shape of the second illumination light are formed to be different shapes on the pupil plane of the objective lens, and the control unit controls the positional relationship between the specimen and the focal position of the objective lens along the optical axis direction of the detection optical system based on the focal position information when irradiating the first illumination light as the first region onto an area including at least a part of the second region for which the focal position information has been calculated, as the drive unit moves in the scanning direction.
- FIG. 10 is a diagram showing the shape of a pupil mask.
- 10A and 10B are diagrams for explaining a method for calculating in-focus position information by autocorrelation analysis.
- 10 is a flowchart showing a method for calculating in-focus position information by autocorrelation analysis.
- 1A is a diagram for explaining lane scanning with scan direction pre-reading by a microscope device
- FIG. 1B is a diagram for explaining the relationship between an imaging area and an AF area.
- 10 is a flowchart showing the operation of the microscope device for pre-reading the scan direction.
- 1A is a diagram for explaining lane scanning with vertical pre-reading by a microscope device, and FIG.
- FIG. 10 is a flowchart showing the vertical read-ahead operation of the microscope device.
- FIG. 10 is a diagram showing the configuration of a microscope apparatus according to a modified example of the first embodiment.
- 10A is a diagram for explaining lane scanning with scan direction pre-reading by a microscope device according to a modified example of Embodiment 1.
- FIG. 10B is a diagram for explaining the relationship between an imaging area and an AF area.
- FIG. 10 is a diagram illustrating a configuration of a microscope apparatus according to a second embodiment.
- 12A is an enlarged view of the illumination optical system in FIG. 11.
- FIG. 12B is a view showing the shapes of a first fly-eye lens and a second fly-eye lens.
- FIG. 12C is a view showing the shape of a special mask.
- FIG. 10 is a diagram illustrating a configuration of a microscope apparatus according to a third embodiment.
- FIG. 11 is a diagram illustrating the configuration of a microscope apparatus according to a modified example of the third embodiment.
- FIG. 10 is a diagram illustrating a configuration of a microscope apparatus according to a fourth embodiment.
- FIG. 10 is a diagram illustrating a configuration of a microscope apparatus according to a fifth embodiment.
- FIG. 13 is a diagram illustrating the configuration of a microscope apparatus according to a sixth embodiment.
- FIG. 13 is a diagram illustrating the configuration of a microscope apparatus according to a seventh embodiment.
- 10A and 10B are diagrams illustrating modified examples of the arrangement of a beam splitter array, in which (a) is a diagram illustrating the imaging surface of an imaging element as seen from above, and (b) is a diagram illustrating the imaging surface as seen from the side.
- 1 is a diagram showing the relationship between illumination light on a specimen plane of a specimen and illumination light on an objective pupil plane of an objective lens.
- 10 is a diagram showing a state in which the conjugate planes of the image pickup elements 51 and 52 are arranged so as not to coincide with each other on the specimen surface.
- 10 is a diagram showing a state in which the conjugate planes of the image pickup elements 51 and 52 are arranged so as not to coincide with each other on the specimen surface.
- FIG. 1 is a diagram showing the configuration of a microscope apparatus 1 according to embodiment 1.
- the microscope apparatus 1 according to embodiment 1 includes a stage 2 on which a specimen S is held, an objective lens 3 arranged to face the specimen S on the stage 2, an illumination optical system 4 that emits illumination light to be irradiated onto the specimen S, and a single image sensor 5 that captures the objective lens 3 and an optical image guided by the objective lens 3.
- the microscope apparatus 1 is also equipped with a detection optical system 6 that guides, of the illumination light, illumination light L1 (first illumination light) passing through an imaging region Sa (first region) of the specimen S and illumination light L2 (second illumination light) passing through an AF region Sb (second region) of the specimen S, which is different from the imaging region Sa, to an imaging region 5a and an AF region 5b different from the imaging region 5a, respectively, of the image sensor 5.
- a detection optical system 6 guides, of the illumination light, illumination light L1 (first illumination light) passing through an imaging region Sa (first region) of the specimen S and illumination light L2 (second illumination light) passing through an AF region Sb (second region) of the specimen S, which is different from the imaging region Sa, to an imaging region 5a and an AF region 5b different from the imaging region 5a, respectively, of the image sensor 5.
- the imaging surface of the single image sensor 5 is divided into the imaging region 5a and the AF region 5b.
- the image sensor 5 when a single image sensor 5 is used in the microscope apparatus 1 as in this embodiment, the image sensor 5 may be set within a field of view (FOV) for which imaging performance is guaranteed, and the AF area 5b may be set outside the FOV.
- FOV field of view
- the AF area 5b By dividing the image sensor surface of the single image sensor 5 into the image sensor 5a and the AF area 5b, it is possible to calculate the in-focus position information of the objective lens 3 in the AF area 5b using image data acquired in the AF area 5b, which is different from the image sensor 5a, during imaging in the image sensor 5a.
- a specimen S is placed on the stage 2 so as to face the objective lens 3.
- the specimen S may be a biological sample such as a tissue section.
- the specimen S is placed on the stage 2, for example, sealed in a glass slide.
- the position of the stage 2 relative to the objective lens 3 is movable in a scanning direction that intersects with the optical axis of the objective lens 3.
- the magnification of the objective lens 3 may be high, for example, 20x, 40x, 100x, etc.
- the illumination optical system 4 is an illumination optical system for capturing images and controlling autofocus (AF).
- the illumination optical system 4 irradiates the imaging area Sa of the specimen S placed on the stage 2 with illumination light L1 emitted from the scanning light source 7.
- the scanning light source 7 is a light source that emits white light as illumination light L1, and is placed on the bottom side of the stage 2. Examples of the scanning light source 7 that can be used include a mercury lamp, laser diode (LD), light-emitting diode (LED), superluminescent diode (SLD), and xenon flash lamp.
- the illumination optical system 4 which irradiates the illumination light L1 from the scanning light source 7 onto the specimen S placed on the stage 2, has, arranged in order from the light source 7 side on the optical path K1 of the illumination light L1, a collimator lens 8, a first fly-eye lens 9 which is a lens array, a second fly-eye lens 10 which is a lens array, a pair of relay lenses 11 and 12, and a condenser lens 13.
- An aperture stop 14 is arranged between the second fly-eye lens 10 and the relay lens 11.
- the illumination light L1 emitted from the scanning light source 7 is incident on the collimator lens 8.
- the pair of relay lenses 11 and 12 relay the illumination light L1 emitted from the collimator lens 8 to the condenser lens 13.
- the condenser lens 13 irradiates the illumination light L1 emitted from the scanning light source 7 onto the imaging area Sa of the specimen S.
- the numerical aperture (NA) of the illumination optical system 4 is changeable.
- the second fly-eye lens 10 is arranged on a pupil conjugate plane 100e which is optically conjugate with the pupil plane of the objective lens 3.
- the first fly-eye lens 9 is disposed on the light source 7 side of the second fly-eye lens 10, near a specimen conjugate plane 100d that is optically conjugate with the specimen plane 100a.
- the first fly-eye lens 9 and the second fly-eye lens 10 homogenize the illumination light L1 on the specimen plane 100a.
- the first fly-eye lens 9 and the second fly-eye lens 10 may be omitted in the microscope device 1 of this embodiment.
- the illumination optical system 4 also irradiates the AF area Sb of the specimen S placed on the stage 2 with illumination light L2 emitted from the AF light source 15.
- the area of the specimen S illuminated by illumination light L1 (imaging area Sa) is different from the area illuminated by illumination light L2 (AF area Sb).
- the AF light source 15 is disposed on the bottom side of the stage 2. Examples of the AF light source 15 include a mercury lamp, laser diode (LD), light-emitting diode (LED), superluminescent diode (SLD), and xenon flash lamp.
- the illumination light L2 may be monochromatic light or white light. Furthermore, the illumination light L2 may be infrared light such as near-infrared light.
- the scanning light source 7 and the AF light source 15 emit illumination light L1 and L2, respectively, upon receiving control signals from a drive control unit 62, which serves as a control unit described below.
- the illumination optical system 4 which irradiates the illumination light L2 emitted from the AF light source 15 onto the specimen S placed on the stage 2, has a collimator lens 16, a pair of relay lenses 17 and 12, and a condenser lens 13 arranged in this order from the light source 15 side on the optical path K2 of the illumination light L2. Between the collimator lens 16 and the relay lens 17, a pupil mask 18 is arranged on the pupil conjugate plane 100b on the AF light source 15 side, which is optically conjugate with the pupil plane of the objective lens 3.
- a mirror 19 is arranged at a position conjugate with the AF area Sb of the specimen S.
- the illumination light L2 incident on the collimator lens 16 from the AF light source 15 and emitted from the pupil mask 18 becomes illumination light L2 containing two parallel beams.
- the illumination light L2 emitted from the pupil mask 18 illuminates the AF area Sb of the specimen S from two different angles.
- FIG. 2 is a diagram showing the shape of the pupil mask 18.
- the pupil mask 18 has openings 18a and 18b. Openings 18a and 18b are formed at positions equidistant from the center 18c of the pupil mask 18 and have the same diameter.
- the center 18c of the pupil mask 18 coincides with the optical axis of the AF light path K2.
- the area depicted in gray has light-blocking properties.
- Illumination light L2 which is incident on the collimator lens 16 from the AF light source 15 and emitted from the upstream relay lens 17, is reflected by the mirror 19 and enters the downstream relay lens 12.
- Illumination light L2 emitted from the AF light source 15 exits the condenser lens 13 and illuminates the AF area Sb of the specimen S from two different angles.
- the image sensor 5 captures an optical image of the specimen S guided by the objective lens 3.
- the image sensor 5 acquires, at the same imaging timing, image data in the imaging area 5a when illumination light L1 from the scanning light source 7 is irradiated onto the imaging area Sa of the specimen S, and image data in the AF area 5b when illumination light L2 from the AF light source 15 is irradiated onto the AF area Sb of the specimen S.
- the optical image of the specimen S is an image created by transmitted light in the case of bright-field illumination, an image created by scattered light in the case of dark-field illumination, and an image created by luminescence (fluorescence) in the case of luminescence observation (fluorescence observation).
- the image sensor 5 is an image sensor having multiple pixel rows. Examples of the image sensor 5 include a CCD image sensor and a CMOS image sensor.
- the image sensor 5 captures the optical image of the specimen S formed by the second objective lens 20 in the optical path K1 of the illumination light L1, and acquires image data.
- the second objective lens 20 forms a first optical image P1 and a second optical image P2 of the AF area Sb of the specimen S in the AF area 5b of the imaging surface of the image sensor 5. If the AF area 5b of the image sensor 5 is positioned conjugate to the specimen surface 100a via the detection optical system 6, the first optical image P1 and the second optical image P2 will overlap, making it impossible to calculate the focal position information of the objective lens 3 in the AF area Sb. Therefore, an optical path length offset member 21 is placed on the AF area 5b of the image sensor 5 along the optical axis direction of the detection optical system 6.
- the optical path length offset member 21 offsets the optical path length of the illumination light L2 relative to the optical path length of the illumination light L1 (the imaging area 5a of the image sensor 5 maintains a conjugate relationship with the imaging area Sa via the detection optical system 6), thereby breaking the conjugate relationship.
- the optical path length offset member 21 does not necessarily have to be placed in contact with the AF area 5b of the image sensor 5, as long as it is able to offset the optical path length of the illumination light L2.
- the optical path length offset member 21 is a member having a refractive index different from that of air, and is made of a material such as glass or plastic.
- the optical path length offset member 21 may be placed on the imaging area 5a of the image sensor 5 to maintain the conjugate relationship between the imaging area 5a of the image sensor 5 and the imaging area Sa of the specimen S, while breaking the conjugate relationship between the AF area 5b of the image sensor 5 and the AF area Sb of the specimen S.
- the imaging surface of the image sensor 5 has multiple pixels arranged two-dimensionally.
- the image sensor 5 can capture multiple pixels on the imaging surface that correspond to the ranges included in the formed first optical image P1 and second optical image P2 by subarray readout.
- Subarray readout is a readout method of the image sensor 5 that reads out a subarray area made up of a set number of pixels out of the multiple pixels that make up the imaging surface of the image sensor 5.
- the microscope device 1 also includes an objective lens driver 50 that changes the focal position of the objective lens 3 relative to the specimen S, a stage driver 55 that moves the position of the stage 2 relative to the objective lens 3 at a predetermined speed in a direction intersecting the optical axis of the objective lens 3 (scan direction), and a computer 60 that controls the operation of the microscope device 1.
- an objective lens driver 50 that changes the focal position of the objective lens 3 relative to the specimen S
- a stage driver 55 that moves the position of the stage 2 relative to the objective lens 3 at a predetermined speed in a direction intersecting the optical axis of the objective lens 3 (scan direction)
- a computer 60 that controls the operation of the microscope device 1.
- the objective lens driver 50 is composed of a motor such as a stepping motor (pulse motor) or an actuator such as a piezoelectric actuator. Based on the control of the drive controller 62 (described below), the objective lens driver 50 drives the objective lens 3 in the Z direction along the optical axis of the objective lens 3. This moves the focal position of the objective lens 3 relative to the specimen S.
- a motor such as a stepping motor (pulse motor) or an actuator such as a piezoelectric actuator.
- the stage driver 55 is composed of a motor such as a stepping motor (pulse motor) or an actuator such as a piezoelectric actuator. Based on control by the driver controller 62 (described later), the stage driver 55 drives the stage 2 in the X and Y directions about a plane perpendicular to the optical axis of the objective lens 3 at a predetermined angle (e.g., 90 degrees). This causes the specimen S held on the stage 2 to move relative to the optical axis of the objective lens 3, and the field of view of the objective lens 3 relative to the specimen S moves.
- the stage driver 55 can also detect the position of the stage 2. For example, the stage driver 55 detects the X and Y coordinates of the stage 2 using a linear encoder attached to the stage 2. The stage driver 55 generates position information indicating the detection results and outputs it to the computer 60.
- the computer 60 is configured with memory such as RAM and ROM, a processor (arithmetic circuit) such as a CPU, a communications interface, a storage unit such as a hard disk, and a display unit such as a display.
- a processor Arimetic circuit
- CPU central processing unit
- communications interface a peripheral interface
- storage unit such as a hard disk
- display unit such as a display.
- Examples of such computers 60 include personal computers, microcomputers, cloud servers, and smart devices (smartphones, tablet terminals, etc.).
- the computer 60 has an image processing unit 61 as a calculation unit, and a drive control unit 62 as a control unit.
- the image processing unit 61 creates a virtual slide image of the specimen S based on image data output from the imaging area 5a of the image sensor 5.
- the image processing unit 61 also calculates focal position information of the objective lens 3 for the AF area Sb on the specimen S based on image data in the AF area 5b acquired by the image sensor 5.
- the drive control unit 62 controls the positional relationship between the specimen S and the focal position of the objective lens 3 along the optical axis direction of the detection optical system 6 based on the calculated focal position information when illuminating light L1 as the imaging area Sa to an area including at least a part of the AF area Sb for which the focal position information of the objective lens 3 has been calculated, as the stage driving unit 55 moves in the scanning direction.
- the in-focus position information is calculated by so-called autocorrelation analysis, which calculates the in-focus position information based on image data of the AF area 5b including the first optical image P1 and the second optical image P2.
- Figure 3 is a diagram explaining a method for calculating focus position information using autocorrelation analysis.
- Figure 4 is a flowchart showing a method for calculating focus position information using autocorrelation analysis.
- the image sensor 5 is divided into an image sensing area 5a and an AF area 5b. Therefore, in step S401 of Figure 4, the image processing unit 61 extracts image data read from the AF area 5b from the image data read from the image sensor 5.
- the lower diagram in Figure 3(a) shows image data read from the AF area 5b.
- the image data shows a first optical image P1 and a second optical image P2.
- step S402 the image processing unit 61 calculates a one-dimensional autocorrelation function of the image data read from the AF area 5b.
- Figure 3(b) shows an example of a one-dimensional autocorrelation function of image data read from the AF area 5b.
- the vertical axis represents the correlation value of the autocorrelation function
- the horizontal axis represents the pixel position.
- the image data may be filtered using a high-pass filter, band-pass filter, etc. to extract high-frequency information and reduce noise.
- step S403 the image processing unit 61 determines the pixel position (hereinafter referred to as the "peak position") where the correlation value of the autocorrelation function calculated in step S402 takes on a maximum value.
- position x is the peak position.
- step S404 the image processing unit 61 calculates focus position information based on a calibration line prepared in advance.
- An example of the calibration line is shown in Figure 3(c).
- the vertical axis represents the peak shift amount
- the horizontal axis represents the defocus amount.
- the defocus amount value corresponding to the peak position x calculated in step S403 represents the focus position information y.
- the calibration line may be determined experimentally using a calibration sample, or may be determined based on the design of the optical system. At this time, the shift in focus position between the imaging area Sa and the AF area Sb due to the field curvature of the detection optical system 6 may be taken into consideration.
- the drive control unit 62 also controls the operation of the stage drive unit 55, thereby controlling the movement of the stage 2. Furthermore, the drive control unit 62 outputs control signals to the scanning light source 7 and the AF light source 15, and controls the emission of light from the scanning light source 7 and the AF light source 15.
- the computer 60 controls the execution of lane scanning by the light sources 7 and 15, the objective lens drive unit 50, the stage drive unit 55, and the image sensor 5, via the image processing unit 61 and drive control unit 62. Lane scanning is described below.
- the field of view of the objective lens 3 which has a high magnification such as 20x, 40x, or 100x, is small relative to the size of the specimen S.
- the area from which an image can be acquired in a single image capture is also small relative to the specimen S. Therefore, in order to capture an image of the entire specimen S, the field of view of the objective lens 3 must be moved relative to the specimen S. Therefore, in the microscope device 1 according to this embodiment, an image acquisition area is set on the slide glass holding the specimen S so as to include the specimen S, and a lane scan is performed on the image acquisition area.
- FIG. 5A is a diagram illustrating lane scanning with scan direction pre-reading by the microscope apparatus 1 according to this embodiment.
- a plurality of partial regions are set in the image acquisition region 71 by allocating the size of the imaging region 5a of the image sensor 5 to a predetermined image acquisition region 71, taking into account the magnification of the detection optical system 6.
- a plurality of lanes, numbered first to sixth are set in the Y direction in the image acquisition region 71, and one or more partial regions 73 are set in each lane in the X direction (scan direction).
- a portion of the specimen S is imaged while the stage 2 is moved in the X and Y directions.
- the microscope device 1 uses the image sensor 5 to image a portion of the specimen S corresponding to a certain partial area 73 (imaging area Sa), thereby acquiring a tile image T corresponding to each partial area 73.
- imaging area 5a moves to the next partial area 73 (imaging area Sa) to be imaged
- imaging is performed again to acquire the next tile image T.
- the microscope device 1 repeatedly performs the operation of sequentially imaging partial areas 73 for each lane, acquiring image data consisting of a sequence of multiple tile images.
- the acquired image data is combined by the image processing unit 61 to form an image showing the entire specimen S.
- the method used by the stage driver 55 to move the field of view position of the objective lens 3 is unidirectional scanning, in which the scanning direction is the same for each lane, as shown in Figure 5(a), for example.
- the arrow indicates the relative movement direction of the objective lens 3 with respect to the image acquisition area 71.
- Figure 5(b) is a diagram explaining the relationship between the imaging area 5a and the AF area 5b.
- Figure 5(b) schematically shows the range relationship between the imaging area 5a and the AF area 5b on the imaging surface of the image sensor 5.
- the imaging area 5a is the area that makes up the tile image T.
- the AF area 5b is the area where in-focus position information is calculated.
- an AF area 5b is set adjacent to one side of the imaging area 5a in the scanning direction.
- the imaging area 5a is located behind the AF area 5b in the scanning direction.
- FIG. 6 is a flowchart showing the scan direction pre-reading operation of the microscope apparatus 1.
- step S601 the specimen S is placed on the stage 2 in advance so as to face the objective lens 3, and the image acquisition area 71 is determined.
- step S602 a lane loop is started.
- the lane loop includes processing in steps S603, S604, S605, S606, and S607.
- step S603 an imaging loop by the image sensor 5 is started.
- the imaging loop by the image sensor 5 includes processing in steps S604, S605, and S606. These steps are performed while the position of the stage 2 is moved along the scan direction relative to the objective lens 3 by driving the stage drive unit 55.
- panning imaging is performed while the stage 2 is driven.
- movement of the stage 2 may be stopped each time imaging is performed to perform still imaging.
- motion blur can be suppressed by briefly emitting illumination light from the scanning light source 7 and the AF light source 15, or by exposing the image sensor 5 for a short time.
- step S604 the drive control unit 62 controls the positional relationship between the specimen S and the focal position of the objective lens 3 along the optical axis direction of the detection optical system 6 by controlling the objective lens drive unit 50 based on the focal position information of the objective lens 3 for the AF area Sb calculated from the image data in the AF area Sb. This allows the specimen S to be focused in the imaging area Sa.
- step S605 an image is captured using the image sensor 5, and the tile image T in the imaging area Sa and image data in the AF area Sb are obtained.
- step S606 the image processing unit 61 calculates in-focus position information for the next imaging area Sa from the image data of the AF area Sb acquired in step S605.
- the first imaging of each lane is an imaging operation for acquiring image data of the AF area Sb and calculating in-focus position information for the AF area Sb; the tile image T of the specimen S is not acquired in the first imaging of each lane.
- the imaging loop ends when the last tile image T in the lane is acquired.
- step S607 the stage driving unit 55 is driven to move the imaging area Sa to the next lane.
- An imaging loop process is performed in the moved lane, and when the last tile image T is acquired in that lane, the imaging area Sa is again moved to the next lane.
- the lane loop ends, and the operation of the microscope device 1 ends.
- FIG. 7A is a diagram illustrating lane scanning with vertical read-ahead by the microscope device 1.
- a plurality of partial regions are set in the image acquisition region 71 by allocating the size of the imaging region 5a of the image sensor 5 to a predetermined image acquisition region 71, taking into account the magnification of the detection optical system 6.
- a plurality of lanes, numbered first to seventh are set in the X direction in the image acquisition region 71, and one or more partial regions 73 are set in each lane in the Y direction (scanning direction).
- Figure 7(b) is a diagram explaining the relationship between the imaging area 5a and the AF area 5b.
- Figure 7(b) schematically shows the range relationship between the imaging area 5a and the AF area 5b on the imaging surface of the image sensor 5.
- the imaging area 5a is the area that makes up the tile image T.
- the AF area 5b is the area where focus position information is calculated.
- AF area 5b is set adjacent to one side of imaging area 5a in the direction (X direction) perpendicular to the scanning direction (Y direction).
- Imaging area 5a is located behind AF area 5b in the direction (X direction) perpendicular to the scanning direction.
- This makes it possible to calculate the focus position information for the next lane while a tile image is being acquired in a certain lane. Therefore, before imaging area Sa moves to the next partial area 73 to be imaged, the focus position of the objective lens 3 can be controlled based on the calculated focus position information, enabling high-speed AF.
- the method of Figure 7(a) provides more time for AF calculations than the method of Figure 5(a), reducing the speed requirements for AF calculation processing.
- FIG. 8 is a flowchart showing the vertical direction read-ahead operation of the microscope device 1.
- step S801 the specimen S is placed on the stage 2 in advance so as to face the objective lens 3, and the image acquisition area 71 is determined.
- step S802 imaging is performed for the first lane.
- the imaging area 5a of the imaging element 5 is arranged in the first lane, and the AF area 5b of the imaging element 5 is arranged in the next lane.
- imaging the first lane makes it possible to acquire image data in the AF area 5b necessary for calculating the in-focus position of the next lane.
- imaging the first lane is performed to acquire image data in the AF area 5b, and does not acquire a tile image T of the specimen S.
- step S803 a lane loop is started.
- the lane loop includes the processing of steps S804, S805, and S806. These steps are performed while the stage drive unit 55 is driving the stage 2 to move the position relative to the objective lens 3 along the scan direction.
- panning image capture is performed while the stage 2 is driven. Note that stage movement may be stopped after each image capture to perform still image capture.
- motion blur may be suppressed by briefly emitting illumination light from the scanning light source 7 and the AF light source 15, or by placing the image sensor 5 in a short-time exposure state.
- step S804 the image data of the AF area Sb acquired in step S802 is used to calculate the in-focus position information for the next lane.
- step S805 the imaging area Sa is moved to the next lane by driving the stage driving unit 55.
- step S806 the objective lens driver 50 is controlled based on the focal position information calculated in step S804, thereby controlling the focal position of the objective lens 3 relative to the specimen S and capturing images of the lanes from the second row onwards.
- the lane loop ends and the operation of the microscope device 1 ends.
- step S601 of FIG. 6 and step S801 of FIG. 8 When determining the image acquisition area 71 in step S601 of FIG. 6 and step S801 of FIG. 8, if the specimen S has edge portions or outlying portions, these portions may fall outside the image acquisition area 71. If these portions fall outside the image acquisition area 71, it is not possible to properly form an image showing the entire specimen S, which is undesirable. Therefore, it is preferable to determine the image acquisition area 71 based on a macro image of the specimen S. Furthermore, the AF results of the surrounding AF area Sb may be used to complement areas for which no AF results were obtained. Furthermore, if there are outlying portions that do not fit within the AF area Sb, an AF image of only those areas may be acquired first.
- the stage 2 may be moved in a direction perpendicular to the scanning direction in addition to the scanning direction, so that as many structures as possible fall within the AF area Sb. Furthermore, after imaging, focus determination may be performed using contrast, etc., and out-of-focus fields may be re-imaged.
- Fig. 9 is a diagram showing the configuration of a microscope apparatus 1a according to a modified example of embodiment 1. Note that the objective lens driver 50, stage driver 55, and computer 60 are omitted from Fig. 9.
- one mirror 19 is disposed in the illumination optical system 4 between the pair of relay lenses 17, 12, near the specimen conjugate plane 100c, at a position conjugate with the AF area Sb of the specimen S.
- two mirrors 19a, 19b are disposed in the illumination optical system 4a between the pair of relay lenses 17, 12, near the specimen conjugate plane 100c, at positions conjugate with the AF area Sb of the specimen S, with the illumination light L1 sandwiched between them.
- the illumination light L2 incident on the collimator lens 16 from the AF light source 15 and emerging from the pupil mask 18 becomes two illumination lights L2, each containing two parallel beams of light.
- the two illumination lights L2 emerging from the pupil mask 18 illuminate two AF areas Sb of the specimen S from two different angles.
- the two illumination lights L2 incident on the collimator lens 16 from the AF light source 15 and emerging from the upstream relay lens 17 are reflected by two mirrors 19a and 19b, respectively, and enter the downstream relay lens 12.
- the two illumination lights L2 emerging from the downstream relay lens 12 emerge from the condenser lens 13 and illuminate two AF areas Sb of the specimen S from two different angles, respectively.
- optical path length offset members 21a and 21b that offset the optical path length of illumination light L2 relative to the optical path length of illumination light L1 are arranged above the two AF areas 5b of the image sensor 5 along the optical axis direction of the detection optical system 6a.
- the rest of the configuration is the same as that of the microscope device 1 in embodiment 1, so a description thereof will be omitted.
- FIG. 10(a) is a diagram for explaining lane scanning with scan direction pre-reading by the microscope device 1a according to this modified example.
- multiple lanes numbered 1 to 6 are set in the Y direction in the image acquisition area 71, and one or more partial areas 73 are set in each lane in the X direction (scan direction).
- the flowchart showing the scan direction pre-reading operation of this modified example is the same as the scan direction pre-reading flowchart of embodiment 1 (FIG. 6).
- Figure 10(b) is a diagram illustrating the relationship between the imaging area 5a and AF area 5b of the imaging element 5 in this modified example.
- Figure 10 schematically shows the range relationship between the imaging area 5a and AF area 5b on the imaging surface of the imaging element 5.
- two AF areas 5b are set adjacent to both sides of the imaging area 5a in the scanning direction.
- bidirectional scanning in which the scanning direction is reversed between adjacent lanes, can be adopted as a method for moving the field of view position of the objective lens 3 using the stage driving unit 55.
- FIG. 11 is a diagram showing the configuration of a microscope apparatus 1b according to the second embodiment. Note that the objective lens driver 50, the stage driver 55, and the computer 60 are omitted from FIG. 11 .
- the microscope apparatus 1b according to this embodiment includes a stage 2 on which a specimen S is held, an objective lens 3 arranged to face the specimen S on the stage 2, an illumination optical system 4b that emits illumination light to be irradiated onto the specimen S, and a single image sensor 5 that captures the objective lens 3 and the optical image guided by the objective lens 3.
- the microscope apparatus 1b is also equipped with a detection optical system 6 that guides, of the illumination light, illumination light L1 (first illumination light) passing through an image sensor area Sa (first region) of the specimen S and illumination light L2 (second illumination light) passing through an AF region Sb (second region) of the specimen S, which is different from the image sensor area Sa, to an image sensor area 5a and an AF region 5b, which is different from the image sensor area 5a, respectively.
- the imaging surface of the single image sensor 5 is divided into the image sensor area 5a and the AF region 5b.
- the imaging area 5a may be set within a field of view (FOV) in which imaging performance is guaranteed, and the AF area 5b may be set outside the FOV.
- FOV field of view
- a specimen S is placed on the stage 2 so as to face the objective lens 3.
- the specimen S may be a biological sample such as a tissue section.
- the specimen S is placed on the stage 2, for example, sealed in a glass slide.
- the position of the stage 2 relative to the objective lens 3 is movable in a scanning direction that intersects with the optical axis of the objective lens 3.
- the magnification of the objective lens 3 may be high, for example, 20x, 40x, 100x, etc.
- the illumination optical system 4b is an illumination optical system for capturing images and controlling autofocus (AF).
- the illumination optical system 4b irradiates the imaging area Sa of the specimen S placed on the stage 2 with light emitted from a single light source 7 as illumination light L1.
- the light source 7 is a light source that emits white light as illumination light L1, and is placed on the bottom side of the stage 2. Examples of light source 7 that can be used include a mercury lamp, laser diode (LD), light-emitting diode (LED), superluminescent diode (SLD), and xenon flash lamp.
- the illumination optical system 4b which irradiates light from the light source 7 as illumination light L1 onto a specimen S placed on the stage 2, has a collimator lens 8, a first fly-eye lens 9, a second fly-eye lens 10, and a condenser lens 13 arranged in this order from the light source 7 on the optical path K1 of the illumination light L1.
- a special mask (predetermined mask) 22 is arranged between the collimator lens 8 and the first fly-eye lens 9 on a specimen conjugate plane 100d that is optically conjugate with the specimen S.
- the illumination light L1 emitted from the light source 7 is incident on the collimator lens 8.
- the illumination light L1 emitted from the collimator lens 8 is incident on the condenser lens 13.
- the condenser lens 13 irradiates the illumination light L1 emitted from the light source 7 onto the imaging area Sa of the specimen S.
- the numerical aperture (NA) of the illumination optical system 4 is changeable.
- the second fly-eye lens 10 is arranged on the pupil conjugate plane 100e.
- the first fly-eye lens 9 is disposed on the light source side of the second fly-eye lens 10, near the specimen conjugate plane 100d.
- the first fly-eye lens 9 and the second fly-eye lens 10 homogenize the illumination light L1 on the specimen plane 100a.
- the first fly-eye lens 9 may be omitted in the microscope device 1 of this embodiment.
- multiple lenses may be arranged two-dimensionally in a plane perpendicular to the optical axis.
- the illumination optical system 4 irradiates the AF area Sb of the specimen S placed on the stage 2 with light emitted from the light source 7 as illumination light L2.
- the area of the specimen S illuminated by illumination light L1 (imaging area Sa) is different from the area illuminated by illumination light L2 (AF area Sb).
- the light source 7 emits light as illumination light L1 and L2 upon receiving a control signal from the drive control unit 62.
- the illumination light L2 emitted from the light source 7 enters the collimator lens 8 and exits the special mask 22, becoming illumination light L2 containing two parallel beams.
- the illumination light L2 exiting the special mask 22 illuminates the AF area Sb of the specimen S from two different angles.
- FIG. 12(a) is an enlarged view of the illumination optical system 4b in FIG. 11.
- FIG. 12(b) shows the shapes of the first fly-eye lens 9 and the second fly-eye lens 10
- FIG. 12(c) shows the shape of the special mask 22.
- the light rays shown by dashed lines indicate light rays that would be blocked by the special mask 22 if it were installed. Therefore, if the special mask 22 is not installed, the same illumination light (hereinafter referred to as "normal illumination light”) would be illuminated on the specimen surface 100a regardless of position. If the special mask 22 is installed, the light rays shown by dashed lines are blocked by the special mask 22, and only the light rays shown by solid lines pass through the special mask 22. As shown in FIG.
- the imaging area Sa on the left side of the center of the field of view is illuminated with normal illumination light
- the AF area Sb at the right edge of the field of view is illuminated with illumination light including light from two different oblique directions.
- the special mask 22 it is possible to create a difference in the cross-sectional shape of the illumination light from the imaging area Sa and the illumination light from the AF area Sb on the pupil plane 100h of the objective lens 3.
- the first fly-eye lens 9 and the second fly-eye lens 10 have multiple lens cells arranged in a matrix. Each lens cell corresponds to a pupil, and the position within one lens cell corresponds to the position of the specimen surface.
- the special mask 22 has an opening 22a formed in a conjugate position of the imaging area Sa (the center of the special mask 22). Furthermore, openings 22b (two or more) are formed in a conjugate position of the AF area Sb (the periphery of the special mask 22). Light that passes through the openings 22b is irradiated onto the AF area Sb.
- the special mask 22 is a component with multiple openings formed in advance, but this is not limited to this, and it also includes cases where multiple predetermined openings are formed by controlling a spatial light modulation element such as a liquid crystal element or a DMD (Digital Mirror Device).
- the image sensor 5 captures an optical image of the specimen S guided by the objective lens 3.
- the image sensor 5 acquires, at the same imaging timing, image data in the image sensor 5a when illumination light L1 from the light source 7 is irradiated onto the image sensor area Sa of the specimen S, and image data in the AF area 5b when illumination light L2 from the light source 7 is irradiated onto the AF area Sb of the specimen S.
- the optical image of the specimen S is an image created by transmitted light in the case of bright-field illumination, an image created by scattered light in the case of dark-field illumination, and an image created by luminescence (fluorescence) in the case of luminescence observation (fluorescence observation).
- the image sensor 5 is an image sensor having multiple pixel rows. Examples of the image sensor 5 include a CCD image sensor and a CMOS image sensor.
- the image sensor 5 captures the optical image of the specimen S formed by the second objective lens 20 in the optical path K1 of the illumination light L1, and acquires image data.
- the second objective lens 20 forms a first optical image P1 and a second optical image P2 of the AF area Sb of the specimen S in the AF area 5b of the imaging surface of the image sensor 5. If the AF area 5b of the image sensor 5 is positioned conjugate to the specimen surface 100a via the detection optical system 6, the first optical image P1 and the second optical image P2 will overlap, making it impossible to calculate the focal position information of the objective lens 3 in the AF area Sb. Therefore, an optical path length offset member 21 is placed on the AF area 5b of the image sensor 5 along the optical axis direction of the detection optical system 6.
- the optical path length offset member 21 offsets the optical path length of the illumination light L2 relative to the optical path length of the illumination light L1 (the imaging area 5a of the image sensor 5 maintains a conjugate relationship with the imaging area Sa via the detection optical system 6), thereby breaking the conjugate relationship.
- the optical path length offset member 21 does not necessarily have to be placed in contact with the AF area 5b of the image sensor 5, as long as it is able to offset the optical path length of the illumination light L2.
- the optical path length offset member 21 is a member having a refractive index different from that of air, and is made of a material such as glass or plastic.
- the optical path length offset member 21 may be placed on the imaging area 5a of the image sensor 5 to maintain the conjugate relationship between the imaging area 5a of the image sensor 5 and the imaging area Sa of the specimen S, while breaking the conjugate relationship between the AF area 5b of the image sensor 5 and the AF area Sb of the specimen S.
- the imaging surface of the image sensor 5 has multiple pixels arranged two-dimensionally.
- the image sensor 5 can capture multiple pixels on the imaging surface that correspond to the ranges included in the formed first optical image P1 and second optical image P2 by subarray readout.
- Subarray readout is a readout method of the image sensor 5 that reads out a subarray area made up of a set number of pixels out of the multiple pixels that make up the imaging surface of the image sensor 5.
- FIG. 13 is a diagram showing the configuration of a microscope apparatus 1c according to a third embodiment.
- the microscope apparatus 1c includes a stage 2 on which a specimen S is held, an objective lens 3 arranged to face the specimen S on the stage 2, an illumination optical system 4c that emits illumination light to be irradiated onto the specimen S, and a single image sensor 5 that captures the objective lens 3 and the optical image guided by the objective lens 3.
- the microscope apparatus 1c is also equipped with a detection optical system 6 that guides, of the illumination light, illumination light L1 (first illumination light) passing through an imaging region Sa (first region) of the specimen S and illumination light L2 (second illumination light) passing through an AF region Sb (second region) of the specimen S, which is different from the imaging region Sa, to an imaging region 5a and an AF region 5b different from the imaging region 5a, respectively, of the image sensor 5.
- the imaging surface of the single image sensor 5 is divided into the imaging region 5a and the AF region 5b.
- the imaging area 5a may be set within a field of view (FOV) in which imaging performance is guaranteed, and the AF area 5b may be set outside the FOV.
- FOV field of view
- a specimen S is placed on the stage 2 so as to face the objective lens 3.
- the specimen S may be a biological sample such as a tissue section.
- the specimen S is placed on the stage 2, for example, sealed in a glass slide.
- the position of the stage 2 relative to the objective lens 3 is movable in a scanning direction that intersects with the optical axis of the objective lens 3.
- the magnification of the objective lens 3 may be high, for example, 20x, 40x, 100x, etc.
- the illumination optical system 4c is an illumination optical system for capturing images and controlling autofocus (AF).
- the illumination optical system 4c irradiates the imaging area Sa of the specimen S placed on the stage 2 with light emitted from the light source 7 as illumination light L1.
- the light source 7 is a light source that emits white light as illumination light L1, and is placed on the bottom side of the stage 2. Examples of light sources that can be used for scanning 7 include a mercury lamp, laser diode (LD), light-emitting diode (LED), superluminescent diode (SLD), and xenon flash lamp.
- the illumination optical system 4c which irradiates light from the light source 7 as illumination light L1 onto a specimen S placed on the stage 2, has a collimator lens 8, a first fly-eye lens 9, a second fly-eye lens 10, a pair of relay lenses 11 and 12, and a condenser lens 13, arranged in order from the light source 7 side on the optical path K1 of the illumination light L1.
- An aperture stop 14 is arranged between the second fly-eye lens 10 and the relay lens 11.
- the illumination light L1 emitted from the light source 7 is incident on the collimator lens 8.
- the pair of relay lenses 11 and 12 relay the illumination light L1 emitted from the collimator lens 8 to the condenser lens 13.
- the condenser lens 13 irradiates the illumination light L1 emitted from the light source 7 onto the imaging area Sa of the specimen S.
- the numerical aperture (NA) of the illumination optical system 4c is changeable.
- the second fly-eye lens 10 is arranged on the pupil conjugate plane 100e.
- the first fly-eye lens 9 is disposed on the light source 7 side of the second fly-eye lens 10, near the specimen conjugate plane 100d.
- the first fly-eye lens 9 and the second fly-eye lens 10 homogenize the illumination light L1 on the specimen plane 100a.
- the first fly-eye lens 9 and the second fly-eye lens 10 may be omitted in the microscope device 1c of this embodiment.
- the illumination optical system 4c irradiates the AF area Sb of the specimen S placed on the stage 2 with light emitted from the light source 7 as illumination light L2.
- the area of the specimen S illuminated by illumination light L1 (imaging area Sa) is different from the area illuminated by illumination light L2 (AF area Sb).
- the light source 7 emits light as illumination light L1 and L2 upon receiving a control signal from the drive control unit 62.
- a phase diffraction grating 23 is disposed on the optical path K2 of the illumination light L2, between a pair of relay lenses 11, 12, on a specimen conjugate plane 100c that is optically conjugate with the specimen plane 100a, at a position conjugate to the AF region Sb of the specimen S.
- the illumination light L2 that enters the collimator lens 8 from the light source 7 and emerges from the phase diffraction grating 23 illuminates the AF region Sb of the specimen S from two different angles.
- the phase diffraction grating 23 forms the illumination light L2 that includes light from two different directions.
- the image sensor 5 captures an optical image of the specimen S guided by the objective lens 3.
- the image sensor 5 acquires, at the same imaging timing, image data in the image sensor 5a when illumination light L1 from the light source 7 is irradiated onto the image sensor area Sa of the specimen S, and image data in the AF area 5b when illumination light L2 from the light source 7 is irradiated onto the AF area Sb of the specimen S.
- the optical image of the specimen S is an image created by transmitted light in the case of bright-field illumination, an image created by scattered light in the case of dark-field illumination, and an image created by luminescence (fluorescence) in the case of luminescence observation (fluorescence observation).
- the image sensor 5 is an image sensor having multiple pixel rows. Examples of the image sensor 5 include a CCD image sensor and a CMOS image sensor.
- the image sensor 5 captures the optical image of the specimen S formed by the second objective lens 20 in the optical path K1 of the illumination light L1, and acquires image data.
- the second objective lens 20 forms a first optical image P1 and a second optical image P2 of the AF area Sb of the specimen S in the AF area 5b of the imaging surface of the image sensor 5. If the AF area 5b of the image sensor 5 is positioned conjugate to the specimen surface 100a via the detection optical system 6, the first optical image P1 and the second optical image P2 will overlap, making it impossible to calculate the focal position information of the objective lens 3 in the AF area Sb. Therefore, an optical path length offset member 21 is placed on the AF area 5b of the image sensor 5 along the optical axis direction of the detection optical system 6.
- the optical path length offset member 21 offsets the optical path length of the illumination light L2 relative to the optical path length of the illumination light L1 (the imaging area 5a of the image sensor 5 maintains a conjugate relationship with the imaging area Sa via the detection optical system 6), thereby breaking the conjugate relationship.
- the optical path length offset member 21 does not necessarily have to be placed in contact with the AF area 5b of the image sensor 5, as long as it is able to offset the optical path length of the illumination light L2.
- the optical path length offset member 21 is a member having a refractive index different from that of air, and is made of a material such as glass or plastic.
- the optical path length offset member 21 may be placed on the imaging area 5a of the image sensor 5 to maintain the conjugate relationship between the imaging area 5a of the image sensor 5 and the imaging area Sa of the specimen S, while breaking the conjugate relationship between the AF area 5b of the image sensor 5 and the AF area Sb of the specimen S.
- the imaging surface of the image sensor 5 has multiple pixels arranged two-dimensionally.
- the image sensor 5 can capture multiple pixels on the imaging surface that correspond to the ranges included in the formed first optical image P1 and second optical image P2 by subarray readout.
- Subarray readout is a readout method of the image sensor 5 that reads out a subarray area made up of a set number of pixels out of the multiple pixels that make up the imaging surface of the image sensor 5.
- Fig. 14 is a diagram showing the configuration of a microscope apparatus 1d according to a modified example of embodiment 3. Note that the objective lens driver 50, stage driver 55, and computer 60 are omitted from Fig. 14.
- one phase diffraction grating 23 is disposed in the illumination optical system 4c between the pair of relay lenses 11, 12, on the specimen conjugate plane optically conjugate with the specimen surface 100a, at a conjugate position with the AF area Sb of the specimen S.
- two phase diffraction gratings 23a, 23b are disposed in the illumination optical system 4c' between the pair of relay lenses 11, 12 on the specimen conjugate plane 100c, at conjugate positions with the two AF areas Sb of the specimen S, with the illumination light L1 sandwiched between them.
- the two beams of illumination light L2 that illuminate the specimen S then pass through the objective lens 3 and are incident on two AF areas 5b of the image sensor 5.
- Optical path length offset members 21a and 21b that offset the optical path length of the illumination light L2 relative to the optical path length of the illumination light L1 are disposed above the two AF areas 5b of the image sensor 5 along the optical axis direction of the detection optical system 6a.
- the remaining configuration is the same as that of the microscope device 1c of embodiment 3, and therefore description thereof is omitted.
- AF areas 5b are set adjacent to both sides of the imaging area 5a in the scanning direction.
- bidirectional scanning in which the scanning direction is reversed between adjacent lanes, can be adopted as a method for moving the field of view position of the objective lens 3 using the stage driver 55.
- Fig. 15 is a diagram showing the configuration of a microscope apparatus 1e according to embodiment 4. Note that in Fig. 15, the objective lens driving unit 50, the stage driving unit 55, and the computer 60 are omitted. As shown in Fig. 15, the microscope apparatus 1e includes a stage 2 on which a specimen S is held, an objective lens 3 arranged to face the specimen S on the stage 2, an illumination optical system 4b that emits illumination light to be irradiated onto the specimen S, and two image sensors (a first image sensor and a second image sensor) 51 and 52 that capture the objective lens 3 and the optical image guided by the objective lens 3.
- the microscope apparatus 1e includes a stage 2 on which a specimen S is held, an objective lens 3 arranged to face the specimen S on the stage 2, an illumination optical system 4b that emits illumination light to be irradiated onto the specimen S, and two image sensors (a first image sensor and a second image sensor) 51 and 52 that capture the objective lens 3 and the optical image guided by the objective lens 3.
- the microscope apparatus 1e is also provided with a detection optical system 6b that guides, of the illumination light, illumination light L1 (first illumination light) passing through an imaging area Sa (first area) of the specimen S and illumination light L2 (second illumination light) passing through an AF area Sb (second area) different from the imaging area Sa of the specimen S to the image sensor 51 and the image sensor 52, respectively.
- a detection optical system 6b guides, of the illumination light, illumination light L1 (first illumination light) passing through an imaging area Sa (first area) of the specimen S and illumination light L2 (second illumination light) passing through an AF area Sb (second area) different from the imaging area Sa of the specimen S to the image sensor 51 and the image sensor 52, respectively.
- a specimen S is placed on the stage 2 so as to face the objective lens 3.
- the specimen S may be a biological sample such as a tissue section.
- the specimen S is placed on the stage 2, for example, sealed in a glass slide.
- the position of the stage 2 relative to the objective lens 3 is movable in a scanning direction that intersects with the optical axis of the objective lens 3.
- the magnification of the objective lens 3 may be high, for example, 20x, 40x, 100x, etc.
- the illumination optical system 4b is an illumination optical system for capturing images and controlling autofocus (AF).
- the illumination optical system 4b irradiates the imaging area Sa of the specimen S placed on the stage 2 with light emitted from a single light source 7 as illumination light L1.
- the light source 7 is a light source that emits white light as illumination light L1, and is placed on the bottom side of the stage 2. Examples of light source 7 that can be used include a mercury lamp, laser diode (LD), light-emitting diode (LED), superluminescent diode (SLD), and xenon flash lamp.
- the illumination optical system 4b which irradiates the specimen S placed on the stage 2 with light from the light source 7 as illumination light L1, has a collimator lens 8, a first fly-eye lens 9, a second fly-eye lens 10, and a condenser lens 13, arranged in this order from the light source 7 side on the optical path K1 of the illumination light L1.
- a special mask 22 shown in Figure 12(c) is arranged on the specimen conjugate plane 100d, which is optically conjugate with the specimen S.
- the illumination light L1 emitted from the light source 7 is incident on the collimator lens 8.
- the illumination light L1 emitted from the collimator lens 8 is incident on the condenser lens 13.
- the condenser lens 13 irradiates the illumination light L1 emitted from the light source 7 onto the imaging area Sa of the specimen S.
- the numerical aperture (NA) of the illumination optical system 4b is changeable.
- the second fly-eye lens 10 is arranged on the pupil conjugate plane 100e.
- the first fly-eye lens 9 is disposed on the light source 7 side of the second fly-eye lens 10, near the specimen conjugate plane 100d.
- the first fly-eye lens 9 and the second fly-eye lens 10 homogenize the illumination light L1 on the specimen plane 100a.
- the first fly-eye lens 9 may be omitted in the microscope device 1e of this embodiment.
- multiple lenses may be arranged two-dimensionally in a plane perpendicular to the optical axis.
- the illumination optical system 4b irradiates the AF area Sb of the specimen S placed on the stage 2 with light emitted from the light source 7 as illumination light L2.
- the area of the specimen S illuminated by illumination light L1 (imaging area Sa) is different from the area illuminated by illumination light L2 (AF area Sb).
- the light source 7 emits light as illumination light L1 and L2 upon receiving a control signal from the drive control unit 62.
- the illumination light L2 incident on the collimator lens 8 from the light source 7 and emitted from the special mask 22 becomes illumination light L2 containing two parallel beams.
- the illumination light L2 emitted from the special mask 22 illuminates the AF area Sb of the specimen S from two different angles.
- the detection optical system 6b of this embodiment has a half mirror 24 between the objective lens 3 and each of the second objective lenses 20a and 20b, near the objective pupil plane 100f of the objective lens 3.
- the image sensors 51 and 52 capture an optical image of the specimen S guided by the objective lens 3.
- the image sensor 51 acquires image data when illumination light L1 from the light source 7 is irradiated onto the imaging area Sa of the specimen S and passes through the half mirror 24.
- the image sensor 52 acquires image data when illumination light L2 from the light source 7 is irradiated onto the AF area Sb of the specimen S and reflected by the half mirror 24. These image data are acquired at the same imaging timing.
- the optical image of the specimen S is an image created by transmitted light in the case of bright-field illumination, an image created by scattered light in the case of dark-field illumination, and an image created by luminescence (fluorescence) in the case of luminescence observation (fluorescence observation).
- the image sensors 51 and 52 are image sensors having multiple pixel rows. Examples of the image sensors 51 and 52 include CCD image sensors and CMOS image sensors.
- the image sensors 51 and 52 capture the optical image of the specimen S formed by the second objective lenses 20a and 20b along the optical paths K1 and K2, and acquire image data.
- the second objective lens 20b forms a first optical image P1 and a second optical image P2 of the AF area Sb of the specimen S on the imaging plane of the image sensor 52. If the AF area 5b of the image sensor 52 is positioned conjugate to the specimen surface 100a via the detection optical system 6b, the first optical image P1 and the second optical image P2 will overlap, making it impossible to calculate the focal position information of the objective lens 3 in the AF area Sb. For this reason, the image sensor 52 is positioned offset from the specimen conjugate plane 100g, which is optically conjugate to the specimen surface 100a.
- the imaging surfaces of the image sensors 51 and 52 have a plurality of pixels arranged two-dimensionally.
- the image sensor 52 can capture the plurality of pixels on the imaging surface corresponding to the range included in the formed first optical image P1 and second optical image P2 by subarray readout.
- Subarray readout is a readout method of the image sensors 51 and 52 that reads out a subarray area made up of a set number of pixels from among the plurality of pixels that make up the imaging surfaces of the image sensors 51 and 52.
- the microscope apparatus 1f includes a stage 2 on which a specimen S is held, an objective lens 3 arranged to face the specimen S on the stage 2, an illumination optical system 4c that emits illumination light to be irradiated onto the specimen S, and two image sensors 51 and 52 that capture the objective lens 3 and the optical image guided by the objective lens 3, and is provided with a detection optical system 6b that guides, of the illumination light, illumination light L1 (first illumination light) that passes through an imaging region Sa (first region) of the specimen S and illumination light L2 (second illumination light) that passes through an AF region Sb (second region) different from the imaging region Sa of the specimen S to the image sensor 51 and the image sensor 52, respectively.
- illumination light L1 first illumination light
- illumination light L2 second illumination light
- a specimen S is placed on the stage 2 so as to face the objective lens 3.
- the specimen S may be a biological sample such as a tissue section.
- the specimen S is placed on the stage 2, for example, sealed in a glass slide.
- the position of the stage 2 relative to the objective lens 3 is movable in a scanning direction that intersects with the optical axis of the objective lens 3.
- the magnification of the objective lens 3 may be high, for example, 20x, 40x, 100x, etc.
- the illumination optical system 4c is an illumination optical system for capturing images and controlling autofocus (AF).
- the illumination optical system 4c irradiates the imaging area Sa of the specimen S placed on the stage 2 with light emitted from the light source 7 as illumination light L1.
- the light source 7 is a light source that emits white light as illumination light L1, and is placed on the bottom side of the stage 2. Examples of light source 7 that can be used include a mercury lamp, laser diode (LD), light-emitting diode (LED), superluminescent diode (SLD), and xenon flash lamp.
- the illumination optical system 4c which irradiates light from the light source 7 as illumination light L1 onto a specimen S placed on the stage 2, has a collimator lens 8, a first fly-eye lens 9, a second fly-eye lens 10, a pair of relay lenses 11 and 12, and a condenser lens 13, arranged in this order from the light source 7 side on the optical path K1 of the illumination light L1.
- An aperture stop 14 is arranged between the second fly-eye lens 10 and the relay lens 11.
- the illumination light L1 emitted from the light source 7 is incident on the collimator lens 8.
- the pair of relay lenses 11 and 12 relay the illumination light L1 emitted from the collimator lens 8 to the condenser lens 13.
- the condenser lens 13 irradiates the illumination light L1 emitted from the light source 7 onto the imaging area Sa of the specimen S.
- the numerical aperture (NA) of the illumination optical system 4c is changeable.
- the second fly-eye lens 10 is arranged on the pupil conjugate plane 100e.
- the first fly-eye lens 9 is disposed on the light source 7 side of the second fly-eye lens 10, near the specimen conjugate plane 100d.
- the first fly-eye lens 9 and the second fly-eye lens 10 homogenize the illumination light L1 on the specimen plane 100a.
- the first fly-eye lens 9 and the second fly-eye lens 10 may be omitted in the microscope device 1f of this embodiment.
- the illumination optical system 4c irradiates the AF area Sb of the specimen S placed on the stage 2 with light emitted from the light source 7 as illumination light L2.
- the area of the specimen S illuminated by illumination light L1 (imaging area Sa) is different from the area illuminated by illumination light L2 (AF area Sb).
- the light source 7 emits light as illumination light L1 and L2 upon receiving a control signal from the drive control unit 62.
- a phase diffraction grating 23 is disposed on the optical path K2 of the illumination light L2, between a pair of relay lenses 11, 12, on a specimen conjugate plane 100c that is optically conjugate with the specimen plane 100a, at a position conjugate to the AF region Sb of the specimen S.
- the illumination light L2 that enters the collimator lens 8 from the light source 7 and emerges from the phase diffraction grating 23 illuminates the AF region Sb of the specimen S from two different angles.
- the phase diffraction grating 23 forms the illumination light L2 that includes light from two different directions.
- the detection optical system 6b of this embodiment has a half mirror 24 between the objective lens 3 and each of the second objective lenses 20a and 20b, near the objective pupil plane 100f of the objective lens 3.
- the image sensors 51 and 52 capture an optical image of the specimen S guided by the objective lens 3.
- the image sensor 51 acquires image data when illumination light L1 from the light source 7 is irradiated onto the imaging area Sa of the specimen S and passes through the half mirror 24.
- the image sensor 52 acquires image data when illumination light L2 from the light source 7 is irradiated onto the AF area Sb of the specimen S and reflected by the half mirror 24. These image data are acquired at the same imaging timing.
- the optical image of the specimen S is an image created by transmitted light in the case of bright-field illumination, an image created by scattered light in the case of dark-field illumination, and an image created by luminescence (fluorescence) in the case of luminescence observation (fluorescence observation).
- the image sensor 5 is an image sensor having multiple pixel rows. Examples of image sensors 51 and 52 include CCD image sensors and CMOS image sensors.
- the image sensors 51 and 52 capture the optical image of the specimen S formed by the second objective lenses 20a and 20b along the optical paths K1 and K2, and acquire image data.
- the second objective lens 20b forms a first optical image P1 and a second optical image P2 of the AF area Sb of the specimen S on the imaging plane of the image sensor 52. If the AF area 5b of the image sensor 52 is positioned conjugate to the specimen surface 100a via the detection optical system 6, the first optical image P1 and the second optical image P2 will overlap, making it impossible to calculate the focal position information of the objective lens 3 in the AF area Sb. For this reason, the image sensor 52 is positioned offset from the specimen conjugate plane 100g, which is optically conjugate to the specimen surface 100a.
- the imaging surfaces of the image sensors 51 and 52 have a plurality of pixels arranged two-dimensionally.
- the image sensor 52 can capture the plurality of pixels on the imaging surface corresponding to the range included in the formed first optical image P1 and second optical image P2 by subarray readout.
- Subarray readout is a readout method of the image sensors 51 and 52 that reads out a subarray area made up of a set number of pixels from among the plurality of pixels that make up the imaging surfaces of the image sensors 51 and 52.
- FIG. 17 is a diagram showing the configuration of a microscope apparatus 1g according to embodiment 6. Note that an objective lens driver 50, a stage driver 55, and a computer 60 are omitted from FIG. 17. As shown in FIG. 17, the microscope apparatus 1g includes a stage 2 on which a specimen S is held, an objective lens 3 arranged to face the specimen S on the stage 2, an illumination optical system 4d that emits illumination light to be irradiated onto the specimen S, and a single image sensor 5 that captures the objective lens 3 and the optical image guided by the objective lens 3.
- the microscope apparatus 1g is also equipped with a detection optical system 6c that guides, of the illumination light, illumination light L1 (first illumination light) passing through an image sensor area Sa (first area) of the specimen S and illumination light L2 (second illumination light) passing through an AF area Sb (second area) different from the image sensor area Sa, to an image sensor area 5a and an AF area 5b different from the image sensor area 5a, respectively.
- a detection optical system 6c guides, of the illumination light, illumination light L1 (first illumination light) passing through an image sensor area Sa (first area) of the specimen S and illumination light L2 (second illumination light) passing through an AF area Sb (second area) different from the image sensor area Sa, to an image sensor area 5a and an AF area 5b different from the image sensor area 5a, respectively.
- a specimen S is placed on the stage 2 so as to face the objective lens 3.
- the specimen S may be a biological sample such as a tissue section.
- the specimen S is placed on the stage 2, for example, sealed in a glass slide.
- the position of the stage 2 relative to the objective lens 3 is movable in a scanning direction that intersects with the optical axis of the objective lens 3.
- the magnification of the objective lens 3 may be high, for example, 20x, 40x, 100x, etc.
- the illumination optical system 4d is an illumination optical system for capturing images and controlling autofocus (AF).
- the illumination optical system 4d irradiates the imaging area Sa of the specimen S placed on the stage 2 with light emitted from a single light source 7 as illumination light L1.
- the light source 7 is a light source that emits white light as illumination light L1, and is placed on the bottom side of the stage 2. Examples of light source 7 that can be used include a mercury lamp, laser diode (LD), light-emitting diode (LED), superluminescent diode (SLD), and xenon flash lamp.
- the illumination optical system 4d has, arranged in order from the light source 7 side on the optical paths K1 and K2 of the illumination light L1 and L2, a collimator lens 8, a first fly-eye lens 9, a second fly-eye lens 10, and a condenser lens 13.
- An aperture stop 14 is arranged between the second fly-eye lens 10 and the relay lens 11.
- Illumination light L1 emitted from the light source 7 is incident on the collimator lens 8.
- Illumination light L1 emitted from the collimator lens 8 is incident on the condenser lens 13.
- the condenser lens 13 irradiates the illumination light L1 emitted from the light source 7 onto the imaging area Sa of the specimen S.
- the numerical aperture (NA) of the illumination optical system 4d is changeable.
- the second fly-eye lens 10 is disposed on the pupil conjugate plane 100e.
- the first fly-eye lens 9 is disposed on the light source 7 side of the second fly-eye lens 10, near the specimen conjugate plane 100d.
- the first fly-eye lens 9 and the second fly-eye lens 10 homogenize the illumination light L1 on the specimen plane 100a.
- the first fly-eye lens 9 and the second fly-eye lens 10 may be omitted in the microscope device 1g of this embodiment.
- the illumination optical system 4d irradiates the AF area Sb of the specimen S placed on the stage 2 with light emitted from the light source 7 as illumination light L2.
- the area of the specimen S illuminated by illumination light L1 (imaging area Sa) is different from the area illuminated by illumination light L2 (AF area Sb).
- the light source 7 emits light as illumination light L1 and L2 upon receiving a control signal from the drive control unit 62.
- the image sensor 5 captures an optical image of the specimen S guided by the objective lens 3.
- the image sensor 5 acquires, at the same imaging timing, image data in the image sensor 5a when illumination light L1 from the light source 7 is irradiated onto the image sensor area Sa of the specimen S, and image data in the AF area 5b when illumination light L2 from the light source 7 is irradiated onto the AF area Sb of the specimen S.
- the optical image of the specimen S is an image created by transmitted light in the case of bright-field illumination, an image created by scattered light in the case of dark-field illumination, and an image created by luminescence (fluorescence) in the case of luminescence observation (fluorescence observation).
- the image sensor 5 is an image sensor having multiple pixel rows. Examples of the image sensor 5 include a CCD image sensor and a CMOS image sensor.
- the image sensor 5 captures the optical image of the specimen S formed by the second objective lens 20 along the optical paths K1 and K2 of the illumination light L1 and L2, and acquires image data.
- the detection optical system 6c has a triangular prism 25 on the AF area 5b of the image sensor 5 that changes the optical path length of the illumination light L2 along the optical axis direction of the detection optical system 6c depending on the position within the AF area Sb.
- the detection optical system 6c also has an optical path length offset member 26 on the imaging area 5a of the image sensor 5 that offsets the optical path length of the illumination light L1 along the optical axis direction of the detection optical system 6c.
- the prism 25 is a member having a refractive index different from that of air and is made of a material such as glass or plastic.
- the optical path length offset member 26 is a member having a refractive index different from that of air and is made of a material such as glass or plastic.
- in-focus position information is calculated based on the position where the contrast value of the image data acquired in AF area 5b is greatest.
- the optical path length of light passing through the prism 25 varies depending on the position of the AF area Sb.
- the optical path length in the optical axis direction in the AF area Sb can only obtain a contrast value on the positive side relative to the imaging area Sa, and in-focus position information cannot be calculated appropriately. Therefore, by placing the optical path length offset member 26 above the imaging area Sa, the optical path length of light passing through the part of the prism 25 that is thinner than the thickness of the optical path length offset member 26 is shorter than the optical path length of light passing through the imaging area Sa.
- the optical path length in the optical axis direction in the AF area Sb can obtain a contrast value on the negative side relative to the imaging area Sa. This allows in-focus position information to be obtained appropriately.
- the "lane scan" function is the same as in embodiment 1, so a description thereof will be omitted.
- Fig. 18 is a diagram showing the configuration of a microscope apparatus 1h according to embodiment 7. Note that the objective lens driving unit 50, the stage driving unit 55, and the computer 60 are omitted from Fig. 18.
- the microscope apparatus 1h includes a stage 2 on which a specimen S is held, an objective lens 3 arranged to face the specimen S on the stage 2, an illumination optical system 4d that emits illumination light to be irradiated onto the specimen S, and a single image sensor 5 that captures the objective lens 3 and the optical image guided by the objective lens 3.
- the microscope apparatus 1h is also equipped with a detection optical system 6d that guides, of the illumination light, illumination light L1 (first illumination light) passing through an image sensor area Sa (first area) of the specimen S and illumination light L2 (second illumination light) passing through an AF area Sb (second area) different from the image sensor area Sa, to an image sensor area 5a and an AF area 5b different from the image sensor area 5a, respectively.
- a detection optical system 6d guides, of the illumination light, illumination light L1 (first illumination light) passing through an image sensor area Sa (first area) of the specimen S and illumination light L2 (second illumination light) passing through an AF area Sb (second area) different from the image sensor area Sa, to an image sensor area 5a and an AF area 5b different from the image sensor area 5a, respectively.
- a specimen S is placed on the stage 2 so as to face the objective lens 3.
- the specimen S may be a biological sample such as a tissue section.
- the specimen S is placed on the stage 2, for example, sealed in a glass slide.
- the position of the stage 2 relative to the objective lens 3 is movable in a scanning direction that intersects with the optical axis of the objective lens 3.
- the magnification of the objective lens 3 may be high, for example, 20x, 40x, 100x, etc.
- the illumination optical system 4d is an illumination optical system for capturing images and controlling autofocus (AF).
- the illumination optical system 4d irradiates the imaging area Sa of the specimen S placed on the stage 2 with light emitted from a single light source 7 as illumination light L1.
- the light source 7 is a light source that emits white light as illumination light L1, and is placed on the bottom side of the stage 2. Examples of light source 7 that can be used include a mercury lamp, laser diode (LD), light-emitting diode (LED), superluminescent diode (SLD), and xenon flash lamp.
- the illumination optical system 4d has, arranged in order from the light source 7 side, a collimator lens 8, a first fly-eye lens 9, a second fly-eye lens 10, and a condenser lens 13 on the optical paths K1 and K2 of the illumination light L1 and L2.
- An aperture stop 14 is arranged between the second fly-eye lens 10 and the condenser lens 13.
- Illumination light L1 emitted from the light source 7 is incident on the collimator lens 8.
- Illumination light L1 emitted from the collimator lens 8 is incident on the condenser lens 13.
- the condenser lens 13 irradiates the illumination light L1 emitted from the light source 7 onto the imaging area Sa of the specimen S.
- the numerical aperture (NA) of the illumination optical system 4d is changeable.
- the second fly-eye lens 10 is disposed on the pupil conjugate plane 100e.
- the first fly-eye lens 9 is disposed on the light source side of the second fly-eye lens 10, near the specimen conjugate plane 100d.
- the first fly-eye lens 9 and the second fly-eye lens 10 homogenize the illumination light L1 on the specimen plane 100a.
- the first fly-eye lens 9 and the second fly-eye lens 10 may be omitted in the microscope device 1h of this embodiment.
- the illumination optical system 4d irradiates the AF area Sb of the specimen S placed on the stage 2 with light emitted from the light source 7 as illumination light L2.
- the area of the specimen S illuminated by illumination light L1 (imaging area Sa) is different from the area illuminated by illumination light L2 (AF area Sb).
- the light source 7 emits light as illumination light L1 and L2 upon receiving a control signal from the drive control unit 62.
- the detection optical system 6d of this embodiment has a mirror 27 and a beam splitter array 28 consisting of multiple beam splitters, both of which are arranged on the image sensor 5 side of the second objective lens 20.
- the beam splitter array 28 changes the optical path length of the illumination light L2 along the optical axis direction of the detection optical system 6d depending on its position within the AF area Sb. It is preferable that the beam splitter array 28 consists of at least three beam splitters.
- the image sensor 5 captures an optical image of the specimen S guided by the objective lens 3.
- the image sensor 5 acquires, at the same imaging timing, image data in the imaging region 5a when illumination light L1 from the light source 7 is irradiated onto the imaging region Sa of the specimen S and reflected by the mirror 27, and image data in the AF region 5b when illumination light L2 from the light source 7 is irradiated onto the AF region Sb of the specimen S and reflected by the beam splitter array 28.
- the optical image of the specimen S is an image created by transmitted light in the case of bright-field illumination, an image created by scattered light in the case of dark-field illumination, and an image created by luminescence (fluorescence) in the case of luminescence observation (fluorescence observation).
- the image sensor 5 is an image sensor having multiple pixel rows. Examples of the image sensor 5 include a CCD image sensor and a CMOS image sensor.
- the image sensor 5 captures the optical image of the specimen S formed by the second objective lens 20 along the optical paths K1 and K2 of the illumination light L1 and L2, and acquires image data.
- in-focus position information is calculated based on the position where the contrast value of the image data acquired in AF area 5b is greatest.
- the "lane scan" function is the same as in embodiment 1, so a description thereof will be omitted.
- the beam splitter array 28 is positioned in the +Z direction relative to the mirror 27.
- Figure 19 shows modified positions of the beam splitter array 28. As shown in Figures 19(a) and (b), the beam splitter array 28 may be positioned in the same position in the Z direction relative to the mirror 27, but in a different position in the X direction.
- Figure 19(a) is a view of the imaging surface of the image sensor 5 as seen from above
- Figure 19(b) is a view of the imaging surface as seen from the side.
- the cross-sectional shape Ha of the illumination light L1 and the cross-sectional shape Hb of the illumination light L2 are formed in different shapes on the pupil plane (objective pupil plane) 100h of the objective lens 3. This is because the imaging area Sa of the specimen S is irradiated with normal illumination light, and the AF area Ab of the specimen S is irradiated with illumination light containing light from two different directions.
- Figure 20 is a diagram showing the relationship between the illumination light on the specimen plane 100a of the specimen S and the illumination light on the objective pupil plane 100h of the objective lens 3.
- the cross-sectional shape Ha of the illumination light L1 and the cross-sectional shape Hb of the illumination light L2 are formed in different shapes on the objective pupil plane 100h of the objective lens 3.
- Two illumination patterns of the illumination light L2 are formed on the objective pupil plane 100h, sandwiching the illumination pattern of the illumination light L1.
- the microscope devices 1, 1a, 1b, 1c, 1d, 1e, 1f, 1g, and 1h are upright microscopes.
- the microscope devices 1, 1a, 1b, 1c, 1d, 1e, 1f, 1g, and 1h may also be inverted microscopes.
- the stage 2 that holds the specimen S and the objective lens 3 are arranged opposite each other.
- the microscope devices 1, 1a, 1b, 1c, 1d, 1e, 1f, 1g, and 1h are bright-field microscopes.
- the microscope devices 1, 1a, 1b, 1c, 1d, 1e, 1f, 1g, and 1h may also be phase-contrast microscopes.
- a phase ring may be inserted at the position of the aperture stop 14, and a phase-contrast objective lens may be used.
- a mask may be used in the main illumination area that transmits only light rays that pass through the phase ring on the objective pupil plane.
- the image data in the imaging area 5a and the image data in the AF area 5b are acquired at the same imaging timing.
- this is not limited to this, and the image data in the imaging area 5a and the image data in the AF area 5b may be acquired at different imaging timings, for example, by pulse irradiation with staggered timing.
- the image sensor 52 in order to calculate the focal position information of the objective lens 3 in the AF area Sb, is positioned at a position offset from the specimen conjugate plane 100g that is optically conjugate with the specimen surface 100a.
- the image sensors 51 and 52 only need to be positioned so that the conjugate planes of the image sensor 51 and the image sensor 52, via the detection optical system 6b, do not coincide with each other on the specimen S.
- Figures 21 and 22 are diagrams showing how the conjugate planes of the image sensor 51 and the image sensor 52 are positioned so that they do not coincide with each other on the specimen S.
- Figure 21 shows a state in which the conjugate planes 510a and 520a of the image sensor 51 and 52 are offset from a state in which they coincide with the specimen plane 100a, so that the conjugate planes 510a and 520a of the image sensor 52 do not coincide with each other on the specimen plane 100a.
- the image sensors 51 and 52 are not offset from each other, the image sensors 51a and 52a of the image sensors 51 and 52 are on the focal conjugate planes fa and fb of the objective lens 3, and the conjugate planes 510a and 520a of the image sensors 51 and 52 are on the specimen plane 100a and the focal plane f of the objective lens 3.
- the image sensors 51 and 52 are offset from each other, the two image sensors 51 and 52 are conjugate with two different Z planes in the specimen space, and the image sensor plane 52a of the image sensor 52 is shifted from the focal conjugate plane fb of the objective lens 3.
- Figure 22 shows a state in which the image sensors 51 and 52 are offset from a state in which they are conjugate to the same Z plane in the specimen space, such that the conjugate plane 510a of the image sensor 51 and the conjugate plane 520a of the image sensor 52 do not coincide with each other on the specimen plane 100a.
- the image sensors 51 and 52 are not offset from each other, the image sensors 51a and 52a of the image sensors 51 and 52 are shifted from the focal conjugate planes fa and fb of the objective lens 3, but the conjugate planes 510a and 520a of the image sensors 51 and 52 are both in the same position.
- the image sensor 52a of the image sensor 52 coincides with the focal conjugate plane fb of the objective lens 3, and the image sensor 51a of the image sensor 51 is shifted from the focal conjugate plane fa of the objective lens 3.
- the image sensor 51 and the focal plane f of the objective lens 3 do not necessarily have to be conjugate.
- the objective lens 3 or the specimen S must be moved up and down so that the conjugate plane of the image sensor 51 coincides with the specimen plane 100a.
- the microscope device 1, 1a, 1b, 1c, 1d, 1g, and 1h include a stage 2 on which a specimen is placed facing the objective lens 3, a drive unit 55 that moves the relative position of the stage 2 with respect to the objective lens 3 in a scanning direction that intersects the optical axis of the objective lens 3, an illumination optical system 4, 4a, 4b, 4c, 4c', and 4d that emits illumination light to be irradiated onto the specimen S, a detection optical system 6, 6a, 6c, and 6d that includes the objective lens 3 and a single image sensor 5 and directs, of the illumination light, a first illumination light L1 that passes through a first region Sa of the specimen S and a second illumination light L2 that passes through a second region Sb different from the first region Sa of the specimen S, respectively, to different regions of the image sensor 5, a calculation unit 61 that calculates focal position information of the objective lens 3 with respect to the second region Sb based on image data of the second
- control unit 62 When the control unit 62 irradiates the first illumination light L1 as the first area Sa to an area including at least a part of the second area Sb for which the focus position information has been calculated, in conjunction with movement in the scanning direction by the drive unit 55, the control unit 62 controls the positional relationship between the specimen S and the focal position of the objective lens 3 along the optical axis direction of the detection optical systems 6, 6a, 6c, and 6d based on the focus position information.
- the microscope devices 1, 1a, 1b, 1c, 1d, 1g, and 1h according to embodiments 1, 2, 3, 6, and 7 can perform real-time AF with a simple configuration using a single image sensor 5.
- the microscope devices 1b, 1c, 1d, 1e and 1f include a stage 2 on which a specimen is placed so as to face the objective lens 3, a drive unit 55 that moves the relative position of the stage 2 with respect to the objective lens 3 in a scanning direction that intersects with the optical axis of the objective lens 3, illumination optical systems 4b, 4c and 4c' that emit light from a single light source 7 as illumination light to be irradiated onto the specimen S, detection optical systems 6, 6a and 6b that include the objective lens 3 and image sensors 5 (51, 52) and that guide, of the illumination light, a first illumination light L1 that passes through a first region Sa of the specimen S and a second illumination light L2 that passes through a second region Sb different from the first region Sa of the specimen S, respectively, to different regions of the image sensor 5 (51, 52), a calculation unit 61 that calculates focusing position information of the objective lens 3 with respect to the second region Sb based on image data of the second region
- the cross-sectional shapes of the first illumination light L1 and the second illumination light L2 are different at the pupil plane 100h of the objective lens 3.
- the control unit 62 controls the positional relationship between the specimen S and the focal position of the objective lens 3 along the optical axis direction of the detection optical systems 6, 6a, and 6b based on the focus position information.
- the microscope devices 1b, 1c, 1d, 1e, and 1f according to embodiments 2, 3, 4, and 5 can perform real-time AF with a simple configuration using a single light source 7.
- 1...microscope device S...specimen, 2...stage, 3...objective lens, 55...driver, 4...illumination optical system, 6...detection optical system, 5...image sensor, Sa...first region, Sb...second region, L1...first illumination light, L2...second illumination light, 61...calculator, 62...controller
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Microscoopes, Condenser (AREA)
Abstract
顕微鏡装置(1)は、標本(S)が載置されるステージ(2)と、対物レンズ(3)に対するステージの相対的な位置をスキャン方向に移動させる駆動部(55)と、標本に照明光を出射する照明光学系(4)と、単一の撮像素子(5)を含み、標本の第1領域(Sa)を介した第1照明光(L1)と、標本の第2領域(Sb)を介した第2照明光(L2)とを撮像素子のそれぞれ異なる領域に導く検出光学系(6)と、第2領域における画像データに基づいて、第2領域に対する対物レンズの合焦位置情報を算出する算出部(61)と、制御部(62)を備える。制御部は、スキャン方向の移動に伴って、合焦位置情報を算出した第2領域を含む領域に対し、第1領域として第1照明光を照射する場合に、合焦位置情報に基づいて、標本と対物レンズの焦点位置との位置関係を制御する。
Description
本発明は、顕微鏡装置に関する。
従来、組織切片などの標本の撮像領域を予め複数の領域に分割し、分割された各領域を高倍率で撮像した後、これらを合成する顕微鏡装置が知られている。このような顕微鏡装置では、標本が載置されたステージをスキャン方向に移動させながら、ある領域を撮像するのと並行して次に撮像する領域の合焦位置情報を算出する、所謂リアルタイムAFを実施している(例えば、特許文献1を参照)。
しかしながら、特許文献1に記載の顕微鏡装置では、2つの光源と2つの撮像素子が必要であり、顕微鏡装置の複雑化やコストが上昇してしまうといった課題がある。
本発明に係る顕微鏡装置は、対物レンズに対向するように標本が載置されるステージと、前記対物レンズに対する前記ステージの相対的な位置を前記対物レンズの光軸に交差するスキャン方向に移動させる駆動部と、前記標本に照射される照明光を出射する照明光学系と、前記対物レンズ及び単一の撮像素子を含み、照明光のうち、前記標本の第1領域を介した第1照明光と、前記標本の前記第1領域とは異なる第2領域を介した第2照明光とを前記撮像素子のそれぞれ異なる領域に導く検出光学系と、前記撮像素子により取得される前記第2領域における画像データに基づいて、前記第2領域に対する前記対物レンズの合焦位置情報を算出する算出部と、制御部と、を備え、前記制御部は、前記駆動部による前記スキャン方向の移動に伴って、前記合焦位置情報を算出した前記第2領域の少なくとも一部を含む領域に対し、前記第1領域として前記第1照明光を照射する場合に、前記合焦位置情報に基づいて、前記検出光学系の光軸方向に沿って、前記標本と前記対物レンズの焦点位置との位置関係を制御する。
本発明に係る顕微鏡装置は、対物レンズに対向するように標本が載置されるステージと、前記対物レンズに対する前記ステージの相対的な位置を前記対物レンズの光軸に交差するスキャン方向に移動させる駆動部と、単一の光源からの光を、前記標本に照射される照明光として出射する照明光学系と、前記対物レンズ及び撮像素子を含み、照明光のうち、前記標本の第1領域を介した第1照明光と、前記標本の前記第1領域とは異なる第2領域を介した第2照明光とを前記撮像素子のそれぞれ異なる領域に導く検出光学系と、前記撮像素子により取得される前記第2領域における画像データに基づいて、前記第2領域に対する前記対物レンズの合焦位置情報を算出する算出部と、制御部と、を備え、前記対物レンズの瞳面において、前記第1照明光の断面形状と前記第2照明光の断面形状とは、異なる形状で形成されており、前記制御部は、前記駆動部による前記スキャン方向の移動に伴って、前記合焦位置情報を算出した前記第2領域の少なくとも一部を含む領域に対し、前記第1領域として前記第1照明光を照射する場合に、前記合焦位置情報に基づいて、前記検出光学系の光軸方向に沿って、前記標本と前記対物レンズの焦点位置との位置関係を制御する。
以下、図面を参照して本発明に係る実施形態について説明する。なお、以下に説明する実施形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施形態に応じた具体的構成が適宜採用されてよい。便宜上、実質的に同一の要素には同一の符号を付し、その説明を省略する場合がある。
[実施形態1]
図1は、実施形態1に係る顕微鏡装置1の構成を示す図である。図1に示されるように、実施形態1に係る顕微鏡装置1は、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4と、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する単一の撮像素子5を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)を、それぞれ撮像素子5の撮像領域5aと、撮像領域5aとは異なるAF領域5bに導く検出光学系6とを備えている。このように、本実施形態では、単一の撮像素子5の撮像面を撮像領域5aとAF領域5bとに分けている。一例として、本実施形態のように顕微鏡装置1に単一の撮像素子5を用いる場合、撮像領域5aは、結像性能が保証されている視野角(FOV)内に設定され、AF領域5bは、FOVの外側に設定されてもよい。単一の撮像素子5の撮像面を撮像領域5aとAF領域5bとに分けることにより、撮像領域5aでの撮像中に撮像領域5aとは異なるAF領域5bで取得される画像データを用いて、AF領域5bにおける対物レンズ3の合焦位置情報を算出することができる。
図1は、実施形態1に係る顕微鏡装置1の構成を示す図である。図1に示されるように、実施形態1に係る顕微鏡装置1は、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4と、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する単一の撮像素子5を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)を、それぞれ撮像素子5の撮像領域5aと、撮像領域5aとは異なるAF領域5bに導く検出光学系6とを備えている。このように、本実施形態では、単一の撮像素子5の撮像面を撮像領域5aとAF領域5bとに分けている。一例として、本実施形態のように顕微鏡装置1に単一の撮像素子5を用いる場合、撮像領域5aは、結像性能が保証されている視野角(FOV)内に設定され、AF領域5bは、FOVの外側に設定されてもよい。単一の撮像素子5の撮像面を撮像領域5aとAF領域5bとに分けることにより、撮像領域5aでの撮像中に撮像領域5aとは異なるAF領域5bで取得される画像データを用いて、AF領域5bにおける対物レンズ3の合焦位置情報を算出することができる。
ステージ2には、対物レンズ3に対向するように標本Sが載置される。本実施形態では、標本Sは、組織切片などの生体サンプルであってよい。標本Sは、例えばスライドガラスに密封された状態でステージ2に載置される。対物レンズ3に対するステージ2の相対的な位置は、対物レンズ3の光軸に交差するスキャン方向に移動可能となっている。対物レンズ3の倍率は、例えば、20倍、40倍、100倍等の高倍率であってよい。
照明光学系4は、画像を撮像するとともに、オートフォーカス(AF)を制御するための照明光学系である。照明光学系4は、スキャン用の光源7から出射された照明光L1をステージ2に配置された標本Sの撮像領域Saに照射する。スキャン用の光源7は、照明光L1として白色光を出射する光源であり、ステージ2の底面側に配置されている。スキャン用の光源7としては、例えば水銀ランプ、レーザダイオード(LD)、発光ダイオード(LED)、スーパールミネッセントダイオード(SLD)、キセノンフラッシュランプなどが用いられる。
スキャン用の光源7からの照明光L1をステージ2に配置された標本Sに照射する照明光学系4は、照明光L1の光路K1上に、光源7側から順に配置された、コリメータレンズ8、レンズアレイである第1フライアイレンズ9、レンズアレイである第2フライアイレンズ10、一対のリレーレンズ11,12、及びコンデンサレンズ13を有している。第2フライアイレンズ10とリレーレンズ11との間には、開口絞り14が配置されている。スキャン用の光源7から出射された照明光L1は、コリメータレンズ8に入射する。一対のリレーレンズ11,12は、コリメータレンズ8から出射した照明光L1をコンデンサレンズ13にリレーする。コンデンサレンズ13は、スキャン用の光源7から出射された照明光L1を標本Sの撮像領域Saに照射する。照明光学系4の開口数(NA)は、変更可能となっている。第2フライアイレンズ10は、対物レンズ3の瞳面と光学的に共役な瞳共役面100e上に配置されている。第1フライアイレンズ9は、第2フライアイレンズ10の光源7側であって標本面100aと光学的に共役な標本共役面100dの近傍に配置されている。第1フライアイレンズ9及び第2フライアイレンズ10は、標本面100aにおいて照明光L1を均一化する。第1フライアイレンズ9及び第2フライアイレンズ10は、本実施形態の顕微鏡装置1においては省略してもよい。
また、照明光学系4は、AF用の光源15から出射された照明光L2をステージ2に配置された標本SのAF領域Sbに照射する。本実施形態において、標本Sにおける照明光L1により照明される領域(撮像領域Sa)と照明光L2により照明される領域(AF領域Sb)は異なっている。AF用の光源15は、ステージ2の底面側に配置されている。AF用の光源15としては、例えば水銀ランプ、レーザダイオード(LD)、発光ダイオード(LED)、スーパールミネッセントダイオード(SLD)、キセノンフラッシュランプなどが用いられる。照明光L2は、単色光であってもよく、白色光であってもよい。また、照射光L2は、近赤外光のような赤外光であってもよい。スキャン用の光源7及びAF用の光源15は、後述する制御部としての駆動制御部62からの制御信号を受けてそれぞれ照明光L1,L2を出射する。
AF用の光源15から出射された照明光L2をステージ2に配置された標本Sに照射する照明光学系4は、照明光L2の光路K2上に、光源15側から順に配置された、コリメータレンズ16、一対のリレーレンズ17,12、及びコンデンサレンズ13を有している。コリメータレンズ16とリレーレンズ17との間であって、対物レンズ3の瞳面と光学的に共役なAF用の光源15側の瞳共役面100b上には、瞳マスク18が配置されている。一対のリレーレンズ17、12の間であって、標本Sの標本面100aと光学的に共役な標本共役面100cの近傍で、標本SのAF領域Sbとの共役位置には、ミラー19が配置されている。AF用の光源15からコリメータレンズ16に入射して瞳マスク18から出射したた照明光L2は、2つの平行光束を含む照明光L2となる。瞳マスク18から出射した照明光L2は、互いに異なる2つの角度から標本SのAF領域Sbを照明する。
図2は、瞳マスク18の形状を示す図である。図2に示されるように、本実施形態では、瞳マスク18は、開口18aと開口18bとを有している。開口18aと開口18bとは、瞳マスク18の中心18cから等距離の位置に形成されており、互いに同じ径を有している。瞳マスク18の中心18cは、AF用光路K2の光軸に一致している。なお、図2において、グレーで描かれている領域は遮光性を有している。AF用の光源15からコリメータレンズ16に入射して前段のリレーレンズ17から出射した照明光L2は、ミラー19によって反射され、後段のリレーレンズ12に入射する。AF用の光源15から出射された照明光L2は、コンデンサレンズ13から出射し、標本SのAF領域Sbを2つの異なる角度から照明する。
撮像素子5は、対物レンズ3によって導光された標本Sの光学像を撮像する。一例として、撮像素子5は、スキャン用の光源7からの照明光L1が標本Sの撮像領域Saに照射されたときの撮像領域5aにおける画像データと、AF用の光源15からの照明光L2が標本SのAF領域Sbに照射されたときのAF領域5bにおける画像データとを同一の撮像タイミングで取得する。なお、標本Sの光学像とは、明視野照明の場合は透過光による像、暗視野照明の場合は散乱光による像、発光観察(蛍光観察)の場合は発光(蛍光)による像である。撮像素子5は、複数の画素列を有する撮像素子である。撮像素子5としては、例えばCCDイメージセンサやCMOSイメージセンサが挙げられる。
撮像素子5は、照明光L1の光路K1において、第2対物レンズ20によって結像された標本Sの光学像を撮像し、画像データを取得する。
第2対物レンズ20は、標本SのAF領域Sbの第1の光学像P1と第2の光学像P2とをそれぞれ撮像素子5の撮像面のAF領域5bに結像する。撮像素子5のAF領域5bが検出光学系6を介して標本面100aと共役に配置されている場合、第1の光学像P1と第2の光学像P2とが重なってしまい、AF領域Sbにおける対物レンズ3の合焦位置情報を算出できない。そのため、撮像素子5のAF領域5b上に、検出光学系6の光軸方向に沿って、照明光L1の光路長(撮像素子5の撮像領域5aが検出光学系6を介して撮像領域Saと共役関係を維持)に対し、照明光L2の光路長をオフセットする光路長オフセット部材21を配置することで共役関係を崩す。光路長オフセット部材21は、照明光L2の光路長をオフセットできればよいので、撮像素子5のAF領域5b上に必ずしも接して配置される必要はない。また、光路長オフセット部材21は、空気とは異なる屈折率を有する部材であって、例えばガラスやプラスチックなどの材料から構成される。また、光路長オフセット部材21を撮像素子5の撮像領域5a上に配置して、撮像素子5の撮像領域5aと標本Sの撮像領域Saとの共役関係を維持しつつ、撮像素子5のAF領域5bと標本SのAF領域Sbとの共役関係を崩してもよい。
撮像素子5の撮像面は、2次元に配列された複数の画素を有している。撮像素子5は、結像された第1の光学像P1及び第2の光学像P2に含まれる範囲に対応する撮像面の複数の画素をサブアレイ読み出しにより撮像することができる。サブアレイ読み出しとは、撮像素子5の撮像面を構成する複数の画素のうちの、設定された複数の画素が構成するサブアレイ領域を読み出す撮像素子5の読み出し方法である。
また、顕微鏡装置1は、標本Sに対する対物レンズ3の焦点位置を変更させる対物レンズ駆動部50と、対物レンズ3に対するステージ2の相対的な位置を対物レンズ3の光軸に交差する方向(スキャン方向)に所定速度で移動させるステージ駆動部55と、顕微鏡装置1の動作を統括するコンピュータ60とを備えている。
対物レンズ駆動部50は、例えばステッピングモータ(パルスモータ)といったモータやピエゾアクチュエータなどのアクチュエータによって構成されている。対物レンズ駆動部50は、後述する駆動制御部62による制御に基づき、対物レンズ3を対物レンズ3の光軸に沿ったZ方向に駆動する。これにより、標本Sに対する対物レンズ3の焦点位置が移動する。
ステージ駆動部55は、例えばステッピングモータ(パルスモータ)といったモータやピエゾアクチュエータなどのアクチュエータによって構成されている。ステージ駆動部55は、後述する駆動制御部62による制御に基づき、ステージ2を対物レンズ3の光軸の直交面に対して所定の角度(例えば90度)を有する面についてXY方向に駆動する。これにより、ステージ2に保持された標本Sが対物レンズ3の光軸に対して移動し、標本Sに対する対物レンズ3の視野位置が移動することとなる。また、ステージ駆動部55は、ステージ2の位置を検出し得る。例えば、ステージ駆動部55は、ステージ2に取り付けられたリニアエンコーダによって、ステージ2のXY座標を検出する。ステージ駆動部55は、検出結果を示す位置情報を生成し、コンピュータ60に出力する。
コンピュータ60は、物理的には、RAM、ROM等のメモリ、及びCPU等のプロセッサ(演算回路)、通信インターフェイス、ハードディスク等の格納部、ディスプレイ等の表示部を備えて構成されている。かかるコンピュータ60としては、例えばパーソナルコンピュータ、マイクロコンピュータ、クラウドサーバ、スマートデバイス(スマートフォン、タブレット端末など)などが挙げられる。
コンピュータ60は、算出部としての画像処理部61と、制御部としての駆動制御部62とを有している。画像処理部61は、撮像素子5の撮像領域5aから出力される画像データに基づいて、標本Sのバーチャルスライド画像を作成する。また、画像処理部61は、撮像素子5により取得されるAF領域5bにおける画像データに基づいて、標本S上のAF領域Sbに対する対物レンズ3の合焦位置情報を算出する。駆動制御部62は、ステージ駆動部55によるスキャン方向の移動に伴って、対物レンズ3の合焦位置情報を算出したAF領域Sbの少なくとも一部を含む領域に対し、撮像領域Saとして照明光L1を照射する場合に、算出した合焦位置情報に基づいて、検出光学系6の光軸方向に沿って、標本Sと対物レンズ3の焦点位置との位置関係を制御する。
(合焦位置情報の算出方法)
本実施形態では、所謂自己相関解析によって合焦位置情報の算出が行われる。自己相関解析では、第1の光学像P1と第2の光学像P2とを含むAF領域5bの画像データに基づいて、合焦位置情報を算出する。
本実施形態では、所謂自己相関解析によって合焦位置情報の算出が行われる。自己相関解析では、第1の光学像P1と第2の光学像P2とを含むAF領域5bの画像データに基づいて、合焦位置情報を算出する。
図3は、自己相関解析により合焦位置情報を算出する方法を説明するため図である。図4は、自己相関解析により合焦位置情報を算出する方法を示すフローチャートである。図3(a)に示されるように、撮像素子5は撮像領域5aとAF領域5bとに分けられている。そこで、図4のステップS401では、画像処理部61は、撮像素子5から読み出した画像データのうち、AF領域5bから読み出した画像データを抽出する。図3(a)の下の図は、AF領域5bから読み出した画像データを示す。該画像データには、第1の光学像P1と第2の光学像P2が示されている。次に、ステップS402において、画像処理部61は、AF領域5bから読み出した画像データの1次元自己相関関数を計算する。図3(b)にAF領域5bから読み出した画像データの1次元自己相関関数の一例を示す。図3(b)において、縦軸は自己相関関数の相関値であり、横軸は画素位置である。自己相関関数を計算する前に、画像データに対してハイパスフィルタやバンドパスフィルタ等を用いたフィルタ処理を行い、高周波情報の抽出及びノイズの低減などを行ってもよい。
ステップS403において、画像処理部61は、ステップS402で計算した自己相関関数の相関値が極大値を取る画素位置(以下、「ピーク位置」という)を求める。図3(b)の例では、位置xがピーク位置である。
ステップS404において、画像処理部61は、事前に用意されたキャリブレーション直線に基づいて合焦位置情報を算出する。図3(c)にキャリブレーション直線の一例を示す。図3(c)において、縦軸はピークシフト量であり、横軸はデフォーカス量である。ステップS403で求めたピーク位置xに対応するデフォーカス量の値が合焦位置情報yである。キャリブレーション直線は、キャリブレーション用の試料を用いて実験的に求めてもよいし、光学系の設計に基づいて求めてもよい。このとき、検出光学系6の像面湾曲による撮像領域SaとAF領域Sbとの間の焦点位置のずれを考慮してもよい。
また、駆動制御部62は、ステージ駆動部55の動作を制御することによって、ステージ2の移動を制御する。さらに、駆動制御部62は、スキャン用の光源7及びAF用の光源15に制御信号を出力し、スキャン用の光源7及びAF用の光源15による光の出射を制御する。コンピュータ60は、画像処理部61及び駆動制御部62によって、光源7,15、対物レンズ駆動部50、ステージ駆動部55、及び撮像素子5によるレーンスキャンの実行を制御する。以下、レーンスキャンについて説明する。
上述のとおり、20倍、40倍、100倍等といった高倍率を有する対物レンズ3の視野は、標本Sの大きさに対して小さい範囲となっている。そのため、一回の撮像で画像を取得できる領域も標本Sに対して小さくなる。したがって、標本Sの全体を撮像するためには、対物レンズ3の視野を標本Sに対して移動させる必要がある。そこで、本実施形態に係る顕微鏡装置1では、標本Sを保持するスライドガラスに対して標本Sを含むように画像取得領域が設定され、画像取得領域に対するレーンスキャンが実行される。
(レーンスキャン スキャン方向先読み)
図5(a)は、本実施形態に係る顕微鏡装置1によるスキャン方向先読みのレーンスキャンを説明するための図である。本実施形態では、予め設定された画像取得領域71に対して検出光学系6の倍率を考慮した撮像素子5の撮像領域5aの大きさを割り当てることで、画像取得領域71に複数の部分領域が設定される。図5(a)に示す例では、画像取得領域71には、Y方向に第1~第6までの複数のレーンが設定され、各レーンには、X方向(スキャン方向)に1または複数の部分領域73が設定されている。
図5(a)は、本実施形態に係る顕微鏡装置1によるスキャン方向先読みのレーンスキャンを説明するための図である。本実施形態では、予め設定された画像取得領域71に対して検出光学系6の倍率を考慮した撮像素子5の撮像領域5aの大きさを割り当てることで、画像取得領域71に複数の部分領域が設定される。図5(a)に示す例では、画像取得領域71には、Y方向に第1~第6までの複数のレーンが設定され、各レーンには、X方向(スキャン方向)に1または複数の部分領域73が設定されている。
レーンスキャンでは、ステージ2をXY方向に移動させながら、標本Sの一部を撮像する。顕微鏡装置1は、ある部分領域73(撮像領域Sa)に対応する標本Sの一部を撮像素子5によって撮像することで、部分領域73に対応するタイル画像Tをそれぞれ取得する。撮像領域5aが次に撮像する部分領域73(撮像領域Sa)に移動した後、再び撮像を行って次のタイル画像Tを取得する。以降、顕微鏡装置1では、レーン毎に部分領域73を順次撮像する動作が繰り返し実行され、複数のタイル画像列からなる画像データの取得が行われる。取得された画像データが画像処理部61によって合成され、標本S全体を示す画像が形成される。
ステージ駆動部55による対物レンズ3の視野位置の移動方式には、例えば図5(a)に示されるように、各レーンでスキャン方向が同方向となる一方向スキャン(Uni-directional scanning)が採用される。図5(a)では、画像取得領域71に対する対物レンズ3の相対的な移動方向が矢印によって示されている。
図5(b)は、撮像領域5aとAF領域5bとの関係を説明する図である。図5(b)では、撮像素子5の撮像面上における撮像領域5aとAF領域5bとの範囲の関係が模式的に示されている。なお、撮像領域5aは、タイル画像Tを構成する領域である。AF領域5bは、合焦位置情報の算出がなされる領域である。
図5(b)に示されるように、撮像素子5において、撮像領域5aのスキャン方向の一方側に隣接してAF領域5bが設定されている。撮像領域5aは、スキャン方向においてAF領域5bよりも後方である。これにより、撮像素子5で撮像を行うと、撮像領域5aでの撮像によりタイル画像Tが取得されるのと同時に、撮像領域5aが次に撮像する部分領域73での合焦位置情報を算出するための画像データを取得することができる。よって、撮像領域5aが次に撮像する部分領域73に移動する前に、算出した合焦位置情報に基づいて対物レンズ3の焦点位置を制御でき、高速なAFを実現することができる。
続いて、顕微鏡装置1のスキャン方向先読みの動作について説明する。図6は、顕微鏡装置1のスキャン方向先読みの動作を示すフローチャートである。本実施形態では、ステップS601において、事前に、対物レンズ3に対向するように標本Sがステージ2に載置され、画像取得領域71が決定される。続いて、ステップS602において、レーンのループが開始される。レーンのループは、ステップS603の処理、ステップS604の処理、ステップS605の処理、ステップS606の処理、ステップS607の処理を含む。ステップS603では、撮像素子5による撮像のループが開始される。撮像素子5による撮像のループは、ステップS604の処理、ステップS605の処理、ステップS606の処理を含む。これらのステップは、ステージ駆動部55の駆動によって、対物レンズ3に対してステージ2の位置をスキャン方向に沿って移動させながら行われる。つまり、ステージ2を駆動させながら流し撮り撮像が行われる。なお、撮像のたびにステージ2の移動を停止させて静止撮像を行ってもよい。流し撮り撮像を行う場合は、スキャン用の光源7およびAF用の光源15から発せられる照明光を短時間発光させることにより、または撮像素子5を短時間露光状態とすることによりモーションブラーを抑制してもよい。
ステップS604において、駆動制御部62は、AF領域Sbにおける画像データから算出されたAF領域Sbに対する対物レンズ3の合焦位置情報に基づいて対物レンズ駆動部50を制御することにより、検出光学系6の光軸方向に沿って、標本Sと対物レンズ3の焦点位置との位置関係を制御する。これにより、撮像領域Saにおいて標本Sにフォーカスを合わせることができる。
ステップS605において、撮像素子5により撮像を行い、撮像領域Saにおけるタイル画像T及びAF領域Sbにおける画像データを取得する。
ステップS606において、画像処理部61は、ステップS605において取得したAF領域Sbの画像データから、次の撮像領域Saに対する合焦位置情報を算出する。なお、各レーンの1回目の撮像は、AF領域Sbの画像データを取得し、AF領域Sbにおける合焦位置情報を算出するための撮像であり、各レーンの1回目の撮像では標本Sのタイル画像Tは取得しない。レーンにおいて最後のタイル画像Tを取得すると撮像のループは終了する。
撮像のループが終了すると、ステップS607において、ステージ駆動部55の駆動によって、撮像領域Saを次のレーンに移動させる。移動したレーンにおいて、撮像のループ処理を行い、該レーンにおいて最後のタイル画像Tを取得すると、再び撮像領域Saを次のレーンに移動する。最後のレーンにおいて、最後のタイル画像Tを取得すると、レーンのループは終了し、顕微鏡装置1の動作は終了する。
(レーンスキャン 垂直方向先読み)
図5(a)では、スキャン方向に先読みを行う方法について説明を行ったが、スキャン方向に垂直な方向に先読みを行うこともできる。図7(a)は、顕微鏡装置1による垂直方向先読みのレーンスキャンを説明するための図である。本実施形態では、予め設定された画像取得領域71に対して検出光学系6の倍率を考慮した撮像素子5の撮像領域5aの大きさを割り当てることで、画像取得領域71に複数の部分領域が設定される。図7(a)に示す例では、画像取得領域71には、X方向に第1~第7までの複数のレーンが設定され、各レーンには、Y方向(スキャン方向)に1または複数の部分領域73が設定されている。
図5(a)では、スキャン方向に先読みを行う方法について説明を行ったが、スキャン方向に垂直な方向に先読みを行うこともできる。図7(a)は、顕微鏡装置1による垂直方向先読みのレーンスキャンを説明するための図である。本実施形態では、予め設定された画像取得領域71に対して検出光学系6の倍率を考慮した撮像素子5の撮像領域5aの大きさを割り当てることで、画像取得領域71に複数の部分領域が設定される。図7(a)に示す例では、画像取得領域71には、X方向に第1~第7までの複数のレーンが設定され、各レーンには、Y方向(スキャン方向)に1または複数の部分領域73が設定されている。
図7(a)の例では、ステージ駆動部55による対物レンズ3の視野位置の移動方式は、隣り合うレーン間でスキャン方向が反転する双方向スキャン(Bi-directional scanning)が採用される。図7(a)では、画像取得領域71に対する対物レンズ3の相対的な移動方向が矢印によって示されている。
図7(b)は、撮像領域5aとAF領域5bとの関係を説明する図である。図7(b)では、撮像素子5の撮像面上における撮像領域5aとAF領域5bとの範囲の関係が模式的に示されている。なお、撮像領域5aは、タイル画像Tを構成する領域である。AF領域5bは、合焦位置情報の算出がなされる領域である。
図7(b)に示されるように、撮像領域5aのスキャン方向(Y方向)に垂直な方向(X方向)の一方側に隣接してAF領域5bが設定されている。撮像領域5aは、スキャン方向に垂直な方向(X方向)においてAF領域5bよりも後方である。これにより、あるレーンでタイル画像を取得している間に、次のレーンにおける合焦位置情報を算出することができる。よって、撮像領域Saが次に撮像する部分領域73に移動する前に、算出した合焦位置情報に基づいて対物レンズ3の焦点位置を制御でき、高速なAFを実現できる。さらに、図7(a)の方法では、図5(a)の方法に比べて、AFの計算に必要な時間的猶予が生まれ、AFの計算処理への速度要求を低減することができる。
図8は、顕微鏡装置1の垂直方向先読みの動作を示すフローチャートである。本実施形態では、ステップS801において、事前に、対物レンズ3に対向するように標本Sがステージ2に載置され、画像取得領域71が決定される。続いて、ステップS802において、最初のレーンに対する撮像を行う。このとき、最初のレーンには、撮像素子5の撮像領域5aが配置され、次のレーンには撮像素子5のAF領域5bが配置されている。これにより、最初のレーンにおける撮像により、次のレーンの合焦点位置を算出するために必要なAF領域5bでの画像データが取得できる。なお、最初のレーンの撮像は、AF領域5bでの画像データを取得するために行われ、標本Sのタイル画像Tは取得しない。
ステップS803において、レーンのループが開始される。レーンのループは、ステップS804の処理、ステップS805の処理、ステップS806の処理を含む。これらのステップは、ステージ駆動部55の駆動によって、対物レンズ3に対してステージ2の位置をスキャン方向に沿って移動させながら行われる。つまり、ステージ2を駆動させながら流し撮り撮像が行われる。なお、撮像のたびにステージの移動を停止させて静止撮像を行ってもよい。流し撮り撮像を行う場合は、スキャン用の光源7およびAF用の光源15から発せられる照明光を短時間発光させることにより、または撮像素子5を短時間露光状態とすることによりモーションブラーを抑制してもよい。
ステップS804において、ステップS802において取得したAF領域Sbの画像データを用いて次のレーンの合焦位置情報を算出する。
ステップS805において、ステージ駆動部55の駆動によって、撮像領域Saを次のレーンに移動する。
ステップS806において、ステップS804にて算出した合焦位置情報に基づいて対物レンズ駆動部50を制御することにより、標本Sに対する対物レンズ3の焦点位置を制御しながら、2行目以降のレーンの撮像を行う。最後のレーンの撮像が終了すると、レーンのループは終了し、顕微鏡装置1の動作は終了する。
なお、図6のステップS601及び図8のステップS801における画像取得領域71の決定に際して、標本Sにエッジ部分や飛び地部分がある場合には、これらの部分が画像取得領域71から外れてしまうことがある。これらの部分が画像取得領域71から外れてしまうと、標本S全体を示す画像を適切に形成することができないため好ましくない。そこで、標本Sのマクロ画像に基づき画像取得領域71を決定することが好ましい。また、周囲のAF領域SbのAF結果を用いて、AF結果が得られなかった領域を補完してもよい。また、AF領域Sbに収まらない飛び地が存在した場合は、その場所だけ最初にAF画像を取得してもよい。また、最初のレーンはスキャン方向に加えスキャン方向に垂直な方向にもステージ2を動かし、できるだけAF領域Sbに入る構造が多くなるようにしてもよい。また、撮像後にコントラストなどを用いて合焦判定を行い、焦点がずれている視野は再撮像を行うようにしてもよい。
[実施形態1の変形例]
図9は、実施形態1の変形例に係る顕微鏡装置1aの構成を示す図である。なお図9では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。
図9は、実施形態1の変形例に係る顕微鏡装置1aの構成を示す図である。なお図9では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。
実施形態1の顕微鏡装置1では、照明光学系4において、1つのミラー19が、一対のリレーレンズ17、12の間であって、標本共役面100cの近傍で、標本SのAF領域Sbとの共役位置に配置されていた。実施形態1の変形例に係る顕微鏡装置1aでは、照明光学系4aにおいて、2つのミラー19a、19bが、一対のリレーレンズ17、12の間であって標本共役面100cの近傍で、標本SのAF領域Sbとの共役位置にそれぞれ照明光L1を挟んで配置されている。
AF用の光源15からコリメータレンズ16に入射し瞳マスク18から出射した照明光L2は、それぞれが2つの平行光束を含む2つの照明光L2となる。瞳マスク18から出射した2つの照明光L2は、互いに異なる2つの角度から標本Sの2つのAF領域Sbを照明する。AF用の光源15からコリメータレンズ16に入射して前段のリレーレンズ17から出射した2つの照明光L2は、2つミラー19a、19bによってそれぞれ反射され、後段のリレーレンズ12に入射する。後段のリレーレンズ12から出射した2つの照明光L2は、コンデンサレンズ13から出射し、標本Sの2つのAF領域Sbをそれぞれ2つの異なる角度から照明する。そして、標本Sを照射した2つの照明光L2は、対物レンズ3を通り、撮像素子5の2つのAF領域5bにそれぞれ入射する。撮像素子5の2つのAF領域5b上には、実施形態1と同様、検出光学系6aの光軸方向に沿って、照明光L1の光路長に対し、照明光L2の光路長をオフセットする光路長オフセット部材21a、21bがそれぞれ配置されている。その他の構成は、実施形態1の顕微鏡装置1と同じであるため説明は省略する。
図10(a)は、本変形例に係る顕微鏡装置1aによるスキャン方向先読みのレーンスキャンを説明するための図である。図10(a)に示される例では、画像取得領域71には、Y方向に第1~第6までの複数のレーンが設定され、各レーンには、X方向(スキャン方向)に1または複数の部分領域73が設定されている。本変形例のスキャン方向先読みの動作を示すフローチャートは、実施形態1のスキャン方向先読みのフローチャート(図6)と同じである。
図10(b)は、本変形例に係る撮像素子5の撮像領域5aとAF領域5bとの関係を説明する図である。図10では、撮像素子5の撮像面上における撮像領域5aとAF領域5bとの範囲の関係が模式的に示されている。図10(b)に示すように、撮像領域5aのスキャン方向の両側に隣接して2つのAF領域5bが設定されている。これにより、本変形例では、ステージ駆動部55による対物レンズ3の視野位置の移動方式として、隣り合うレーン間でスキャン方向が反転する双方向スキャンを採用できる。
[実施形態2]
図11は、実施形態2に係る顕微鏡装置1bの構成を示す図である。なお図11では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。図11に示されるように、本実施形態に係る顕微鏡装置1bは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4bと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する単一の撮像素子5を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)を、それぞれ撮像素子5の撮像領域5aと、撮像領域5aとは異なるAF領域5bに導く検出光学系6とを備えている。このように、本実施形態では、単一の撮像素子5の撮像面を撮像領域5aとAF領域5bとに分けている。一例として、撮像領域5aは、結像性能が保証されている視野角(FOV)内に設定され、AF領域5bは、FOVの外側に設定されてもよい。
図11は、実施形態2に係る顕微鏡装置1bの構成を示す図である。なお図11では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。図11に示されるように、本実施形態に係る顕微鏡装置1bは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4bと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する単一の撮像素子5を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)を、それぞれ撮像素子5の撮像領域5aと、撮像領域5aとは異なるAF領域5bに導く検出光学系6とを備えている。このように、本実施形態では、単一の撮像素子5の撮像面を撮像領域5aとAF領域5bとに分けている。一例として、撮像領域5aは、結像性能が保証されている視野角(FOV)内に設定され、AF領域5bは、FOVの外側に設定されてもよい。
ステージ2には、対物レンズ3に対向するように標本Sが載置される。本実施形態では、標本Sは、組織切片などの生体サンプルであってよい。標本Sは、例えばスライドガラスに密封された状態でステージ2に載置される。対物レンズ3に対するステージ2の相対的な位置は、対物レンズ3の光軸に交差するスキャン方向に移動可能となっている。対物レンズ3の倍率は、例えば、20倍、40倍、100倍等の高倍率であってよい。
照明光学系4bは、画像を撮像するとともに、オートフォーカス(AF)を制御するための照明光学系である。照明光学系4bは、単一の光源7から出射された光を照明光L1としてステージ2に配置された標本Sの撮像領域Saに照射する。光源7は、照明光L1として白色光を出射する光源であり、ステージ2の底面側に配置されている。光源7としては、例えば水銀ランプ、レーザダイオード(LD)、発光ダイオード(LED)、スーパールミネッセントダイオード(SLD)、キセノンフラッシュランプなどが用いられる。
光源7からの光を照明光L1としてステージ2に配置された標本Sに照射する照明光学系4bは、照明光L1の光路K1上に、光源7側から順に配置された、コリメータレンズ8、第1フライアイレンズ9、第2フライアイレンズ10、及びコンデンサレンズ13を有している。コリメータレンズ8と第1フライアイレンズ9との間であって、標本Sと光学的に共役な標本共役面100dには、特殊マスク(所定マスク)22が配置されている。光源7から出射された照明光L1は、コリメータレンズ8に入射する。コリメータレンズ8から出射した照明光L1は、コンデンサレンズ13に入射する。コンデンサレンズ13は、光源7から出射された照明光L1を標本Sの撮像領域Saに照射する。照明光学系4の開口数(NA)は、変更可能となっている。第2フライアイレンズ10は、瞳共役面100e上に配置されている。第1フライアイレンズ9は、第2フライアイレンズ10の光源側であって標本共役面100dの近傍に配置されている。第1フライアイレンズ9及び第2フライアイレンズ10は、標本面100aにおいて照明光L1を均一化する。第1フライアイレンズ9は、本実施形態の顕微鏡装置1においては省略してもよい。また、フライアイレンズに代えて、複数のレンズを光軸に垂直な面内に2次元状に配置してもよい。
また、照明光学系4は、光源7から出射された光を照明光L2としてステージ2に配置された標本SのAF領域Sbに照射する。本実施形態において、標本Sにおける照明光L1により照明される領域(撮像領域Sa)と照明光L2により照明される領域(AF領域Sb)は異なっている。光源7は、駆動制御部62からの制御信号を受けて照明光L1,L2である光を出射する。
光源7からコリメータレンズ8に入射して特殊マスク22から出射した照明光L2は、2つの平行光束を含む照明光L2となる。特殊マスク22から出射した照明光L2は、互いに異なる2つの角度から標本SのAF領域Sbを照明する。
図12(a)は、図11における照明光学系4bを拡大して示した図である。図12(b)は第1フライアイレンズ9及び第2フライアイレンズ10の形状を示し、図12(c)は特殊マスク22の形状を示している。図12(a)において、破線で示された光線は、特殊マスク22を配置した場合に特殊マスク22により遮断される光線であることを示している。よって、特殊マスク22を配置しない場合、標本面100aには位置によらず同じ照明光(以下、「通常の照明光」という)が照明されることになる。特殊マスク22を配置した場合、破線で示された光線は特殊マスク22により遮断され実線の光線のみが特殊マスク22を通過する。図12(a)に示されるように、標本面100aにおいて、視野中心から左側の撮像領域Saには通常の照明光が照射され、右側の視野端のAF領域Sbには、互いに異なる斜め2方向からの光を含む照明光が照射される。このように、特殊マスク22を配置することで、撮像領域Saからの照明光及びAF領域Sbからの照明光の、対物レンズ3の瞳面100hにおける断面形状に違いを生じさせることができる。
図12(b)に示されるように、第1フライアイレンズ9及び第2フライアイレンズ10には、複数のレンズセルがマトリクス上に配置されている。各レンズセルが瞳に対応しており、1つのレンズセル内の位置が標本面の位置に対応している。
図12(c)に示されるように、特殊マスク22には、撮像領域Saの共役位置(特殊マスク22の中央部)に開口22aが形成されている。また、AF領域Sbの共役位置(特殊マスク22の周辺部)に開口22b(2つ以上)が形成されている。開口22bを通った光がAF領域Sbに照射される。このように、特殊マスク22は、予め複数の開口が形成された部材であるが、これに限られず、液晶素子やDMD(Digital Mirror Device)等の空間光変調素子を制御して複数の所定開口を形成する場合も含む。
撮像素子5は、対物レンズ3によって導光された標本Sの光学像を撮像する。撮像素子5は、光源7からの照明光L1が標本Sの撮像領域Saに照射されたときの撮像領域5aにおける画像データと、光源7からの照明光L2が標本SのAF領域Sbに照射されたときのAF領域5bにおける画像データとを同一の撮像タイミングで取得する。なお、標本Sの光学像とは、明視野照明の場合は透過光による像、暗視野照明の場合は散乱光による像、発光観察(蛍光観察)の場合は発光(蛍光)による像である。撮像素子5は、複数の画素列を有する撮像素子である。撮像素子5としては、例えばCCDイメージセンサやCMOSイメージセンサが挙げられる。
撮像素子5は、照明光L1の光路K1において、第2対物レンズ20によって結像された標本Sの光学像を撮像し、画像データを取得する。
第2対物レンズ20は、標本SのAF領域Sbの第1の光学像P1と第2の光学像P2とをそれぞれ撮像素子5の撮像面のAF領域5bに結像する。撮像素子5のAF領域5bが検出光学系6を介して標本面100aと共役に配置されている場合、第1の光学像P1と第2の光学像P2とが重なってしまい、AF領域Sbにおける対物レンズ3の合焦位置情報を算出できない。そのため、撮像素子5のAF領域5b上に、検出光学系6の光軸方向に沿って、照明光L1の光路長(撮像素子5の撮像領域5aが検出光学系6を介して撮像領域Saと共役関係を維持)に対し、照明光L2の光路長をオフセットする光路長オフセット部材21を配置することで共役関係を崩す。光路長オフセット部材21は、照明光L2の光路長をオフセットできればよいので、撮像素子5のAF領域5b上に必ずしも接して配置される必要はない。また、光路長オフセット部材21は、空気とは異なる屈折率を有する部材であって、例えばガラスやプラスチックなどの材料から構成される。また、光路長オフセット部材21を撮像素子5の撮像領域5a上に配置して、撮像素子5の撮像領域5aと標本Sの撮像領域Saとの共役関係を維持しつつ、撮像素子5のAF領域5bと標本SのAF領域Sbとの共役関係を崩してもよい。
撮像素子5の撮像面は、2次元に配列された複数の画素を有している。撮像素子5は、結像された第1の光学像P1及び第2の光学像P2に含まれる範囲に対応する撮像面の複数の画素をサブアレイ読み出しにより撮像することができる。サブアレイ読み出しとは、撮像素子5の撮像面を構成する複数の画素のうちの、設定された複数の画素が構成するサブアレイ領域を読み出す撮像素子5の読み出し方法である。
なお、本実施形態において、「合焦位置情報の算出方法」、「レーンスキャン」については、実施形態1と同様であるため説明を省略する。
[実施形態3]
図13は、実施形態3に係る顕微鏡装置1cの構成を示す図である。図13に示すように、顕微鏡装置1cは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4cと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する単一の撮像素子5を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)を、それぞれ撮像素子5の撮像領域5aと、撮像領域5aとは異なるAF領域5bに導く検出光学系6とを備えている。このように、本実施形態では、単一の撮像素子5の撮像面を撮像領域5aとAF領域5bとに分けている。一例として、撮像領域5aは、結像性能が保証されている視野角(FOV)内に設定され、AF領域5bは、FOVの外側に設定されてもよい。
図13は、実施形態3に係る顕微鏡装置1cの構成を示す図である。図13に示すように、顕微鏡装置1cは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4cと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する単一の撮像素子5を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)を、それぞれ撮像素子5の撮像領域5aと、撮像領域5aとは異なるAF領域5bに導く検出光学系6とを備えている。このように、本実施形態では、単一の撮像素子5の撮像面を撮像領域5aとAF領域5bとに分けている。一例として、撮像領域5aは、結像性能が保証されている視野角(FOV)内に設定され、AF領域5bは、FOVの外側に設定されてもよい。
ステージ2には、対物レンズ3に対向するように標本Sが載置される。本実施形態では、標本Sは、組織切片などの生体サンプルであってよい。標本Sは、例えばスライドガラスに密封された状態でステージ2に載置される。対物レンズ3に対するステージ2の相対的な位置は、対物レンズ3の光軸に交差するスキャン方向に移動可能となっている。対物レンズ3の倍率は、例えば、20倍、40倍、100倍等の高倍率であってよい。
照明光学系4cは、画像を撮像するとともに、オートフォーカス(AF)を制御するための照明光学系である。照明光学系4cは、光源7から出射された光を照明光L1としてステージ2に配置された標本Sの撮像領域Saに照射する。光源7は、照明光L1として白色光を出射する光源であり、ステージ2の底面側に配置されている。スキャン用の光源7としては、例えば水銀ランプ、レーザダイオード(LD)、発光ダイオード(LED)、スーパールミネッセントダイオード(SLD)、キセノンフラッシュランプなどが用いられる。
光源7からの光を照明光L1としてステージ2に配置された標本Sに照射する照明光学系4cは、照明光L1の光路K1上に、光源7側から順に配置された、コリメータレンズ8、第1フライアイレンズ9、第2フライアイレンズ10、一対のリレーレンズ11,12、及びコンデンサレンズ13を有している。第2フライアイレンズ10とリレーレンズ11との間には、開口絞り14が配置されている。光源7から出射された照明光L1は、コリメータレンズ8に入射する。一対のリレーレンズ11,12は、コリメータレンズ8から出射した照明光L1をコンデンサレンズ13にリレーする。コンデンサレンズ13は、光源7から出射された照明光L1を標本Sの撮像領域Saに照射する。照明光学系4cの開口数(NA)は、変更可能となっている。第2フライアイレンズ10は、瞳共役面100e上に配置されている。第1フライアイレンズ9は、第2フライアイレンズ10の光源7側であって標本共役面100dの近傍に配置されている。第1フライアイレンズ9及び第2フライアイレンズ10は、標本面100aにおいて照明光L1を均一化する。第1フライアイレンズ9及び第2フライアイレンズ10は、本実施形態の顕微鏡装置1cにおいては省略してもよい。
また、照明光学系4cは、光源7から出射された光を照明光L2としてステージ2に配置された標本SのAF領域Sbに照射する。本実施形態において、標本Sにおける照明光L1により照明される領域(撮像領域Sa)と照明光L2により照明される領域(AF領域Sb)は異なっている。光源7は、駆動制御部62からの制御信号を受けて照明光L1,L2である光を出射する。
照明光学系4cには、照明光L2の光路K2上に、一対のリレーレンズ11,12の間であって、標本面100aと光学的に共役な標本共役面100c上で、標本SのAF領域Sbとの共役位置に位相回折格子23が配置されている。光源7からコリメータレンズ8に入射して位相回折格子23から出射した照明光L2は、互いに異なる2つの角度から標本SのAF領域Sbを照明する。位相回折格子23は、互いに異なる2方向からの光を含む照明光L2を形成する。
撮像素子5は、対物レンズ3によって導光された標本Sの光学像を撮像する。撮像素子5は、光源7からの照明光L1が標本Sの撮像領域Saに照射されたときの撮像領域5aにおける画像データと、光源7からの照明光L2が標本SのAF領域Sbに照射されたときのAF領域5bにおける画像データとを同一の撮像タイミングで取得する。なお、標本Sの光学像とは、明視野照明の場合は透過光による像、暗視野照明の場合は散乱光による像、発光観察(蛍光観察)の場合は発光(蛍光)による像である。撮像素子5は、複数の画素列を有する撮像素子である。撮像素子5としては、例えばCCDイメージセンサやCMOSイメージセンサが挙げられる。
撮像素子5は、照明光L1の光路K1において、第2対物レンズ20によって結像された標本Sの光学像を撮像し、画像データを取得する。
第2対物レンズ20は、標本SのAF領域Sbの第1の光学像P1と第2の光学像P2とをそれぞれ撮像素子5の撮像面のAF領域5bに結像する。撮像素子5のAF領域5bが検出光学系6を介して標本面100aと共役に配置されている場合、第1の光学像P1と第2の光学像P2とが重なってしまい、AF領域Sbにおける対物レンズ3の合焦位置情報を算出できない。そのため、撮像素子5のAF領域5b上に、検出光学系6の光軸方向に沿って、照明光L1の光路長(撮像素子5の撮像領域5aが検出光学系6を介して撮像領域Saと共役関係を維持)に対し、照明光L2の光路長をオフセットする光路長オフセット部材21を配置することで共役関係を崩す。光路長オフセット部材21は、照明光L2の光路長をオフセットできればよいので、撮像素子5のAF領域5b上に必ずしも接して配置される必要はない。また、光路長オフセット部材21は、空気とは異なる屈折率を有する部材であって、例えばガラスやプラスチックなどの材料から構成される。また、光路長オフセット部材21を撮像素子5の撮像領域5a上に配置して、撮像素子5の撮像領域5aと標本Sの撮像領域Saとの共役関係を維持しつつ、撮像素子5のAF領域5bと標本SのAF領域Sbとの共役関係を崩してもよい。
撮像素子5の撮像面は、2次元に配列された複数の画素を有している。撮像素子5は、結像された第1の光学像P1及び第2の光学像P2に含まれる範囲に対応する撮像面の複数の画素をサブアレイ読み出しにより撮像することができる。サブアレイ読み出しとは、撮像素子5の撮像面を構成する複数の画素のうちの、設定された複数の画素が構成するサブアレイ領域を読み出す撮像素子5の読み出し方法である。
なお、本実施形態において、「合焦位置情報の算出方法」、「レーンスキャン」については、実施形態1と同様であるため説明を省略する。
[実施形態3の変形例]
図14は、実施形態3の変形例に係る顕微鏡装置1dの構成を示す図である。なお図14では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。
図14は、実施形態3の変形例に係る顕微鏡装置1dの構成を示す図である。なお図14では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。
実施形態3の顕微鏡装置1cでは、照明光学系4cにおいて、1つの位相回折格子23が、一対のリレーレンズ11,12の間であって、標本面100aと光学的に共役な標本共役面で、標本SのAF領域Sbとの共役位置に配置されていた。実施形態3の変形例に係る顕微鏡装置1dでは、照明光学系4c’において、2つの位相回折格子23a,23bが、一対のリレーレンズ11、12の間であって標本共役面100c上で、標本Sの2つのAF領域Sbとの共役位置にそれぞれ照明光L1を挟んで配置されている。
光源7からコリメータレンズ8に入射して位相回折格子23a,23bから出射した2つの照明光L2は、互いに異なる2つの角度から標本Sの2つのAF領域Sbを照明する。後段のリレーレンズ12から出射した2つの照明光L2は、コンデンサレンズ13から出射し、標本Sの2つのAF領域Sbをそれぞれ2つの異なる角度から照明する。そして、標本Sを照射した2つの照明光L2は、対物レンズ3を通り、撮像素子5の2つのAF領域5bにそれぞれ入射する。撮像素子5の2つのAF領域5b上には、検出光学系6aの光軸方向に沿って、照明光L1の光路長に対し、照明光L2の光路長をオフセットする光路長オフセット部材21a、21bがそれぞれ配置されている。その他の構成は、実施形態3の顕微鏡装置1cと同じであるため説明は省略する。
本変形例では、図10(b)に示すように、撮像領域5aのスキャン方向の両側に隣接してAF領域5bが設定されている。これにより、本変形例では、ステージ駆動部55による対物レンズ3の視野位置の移動方式として、隣り合うレーン間でスキャン方向が反転する双方向スキャンを採用できる。
[実施形態4]
図15は、実施形態4に係る顕微鏡装置1eの構成を示す図である。なお図15では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。図15に示すように、顕微鏡装置1eは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4bと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する2つの撮像素子(第1撮像素子、第2撮像素子)51,52を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)とを、それぞれ撮像素子51と、撮像素子52に導く検出光学系6bを備えている。
図15は、実施形態4に係る顕微鏡装置1eの構成を示す図である。なお図15では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。図15に示すように、顕微鏡装置1eは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4bと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する2つの撮像素子(第1撮像素子、第2撮像素子)51,52を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)とを、それぞれ撮像素子51と、撮像素子52に導く検出光学系6bを備えている。
ステージ2には、対物レンズ3に対向するように標本Sが載置される。本実施形態では、標本Sは、組織切片などの生体サンプルであってよい。標本Sは、例えばスライドガラスに密封された状態でステージ2に載置される。対物レンズ3に対するステージ2の相対的な位置は、対物レンズ3の光軸に交差するスキャン方向に移動可能となっている。対物レンズ3の倍率は、例えば、20倍、40倍、100倍等の高倍率であってよい。
照明光学系4bは、画像を撮像するとともに、オートフォーカス(AF)を制御するための照明光学系である。照明光学系4bは、単一の光源7から出射された光を照明光L1としてステージ2に配置された標本Sの撮像領域Saに照射する。光源7は、照明光L1として白色光を出射する光源であり、ステージ2の底面側に配置されている。光源7としては、例えば水銀ランプ、レーザダイオード(LD)、発光ダイオード(LED)、スーパールミネッセントダイオード(SLD)、キセノンフラッシュランプなどが用いられる。
光源7からの光を照明光L1としてステージ2に配置された標本Sに照射する照明光学系4bは、照明光L1の光路K1上に、光源7側から順に配置された、コリメータレンズ8、第1フライアイレンズ9、第2フライアイレンズ10、及びコンデンサレンズ13を有している。コリメータレンズ8と第1フライアイレンズ9との間であって、標本Sと光学的に共役な標本共役面100dには、図12(c)に示す特殊マスク22が配置されている。光源7から出射された照明光L1は、コリメータレンズ8に入射する。コリメータレンズ8から出射した照明光L1は、コンデンサレンズ13に入射する。コンデンサレンズ13は、光源7から出射した照明光L1を標本Sの撮像領域Saに照射する。照明光学系4bの開口数(NA)は、変更可能となっている。第2フライアイレンズ10は、瞳共役面100e上に配置されている。第1フライアイレンズ9は、第2フライアイレンズ10の光源7側であって標本共役面100dの近傍に配置されている。第1フライアイレンズ9及び第2フライアイレンズ10は、標本面100aにおいて照明光L1を均一化する。第1フライアイレンズ9は、本実施形態の顕微鏡装置1eにおいては省略してもよい。また、フライアイレンズに代えて、複数のレンズを光軸に垂直な面内に2次元状に配置してもよい。
また、照明光学系4bは、光源7から出射した光を照明光L2としてステージ2に配置された標本SのAF領域Sbに照射する。本実施形態において、標本Sにおける照明光L1により照明される領域(撮像領域Sa)と照明光L2により照明される領域(AF領域Sb)は異なっている。光源7は、駆動制御部62からの制御信号を受けて照明光L1,L2である光を出射する。
光源7からコリメータレンズ8に入射して特殊マスク22から出射した照明光L2は、2つの平行光束を含む照明光L2となる。特殊マスク22から出射した照明光L2は、互いに異なる2つの角度から標本SのAF領域Sbを照明する。本実施形態では、実施形態2と同様、特殊マスク22を配置することで、撮像領域Saからの照明光及びAF領域Sbからの照明光の、対物レンズ3の瞳面100hにおける断面形状に違いを生じさせることができる。
本実施形態の検出光学系6bは、対物レンズ3と第2対物レンズ20a,20bそれぞれとの間であって、対物レンズ3の対物瞳面100fの近傍にハーフミラー24を有する。
撮像素子51,52は、対物レンズ3によって導光された標本Sの光学像を撮像する。撮像素子51は、光源7からの照明光L1が標本Sの撮像領域Saに照射され、ハーフミラー24を透過したときの画像データを取得する。撮像素子52は、光源7からの照明光L2が標本SのAF領域Sbに照射されハーフミラー24により反射されたときの画像データを取得する。これら画像データは同一の撮像タイミングで取得される。なお、標本Sの光学像とは、明視野照明の場合は透過光による像、暗視野照明の場合は散乱光による像、発光観察(蛍光観察)の場合は発光(蛍光)による像である。撮像素子51,52は、複数の画素列を有する撮像素子である。撮像素子51,52としては、例えばCCDイメージセンサやCMOSイメージセンサが挙げられる。
撮像素子51,52は、光路K1,K2において、第2対物レンズ20a,20bによって結像された標本Sの光学像を撮像し、画像データを取得する。
第2対物レンズ20bは、標本SのAF領域Sbの第1の光学像P1と第2の光学像P2とをそれぞれ撮像素子52の撮像面に結像する。撮像素子52のAF領域5bが検出光学系6bを介して標本面100aと共役に配置されている場合、第1の光学像P1と第2の光学像P2とが重なってしまい、AF領域Sbにおける対物レンズ3の合焦位置情報を算出できない。そのため、撮像素子52を、標本面100aと光学的に共役な標本共役面100gからオフセットされた位置に配置する。
撮像素子51,52の撮像面は、2次元に配列された複数の画素を有している。撮像素子52は、結像された第1の光学像P1及び第2の光学像P2に含まれる範囲に対応する撮像面の複数の画素をサブアレイ読み出しにより撮像することができる。サブアレイ読み出しとは、撮像素子51,52の撮像面を構成する複数の画素のうちの、設定された複数の画素が構成するサブアレイ領域を読み出す撮像素子51,52の読み出し方法である。
なお、本実施形態において、「合焦位置情報の算出方法」、「レーンスキャン」については、実施形態1と同様であるため説明を省略する。
[実施形態5]
図16は、実施形態5に係る顕微鏡装置1fの構成を示す図である。図16に示すように、顕微鏡装置1fは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4cと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する2つの撮像素子51,52を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)とを、それぞれ撮像素子51と、撮像素子52に導く検出光学系6bを備えている。
図16は、実施形態5に係る顕微鏡装置1fの構成を示す図である。図16に示すように、顕微鏡装置1fは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4cと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する2つの撮像素子51,52を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)とを、それぞれ撮像素子51と、撮像素子52に導く検出光学系6bを備えている。
ステージ2には、対物レンズ3に対向するように標本Sが載置される。本実施形態では、標本Sは、組織切片などの生体サンプルであってよい。標本Sは、例えばスライドガラスに密封された状態でステージ2に載置される。対物レンズ3に対するステージ2の相対的な位置は、対物レンズ3の光軸に交差するスキャン方向に移動可能となっている。対物レンズ3の倍率は、例えば、20倍、40倍、100倍等の高倍率であってよい。
照明光学系4cは、画像を撮像するとともに、オートフォーカス(AF)を制御するための照明光学系である。照明光学系4cは、光源7から出射された光を照明光L1としてステージ2に配置された標本Sの撮像領域Saに照射する。光源7は、照明光L1として白色光を出射する光源であり、ステージ2の底面側に配置されている。光源7としては、例えば水銀ランプ、レーザダイオード(LD)、発光ダイオード(LED)、スーパールミネッセントダイオード(SLD)、キセノンフラッシュランプなどが用いられる。
光源7からの光を照明光L1としてステージ2に配置された標本Sに照射する照明光学系4cは、照明光L1の光路K1上に、光源7側から順に配置された、コリメータレンズ8、第1フライアイレンズ9、第2フライアイレンズ10、一対のリレーレンズ11,12、及びコンデンサレンズ13を有している。第2フライアイレンズ10とリレーレンズ11との間には、開口絞り14が配置されている。光源7から出射された照明光L1は、コリメータレンズ8に入射する。一対のリレーレンズ11,12は、コリメータレンズ8から出射した照明光L1をコンデンサレンズ13にリレーする。コンデンサレンズ13は、光源7から出射した照明光L1を標本Sの撮像領域Saに照射する。照明光学系4cの開口数(NA)は、変更可能となっている。第2フライアイレンズ10は、瞳共役面100e上に配置されている。第1フライアイレンズ9は、第2フライアイレンズ10の光源7側であって標本共役面100dの近傍に配置されている。第1フライアイレンズ9及び第2フライアイレンズ10は、標本面100aにおいて照明光L1を均一化する。第1フライアイレンズ9及び第2フライアイレンズ10は、本実施形態の顕微鏡装置1fにおいては省略してもよい。
また、照明光学系4cは、光源7から出射した光を照明光L2としてステージ2に配置された標本SのAF領域Sbに照射する。本実施形態において、標本Sにおける照明光L1により照明される領域(撮像領域Sa)と照明光L2により照明される領域(AF領域Sb)は異なっている。光源7は、駆動制御部62からの制御信号を受けて照明光L1,L2である光を出射する。
照明光学系4cには、照明光L2の光路K2上に、一対のリレーレンズ11,12の間であって、標本面100aと光学的に共役な標本共役面100c上で、標本SのAF領域Sbとの共役位置に位相回折格子23が配置されている。光源7からコリメータレンズ8に入射して位相回折格子23から出射した照明光L2は、互いに異なる2つの角度から標本SのAF領域Sbを照明する。位相回折格子23は、互いに異なる2方向からの光を含む照明光L2を形成する。
本実施形態の検出光学系6bは、対物レンズ3と第2対物レンズ20a,20bそれぞれとの間であって、対物レンズ3の対物瞳面100fの近傍にハーフミラー24を有する。
撮像素子51,52は、対物レンズ3によって導光された標本Sの光学像を撮像する。撮像素子51は、光源7からの照明光L1が標本Sの撮像領域Saに照射されハーフミラー24を透過したときの画像データを取得する、撮像素子52は、光源7からの照明光L2が標本SのAF領域Sbに照射されハーフミラー24により反射されたときの画像データを取得する。これら画像データは同一の撮像タイミングで取得される。なお、標本Sの光学像とは、明視野照明の場合は透過光による像、暗視野照明の場合は散乱光による像、発光観察(蛍光観察)の場合は発光(蛍光)による像である。撮像素子5は、複数の画素列を有する撮像素子である。撮像素子51,52としては、例えばCCDイメージセンサやCMOSイメージセンサが挙げられる。
撮像素子51,52は、光路K1,K2において、第2対物レンズ20a,20bによって結像された標本Sの光学像を撮像し、画像データを取得する。
第2対物レンズ20bは、標本SのAF領域Sbの第1の光学像P1と第2の光学像P2とをそれぞれ撮像素子52の撮像面に結像する。撮像素子52のAF領域5bが検出光学系6を介して標本面100aと共役に配置されている場合、第1の光学像P1と第2の光学像P2とが重なってしまい、AF領域Sbにおける対物レンズ3の合焦位置情報を算出できない。そのため、撮像素子52を標本面100aと光学的に共役な標本共役面100gからオフセットされた位置に配置する。
撮像素子51,52の撮像面は、2次元に配列された複数の画素を有している。撮像素子52は、結像された第1の光学像P1及び第2の光学像P2に含まれる範囲に対応する撮像面の複数の画素をサブアレイ読み出しにより撮像することができる。サブアレイ読み出しとは、撮像素子51,52の撮像面を構成する複数の画素のうちの、設定された複数の画素が構成するサブアレイ領域を読み出す撮像素子51,52の読み出し方法である。
なお、本実施形態において、「合焦位置情報の算出方法」、「レーンスキャン」については、実施形態1と同様であるため説明を省略する。
[実施形態6]
図17は、実施形態6に係る顕微鏡装置1gの構成を示す図である。なお図17では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。図17に示すように、顕微鏡装置1gは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4dと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する単一の撮像素子5を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)を、それぞれ撮像素子5の撮像領域5aと、撮像領域5aとは異なるAF領域5bに導く検出光学系6cとを備えている。
図17は、実施形態6に係る顕微鏡装置1gの構成を示す図である。なお図17では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。図17に示すように、顕微鏡装置1gは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4dと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する単一の撮像素子5を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)を、それぞれ撮像素子5の撮像領域5aと、撮像領域5aとは異なるAF領域5bに導く検出光学系6cとを備えている。
ステージ2には、対物レンズ3に対向するように標本Sが載置される。本実施形態では、標本Sは、組織切片などの生体サンプルであってよい。標本Sは、例えばスライドガラスに密封された状態でステージ2に載置される。対物レンズ3に対するステージ2の相対的な位置は、対物レンズ3の光軸に交差するスキャン方向に移動可能となっている。対物レンズ3の倍率は、例えば、20倍、40倍、100倍等の高倍率であってよい。
照明光学系4dは、画像を撮像するとともに、オートフォーカス(AF)を制御するための照明光学系である。照明光学系4dは、単一の光源7から出射された光を照明光L1としてステージ2に配置された標本Sの撮像領域Saに照射する。光源7は、照明光L1として白色光を出射する光源であり、ステージ2の底面側に配置されている。光源7としては、例えば水銀ランプ、レーザダイオード(LD)、発光ダイオード(LED)、スーパールミネッセントダイオード(SLD)、キセノンフラッシュランプなどが用いられる。
照明光学系4dは、照明光L1,L2の光路K1,K2上に、光源7側から順に配置された、コリメータレンズ8、第1フライアイレンズ9、第2フライアイレンズ10、及びコンデンサレンズ13を有している。第2フライアイレンズ10とリレーレンズ11との間には、開口絞り14が配置されている。
光源7から出射された照明光L1は、コリメータレンズ8に入射する。コリメータレンズ8から出射した照明光L1は、コンデンサレンズ13に入射する。コンデンサレンズ13は、光源7から出射された照明光L1を標本Sの撮像領域Saに照射する。照明光学系4dの開口数(NA)は、変更可能となっている。第2フライアイレンズ10は、瞳共役面100e上に配置されている。第1フライアイレンズ9は、第2フライアイレンズ10の光源7側であって標本共役面100dの近傍に配置されている。第1フライアイレンズ9及び第2フライアイレンズ10は、標本面100aにおいて照明光L1を均一化する。第1フライアイレンズ9及び第2フライアイレンズ10は、本実施形態の顕微鏡装置1gにおいては省略してもよい。
また、照明光学系4dは、光源7から出射された光を照明光L2としてステージ2に配置された標本SのAF領域Sbに照射する。本実施形態において、標本Sにおける照明光L1により照明される領域(撮像領域Sa)と照明光L2により照明される領域(AF領域Sb)は異なっている。光源7は、駆動制御部62からの制御信号を受けて照明光L1,L2である光を出射する。
撮像素子5は、対物レンズ3によって導光された標本Sの光学像を撮像する。撮像素子5は、光源7からの照明光L1が標本Sの撮像領域Saに照射されたときの撮像領域5aにおける画像データと、光源7からの照明光L2が標本SのAF領域Sbに照射されたときのAF領域5bにおける画像データとを同一の撮像タイミングで取得する。なお、標本Sの光学像とは、明視野照明の場合は透過光による像、暗視野照明の場合は散乱光による像、発光観察(蛍光観察)の場合は発光(蛍光)による像である。撮像素子5は、複数の画素列を有する撮像素子である。撮像素子5としては、例えばCCDイメージセンサやCMOSイメージセンサが挙げられる。
撮像素子5は、照明光L1,L2の光路K1,K2において、第2対物レンズ20によって結像された標本Sの光学像を撮像し、画像データを取得する。
検出光学系6cは、検出光学系6cの光軸方向に沿って、照明光L2の光路長をAF領域Sb内の位置に応じて変化させる三角柱型のプリズム25を、撮像素子5のAF領域5b上に有する。また、検出光学系6cは、検出光学系6cの光軸方向に沿って、照明光L1の光路長をオフセットする光路長オフセット部材26を、撮像素子5の撮像領域5a上に有する。プリズム25は、空気とは異なる屈折率を有する部材であって、例えばガラスやプラスチックなどの材料から構成される。光路長オフセット部材26は、光路長オフセット部材21と同様、空気とは異なる屈折率を有する部材であって、例えばガラスやプラスチックなどの材料から構成される。
本実施形態では、自己相関解析を用いて合焦位置情報を算出するのではなく、AF領域5bで取得された画像データのコントラスト値が最も大きい位置に基づいて合焦位置情報を算出する。
AF領域Sbの位置に応じてプリズム25を通る光の光路長は異なる。光路長オフセット部材26を配置せずプリズム25のみを配置する場合、プリズム25を通らない光が最短の光路長を有する。よって、プリズム25のみを配置した場合だと、AF領域Sbにおける光軸方向の光路長が撮像領域Saに対しプラス側のコントラスト値しか取得できず、合焦位置情報を適切に算出できない。そこで、撮像領域Sa上に光路長オフセット部材26を配置することで、光路長オフセット部材26の厚さより薄いプリズム25の部分を通過する光の光路長は、撮像領域Saを通過する光の光路長より短くなり、その結果、AF領域Sbにおける光軸方向の光路長が撮像領域Saに対しマイナス側のコントラスト値を取得できるようになる。これによって、適切に合焦位置情報を取得できる。
なお、本実施形態において、「レーンスキャン」については、実施形態1と同様であるため説明を省略する。
[実施形態7]
図18は、実施形態7に係る顕微鏡装置1hの構成を示す図である。なお図18では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。図18に示すように、顕微鏡装置1hは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4dと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する単一の撮像素子5を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)を、それぞれ撮像素子5の撮像領域5aと、撮像領域5aとは異なるAF領域5bに導く検出光学系6dとを備えている。
図18は、実施形態7に係る顕微鏡装置1hの構成を示す図である。なお図18では、対物レンズ駆動部50、ステージ駆動部55、コンピュータ60は省略している。図18に示すように、顕微鏡装置1hは、標本Sが保持されるステージ2と、ステージ2上の標本Sと対峙するように配置された対物レンズ3と、標本Sに照射される照明光を出射する照明光学系4dと、対物レンズ3及び該対物レンズ3によって導光された光学像を撮像する単一の撮像素子5を含み、照明光のうち、標本Sの撮像領域Sa(第1領域)を介した照明光L1(第1照明光)と、標本Sの撮像領域Saとは異なるAF領域Sb(第2領域)を介した照明光L2(第2照明光)を、それぞれ撮像素子5の撮像領域5aと、撮像領域5aとは異なるAF領域5bに導く検出光学系6dとを備えている。
ステージ2には、対物レンズ3に対向するように標本Sが載置される。本実施形態では、標本Sは、組織切片などの生体サンプルであってよい。標本Sは、例えばスライドガラスに密封された状態でステージ2に載置される。対物レンズ3に対するステージ2の相対的な位置は、対物レンズ3の光軸に交差するスキャン方向に移動可能となっている。対物レンズ3の倍率は、例えば、20倍、40倍、100倍等の高倍率であってよい。
照明光学系4dは、画像を撮像するとともに、オートフォーカス(AF)を制御するための照明光学系である。照明光学系4dは、単一の光源7から出射された光を照明光L1としてステージ2に配置された標本Sの撮像領域Saに照射する。光源7は、照明光L1として白色光を出射する光源であり、ステージ2の底面側に配置されている。光源7としては、例えば水銀ランプ、レーザダイオード(LD)、発光ダイオード(LED)、スーパールミネッセントダイオード(SLD)、キセノンフラッシュランプなどが用いられる。
照明光学系4dは、照明光L1,L2の光路K1,K2上に、光源7側から順に配置された、コリメータレンズ8、第1フライアイレンズ9、第2フライアイレンズ10、及びコンデンサレンズ13を有している。第2フライアイレンズ10とコンデンサレンズ13との間には、開口絞り14が配置されている。
光源7から出射された照明光L1は、コリメータレンズ8に入射する。コリメータレンズ8から出射した照明光L1は、コンデンサレンズ13に入射する。コンデンサレンズ13は、光源7から出射した照明光L1を標本Sの撮像領域Saに照射する。照明光学系4dの開口数(NA)は、変更可能となっている。第2フライアイレンズ10は、瞳共役面100e上に配置されている。第1フライアイレンズ9は、第2フライアイレンズ10の光源側であって標本共役面100dの近傍に配置されている。第1フライアイレンズ9及び第2フライアイレンズ10は、標本面100aにおいて照明光L1を均一化する。第1フライアイレンズ9及び第2フライアイレンズ10は、本実施形態の顕微鏡装置1hにおいては省略してもよい。
また、照明光学系4dは、光源7から出射された光を照明光L2としてステージ2に配置された標本SのAF領域Sbに照射する。本実施形態において、標本Sにおける照明光L1により照明される領域(撮像領域Sa)と照明光L2により照明される領域(AF領域Sb)は異なっている。光源7は、駆動制御部62からの制御信号を受けて照明光L1,L2である光を出射する。
本実施形態の検出光学系6dは、第2対物レンズ20の撮像素子5側に配置された、ミラー27と、複数のビームスプリッタからなるビームスプリッタアレイ28とを有する。ビームスプリッタアレイ28は、検出光学系6dの光軸方向に沿って、照明光L2の光路長をAF領域Sb内の位置に応じて変化させる。ビームスプリッタアレイ28は、少なくとも3個以上のビームスプリッタからなることが好ましい。
撮像素子5は、対物レンズ3によって導光された標本Sの光学像を撮像する。撮像素子5は、光源7からの照明光L1が標本Sの撮像領域Saに照射されミラー27により反射されたときの撮像領域5aにおける画像データと、光源7からの照明光L2が標本SのAF領域Sbに照射されビームスプリッタアレイ28により反射されたときのAF領域5bにおける画像データとを同一の撮像タイミングで取得する。なお、標本Sの光学像とは、明視野照明の場合は透過光による像、暗視野照明の場合は散乱光による像、発光観察(蛍光観察)の場合は発光(蛍光)による像である。撮像素子5は、複数の画素列を有する撮像素子である。撮像素子5としては、例えばCCDイメージセンサやCMOSイメージセンサが挙げられる。
撮像素子5は、照明光L1,L2の光路K1,K2において、第2対物レンズ20によって結像された標本Sの光学像を撮像し、画像データを取得する。
本実施形態では、実施形態6と同様、AF領域5bで取得された画像データのコントラスト値が最も大きい位置に基づいて合焦位置情報を算出する。
なお、本実施形態において、「レーンスキャン」については、実施形態1と同様であるため説明を省略する。
また本実施形態では、ミラー27に対してビームスプリッタアレイ28を+Z方向に配置している。図19は、ビームスプリッタアレイ28の配置変形例を示す図である。図19(a)、(b)に示されるように、ミラー27に対してビームスプリッタアレイ28をZ方向の位置は同じで、X方向において異なる位置に配置してもよい。図19(a)は、撮像素子5の撮像面を上から見た図であり、図19(b)は、撮像面を横から見た図である。
また、上記実施形態1~5及び各変形例において、対物レンズ3の瞳面(対物瞳面)100hにおいて、照明光L1の断面形状Haと照明光L2の断面形状Hbとは、異なる形状で形成されている。これは、標本Sの撮像領域Saには通常の照明光が照射され、標本SのAF領域Abには互いに異なる2方向からの光を含む照明光が照射されるためである。図20は、標本Sの標本面100aでの照明光と対物レンズ3の対物瞳面100hでの照明光との関係を示す図である。図20に示されるように、対物レンズ3の対物瞳面100hにおいて、照明光L1の断面形状Haと照明光L2の断面形状Hbとは異なる形状になっている。対物瞳面100hには、照明光L1の照明パターンを挟んで照明光L2の2つの照明パターンが形成されている。
なお、上記各実施形態及び各変形例において、顕微鏡装置1,1a,1b,1c,1d,1e,1f,1g,1hは、正立顕微鏡である。しかしながら、各実施形態及び各変形例において、顕微鏡装置1,1a,1b,1c,1d,1e,1f,1g,1hは、倒立顕微鏡であってもよい。この場合、標本Sを保持するステージ2と対物レンズ3が対向して配置される。
また、上記各実施形態及び各変形例において、顕微鏡装置1,1a,1b,1c,1d,1e,1f,1g,1hは、明視野顕微鏡である。しかしながら、上記各実施形態及び各変形例において、顕微鏡装置1,1a,1b,1c,1d,1e,1f,1g,1hは、位相差顕微鏡であってもよい。この場合、実施形態1、実施形態1の変形例、実施形態3、実施形態3の変形例、実施形態4、実施形態6、及び実施形態7では、開口絞り14の位置に位相リングを入れ、位相差対物レンズを用いてもよい。実施形態2及び実施形態4では、メイン照明領域において、対物瞳面の位相リングを通る光線のみ透過するマスクを用いてもよい。
また、各実施形態において、撮像領域5aにおける画像データとAF領域5bにおける画像データとを同一の撮像タイミングで取得していた。しかしながら、これに限られず、撮像領域5aにおける画像データとAF領域5bにおける画像データとを異なる撮像タイミング、例えばタイミングをずらしたパルス照射で取得してもよい。
また、実施形態4及び5において、AF領域Sbにおける対物レンズ3の合焦位置情報を算出するため、撮像素子52は、標本面100aと光学的に共役な標本共役面100gからオフセットされた位置に配置されていた。しかしながら、これに限られず、撮像素子51及び撮像素子52は、検出光学系6bを介した、撮像素子51の共役面と撮像素子52の共役面とが、標本Sにおいて互いに一致しないようにそれぞれ配置されていればよい。図21及び図22は、撮像素子51の共役面と撮像素子52の共役面とが、標本Sにおいて互いに一致しないようにそれぞれ配置されている様子を示した図である。
図21は、撮像素子51の共役面510aと撮像素子52の共役面520aとが標本面100aに一致している状態から、撮像素子51の共役面510aと撮像素子52の共役面520aとが標本面100aにおいて互いに一致しないようにオフセットされた状態を示している。図21に示されているように、撮像素子51,52が互いにオフセットしていない状態では、撮像素子51,52の撮像面51a,52aは対物レンズ3の焦点共役面fa,fb上にあり、撮像素子51,52の共役面510a,520aは、標本面100a及び対物レンズ3の焦点面f上にある。撮像素子51,52が互いにオフセットした状態では、2つの撮像素子51,52が標本空間における異なる2つのZ面とそれぞれ共役になっており、撮像素子52の撮像面52aが対物レンズ3の焦点共役面fbからシフトしている。
図22は、撮像素子51と撮像素子52とが標本空間における同一のZ面と共役である状態から、撮像素子51の共役面510aと撮像素子52の共役面520aとが標本面100aにおいて互いに一致しないようにオフセットされた状態を示している。図22に示されているように、撮像素子51,52が互いにオフセットしていない状態では、撮像素子51,52の撮像面51a,52aは対物レンズ3の焦点共役面fa,fbからシフトした位置にあるが、撮像素子51,52の共役面510a,520aは、ともに同じ位置にある。撮像素子51,52が互いにオフセットした状態では、撮像素子52の撮像面52aが対物レンズ3の焦点共役面fbに一致し、撮像素子51の撮像面51aが対物レンズ3の焦点共役面faからシフトしている。このように、撮像素子51と対物レンズ3の焦点面fとは必ずしも共役でなくてもよい。ただし、撮像時には、対物レンズ3又は標本Sを上下動させ、撮像素子51の共役面と標本面100aとを一致させる必要がある。
上記実施形態1,2,3,6,7によれば、顕微鏡装置1,1a,1b,1c,1d,1g,1hは、対物レンズ3に対向するように標本が載置されるステージ2と、対物レンズ3に対するステージ2の相対的な位置を対物レンズ3の光軸に交差するスキャン方向に移動させる駆動部55と、標本Sに照射される照明光を出射する照明光学系4,4a,4b,4c,4c’,4dと、対物レンズ3及び単一の撮像素子5を含み、照明光のうち、標本Sの第1領域Saを介した第1照明光L1と、標本Sの第1領域Saとは異なる第2領域Sbを介した第2照明光L2とを撮像素子5のそれぞれ異なる領域に導く検出光学系6,6a,6c,6dと、撮像素子5により取得される第2領域Sbにおける画像データに基づいて、第2領域Sbに対する対物レンズ3の合焦位置情報を算出する算出部61と、制御部62と、を備える。制御部62は、駆動部55によるスキャン方向の移動に伴って、合焦位置情報を算出した第2領域Sbの少なくとも一部を含む領域に対し、第1領域Saとして第1照明光L1を照射する場合に、合焦位置情報に基づいて、検出光学系6,6a,6c,6dの光軸方向に沿って、標本Sと対物レンズ3の焦点位置との位置関係を制御する。
これにより、実施形態1,2,3,6,7に係る顕微鏡装置1,1a,1b,1c,1d,1g,1hは、単一の撮像素子5を用いた簡易な構成でリアルタイムAFを実施することができる。
上記実施形態2,3,4,5によれば、顕微鏡装置1b,1c,1d,1e,1fは、対物レンズ3に対向するように標本が載置されるステージ2と、対物レンズ3に対するステージ2の相対的な位置を対物レンズ3の光軸に交差するスキャン方向に移動させる駆動部55と、単一の光源7からの光を、標本Sに照射される照明光として出射する照明光学系4b,4c,4c’と、対物レンズ3及び撮像素子5(51,52)を含み、照明光のうち、標本Sの第1領域Saを介した第1照明光L1と、標本Sの第1領域Saとは異なる第2領域Sbを介した第2照明光L2とを撮像素子5(51,52)のそれぞれ異なる領域に導く検出光学系6,6a,6bと、撮像素子5(51,52)により取得される第2領域Sbにおける画像データに基づいて、第2領域Sbに対する対物レンズ3の合焦位置情報を算出する算出部61と、制御部62と、を備える。対物レンズ3の瞳面100hにおいて、第1照明光L1の断面形状と第2照明光L2の断面形状とは、異なる形状で形成されている。制御部62は、駆動部55によるスキャン方向の移動に伴って、合焦位置情報を算出した第2領域Sbの少なくとも一部を含む領域に対し、第1領域Saとして第1照明光L1を照射する場合に、合焦位置情報に基づいて、検出光学系6,6a,6bの光軸方向に沿って、標本Sと対物レンズ3の焦点位置との位置関係を制御する。
これにより、実施形態2,3,4,5に係る顕微鏡装置1b,1c,1d,1e,1fは、単一の光源7を用いた簡易な構成でリアルタイムAFを実施することができる。
以上、本開示の各実施形態について説明したが、本開示は、上記各実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
1・・・顕微鏡装置、S・・・標本、2・・・ステージ、3・・・対物レンズ、55・・・駆動部、4・・・照明光学系、6・・・検出光学系、5・・・撮像素子、Sa・・・第1領域、Sb・・・第2領域、L1・・・第1照明光、L2・・・第2照明光、61・・・算出部、62・・・制御部
Claims (15)
- 対物レンズに対向するように標本が載置されるステージと、
前記対物レンズに対する前記ステージの相対的な位置を前記対物レンズの光軸に交差するスキャン方向に移動させる駆動部と、
前記標本に照射される照明光を出射する照明光学系と、
前記対物レンズ及び単一の撮像素子を含み、照明光のうち、前記標本の第1領域を介した第1照明光と、前記標本の前記第1領域とは異なる第2領域を介した第2照明光とを前記撮像素子のそれぞれ異なる領域に導く検出光学系と、
前記撮像素子により取得される前記第2領域における画像データに基づいて、前記第2領域に対する前記対物レンズの合焦位置情報を算出する算出部と、
制御部と、を備え、
前記制御部は、前記駆動部による前記スキャン方向の移動に伴って、前記合焦位置情報を算出した前記第2領域の少なくとも一部を含む領域に対し、前記第1領域として前記第1照明光を照射する場合に、前記合焦位置情報に基づいて、前記検出光学系の光軸方向に沿って、前記標本と前記対物レンズの焦点位置との位置関係を制御する、顕微鏡装置。 - 前記照明光学系は、前記第1領域に前記第1照明光を照射するとともに、前記第2領域に互いに異なる2方向からの光を含む前記第2照明光を照射し、
前記検出光学系は、前記光軸方向に沿って、前記第1照明光の光路長に対し、前記第2照明光の光路長をオフセットする光路長オフセット部材を含む、請求項1に記載の顕微鏡装置。 - 前記照明光学系は、第1光源からの光を前記第1照明光として前記第1領域に照射するとともに、前記第1光源とは異なる第2光源からの光を前記第2照明光として前記第2領域に照射する、請求項2に記載の顕微鏡装置。
- 前記照明光学系は、前記対物レンズの瞳面と光学的に共役である、前記第2照明光が通過する瞳共役面に配置された瞳マスクを含む、請求項3に記載の顕微鏡装置。
- 前記照明光学系は、第3光源からの光を前記第1照明光として前記第1領域に照射するとともに、前記第3光源からの光を前記第2照明光として前記第2領域に照射することを可能にするレンズアレイ及び所定マスクを含む、請求項2に記載の顕微鏡装置。
- 前記レンズアレイは、前記対物レンズの瞳と共役な面に配置され、
前記所定マスクは、前記標本と共役な面に配置されている、請求項5に記載の顕微鏡装置。 - 前記照明光学系は、
第4光源からの光を前記第1照明光として前記第1領域に照射し、
前記標本の標本面と共役な標本共役面上に配置され、前記第4光源からの光を前記第2照明光として前記第2領域に照射することを可能にする位相回折格子を含む、請求項2に記載の顕微鏡装置。 - 前記検出光学系は、
前記光軸方向に沿って、前記2照明光の光路長を前記2領域内の位置に応じて変化させるプリズムと、
前記光軸方向に沿って、前記第1照明光の光路長をオフセットする光路長オフセット部材と、を含む、請求項1に記載の顕微鏡装置。 - 前記検出光学系は、前記光軸方向に沿って、前記第2照明光の光路長を前記第2領域内の位置に応じて変化させる複数のビームスプリッタを含む、請求項1に記載の顕微鏡装置。
- 対物レンズに対向するように標本が載置されるステージと、
前記対物レンズに対する前記ステージの相対的な位置を前記対物レンズの光軸に交差するスキャン方向に移動させる駆動部と、
単一の光源からの光を、前記標本に照射される照明光として出射する照明光学系と、
前記対物レンズ及び撮像素子を含み、照明光のうち、前記標本の第1領域を介した第1照明光と、前記標本の前記第1領域とは異なる第2領域を介した第2照明光とを前記撮像素子のそれぞれ異なる領域に導く検出光学系と、
前記撮像素子により取得される前記第2領域における画像データに基づいて、前記第2領域に対する前記対物レンズの合焦位置情報を算出する算出部と、
制御部と、を備え、
前記対物レンズの瞳面において、前記第1照明光の断面形状と前記第2照明光の断面形状とは、異なる形状で形成されており、
前記制御部は、前記駆動部による前記スキャン方向の移動に伴って、前記合焦位置情報を算出した前記第2領域の少なくとも一部を含む領域に対し、前記第1領域として前記第1照明光を照射する場合に、前記合焦位置情報に基づいて、前記検出光学系の光軸方向に沿って、前記標本と前記対物レンズの焦点位置との位置関係を制御する、顕微鏡装置。 - 前記照明光学系は、前記第1領域に前記第1照明光を照射するとともに、前記第2領域に互いに異なる2方向からの光を含む前記第2照明光を照射し、
前記検出光学系は、前記光軸方向に沿って、前記第1照明光の光路長に対し、前記第2照明光の光路長をオフセットする光路長オフセット部材を含む、請求項10に記載の顕微鏡装置。 - 前記照明光学系は、前記第1領域に前記第1照明光を照射するとともに、前記第2領域に互いに異なる2方向からの光を含む前記第2照明光を照射し、
前記検出光学系は、前記撮像素子として、前記第1照明光を受光する第1撮像素子と、前記第2照明光を受光する第2撮像素子とを含み、
前記第1撮像素子及び前記第2撮像素子は、前記検出光学系を介した、前記第1撮像素子の共役面と前記第2撮像素子の共役面とが、前記標本において、互いに一致しないようにそれぞれ配置されている、請求項10に記載の顕微鏡装置。 - 前記照明光学系は、第3光源からの光を前記第1照明光として前記第1領域に照射するとともに、前記第3光源からの光を前記第2照明光として前記第2領域に照射することを可能にするレンズアレイ及び所定マスクを含む、請求項11または12に記載の顕微鏡装置。
- 前記レンズアレイは、前記対物レンズの瞳と共役な面に配置され、
前記所定マスクは、前記標本と共役な面に配置されている、請求項13に記載の顕微鏡装置。 - 前記照明光学系は、
第4光源からの光を前記第1照明光として前記第1領域に照射し、
前記標本の標本面と共役な標本共役面上に配置され、前記第4光源からの光を前記第2照明光として前記第2領域に照射することを可能にする位相回折格子を含む、請求項11または12に記載の顕微鏡装置。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024041034 | 2024-03-15 | ||
| JP2024-041034 | 2024-03-15 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025192627A1 true WO2025192627A1 (ja) | 2025-09-18 |
Family
ID=97064056
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2025/009243 Pending WO2025192627A1 (ja) | 2024-03-15 | 2025-03-12 | 顕微鏡装置 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025192627A1 (ja) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11218670A (ja) * | 1998-02-04 | 1999-08-10 | Nikon Corp | 焦点検出装置 |
| JP2010085223A (ja) * | 2008-09-30 | 2010-04-15 | Nikon Corp | 撮像装置および三次元位置検出装置 |
| JP2018534610A (ja) * | 2015-09-24 | 2018-11-22 | ライカ バイオシステムズ イメージング インコーポレイテッドLeica Biosystems Imaging, Inc. | ライン走査イメージングにおけるリアルタイム合焦 |
| JP2019109340A (ja) * | 2017-12-18 | 2019-07-04 | 浜松ホトニクス株式会社 | 画像取得装置及び画像取得方法 |
-
2025
- 2025-03-12 WO PCT/JP2025/009243 patent/WO2025192627A1/ja active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11218670A (ja) * | 1998-02-04 | 1999-08-10 | Nikon Corp | 焦点検出装置 |
| JP2010085223A (ja) * | 2008-09-30 | 2010-04-15 | Nikon Corp | 撮像装置および三次元位置検出装置 |
| JP2018534610A (ja) * | 2015-09-24 | 2018-11-22 | ライカ バイオシステムズ イメージング インコーポレイテッドLeica Biosystems Imaging, Inc. | ライン走査イメージングにおけるリアルタイム合焦 |
| JP2019109340A (ja) * | 2017-12-18 | 2019-07-04 | 浜松ホトニクス株式会社 | 画像取得装置及び画像取得方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9810896B2 (en) | Microscope device and microscope system | |
| CN101868320B (zh) | 激光束加工 | |
| TWI710864B (zh) | 圖樣角度空間選擇結構照明成像 | |
| US7813579B2 (en) | Microscope system | |
| US10007100B2 (en) | Light sheet illumination microscope and light sheet illumination method | |
| TWI699559B (zh) | 結構照明成像系統和使用結構化光來創建高解析度圖像的方法 | |
| CN102483509B (zh) | 三维方向漂移控制装置以及显微镜装置 | |
| WO2004005995A1 (en) | Single axis illumination for multi-axis imaging system | |
| JP6920978B2 (ja) | 画像取得装置及び画像取得方法 | |
| JP2021107926A (ja) | サンプルを画像化するための光学構成 | |
| JP2012173373A (ja) | オートフォーカス装置及び顕微鏡 | |
| KR102588157B1 (ko) | Led어레이를 이용한 반사형 비결맞음 조명 현미경 | |
| KR100679643B1 (ko) | 자동초점 조절패턴을 채택하는 자동초점 조절장치 및그것을 사용한 자동초점 조절방법 | |
| WO2025192627A1 (ja) | 顕微鏡装置 | |
| EP3282300B1 (en) | Microscope | |
| JP5822067B2 (ja) | 顕微鏡装置 | |
| JP2012181341A (ja) | 顕微鏡装置 | |
| JP7625904B2 (ja) | オートフォーカス装置及び顕微鏡装置 | |
| US11480777B2 (en) | Observation device, observation method, and observation device control program storage medium | |
| JP5400499B2 (ja) | 焦点検出装置 | |
| JP2012141452A (ja) | 自動合焦機構および顕微鏡装置 | |
| JP2023099250A (ja) | オートフォーカス装置 | |
| JP4713391B2 (ja) | 赤外顕微鏡 | |
| JP7505460B2 (ja) | 検出装置及び検出方法 | |
| JP5394718B2 (ja) | 顕微観察装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 25771720 Country of ref document: EP Kind code of ref document: A1 |