[go: up one dir, main page]

WO2024053475A1 - 眼科装置、眼科装置の制御方法、及びプログラム - Google Patents

眼科装置、眼科装置の制御方法、及びプログラム Download PDF

Info

Publication number
WO2024053475A1
WO2024053475A1 PCT/JP2023/031122 JP2023031122W WO2024053475A1 WO 2024053475 A1 WO2024053475 A1 WO 2024053475A1 JP 2023031122 W JP2023031122 W JP 2023031122W WO 2024053475 A1 WO2024053475 A1 WO 2024053475A1
Authority
WO
WIPO (PCT)
Prior art keywords
iol
image
intraocular lens
eye
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2023/031122
Other languages
English (en)
French (fr)
Inventor
陽子 多々良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to CN202380064371.3A priority Critical patent/CN119836255A/zh
Priority to EP23863014.9A priority patent/EP4585142A1/en
Publication of WO2024053475A1 publication Critical patent/WO2024053475A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1015Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for wavefront analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils

Definitions

  • the present invention relates to an ophthalmologic apparatus, a method for controlling an ophthalmologic apparatus, and a program.
  • cataract surgery is generally performed.
  • cataract surgery the contents of the lens capsule are removed, and an intraocular lens (hereinafter referred to as IOL) is inserted into the lens capsule.
  • IOL intraocular lens
  • the subject needs to select an appropriate type of IOL by considering image contrast, brightness, distance visual acuity, near visual acuity, etc.
  • the refractive power of the eye to be examined wearing the IOL is measured to check the visual appearance and recovery of visual acuity.
  • Patent Document 1 discloses a method of acquiring a transillumination image of an eye to be examined and determining from the acquired transillumination image whether or not the eye to be examined wears an IOL.
  • Patent Document 2 discloses a method of determining refractive power using wavefront aberration information and using a group of point images that are part of the obtained point images.
  • Patent Document 3 discloses a method of projecting a ring pattern to measure the refractive power of an eye to be examined wearing an IOL.
  • the conventional method has a problem in that the reliability of the calculation result of the refractive power decreases depending on the type of IOL inserted into the eye to be examined.
  • the present invention was made in view of the above circumstances, and one of its purposes is to provide a new technique for improving the reliability of the calculation result of the refractive power of an eye to be examined wearing an IOL. There is a particular thing.
  • One aspect of the embodiment includes a measurement optical system that includes a focusing lens and that measures the wavefront aberration of an eye to be examined wearing an intraocular lens to obtain a Hartmann image;
  • the focusing lens is controlled to search for a state in which at least one is separated into two or more separated point images, and the Hartmann image is acquired by the measurement optical system in a state where the two or more separated point images are separated.
  • the ophthalmologic apparatus includes a control unit and a calculation unit that calculates the refractive power of the eye to be examined based on the Hartmann image.
  • Another aspect of the embodiment is a method for controlling an ophthalmological apparatus, which includes a measurement optical system that includes a focusing lens and that measures wavefront aberration of a subject's eye wearing an intraocular lens to obtain a Hartmann image.
  • the method for controlling an ophthalmological apparatus includes controlling the focusing lens to search for a state in which at least one of a plurality of point images constituting the Hartmann image is separated into two or more separated point images;
  • the method includes a control step of causing the measurement optical system to acquire the Hartmann image in a state where point images are separated, and a calculation step of calculating the refractive power of the eye to be examined based on the Hartmann image.
  • Yet another aspect of the embodiment is a program that causes a computer to execute each step of the method for controlling an ophthalmologic apparatus described above.
  • FIG. 2 is an explanatory diagram of the operation of the ophthalmologic apparatus according to the first embodiment. It is a schematic diagram showing an example of composition of a processing system of an ophthalmologic device concerning a 1st embodiment.
  • FIG. 1 is a schematic diagram for explaining a multifocal refractive IOL according to a first embodiment.
  • FIG. 1 is a schematic diagram for explaining a multifocal refractive IOL according to a first embodiment.
  • FIG. 1 is a schematic diagram for explaining a multifocal refractive IOL according to a first embodiment.
  • FIG. 1 is a schematic diagram for explaining a multifocal refractive IOL according to a first embodiment.
  • FIG. 1 is a schematic diagram for explaining a multifocal refractive IOL according to a first embodiment.
  • FIG. 1 is a schematic diagram showing an example of composition of a processing system of an ophthalmologic device concerning a 1st embodiment.
  • FIG. 1 is a schematic diagram for explaining a multifocal diffractive IOL according to a first embodiment. It is a schematic diagram showing an example of composition of a processing system of an ophthalmologic device concerning a 1st embodiment.
  • FIG. 1 is a schematic diagram for explaining an extended depth of focus IOL according to a first embodiment.
  • FIG. 2 is a flow diagram of an example of the operation of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 2 is a flow diagram of an example of the operation of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 2 is a flow diagram of an example of the operation of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 2 is a flow diagram of an example of the operation of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 1 is a schematic diagram for explaining a multifocal diffractive IOL according to a first embodiment. It is a schematic diagram showing an example of composition of a processing system of an
  • FIG. 2 is a flow diagram of an example of the operation of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 2 is a flow diagram of an example of the operation of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 3 is a flow diagram of an example of the operation of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 2 is an explanatory diagram of the operation of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 2 is an explanatory diagram of the operation of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 2 is an explanatory diagram of the operation of the ophthalmologic apparatus according to the first embodiment.
  • FIG. 2 is an explanatory diagram of the operation of the ophthalmologic apparatus according to the first embodiment.
  • It is a flowchart of the example of operation of the ophthalmologic apparatus concerning a 2nd embodiment. It is a flowchart of the example of operation of the ophthalmological device concerning a 2nd
  • the ophthalmological apparatus has a measurement optical system that includes a focusing lens and measures wavefront aberration of an eye to be examined wearing an IOL (intraocular lens) to obtain a Hartmann image.
  • the eye to be examined can wear the IOL by inserting the IOL into a lens capsule whose contents have been removed through surgery.
  • the ophthalmological apparatus controls the focusing lens to search for a state in which at least one of the plurality of point images constituting the Hartmann image is separated into two or more separated point images, and a state in which the two or more separated point images are separated.
  • a Hartmann image is acquired by the measurement optical system, and the refractive power of the eye to be examined is calculated based on the acquired Hartmann image.
  • the measurement optical system uses near-infrared light or visible light to obtain the Hartmann image.
  • IOL information representing at least optical characteristics of the IOL is obtained, and control of the focusing lens described above is initiated based on the obtained IOL information.
  • IOL information includes, for example, information representing the number of focal points (number of focal lengths) that the IOL has, information representing the positions of areas with different focal lengths in the IOL, information representing whether or not to utilize the refraction phenomenon of light, It includes at least one of information indicating whether a diffraction phenomenon is used and information indicating whether a deep depth of focus is used.
  • IOL information can be specified by a predetermined IOL type.
  • IOL types include monofocal type and multifocal type.
  • the multifocal type includes a multifocal diffractive type and a multifocal diffractive type.
  • the multifocal type includes an Extended Depth of Focus (EDoF) type.
  • EDOF Extended Depth of Focus
  • Such IOL information may be specified by a user (subject, examiner, doctor, etc.) using the operation unit, or may be inserted into the subject's eye by analyzing an anterior segment image or transillumination image of the subject's eye. This information is obtained by determining the type of IOL currently available.
  • the ophthalmological apparatus determines that at least one of the plurality of point images constituting the Hartmann image is two or more separated points.
  • the focusing lens is controlled to search for a state where the images are separated, and the refractive power is calculated based on the Hartmann image obtained by the measurement optical system in the state where two or more separated point images are separated.
  • the ophthalmologic apparatus controls the focusing lens to focus at the average focal length of the IOL
  • the refractive power is calculated based on the Hartmann image acquired by the measurement optical system. This makes it possible to change the processing method for calculating the refractive power of the eye to be examined depending on the type of IOL, thereby improving the reliability of the calculation result of the refractive power of the eye to be examined wearing the IOL.
  • the ophthalmological device obtains pupil diameter information representative of the pupil diameter of the subject's eye, and calculates the refractive power based on wavefront aberration information within a region defined based on the obtained pupil diameter information. calculate.
  • the ophthalmological apparatus normalizes wavefront aberration information using pupil diameter information and calculates the refractive power using a known method of performing Zernike polynomial approximation using the normalized wavefront aberration information.
  • a method for controlling an ophthalmologic apparatus includes one or more steps for realizing processing executed by a processor (computer) to control an ophthalmologic apparatus according to an embodiment.
  • the program according to the embodiment causes the processor to execute each step of the method for controlling an ophthalmological apparatus according to the embodiment.
  • the recording medium (storage medium) according to the embodiment is a computer-readable non-temporary recording medium (storage medium) on which the program according to the embodiment is recorded (stored).
  • a "processor” refers to, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an ASIC (Application Specific Integrated Circuit).
  • cuit programmable logic devices (for example, SPLD (Simple Programmable Logic Device), CPLD (Complex It means a circuit such as a programmable logic device (FPGA) or a field programmable gate array (FPGA).
  • the processor realizes the functions according to the embodiment by, for example, reading and executing a program stored in a storage circuit or a storage device.
  • IOL types include single focus type, multifocal type, and EDoF type.
  • the number of focal points of the multifocal IOL is "2"
  • the configuration according to the embodiment is also applicable to a case where the number of focal points is 3 or more.
  • the ophthalmologic apparatus is capable of performing at least one of an arbitrary subjective test and an arbitrary objective measurement.
  • a subjective test information (such as an optotype) is presented to the subject, and results are obtained based on the subject's response to the information.
  • Subjective tests include subjective refraction measurements such as distance tests, near tests, contrast tests, and glare tests, and visual field tests.
  • objective measurement the eye to be examined is irradiated with light, and information regarding the eye to be examined is acquired based on the detection result of the returned light.
  • the objective measurement includes measurement for acquiring characteristics of the eye to be examined and photographing for acquiring an image of the eye to be examined.
  • objective refraction measurement corneal topography measurement, intraocular pressure measurement, fundus photography, tomography using optical coherence tomography (OCT), and OCT were used. There are measurements etc.
  • the ophthalmological apparatus is capable of performing distance vision testing, near vision testing, etc. as subjective testing, and can perform objective refraction measurement using wavefront aberration measurement, corneal shape measurement, etc. as objective measurement.
  • the device shall be capable of However, the configuration of the ophthalmologic apparatus according to the embodiment is not limited to this.
  • the ophthalmologic apparatus includes a face receiving portion fixed to a base and a pedestal that is movable back and forth, up and down, and left and right with respect to the base.
  • the pedestal is provided with a head section that houses an optical system for testing (measuring) the eye to be examined.
  • the face receiving section and the head section can be moved relative to each other.
  • the ophthalmological apparatus can automatically move the face receiving section and the head section relative to each other by performing alignment, which will be described later.
  • FIG. 1 shows a configuration example of an optical system of an ophthalmologic apparatus according to a first embodiment.
  • the ophthalmological apparatus 100 includes a Z alignment system 1, an XY alignment system 2, a keratometry system 3, an optotype projection system 4, an observation system 5, and an aberration correction system as optical systems for testing a subject's eye E. It includes a measurement projection system 6 and an aberration measurement light receiving system 7.
  • the ophthalmological apparatus also includes a processing section 9.
  • the processing section 9 controls each section of the ophthalmological apparatus. Further, the processing unit 9 is capable of executing various calculation processes.
  • the processing unit 9 includes a processor.
  • the processing unit 9 realizes the functions according to the embodiment by, for example, reading and executing a program stored in a storage circuit or a storage device.
  • the observation system 5 takes a video of the anterior segment of the eye E to be examined.
  • the anterior ocular segment of the subject's eye E is illuminated with light (for example, infrared light with a center wavelength of 950 nm) from a plurality of anterior ocular segment illumination light sources 57 arranged at a position away from the optical axis of the observation system 5.
  • the returned light passes through the objective lens 51, the dichroic mirror 52, and the aperture of the diaphragm 53.
  • the light that has passed through the aperture of the aperture 53 passes through the half mirror 22, passes through the relay lens 54, and is guided to the imaging lens 55.
  • the imaging lens 55 forms an image of the light guided from the relay lens 54 on the light receiving surface of an area sensor (image sensor) 56.
  • the light receiving surface of the area sensor 56 is arranged at a position that is optically substantially conjugate with the pupil of the eye E to be examined.
  • the area sensor 56 performs imaging and signal output at a predetermined rate.
  • the output (video signal) of the area sensor 56 is input to the processing section 9.
  • the processing section 9 causes the anterior segment image E' based on this video signal to be displayed on the display screen 10a of the display section 10.
  • the anterior segment image E' is, for example, an infrared moving image.
  • the Z alignment system 1 irradiates the eye E with light (infrared light) for aligning the observation system 5 in the optical axis direction (anterior-posterior direction, Z direction).
  • the light output from the Z alignment light source 11 is irradiated onto the cornea K of the eye E to be examined, is reflected by the cornea K, and is guided to the imaging lens 12 .
  • the imaging lens 12 forms an image of the guided light on the light receiving surface of the line sensor 13.
  • the output of the line sensor 13 is input to the processing section 9.
  • the processing unit 9 determines the position of the corneal vertex of the eye E based on the projection position of the light onto the line sensor 13, and executes Z alignment based on this.
  • the XY alignment system 2 irradiates the eye E with light (infrared light) for alignment in directions perpendicular to the optical axis of the observation system 5 (horizontal direction (X direction), vertical direction (Y direction)).
  • the XY alignment system 2 includes an XY alignment light source 21 provided on an optical path branched from the observation system 5 by a half mirror 22.
  • the light output from the XY alignment light source 21 passes through the relay lens 23 and is reflected by the half mirror 22.
  • the light reflected by the half mirror 22 is focused at the front focal point of the objective lens 51 on the optical axis of the observation system 5, and then transmitted through the dichroic mirror 52 and converted into parallel light by the objective lens 51.
  • the cornea K of E is irradiated.
  • the light reflected on the surface of the cornea K forms a Purkinje image near the reflection focal position on the corneal surface of the eye E to be examined.
  • the XY alignment light source 21 is arranged at a position that is optically substantially conjugate with the focal position of the objective lens 51.
  • the light reflected by the cornea K is guided to the area sensor 56 through the observation system 5.
  • an image Br is formed by a Purkinje image (bright spot) of the light output from the XY alignment light source 21.
  • the processing unit 9 causes the anterior segment image E' including the bright spot image Br and the alignment mark AL to be displayed on the display screen 10a.
  • the examiner operates the optical system to move the bright spot image Br within the alignment mark AL.
  • the processing unit 9 controls a mechanism for moving the optical system so that the displacement of the bright spot image Br with respect to the alignment mark AL is canceled.
  • the keratometry system 3 projects a ring-shaped light beam (infrared light) onto the cornea K for measuring the curvature of the cornea K.
  • the keratoplate 31 is arranged near the objective lens 51.
  • a kerato ring light source 32 is provided on the back side of the kerato plate 31 (on the objective lens 51 side).
  • a ring-shaped light beam is projected onto the cornea K.
  • the reflected light (keratling image) is detected by the area sensor 56 together with the anterior segment image.
  • the processing unit 9 calculates a corneal curvature parameter by performing a known calculation based on this keratoring image.
  • a placido ring plate consisting of multiple rings may be arranged instead of the kerato ring. In this case, it becomes possible to measure not only the curvature of the cornea but also the shape of the cornea.
  • the optotype projection system 4 presents various optotypes such as a fixation target and an optotype for a subjective test to the eye E to be examined.
  • the optotype chart 42 displays a pattern representing an optotype under the control of the processing unit 9.
  • the light (visible light) output from the light source 41 passes through the optotype chart 42, passes through the relay lens 43 and field lens 44, is reflected by the reflection mirror 45, passes through the beam splitter 68, and is reflected by the dichroic mirror 52. reflected.
  • the light reflected by the dichroic mirror 52 passes through the objective lens 51 and is projected onto the fundus Ef.
  • a moving unit 46 including the light source 41 and the optotype chart 42 is movable along the optical axis of the optotype projection system 4. The position of the moving unit 46 is adjusted so that the optotype chart 42 and the fundus Ef are optically substantially conjugate.
  • the optotype chart 42 is capable of displaying a pattern representing a fixation target for causing the subject's eye E to fixate under the control of the processing unit 9. By sequentially changing the display position of the pattern representing the fixation target in the optotype chart 42, the fixation position can be moved and the adjustment of the line of sight and the subject's eye can be guided.
  • any one of a plurality of optotypes drawn on a liquid crystal panel, an electronic display device using EL (electroluminescence), a rotating glass plate, etc. is placed on the optical axis as appropriate. There are things to place (turret type), etc.
  • the optotype projection system 4 may include a glare inspection optical system for projecting glare light onto the eye E to be examined together with the above-mentioned optotype.
  • the processing unit 9 controls the mobile unit 46 based on the results of the objective measurement.
  • the processing unit 9 displays the optotype selected by the examiner or the processing unit 9 on the optotype chart 42. Thereby, the optotype is presented to the subject.
  • the subject responds to the visual target.
  • the processing unit 9 performs further control and calculation of the subjective test value. For example, in visual acuity measurement, the processing unit 9 selects and presents the next optotype based on the response to the Landolt ring, etc., and determines the visual acuity value by repeating this process.
  • a landscape chart is projected onto the fundus Ef. Alignment is performed while the subject fixates on this landscape chart, and the refractive power is measured in a foggy vision state.
  • the aberration measurement projection system 6 and the aberration measurement light receiving system 7 are used to measure ocular aberration characteristics of the eye E to be examined.
  • the aberration measurement projection system 6 projects a light beam (mainly infrared light) for measuring ocular aberration characteristics onto the fundus Ef.
  • the aberration measurement light receiving system 7 receives the returned light from the fundus Ef of the eye E to be examined.
  • the ocular aberration characteristics of the eye E to be examined are determined from the result of receiving the returned light by the aberration measurement light receiving system 7.
  • the aberration measurement projection system 6 includes a light source 61 that can output light in two or more wavelength regions with different center wavelengths.
  • the light source 61 may be configured by a single light source that can change the wavelength range (center wavelength) of the output light, or may be configured by switching between two or more light sources that output light with different wavelength ranges (center wavelength). It may be configured as follows.
  • the light source 61 includes a light source 61A that outputs light in a first wavelength range including a first center wavelength, and a light source 61B that outputs light in a second wavelength range including a second center wavelength.
  • the first center wavelength is 560 nm (visible region)
  • the second center wavelength is 840 nm (near infrared region).
  • the light source 61 outputs the light output from either the light source 61A or the light source 61B.
  • the optical path from the light source 61A and the optical path from the light source 61B are combined by a dichroic mirror, and the light source 61A and the light source 61B are controlled to be turned on exclusively.
  • the optical path from the light source 61A and the optical path from the light source 61B are combined by a dichroic mirror, a removable first shutter is provided between the light source 61A and the dichroic mirror, and a first shutter is provided between the light source 61A and the dichroic mirror.
  • a second shutter that can be inserted and removed is provided between the mirror and the mirror.
  • Each of the light sources (point light sources) 61A and 61B is one that emits minute point-shaped light.
  • Examples of the light sources 61A and 61B include superluminescent diodes (SLD) with high light-gathering properties, but also LDs (laser diodes) with high light-gathering properties and high-brightness LEDs with a small emission diameter. But that's fine.
  • a moving unit 69 including a light source 61 is movable along the optical axis of the aberration measurement projection system 6.
  • the light source 61 is arranged at a position that is optically substantially conjugate with the fundus Ef.
  • the light (measurement light) output from the light source 61 passes through a relay lens 62 and a field lens 63, and then through a polarizing plate 64.
  • the polarizing plate 64 transmits only the s-polarized light component among the polarized light components of the light output from the light source 61.
  • the light transmitted through the polarizing plate 64 passes through an aperture of an aperture 65, is reflected by a polarizing beam splitter 66 that reflects the s-polarized component, passes through a rotary prism 67, and is reflected by a beam splitter 68.
  • the light reflected by the beam splitter 68 is reflected by the dichroic mirror 52, passes through the objective lens 51, and is projected onto the fundus Ef.
  • FIG. 2 schematically shows an example of the wavelength selection characteristics of the beam splitter 68.
  • the vertical axis represents light transmittance
  • the horizontal axis represents wavelength.
  • the beam splitter 68 can transmit light in a wavelength range centered around the first wavelength ⁇ 1, light in a wavelength range centered around the second wavelength ⁇ 2, and light centered around the third wavelength ⁇ 3 (0 ⁇ 1 ⁇ 2 ⁇ 3). Reflects light in the specified wavelength range and transmits light in other wavelength ranges.
  • the first wavelength ⁇ 1 is the center wavelength (560 nm) of the light output from the light source 61A
  • the second wavelength ⁇ 2 is the center wavelength (840 nm) of the light output from the light source 61B
  • the third wavelength ⁇ 3 is the center wavelength (840 nm) of the light output from the light source 61B.
  • the beam splitter 68 transmits the light from the optotype projection system 4, reflects the light from the light sources 61A and 61B of the aberration measurement projection system 6, and its return light, and connects the optotype projection system 4 and the aberration measurement Wavelength separation between the projection system 6 and the aberration measurement light receiving system 7 can be performed satisfactorily.
  • a beam splitter 68 may be, for example, a wavelength selective mirror as disclosed in Japanese Patent Application Publication No. 2010-099354.
  • the light source 61 may not be placed at the position of the light source 61, and the light from the light source 61 may be guided to the relay lens 62 by an optical fiber that connects the light source and the ophthalmologic apparatus.
  • the fiber end of the optical fiber is placed at a position that is optically approximately conjugate with the fundus Ef.
  • the rotary prism 67 is used to average out reflectance unevenness in blood vessels and diseased areas of the fundus Ef, and to reduce speckle noise caused by the SLD light source.
  • the polarization state of the light incident on the eye E is no longer maintained due to scattering and reflection by the fundus, and the return light from the fundus Ef becomes a mixture of p-polarized light components and s-polarized light components.
  • Such return light from the fundus Ef passes through the objective lens 51 and is reflected by the dichroic mirror 52 and the beam splitter 68.
  • the returned light reflected by the beam splitter 68 passes through the rotary prism 67 and is guided to the polarizing beam splitter 66.
  • the polarizing beam splitter 66 transmits only the p-polarized light component among the polarized light components of the returned light.
  • the p-polarized light component transmitted through the polarizing beam splitter 66 passes through a field lens 71, is reflected by a reflecting mirror 72, passes through a relay lens 73, and is guided to a moving unit 77. Since the light specularly reflected by the surface of the objective lens 51 and the cornea K of the eye E to be examined maintains s-polarization, it is reflected by the polarizing beam splitter 66 and does not enter the aberration measurement light receiving system 7, thereby reducing the occurrence of ghosts.
  • the moving unit 77 includes a collimator lens 74, a Hartmann plate 75, and an area sensor 76.
  • the collimator lens 74 functions as a focusing lens when the moving unit 77 moves.
  • a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor is used as the area sensor 76.
  • the light guided to the moving unit 77 passes through the collimator lens 74 and enters the Hartmann plate 75.
  • the Hartmann plate 75 is arranged at a position that is optically substantially conjugate with the pupil of the eye E to be examined.
  • the moving unit 77 is movable along the optical axis of the aberration measurement light receiving system 7.
  • the moving unit 77 is moved along the optical axis according to the refractive power of the eye E so that the fundus Ef and the front focal position of the collimator lens 74 are optically substantially conjugate.
  • 3 and 4 show explanatory diagrams of the Hartmann plate 75 according to the embodiment. 3 and 4 schematically illustrate the configuration of the Hartmann plate 75 when viewed from the optical axis direction of the aberration measurement light receiving system 7.
  • the Hartmann plate 75 generates a plurality of focused lights from the return light from the fundus Ef. As shown in FIGS. 3 and 4, a plurality of microlenses 75A are arranged in a grid pattern on the Hartmann plate 75. The Hartmann plate 75 divides the incident light into a large number of light beams and focuses each light beam.
  • the Hartmann plate 75 has a configuration in which a plurality of microlenses 75A are arranged on a glass plate by etching, molding, or the like.
  • the aperture of each microlens can be made large, and the intensity of the signal can be increased.
  • the Hartmann plate 75 has a structure in which a plurality of microlenses 75A are arranged with a light shielding portion 75B provided by forming a chromium light shielding film or the like around each microlens 75A. It's okay.
  • the microlenses 75A are not limited to those arranged in a square arrangement, but may be arranged on concentric circles, arranged at each vertex of a triangle, or arranged in hexagonal close arrangement.
  • the area sensor 76 is arranged at the focal point of the microlens 75A, and detects the light (focused light) each focused by the Hartmann plate 75. As shown in FIG. 5, the light receiving surface of the area sensor 76 corresponds to light irradiation areas a 1 , ..., b 1 , ..., c 1 , ... on the pupil Ep of the eye E to be examined. Then, the microlens 75A of the Hartmann plate 75 forms point images A 1 , . . . , B 1 , .
  • the center of gravity of the point image formed on the light receiving surface of the area sensor 76 (or the luminance of the point image The interval between the peak positions) is approximately equal to the distance between the lens centers of the microlenses 75A.
  • the area sensor 76 detects a point image group formed by the microlens 75A of the Hartmann plate 75.
  • the processing unit 9 acquires a detection signal based on the point image group detected by the area sensor 76 and position information indicating the detected position of the point image group, and analyzes the position of the point image formed by each microlens 75A.
  • the wavefront aberration of the light incident on the Hartmann plate 75 is determined.
  • the ocular aberration characteristics of the eye E to be examined are determined from the interval between the point images.
  • the processing unit 9 determines the refractive power of the eye E from the determined ocular aberration characteristics.
  • the processing unit 9 moves the moving unit 69 and the moving unit so that the light source 61 (light sources 61A, 61B), the fundus Ef, and the front focal position of the collimator lens 74 become optically conjugate based on the calculated refractive power.
  • 77 can be moved in the optical axis direction. Further, the processing section 9 can move the moving unit 46 in the optical axis direction in conjunction with the movement of the moving units 69 and 77.
  • the ophthalmologic apparatus 100 is capable of acquiring a transillumination image of the eye E to be examined.
  • one (or a part) of the plurality of anterior ocular segment illumination light sources 57 is turned on to project light to the fundus Ef through the pupil from a position away from the optical axis, and the returned light is received by the area sensor 56.
  • a transillumination image is obtained.
  • a transillumination image is obtained by turning on the XY alignment light source 21, projecting light to the fundus Ef through the pupil, and receiving the returned light with the area sensor 56.
  • the XY alignment light source 21 may be an SLD or a high brightness LED.
  • the XY alignment light source 21 is configured to output light from an LD as an alignment light source during alignment, and to output light from an SLD or high-intensity LED as an illumination light source for transillumination image acquisition during transillumination image acquisition. Good too.
  • FIG. 6 shows an example of the functional configuration of the processing system of the ophthalmologic apparatus 100.
  • FIG. 6 shows an example of a functional block diagram of the processing system of the ophthalmological apparatus according to the embodiment.
  • parts similar to those in FIG. 1 are designated by the same reference numerals, and description thereof will be omitted as appropriate.
  • the processing section 9 includes a control section 110 and an arithmetic processing section 120. Further, the ophthalmologic apparatus 100 includes a display section 170, an operation section 180, a communication section 190, and a movement mechanism 200.
  • the moving mechanism 200 houses optical systems such as a Z alignment system 1, an XY alignment system 2, a keratometry system 3, an optotype projection system 4, an observation system 5, an aberration measurement projection system 6, and an aberration measurement light receiving system 7.
  • This is a mechanism for moving the head section forward, backward, up, down, left and right.
  • the moving mechanism 200 is provided with an actuator that generates a driving force for moving the moving mechanism 200, and a transmission mechanism that transmits this driving force.
  • the actuator is composed of, for example, a pulse motor.
  • the transmission mechanism is configured by, for example, a combination of gears or a rack and pinion.
  • the control unit 110 main control unit 111) controls the moving mechanism 200 by sending control signals to the actuators.
  • Control unit 110 includes a processor and controls each part of the ophthalmological apparatus.
  • Control unit 110 includes a main control unit 111 and a storage unit 112.
  • the storage unit 112 stores in advance a computer program for controlling the ophthalmological apparatus.
  • the computer programs include a light source control program, a sensor control program, an optical system control program, an arithmetic processing program, a user interface program, and the like. By operating the main control unit 111 according to such a computer program, the control unit 110 executes control processing.
  • the main control unit 111 performs various controls of the ophthalmological apparatus as a measurement control unit.
  • Control of the Z alignment system 1 includes control of the Z alignment light source 11, control of the line sensor 13, etc.
  • Control of the Z alignment light source 11 includes turning on and off the light source, adjusting the amount of light, and the like.
  • Control of the line sensor 13 includes exposure adjustment, gain adjustment, detection rate adjustment, etc. of the detection element. As a result, the Z alignment light source 11 is switched between lighting and non-lighting, and the amount of light is changed.
  • the main control unit 111 captures the signal detected by the line sensor 13 and specifies the projection position of light onto the line sensor 13 based on the captured signal.
  • the main control unit 111 determines the position of the corneal apex of the eye E to be examined based on the specified projection position, and controls the moving mechanism 200 based on this to move the head unit in the front-rear direction (Z alignment).
  • Control of the XY alignment system 2 includes control of the XY alignment light source 21, etc.
  • Control of the XY alignment light source 21 includes turning on and off the light source, adjusting the amount of light, and the like. As a result, the XY alignment light source 21 is switched between lighting and non-lighting, and the amount of light is changed.
  • the main control unit 111 captures the signal detected by the area sensor 56, and specifies the position of the bright spot image based on the return light from the XY alignment light source 21 based on the captured signal.
  • the main control unit 111 controls the moving mechanism 200 to move the head unit in the horizontal and vertical directions so that the displacement of the position of the bright spot image with respect to a predetermined target position (for example, the center position of the alignment mark) is canceled. (XY alignment).
  • Control of the kerato measurement system 3 includes control of the kerato ring light source 32, etc.
  • Control of the keratoring light source 32 includes turning on and off the light source, adjusting the amount of light, and the like. Thereby, the keratoring light source 32 is switched between lighting and non-lighting, and the amount of light is changed.
  • the main control unit 111 causes the arithmetic processing unit 120 to perform a known calculation on the keratoring image detected by the area sensor 56. Thereby, the corneal shape parameters of the eye E to be examined are determined.
  • Control over the optotype projection system 4 includes control of the light source 41, control of the optotype chart 42, movement control of the moving unit 46, etc.
  • Control of the light source 41 includes turning on and off the light source, adjusting the amount of light, and the like. Thereby, the light source 41 is switched between lighting and non-lighting, and the amount of light is changed.
  • Control of the optotype chart 42 includes turning on/off the display of optotypes and fixation targets, switching the display position of the fixation target, and the like. Thereby, the optotype and the fixation target are projected onto the fundus Ef of the eye E to be examined.
  • the optotype projection system 4 includes a moving mechanism that moves the moving unit 46 in the optical axis direction.
  • this moving mechanism is provided with an actuator that generates a driving force for moving the moving mechanism, and a transmission mechanism that transmits this driving force.
  • the main control section 111 controls the movement mechanism by sending control signals to the actuator, and moves the movement unit 46 in the optical axis direction. Thereby, the position of the moving unit 46 is adjusted so that the optotype chart 42 and the fundus Ef are optically conjugate.
  • Control of the observation system 5 includes control of the area sensor 56, control of the anterior segment illumination light source 57, etc.
  • Control of the area sensor 56 includes exposure adjustment, gain adjustment, detection rate adjustment, etc. of the area sensor 56.
  • the main control unit 111 captures the signal detected by the area sensor 56 and causes the arithmetic processing unit 120 to perform processing such as forming an image based on the captured signal.
  • Control of the anterior ocular segment illumination light source 57 includes turning on and off the light source, adjusting the amount of light, and the like. As a result, the anterior eye segment illumination light source 57 is switched between lighting and non-lighting, one or a portion of the anterior eye segment illumination light source 57 is turned on, and the light amount of each light source is changed.
  • Control of the aberration measurement projection system 6 includes control of the light sources 61A and 61B, control of the rotary prism 67, control of the moving unit 69, etc.
  • Control of the light sources 61A and 61B includes turning on and off the light sources, adjusting the amount of light, and the like. Thereby, the light sources 61A and 61B are switched between lighting and non-lighting, the amount of light is changed, and the wavelength range of the light output by the light source 61 is changed.
  • Control of the rotary prism 67 includes rotation control of the rotary prism 67.
  • a rotation mechanism for rotating the rotary prism 67 is provided, and the main control unit 111 rotates the rotary prism 67 by controlling this rotation mechanism.
  • the aberration measurement projection system 6 includes a moving mechanism that moves the moving unit 69 in the optical axis direction. Similar to the moving mechanism 200, this moving mechanism is provided with an actuator that generates a driving force for moving the moving mechanism, and a transmission mechanism that transmits this driving force.
  • the main control section 111 controls the moving mechanism by sending a control signal to the actuator, and moves the moving unit 69 in the optical axis direction.
  • Control of the aberration measurement light receiving system 7 includes control of the area sensor 76, movement control of the moving unit 77, etc.
  • Control of the area sensor 76 includes exposure adjustment, gain adjustment, detection rate adjustment, etc. of the area sensor 76.
  • the main control unit 111 captures the signal detected by the area sensor 76 and causes the arithmetic processing unit 120 to perform calculation processing of ocular aberration characteristics based on the captured signal.
  • the aberration measurement light receiving system 7 includes a moving mechanism that moves the moving unit 77 in the optical axis direction. Similar to the moving mechanism 200, this moving mechanism is provided with an actuator that generates a driving force for moving the moving mechanism, and a transmission mechanism that transmits this driving force.
  • the main control section 111 controls the movement mechanism by sending a control signal to the actuator, and moves the movement unit 77 in the optical axis direction.
  • the main control section 111 controls the movement mechanism by sending a control signal to the actuator, and moves the movement unit 77 in the optical axis direction.
  • the main control unit 111 is capable of displaying various information on the display unit 170 as a display control unit.
  • the information displayed on the display unit 170 includes objective measurement results (aberration measurement results) and subjective test results obtained using the above optical system, and images and information based on these.
  • the refractive power determined by the arithmetic processing unit 120, a wavefront aberration map representing the distribution of wavefront aberration, a simulation image representing the appearance, visual acuity simulation results, etc. are displayed on the display unit 170.
  • the main control unit 111 can display this information on the display unit 170 for each area of a plurality of focal lengths that the IOL has, or can identify and display a part of the information.
  • the main control unit 111 also performs processing for writing data into the storage unit 112 and processing for reading data from the storage unit 112.
  • the storage unit 112 stores various data. Examples of data stored in the storage unit 112 include test results of a subjective test, measurement results of an objective measurement, image data of an anterior segment image, image data of a Hartmann point image, eye information to be examined, and processing of the arithmetic processing unit 120. There are results etc.
  • the eye information to be examined includes information regarding the examinee such as a patient ID and name, and information regarding the eye to be examined such as left eye/right eye identification information.
  • the storage unit 112 stores various programs and data for operating the ophthalmologic apparatus.
  • the arithmetic processing unit 120 includes a processor, and executes the following processes in each unit according to a computer program stored in a storage unit (or storage unit 112, not shown).
  • FIG. 7 shows a functional block diagram of a configuration example of the arithmetic processing unit 120 in FIG. 6.
  • the arithmetic processing unit 120 includes a refractive power calculation unit 130, a distribution information generation unit 140, and a simulation processing unit 150.
  • the refractive power calculation unit 130 calculates the refractive power of the eye E to be examined using a calculation processing method depending on the type of IOL.
  • IOL types include single focus type, multifocal refractive type, multifocal diffraction type, and EDoF type. Therefore, the refraction power calculation section 130 includes a first refraction power calculation section 131 , a second refraction power calculation section 132 , a third refraction power calculation section 133 , and a fourth refraction power calculation section 134 .
  • the first refractive power calculation unit 131 executes a first refractive power calculation process that calculates the refractive power of the eye E using a calculation processing method compatible with a single focus type IOL.
  • the second refractive power calculation unit 132 executes a second refractive power calculation process that calculates the refractive power of the eye E using a calculation processing method compatible with a multifocal refractive IOL.
  • the third refractive power calculation unit 133 executes a third refractive power calculation process that calculates the refractive power of the eye E using a calculation processing method compatible with a multifocal diffractive IOL.
  • the fourth refractive power calculation unit 134 executes a fourth refractive power calculation process that calculates the refractive power of the eye E using a calculation processing method compatible with the EDoF type IOL.
  • each of the first refraction power calculation section 131, the second refraction power calculation section 132, the third refraction power calculation section 133, and the fourth refraction power calculation section 134 may be shared as appropriate if they have the same function. may have been done.
  • First refraction power calculation unit 131 When the IOL worn by the subject's eye E is a monofocal IOL, the first refractive power calculation unit 131 calculates a single refractive power based on wavefront aberration information including a Hartmann image obtained by wavefront aberration measurement. do.
  • FIG. 8 shows a functional block diagram of a configuration example of the first refraction power calculating section 131 shown in FIG. 7.
  • the first refractive power calculating section 131 includes a point image specifying section 131A, a representative position specifying section 131B, and a Zernike polynomial approximation processing section 131C.
  • the point image identifying unit 131A identifies a point image that constitutes a Hartmann image.
  • the point image identifying unit 131A identifies a point image based on the brightness value of the Hartmann image obtained by the area sensor 56.
  • point image enhancement processing is performed on the Hartmann image before the point image is specified by the point image identification unit 131A.
  • the representative position specifying unit 131B specifies the representative position of the point image specified by the point image specifying unit 131A. Examples of representative positions include the center of gravity, the center position, the position within the point image closest to the center of the Hartmann image, and the position within the point image farthest from the center of the Hartmann image. In this embodiment, the representative position specifying unit 131B specifies the center of gravity position as the representative position.
  • the Zernike polynomial approximation processing unit 131C executes Zernike polynomial approximation processing based on the representative positions of the plurality of point images specified by the representative position specifying unit 131B, and unifies the spherical power S, astigmatic power C, and astigmatic axis angle A. It is found as the refractive power of That is, the Zernike polynomial approximation processing unit 131C obtains the inclination of the light ray at the representative position of the plurality of point images specified by the representative position specifying unit 131B, and approximates the wavefront by a known calculation using the obtained inclination amount of the light ray. Find the formula.
  • the obtained wavefront approximation is expressed by Zernike coefficients and Zernike polynomials.
  • Wavefront aberration information is expressed by Zernike coefficients.
  • the Zernike polynomial approximation processing unit 131C normalizes the wavefront aberration information using the pupil diameter of the eye E to be examined or the pupil diameter of the model eye, as disclosed in JP-A-2002-209854, for example. It is possible to convert The Zernike polynomial approximation processing unit 131C calculates the spherical power S, the astigmatic power C, and the astigmatic axis angle A from the low-order terms of the Zernike coefficients by known calculations. For example, the Zernike polynomial approximation processing unit 131C can calculate the refractive power using the method disclosed in JP-A No. 2002-209854 or JP-A No. 2017-213124.
  • the second refractive power calculation unit 132 calculates multiple focal lengths of the IOL based on wavefront aberration information including a Hartmann image obtained by wavefront aberration measurement. A plurality of refractive powers corresponding to each of the refractive powers are calculated. That is, the second refractive power calculating unit 132 calculates a plurality of refractive powers including a refractive power corresponding to a far point and a refractive power corresponding to a near point for each area corresponding to the focal length of the IOL.
  • FIG. 9 shows a functional block diagram of a configuration example of the second refraction power calculating section 132 shown in FIG. 7.
  • the second refractive power calculating section 132 includes a point image specifying section 132A, a representative position specifying section 132B, a point image group specifying section 132C, and a Zernike polynomial approximation processing section 132D.
  • the point image specifying unit 132A like the point image specifying unit 131A, specifies a point image that constitutes a Hartmann image. In some embodiments, point image enhancement processing is performed on the Hartmann image before the point image is specified by the point image identification unit 132A.
  • the representative position specifying unit 132B specifies the representative position (center of gravity position) of the point image specified by the point image specifying unit 132A.
  • the point image group identifying unit 132C classifies two or more separated point images, which are separated point images that should originally be formed, into point image groups for each focal length of the IOL.
  • the Zernike polynomial approximation processing unit 132D calculates the refractive power of the eye E to be examined, similarly to the Zernike polynomial approximation processing unit 131C, for each point image group specified by the point image group identification unit 132C.
  • FIGS. 10 and 11 schematically show point images acquired by the area sensor 56 in association with the lens regions of the multifocal refractive IOL according to the first embodiment.
  • FIG. 10 shows a point image in association with an annular multifocal refractive IOL in which areas with different focal lengths are arranged concentrically.
  • FIG. 11 shows a point image in association with a sector-type multifocal refractive IOL in which areas with different focal lengths are arranged below the lens region.
  • an annular multifocal refractive IOL is "2", for example, from the center outward, there is a near area where you can focus on near objects, and a near area where you can focus on far objects. Possible distance viewing areas are arranged alternately. In FIG. 10, from the center outward, near area NA1, far area FA1, near area NA2, far area FA2, . . . , near area NA4, and far area FA4 are arranged alternately. Ru. If the focal number of an annular multifocal refractive IOL is 3, it is possible to similarly focus outward from the center to the near area and an intermediate distance between near and far. A medium viewing area and a long viewing area are arranged in order.
  • the center side is placed as the near vision area, and the area far from the center is placed as the distance viewing area. It may be arranged as an area.
  • the second refractive power calculating unit 132 specifies a point image group included in an area corresponding to a predetermined focal length, and calculates each point image group for each point image group based on wavefront aberration information obtained from the specified point image group. Calculate the refractive power.
  • the near vision area NA1 is arranged below the lens area whose entire distance vision area FA1.
  • the number of focal points of the sector-type multifocal refractive IOL is three or more, for example, one or more intermediate vision areas are arranged between the distance vision area FA1 and the near vision area NA1.
  • the second refractive power calculation unit 132 specifies the point image group included in the area corresponding to the focal length, as in the annular type, and based on the wavefront aberration information obtained from the identified point image group. , calculate the refractive power for each point image group.
  • the refractive power can be calculated from the point images included in each of the one or more intermediate areas.
  • the third refractive power calculation unit 133 calculates multiple focal lengths of the IOL based on wavefront aberration information including a Hartmann image obtained by wavefront aberration measurement. A plurality of refractive powers corresponding to each of the refractive powers are calculated. Specifically, the third refractive power calculation unit 133 classifies two or more separated point images that constitute the Hartmann image for each focal length of the IOL, and calculates the classified two or more separated points. A plurality of refractive powers including a refractive power corresponding to a far point and a refractive power corresponding to a near point are calculated for each focal length based on the image.
  • FIG. 12 shows a functional block diagram of a configuration example of the third refraction power calculating section 133 shown in FIG. 7.
  • the third refractive power calculation unit 133 includes an emphasis processing unit 133A, a point image identification unit 133B, a representative position identification unit 133C, a point image group identification unit 133D, and a Zernike polynomial approximation processing unit 133E.
  • the enhancement processing unit 133A performs point image enhancement processing in the Hartmann image. For example, the emphasis processing unit 133A increases the contrast of the Hartmann image and removes the portion where the brightness value is saturated.
  • the point image specifying unit 133B specifies a point image forming a Hartmann image in substantially the same way as the point image specifying unit 131A. Specifically, the point image identifying unit 133B identifies two or more separated point images that are separated point images forming the Hartmann image. In this case, the point image specifying unit 133B specifies one or more separated point images on the far point side by analyzing the Hartmann image, and analyzes the Hartmann image that has been enhanced by the enhancement processing unit 133A. One or more remaining separated point images on the point side are identified.
  • the point image identifying unit 133B identifies a point image having a predetermined first luminance value or more from the Hartmann image as a separated point image on the far point side, and increases the contrast to remove the Hartmann image in which the portion where the luminance value is saturated is removed.
  • a point image having a predetermined second brightness value or more in the image is identified as a separated point image on the periapsis side. This makes it easier to identify the separated point image on the near point side where the contrast decreases with the multifocal diffractive IOL.
  • the point image specifying unit 133B analyzes the Hartmann image that has been enhanced by the enhancement processing unit 133A to identify one or more separated point images on the far point side and one or more separated point images on the near point side. Identify the separated point image of .
  • wavefront aberration measurement is performed using light in the visible region (for example, light from the light source 61A) in order to facilitate identification of the separated point image on the near point side.
  • the representative position specifying unit 133C specifies the representative position (center of gravity position) of the separated point image specified by the point image specifying unit 133B.
  • the point image group specifying unit 133D classifies the two or more separated point images specified by the representative position specifying unit 133C into one of two or more point image groups corresponding to the focal length of the IOL.
  • the point image group identifying unit 133D converts each of the two or more separated point images obtained by separating one point image into a point image group of the separated point images at the periapsis, and one or more midpoints in order of proximity to the center of the Hartmann image. It is classified into either a point image group of one or more corresponding separated point images or a point image group of separated point images of far points.
  • the Zernike polynomial approximation processing unit 133E calculates the refractive power of the eye E to be examined, similarly to the Zernike polynomial approximation processing unit 131C, for each point image group specified by the point image group identification unit 133D.
  • FIG. 13 schematically shows a point image acquired by the area sensor 56 in association with the lens area of the multifocal diffractive IOL according to the first embodiment.
  • the number of focal points is "2".
  • the point images that make up the Hartmann image are separated into two or more separate point images depending on the focal length of the IOL.
  • the point image PI1 is divided into a separated point image (near point image) Pn1 near the center of the Hartmann image and a Hartmann image, based on the point image to be originally formed.
  • the image is separated into a separated point image (far point image) Pf1 far from the center of the image.
  • the point image PI1 may be separated such that a separated point image close to the center of the Hartmann image is a far point image Pf1, and a separated point image far from the center of the Hartmann image is separated as a near point image Pn1.
  • the third refractive power calculation unit 133 classifies the two or more identified separated point images into one of two or more point image groups corresponding to the focal length of the IOL, and calculates the refractive power for each point image group.
  • the point image group identifying unit 133D classifies two separated point images corresponding to each point image forming the Hartmann image into a near point point image group and a far point point image group.
  • the Zernike polynomial approximation processing unit 133E calculates the refractive power for each point image group based on the wavefront aberration information obtained from the classified point image group.
  • the third refractive power calculation unit 133 can calculate the refractive power for each Hartmann image and for each point image group as described above.
  • the fourth refractive power calculation unit 134 calculates a point image constituting the Hartmann image based on wavefront aberration information including the Hartmann image obtained by wavefront aberration measurement. Two corresponding separated point images are identified, the identified separated point images are classified into one of the two point image groups, and based on the wavefront aberration information obtained from the classified point image groups, each point image group is Calculate the refractive power.
  • the fourth refractive power calculating unit 134 classifies the two foci of the approximate ellipse identified by elliptical approximation of each of the plurality of point images constituting the Hartmann image, and classifies the two foci of the approximate ellipse by focal length.
  • a plurality of refractive powers including a refractive power corresponding to a far point and a refractive power corresponding to a near point are calculated for each focal length based on two or more separated point images.
  • FIG. 14 shows a functional block diagram of a configuration example of the fourth refraction power calculating section 134 shown in FIG. 7.
  • the fourth refractive power calculation unit 134 includes a point image identification unit 134A, an ellipse approximation processing unit 134B, a point image group identification unit 134C, and a Zernike polynomial approximation processing unit 134D.
  • the point image specifying unit 134A like the point image specifying unit 131A, specifies a point image that constitutes a Hartmann image. In some embodiments, point image enhancement processing is performed on the Hartmann image before the point image is specified by the point image identification unit 134A.
  • the ellipse approximation processing section 134B specifies a plurality of approximate ellipses by performing known ellipse approximation processing on each of the plurality of point images specified by the point image specifying section 134A, and calculates the number of approximate ellipses that have been specified. Identify two focal points for each.
  • the point image group identification unit 134C determines the focus closest to the center of the Hartmann image as a near point image, and the focus far from the center of the Hartmann image as a far point image. Identify.
  • the point image group identifying unit 134C converts the plurality of near point images and the plurality of far point point images identified for each of the plurality of approximate ellipses into a point image group of near point images and a point image group of a plurality of far point point images. It is classified into
  • the Zernike polynomial approximation processing unit 134D calculates the refractive power of the eye E to be examined, similarly to the Zernike polynomial approximation processing unit 131C, for each point image group specified by the point image group identification unit 134C.
  • FIG. 15 schematically shows a point image acquired by the area sensor 56 in association with the lens area of the EDoF type IOL according to the first embodiment.
  • the point image identification unit 134A identifies a point image by analyzing the Hartmann image. At this time, the point image forming the Hartmann image becomes an image (a blurred image) extending in the direction connecting the far point and the near point due to the deep depth of focus.
  • the arithmetic processing unit 120 uses the second refractive power calculation unit 132 to calculate the point images for each point image group as in the multifocal refractive IOL. It is possible to calculate the refractive power.
  • the arithmetic processing unit 120 uses the third refractive power calculation unit 133 to separate the point image for each point image group as in the case of a multifocal diffractive IOL. It is possible to calculate the refractive power.
  • the ellipse approximation processing unit 134B performs ellipse approximation processing on the shape of the point image PI2 to specify the approximate ellipse AC1, and the two focal points Pn2 of the identified approximate ellipse AC1, Specify Pf2.
  • the point image group identification unit 134C identifies the focal point Pn2 that is close to the center of the Hartmann image as the near point image, and identifies the focal point Pf2 that is far from the center of the Hartmann image as the far point image.
  • the point image group specifying unit 134C similarly specifies two foci as a near point image and a far point point image for each of the plurality of point images, and identifies the specified plurality of near point images and a plurality of far point point images. , classified into a point image group of near point image and a point image group of far point point image.
  • the Zernike polynomial approximation processing unit 134D calculates the refractive power for each point image group based on the wavefront aberration information obtained from the classified point image group.
  • the refractive power calculating unit 130 calculates the corneal refractive power, the degree of corneal astigmatism, and the corneal astigmatism axis angle based on the keratoring image acquired by the observation system 5. For example, the refractive power calculation unit 130 calculates the radius of corneal curvature of the strong principal meridian and weak principal meridian of the anterior surface of the cornea by analyzing the keratoring image, and calculates the above parameters based on the corneal radius of curvature.
  • the distribution information generation unit 140 generates distribution information (wavefront aberration map) representing the distribution of wavefront aberration for each focal length of the IOL.
  • the distribution information generation unit 140 generates distribution information based on wavefront aberration information, as disclosed in, for example, Japanese Patent Application Publication No. 2002-209854.
  • the distribution information generation unit 140 calculates the wavefront aberration at each position (x, y) horizontally.
  • Distribution information representing a two-dimensional distribution of wavefront aberration is generated by performing interpolation in the directional and vertical directions using a known method.
  • the distribution information generation unit 140 When the IOL worn by the eye E is a monofocal IOL, the distribution information generation unit 140 generates distribution information representing the distribution of wavefront aberrations based on a single piece of wavefront aberration information.
  • the distribution information generation unit 140 When the IOL worn by the eye E is a multifocal refractive IOL or a multifocal diffraction IOL, the distribution information generation unit 140 generates a near point image based on wavefront aberration information obtained from the point image group closest to the near point. Distribution information representing the distribution of wavefront aberration at a point is generated, and distribution information representing the distribution of wavefront aberration at the far point is generated based on the wavefront aberration information obtained from the point image group on the farthest point side.
  • the distribution information generation unit 140 When the IOL worn by the eye E is an EDoF type IOL, the distribution information generation unit 140 generates a distribution representing the distribution of the near point wavefront aberration based on the wavefront aberration information obtained from the point image group of the near point image. Information is generated, and distribution information representing the distribution of wavefront aberration at the far point is generated based on the wavefront aberration information obtained from the point image group of the far point point image.
  • the simulation processing unit 150 executes a visual acuity simulation. For example, the simulation processing unit 150 performs ray tracing processing on an eyeball having a wavefront aberration normalized using pupil diameter information from an object point converted from each of a plurality of refractive powers at intervals of 0.25D. By doing this, multiple images on the retinal surface are obtained.
  • the simulation processing unit 150 specifies the position of the clearest image or the position of the object point with the highest Strehl ratio as the dioptric power of the eye E from among the plurality of images corresponding to the plurality of determined refractive powers. In the case of multifocal, within a certain range, the position of the locally clearest image or the position of the object point with the highest Strehl ratio is specified as the power of the far or near eye E to be examined.
  • the simulation processing unit 150 can generate a simulation image that represents how the optotype looks.
  • visual targets include a Landolt ring or an image corresponding to a predetermined fixed distance.
  • the simulation processing unit 150 calculates a point spread function from wavefront aberration information normalized using pupil diameter information using a known method for each of a plurality of focal lengths of the IOL or one or more predetermined fixed distances. (Point Spread Function: hereinafter referred to as PSF) is calculated.
  • PSF Point Spread Function
  • the simulation processing unit 150 calculates a convolution of the obtained PSF and the image data (luminance distribution) of the optotype to create a simulation image when the optotype is projected onto the fundus Ef. demand.
  • the simulation processing unit 150 performs Fourier transform on the PSF to obtain an optical transfer function (OTF).
  • OTF optical transfer function
  • MTF Modulation Transfer Function
  • PTF Phase Transfer Function
  • the simulation processing unit 150 calculates the convolution of this MTF and the image data of the optotype, and also calculates the convolution of the PTF and the image data of the optotype. Furthermore, the simulation processing unit 150 obtains a simulation image corresponding to the convolution of the PSF and the image data of the visual target by performing inverse Fourier transform on the calculation results of these convolutions.
  • the control unit 110 serving as a display control unit displays the refractive power of the eye E corresponding to the refractive power calculated by the refractive power calculation unit 130 for each focal length of the IOL or for each one or more fixed distances. It is possible to display an image representing the appearance on the display unit 170.
  • fixed distances include “infinity”, “1 m”, “40 cm”, and "20 cm”.
  • the image representing the appearance of the subject's eye E is a simulation image generated by the simulation processing unit 150 described above.
  • control unit 110 serving as a display control unit causes the display unit 170 to display the simulation results of the visual acuity value of the eye E to be examined for each focal length of the IOL or for each one or more fixed distances. Is possible.
  • the simulation result of the visual acuity value is the dioptric power (visual acuity value) of the eye E to be examined determined by the simulation processing unit 150 described above.
  • the display section 170 serves as a user interface section and displays information under the control of the control section 110 (main control section 111).
  • the display section 170 includes the display section 10 shown in FIG.
  • the display unit 170 is able to display the processing results executed by the arithmetic processing unit 120 under the control of the control unit 110 (main control unit 111) serving as a display control unit.
  • processing results executed by the calculation processing unit 120 include one or more refraction powers calculated by the refraction power calculation unit 130, distribution information generated by the distribution information generation unit 140, and simulations executed by the simulation processing unit 150. There are results etc.
  • Examples of one or more refractive powers calculated by the refractive power calculating unit 130 include a single refractive power calculated by the first refractive power calculating unit 131, the second refractive power calculating unit 132, or the third refractive power calculating unit 133.
  • the refractive power at the far point and the refractive power at the near point are displayed on the display unit 170. will be displayed.
  • the difference between the refraction power at the farthest point and the refraction power at the closest point calculated by the fourth refraction power calculation section 134, which is calculated by the refraction power calculation section 130, is displayed on the display section 170. will be displayed.
  • the operation unit 180 is used as a user interface unit to operate the ophthalmological apparatus.
  • the operation unit 180 includes various hardware keys (joystick, buttons, switches, etc.) provided on the ophthalmologic apparatus. Further, the operation unit 180 may include various software keys (buttons, icons, menus, etc.) displayed on the touch panel display screen 10a.
  • At least a portion of the display section 170 and the operation section 180 may be integrally configured.
  • a typical example thereof is a touch panel type display screen 10a.
  • the communication unit 190 has a function for communicating with an external device (not shown).
  • the communication unit 190 may be provided in the processing unit 9, for example.
  • the communication unit 190 has a configuration depending on the form of communication with an external device.
  • the arithmetic processing unit 120 is an example of the "ophthalmology information processing device" according to the embodiment.
  • the communication unit 190, or the aberration measurement projection system 6 and the aberration measurement light receiving system 7 are examples of the “acquisition unit” according to the embodiment.
  • the aberration measurement projection system 6 and the aberration measurement light receiving system 7 are examples of the "measurement optical system” according to the embodiment.
  • the collimator lens 74 that can be moved in the optical axis direction by the moving unit 77 is an example of a "focusing lens” according to the embodiment.
  • the refractive power calculation unit 130 is an example of a “calculation unit” according to the embodiment.
  • the control unit 110 main control unit 111) is an example of a “display control unit” according to the embodiment.
  • the display unit 170 is an example of a "display means" according to the embodiment.
  • FIG. 16 to 21 show flowcharts of operational examples of the ophthalmologic apparatus 100 according to the first embodiment.
  • FIG. 16 shows a flowchart of an example of the operation of the ophthalmological apparatus 100 that calculates the refractive power of the eye E to be examined using a calculation processing method according to the type of IOL worn by the eye E to be examined.
  • FIG. 17 shows a flow diagram of an example of the operation of step S11 in FIG.
  • FIG. 18 shows a flow diagram of an example of the operation of step S22 in FIG.
  • FIG. 19 shows a flow diagram of an example of the operation of step S24 in FIG.
  • FIG. 20 shows a flow diagram of an example of the operation of step S26 in FIG.
  • FIG. 21 shows a flow diagram of an example of the operation of step S28 in FIG.
  • the storage unit 112 stores computer programs for implementing the processes shown in FIGS. 16 to 21.
  • the main control unit 111 executes the processes shown in FIGS. 16 to 21 by operating according to this computer program.
  • the main control unit 111 acquires IOL information worn by the eye E to be examined.
  • the main control unit 111 controls the communication unit 190 to determine whether the subject's eye E Obtain IOL information indicating the type of IOL worn by the user.
  • the main control unit 111 obtains IOL information from the specified IOL type based on the user's operation on the operation unit 180.
  • the main control unit 111 controls the observation system 5 to acquire a retroillumination image or an anterior segment image of the eye E to be examined, and controls the arithmetic processing unit 120 after the alignment described below is completed.
  • the type of IOL worn by the eye E to be examined is determined and acquired as IOL information.
  • the main control unit 111 turns on one of the plurality of anterior ocular segment illumination light sources 57 to illuminate the fundus Ef with illumination light from a position away from the optical axis, and uses the returned light to the area sensor 56. By receiving light, a transillumination image can be obtained.
  • the main control unit 111 switches the XY alignment light source 21 to an SLD or a high-intensity LED to project light onto the fundus Ef, and causes the area sensor 56 to receive the returned light to obtain a transillumination image. Further, the main control unit 111 turns on the anterior ocular segment illumination light source 27 and causes the area sensor 56 to receive the returned light, thereby obtaining an anterior ocular segment image of the eye E to be examined.
  • the main control unit 111 can determine the type of IOL worn by the eye E and acquire IOL information using, for example, the method disclosed in Japanese Patent Laid-Open No. 2014-209994.
  • the main control unit 111 acquires pupil diameter information representing the pupil diameter of the eye E to be examined.
  • the main control unit 111 controls the communication unit 190 to determine whether the subject's eye E Get the pupil diameter information.
  • the main control unit 111 acquires pupil diameter information from a specified pupil diameter based on the user's operation on the operation unit 180.
  • the main control unit 111 adjusts the brightness of the light source 41 of the optotype projection system 4 and the optotype chart 42 and controls the observation system 5 to adjust the brightness of the optotype chart 42 after completing the alignment described below.
  • An anterior eye segment image is acquired, and the pupil diameter of the eye E to be examined is specified by controlling the arithmetic processing unit 120 to analyze the anterior eye segment image, and pupil diameter information is acquired.
  • the brightness of the light source 41 of the optotype projection system 4 and the optotype chart 42 may be brought closer to the daily brightness of the eye E to be examined, or set to a brightness desired by the eye E to be examined, or , it is possible to set it to be dark so that analysis can be performed with any pupil diameter.
  • the ophthalmological apparatus 100 performs alignment when the examiner performs a predetermined operation on the operating unit 180 with the subject's face fixed on a face receiving unit (not shown). Thereby, the head section is moved to the examination position of the eye E by XY alignment by the XY alignment system 2 and Z alignment by the Z alignment system 1.
  • the test position is a position where the test eye E can be tested within a predetermined accuracy.
  • the main control unit 111 acquires the imaging signal of the anterior ocular segment image formed on the light receiving surface of the area sensor 56, and displays the anterior ocular segment image on the display unit 170 (the display screen 10a of the display unit 10). Display image E'. Thereafter, the head section is moved to the examination position of the eye E by the above-mentioned XY alignment and Z alignment. The movement of the head section is executed by the main control section 111 according to an instruction from the main control section 111, but may also be executed by the main control section 111 according to an operation or instruction by a user.
  • the main control unit 111 moves each of the moving unit 69 (light source 61), moving unit 77, and moving unit 46 to the origin position (for example, a position corresponding to 0D) along the optical axis. .
  • the main controller 111 moves each of the moving unit 69 (light source 61), the moving unit 77, and the moving unit 46 to the origin position (for example, , 0D).
  • the main control unit 111 determines whether the IOL worn by the eye E is a multifocal diffractive IOL based on the IOL information acquired in step S1.
  • step S4 when it is determined that the IOL worn by the subject's eye E is a multifocal diffractive IOL (S4: Y), the operation of the ophthalmological apparatus 100 moves to step S5.
  • step S4 when it is determined that the IOL worn by the eye E to be examined is not a multifocal diffractive IOL (S4:N), the operation of the ophthalmologic apparatus 100 moves to step S13.
  • step S4 when it is determined that the IOL worn by the eye E to be examined is a multifocal diffractive IOL (S4: Y), the main control unit 111 controls the light source 61 to change the measurement light source from the light source 61B. Switch to light source 61A.
  • step S6 the main control unit 111 executes provisional measurement.
  • the main control unit 111 turns on the light source 61A to irradiate visible light to the eye E to be examined.
  • a Hartmann image (point image group) based on the returned light is detected by the area sensor 76.
  • the main control unit 111 causes the refraction power calculation unit 130 to calculate the refraction power based on the interval between the point images forming the Hartmann image detected by the area sensor 76, and uses the calculated refraction power as a focusing lens.
  • the amount of movement of the moving unit 77 including the collimator lens 74 (corresponding to the amount of movement of the focusing lens) is specified.
  • the refractive power calculation unit 130 calculates the spherical power S as the refractive power based on the interval between the point images forming the Hartmann image.
  • the main controller 111 moves the moving unit 77 (collimator lens 74 as a focusing lens) to the optical axis at a position corresponding to the far point based on the amount of movement corresponding to the refractive power (spherical power S) calculated in step S7. move along.
  • each of the moving unit 46 and the moving unit 69 also moves in the optical axis direction by an amount of movement corresponding to the above-mentioned refractive power.
  • the main control unit 111 controls the aberration measurement projection system 6 and the aberration measurement light receiving system 7 while moving the movement unit 77 from the position corresponding to the far point moved in step S8 to the near point side by a predetermined step to the Hartmann Repeat image acquisition.
  • the main control unit 111 controls the refractive power calculation unit 130 (arithmetic processing unit 120) to perform enhancement processing on each of the repeatedly acquired Hartmann images.
  • the main control unit 111 also controls the aberration measurement projection system to repeatedly acquire Hartmann images by controlling the light source 61A to increase the light intensity, increasing the gain of the area sensor 76, and lengthening the exposure time. 6 and the aberration measurement light receiving system 7 may be controlled.
  • the main control unit 111 controls the refractive power calculation unit 130 (arithmetic processing unit 120) as a search processing unit, and analyzes the acquired Hartmann image to a position (focusing lens (location of mobile unit 77)).
  • the refractive power calculation unit 130 determines the position where the contrast of the separated point image with the lowest contrast is highest among two or more separated point images obtained by separating one point image. , the separated point image is identified as a position that can be identified well.
  • the refractive power calculation unit 130 (arithmetic processing unit 120) can satisfactorily identify the position where the interval between two or more separated point images (the interval between representative positions) is the widest. Specify as a location.
  • the refractive power calculation unit 130 specifies a position where the number of identified separated point images is maximum as a position where separated point images can be identified well.
  • the main control unit 111 further moves the moving unit 46 in the optical axis direction by a predetermined diopter from the position corresponding to the far point moved in step S8, and causes the eye E to see the target as a blur. Note that it may be determined that the eye to be examined wearing the IOL has no accommodative ability, and the fog vision function may be omitted.
  • the main control unit 111 moves the moving unit 77 to the position searched in step S9, turns on the light source 61A to irradiate the eye E with visible light, and measures the return from the eye E as the main measurement.
  • a Hartmann image (point image group) based on light is detected by the area sensor 76.
  • step S4 when it is determined that the IOL worn by the eye E to be examined is not a multifocal diffraction type IOL (S4:N), the main control unit 111 executes provisional measurement.
  • the main control unit 111 turns on the light source 61B to irradiate the eye E with near-infrared light,
  • the area sensor 76 detects a Hartmann image (point image group) based on the return light from the area sensor 76.
  • the main control unit 111 causes the refraction power calculation unit 130 to calculate the refraction power based on the interval between the point images forming the Hartmann image detected by the area sensor 76, and uses the calculated refraction power as a focusing lens.
  • the amount of movement of the moving unit 77 including the collimator lens 74 (corresponding to the amount of movement of the focusing lens) is specified.
  • the refractive power calculation unit 130 calculates the spherical power S as the refractive power based on the interval between the point images forming the Hartmann image.
  • the main controller 111 moves the moving unit 77 (collimator lens 74 as a focusing lens) to the optical axis at a position corresponding to the far point based on the amount of movement corresponding to the refractive power (spherical power S) calculated in step S14. move along.
  • each of the moving unit 46 and the moving unit 69 also moves in the optical axis direction by an amount of movement corresponding to the above-mentioned refractive power.
  • the main control unit 111 further moves the moving unit 46 in the optical axis direction by a predetermined diopter from the position corresponding to the far point, and causes the subject's eye E to see the visual target as a blur. Note that it may be determined that the eye to be examined wearing the IOL has no accommodative ability, and the fog vision function may be omitted.
  • the main control unit 111 turns on the light source 61B to irradiate the subject's eye E with near-infrared light, and displays a Hartmann image (point image group) based on the return light from the subject's eye E to the area sensor. 76 for detection.
  • steps S6 to S10 may be uniformly executed regardless of the type of IOL.
  • the IOL worn by the subject's eye E is of a type other than a multifocal diffractive IOL
  • the calculation result of the refractive power when steps S6 to S10 are executed is the same as that when steps S13 to S16 are executed.
  • the result is the same as the calculation result of the refractive power.
  • step S11 Calculate refractive power
  • the main control unit 111 causes the refraction power calculation unit 130 to calculate the refraction power based on the interval between the point images forming the Hartmann image detected by the area sensor 76.
  • the refractive power calculation unit 130 calculates the refractive power of the eye E to be examined using a calculation processing method corresponding to the IOL information acquired in step S1.
  • the refractive power calculated in step S11 includes a spherical power (S), a cylindrical power (astigmatic power) (C), and an astigmatic axis angle (A). Details of step S11 will be described later.
  • the main control unit 111 causes the display unit 170 to display the refraction power calculated in step S11.
  • the main control unit 111 controls the distribution information generation unit 140 to display the generated distribution information on the display unit 170.
  • the main control unit 111 controls the simulation processing unit 150 to display the obtained simulation results on the display unit 170.
  • the main control unit 111 causes the display unit 170 to display the measurement results obtained by wavefront aberration measurement and the simulation results in association with each other.
  • Step S11 in FIG. 16 is executed according to the flow shown in FIG. 17.
  • step S11 of FIG. 16 the main control unit 111 first determines whether the IOL worn by the eye E is a monofocal IOL based on the IOL information acquired in step S1.
  • step S21 when it is determined that the IOL worn by the eye E to be examined is a monofocal IOL (S21: Y), the operation of the ophthalmological apparatus 100 moves to step S22.
  • step S21 when it is determined that the IOL worn by the eye E to be examined is not a monofocal IOL (S21:N), the operation of the ophthalmological apparatus 100 moves to step S23.
  • step S21 when it is determined that the IOL worn by the subject's eye E is a monofocal IOL (S21: Y), the main control unit 111 controls the first refractive power calculation unit 131, and in step S10 Based on the acquired wavefront aberration information, a first refractive power calculation process is executed to calculate the refractive power of the eye E to be examined using a calculation processing method compatible with a single focus type IOL. Details of step S22 will be described later.
  • step S21 when it is determined that the IOL worn by the eye E is not a monofocal IOL (S21:N), the main control unit 111 controls the eye E to be examined based on the IOL information acquired in step S1. It is determined whether the IOL worn by the patient is a multifocal refractive IOL.
  • step S23 when it is determined that the IOL worn by the eye E to be examined is a multifocal refractive IOL (S23: Y), the operation of the ophthalmological apparatus 100 moves to step S24.
  • step S23 when it is determined that the IOL worn by the subject's eye E is not a multifocal refractive IOL (S23:N), the operation of the ophthalmological apparatus 100 moves to step S25.
  • step S23 when it is determined that the IOL worn by the subject's eye E is a multifocal refractive IOL (S23: Y), the main control unit 111 controls the second refractive power calculation unit 132, and in step S10 Based on the wavefront aberration information acquired in , a second refractive power calculation process is executed to calculate the refractive power of the eye E to be examined using a calculation processing method compatible with the multifocal refractive IOL. Details of step S24 will be described later.
  • step S23 when it is determined that the IOL worn by the subject's eye E is not a multifocal refractive IOL (S23:N), the main control unit 111 controls the subject's eye based on the IOL information acquired in step S1. It is determined whether the IOL worn by E is a multifocal diffractive IOL.
  • step S25 when it is determined that the IOL worn by the eye E to be examined is a multifocal diffractive IOL (S25: Y), the operation of the ophthalmological apparatus 100 moves to step S26.
  • step S25 when it is determined that the IOL worn by the eye E to be examined is not a multifocal diffractive IOL (S25:N), the operation of the ophthalmologic apparatus 100 moves to step S27.
  • step S25 when it is determined that the IOL worn by the subject's eye E is a multifocal diffractive IOL (S25: Y), the main control section 111 controls the third refractive power calculation section 133, and in step S10 Based on the wavefront aberration information acquired in , a third refractive power calculation process is executed to calculate the refractive power of the eye E to be examined using a calculation processing method compatible with the multifocal diffractive IOL. Details of step S26 will be described later.
  • step S25 when it is determined that the IOL worn by the subject's eye E is not a multifocal diffractive IOL (S25:N), the main control unit 111 controls the subject's eye based on the IOL information acquired in step S1. It is determined whether the IOL worn by E is an EDoF type IOL.
  • step S27 when it is determined that the IOL worn by the eye E to be examined is an EDoF type IOL (S27: Y), the operation of the ophthalmological apparatus 100 moves to step S28.
  • step S27 when it is determined that the IOL worn by the subject's eye E is not an EDoF type IOL (S27: N), the operation of the ophthalmologic apparatus 100 ends (end).
  • step S27 when it is determined that the IOL worn by the subject's eye E is an EDoF type IOL (S27: Y), the main control unit 111 controls the fourth refractive power calculation unit 134 to acquire the refractive power in step S10. Based on the obtained wavefront aberration information, a fourth refractive power calculation process is executed to calculate the refractive power of the eye E using a calculation processing method compatible with the EDoF type IOL. Details of step S28 will be described later.
  • step S11 in FIG. 16 ends (end).
  • step S22 of FIG. 17 the first refraction power calculation unit 131 executes the first refraction power calculation process according to the flow shown in FIG.
  • step S22 of FIG. 17 the main control unit 111 first controls the point image specifying unit 131A to specify the point image forming the Hartmann image acquired in step S16.
  • the main control unit 111 controls the representative position specifying unit 131B to specify the representative position (here, the center of gravity position) of the point image specified in step S31.
  • the main control unit 111 controls the Zernike polynomial approximation processing unit 131C to perform Zernike polynomial approximation based on the representative positions of the plurality of point images identified in step S32 and the pupil diameter information acquired in step S2.
  • wavefront aberration information wavefront approximation expression
  • the Zernike polynomial approximation processing unit 131C normalizes the calculated wavefront aberration information using the pupil diameter information acquired in step S2.
  • the main control unit 111 controls the first refractive power calculation unit 131 to calculate the spherical power S, astigmatic power, and C and astigmatism axis angle A are determined.
  • step S24 of FIG. 17 the second refraction power calculation unit 132 executes a second refraction power calculation process according to the flow shown in FIG.
  • step S24 of FIG. 17 the main control unit 111 first controls the point image specifying unit 132A to specify the point image forming the Hartmann image acquired in step S16.
  • the main control unit 111 controls the second refraction power calculation unit 132 to perform point image enhancement processing on the Hartmann image acquired in step S16, and then performs the point image enhancement process as described above. Controls the point image specifying unit 132A.
  • the main control unit 111 controls the representative position specifying unit 132B to specify the representative position (here, the center of gravity position) of the point image specified in step S41.
  • the main control unit 111 controls the point image group identification unit 132C, so that the point images forming the Hartmann image are predetermined for each focal length of the IOL based on the representative position identified in step S42. Specify which area is included among multiple areas.
  • the point image group specifying unit 132C can specify in which area the representative position of the point image is placed based on the type of IOL specified by the IOL information.
  • the point image group specifying unit 132C classifies the point images for each focal length (area) of the IOL (see FIGS. 10 and 11).
  • the point image group identifying unit 132C may identify the point image group by identifying areas where the interval between point images is narrower and areas where the interval between point images is wider than a predetermined reference interval. .
  • the point image group specifying unit 132C identifies a point image group including one or more point images belonging to the near vision area and one point image belonging to the distance vision area.
  • a point image group including the above point images is specified.
  • the point image group identification unit 132C identifies a point image group including one or more point images belonging to the near vision area and one or more intermediate vision areas.
  • a point image group including one or more point images belonging to the distance vision area and a point image group including one or more point images belonging to the distance vision area are identified.
  • the point image group specifying unit 132C identifies a point image group including one or more point images belonging to the near vision area and two or more focal points belonging to the intermediate vision area.
  • a point image group including one or more point images belonging to the distance viewing area and a point image group including one or more point images belonging to the distance viewing area are identified.
  • the main control unit 111 controls the Zernike polynomial approximation processing unit 132D to perform Zernike polynomial approximation processing for each point image group identified in step S43, thereby expressing the Zernike coefficients and the Zernike polynomial.
  • Wavefront aberration information (wavefront approximation formula) is calculated for each point image group.
  • the Zernike polynomial approximation processing unit 132D normalizes each piece of wavefront aberration information calculated for each point image group using the pupil diameter information acquired in step S2.
  • the main control unit 111 controls the second refractive power calculation unit 132 to calculate the spherical surface by a known calculation from the Zernike coefficients obtained by the Zernike polynomial approximation processing performed for each point image group in step S44.
  • the power S, the astigmatic power C, and the astigmatic axis angle A are determined for each point image group.
  • step S26 of FIG. 17 the third refraction power calculation unit 133 executes a third refraction power calculation process according to the flow shown in FIG.
  • step S26 of FIG. 17 the main control unit 111 first controls the enhancement processing unit 133A to perform point image (separated point image) enhancement processing on the Hartmann image acquired in step S10. This makes it easier to identify two or more separated point images (particularly the separated point images on the periapsis side) that are formed by separating the point images forming the Hartmann image.
  • the main control unit 111 controls the point image specifying unit 133B to specify the separated point images forming the Hartmann image subjected to the separation point image enhancement processing in step S51.
  • the main control unit 111 controls the representative position specifying unit 133C to specify the representative position (here, the center of gravity position) of the separated point image specified in step S51.
  • the main control unit 111 controls the point image group specifying unit 133D to cause the separated point image to specify a point image group for each focal length of the IOL based on the representative position specified in step S53.
  • the point image group specifying unit 132C classifies the separated point image specified in step S52 into one of two or more point image groups determined according to the type of IOL specified by the IOL information.
  • the point image group specifying unit 133D converts each of the plurality of separated point images specified in step S52 into a point of the near point separated point image.
  • the point image group specifying unit 133D converts each of the plurality of separated point images specified in step S52 into a point of the near point separated point image.
  • the point image group specifying unit 133D converts each of the plurality of separated point images specified in step S52 into a point image of the separated point image at the near point.
  • a group of two or more point images of separated point images of two or more midpoints, and a point image group of separated point images of far points, a point image group of separated point images of near points, A point image group of two or more separated point images of two or more midpoints and a point image group of separated point images of a far point are specified.
  • the main control unit 111 controls the Zernike polynomial approximation processing unit 133E to execute Zernike polynomial approximation processing for each point image group identified in step S54, so that Zernike coefficients and Zernike polynomials are expressed.
  • Wavefront aberration information (wavefront approximation formula) is calculated for each point image group.
  • the Zernike polynomial approximation processing unit 133E normalizes each piece of wavefront aberration information calculated for each point image group using the pupil diameter information acquired in step S2.
  • the main control unit 111 controls the third refractive power calculation unit 133 to calculate the spherical surface by a known calculation from the Zernike coefficients obtained by the Zernike polynomial approximation process executed for each point image group in step S55.
  • the power S, the astigmatic power C, and the astigmatic axis angle A are determined for each point image group.
  • step S28 in FIG. 17 the fourth refraction power calculation unit 134 executes a fourth refraction power calculation process according to the flow shown in FIG.
  • step S28 of FIG. 17 the main control unit 111 first controls the point image specifying unit 134A to specify the point image forming the Hartmann image acquired in step S16.
  • the main control unit 111 controls the fourth refraction power calculation unit 134 to perform point image enhancement processing on the Hartmann image acquired in step S16, and then performs the point image enhancement process as described above. Controls the point image specifying unit 134A.
  • the main control unit 111 determines whether the plurality of point images identified in step S61 are arranged in each area corresponding to the focal length of the IOL, as shown in FIG. 10 or 11. do.
  • the main control unit 111 controls the fourth refraction power calculation unit 134 to specify the representative position of the point image specified in step S61, similarly to step S42, and Based on the position, it is determined whether the IOL is arranged in each area corresponding to the focal length of the IOL, similarly to step S43.
  • the fourth refractive power calculation process moves to step S63.
  • the fourth refractive power calculation process moves to step S64.
  • step S62 when it is determined that the identified plurality of point images are arranged in each area corresponding to the focal length of the IOL (S62:Y), the main control unit 111 controls the second refractive power calculation unit 132 to execute a second refractive power calculation process that calculates the refractive power of the eye E based on the point image specified in step S61.
  • the second refraction power calculation unit 132 executes the second refraction power calculation process according to the flow shown in FIG. This is the end of the process in step S28 in FIG. 17 (end).
  • step S62 When it is determined in step S62 that the identified point images are not arranged in each area corresponding to the focal length of the IOL (S62:N), the main control unit 111 controls the identified point images in step S61. As shown in FIG. 13, it is determined whether or not a plurality of point images that are equal to or greater than a predetermined threshold value among the plurality of point images forming the Hartmann image are separated into two or more separated point images.
  • step S65 When it is determined that a point image equal to or greater than a predetermined threshold among the plurality of identified point images is separated into two or more separated point images (S64: Y), the fourth refraction power calculation process proceeds to step S65. Transition. When it is determined that a point image larger than a predetermined threshold among the plurality of identified point images is not separated into two or more separated point images (S64: N), the fourth refractive power calculation process proceeds to step S66. Transition.
  • step S64 when it is determined that the point images equal to or higher than the predetermined threshold among the plurality of identified point images are separated into two or more separated point images (S64: Y), the main control unit 111
  • the third refractive power calculation unit 133 is controlled to execute a third refractive power calculation process that calculates the refractive power of the eye E based on the point image specified in step S61.
  • the third refraction power calculation unit 133 executes the third refraction power calculation process according to the flow shown in FIG. 20. This is the end of the process in step S28 in FIG. 17 (end).
  • step S64 when it is determined that a point image of a predetermined threshold or more among the plurality of point images identified is not separated into two or more separated point images (S64:N), the main control unit 111
  • the ellipse approximation processing unit 134B is controlled to perform known ellipse approximation processing on each of the plurality of point images identified in step S61.
  • the ellipse approximation processing unit 134B identifies a plurality of approximate ellipses for each of the plurality of point images identified in step S61, and identifies two foci of each of the identified multiple approximate ellipses.
  • the main control unit 111 controls the point image group specifying unit 134C to set the focus closest to the center of the Hartmann image among the two foci of the approximate ellipse specified in step S66 as a near point image, and A focal point far from the center is identified as a far point image.
  • the point image group identifying unit 134C converts the plurality of near point images and the plurality of far point point images identified for each of the plurality of approximate ellipses into a point image group of near point images and a point image group of a plurality of far point point images. It is classified into
  • the main control unit 111 controls the Zernike polynomial approximation processing unit 134D to execute Zernike polynomial approximation processing for each point image group identified in step S67, thereby expressing the Zernike coefficients and the Zernike polynomial.
  • Wavefront aberration information (wavefront approximation formula) is calculated for each point image group.
  • the Zernike polynomial approximation processing unit 134D normalizes each piece of wavefront aberration information calculated for each point image group using the pupil diameter information acquired in step S2.
  • the main control unit 111 controls the fourth refractive power calculation unit 134 to calculate the spherical surface by a known calculation from the Zernike coefficients obtained by the Zernike polynomial approximation process executed for each point image group in step S68.
  • the power S, the astigmatic power C, and the astigmatic axis angle A are determined for each point image group.
  • step S12 of FIG. 16 for example, the main control unit 111 can display the following information on the display unit 170.
  • FIG. 22 shows a first display example of the display unit 170 in step S12 of FIG. 16.
  • the first display example is a display example of the calculation result of the refractive power.
  • the main control unit 111 controls the refractive power calculation unit 130 to calculate the equivalent spherical power (SE) from the refractive power (SCA) calculated in step S11 of FIG. 16 using a known calculation method. As a result, the refractive power (spherical power (S), cylindrical power (C), astigmatic axis angle (A), and equivalent The spherical power (SE) is calculated.
  • the main control unit 111 causes the display unit 170 to display the calculated refractive power.
  • the refractive power calculation unit 130 can calculate the difference between the far point and the near point for each of the spherical power (S), cylindrical power (C), astigmatic axis angle (A), and equivalent spherical power (SE). It is possible.
  • the main control unit 111 causes the display unit 170 to display the refractive powers at the far point and the near point among the refractive powers calculated for each focal length (area) of the IOL according to the type of the IOL (Fig. 22 ).
  • FIG. 23 shows a second display example of the display section 170 in step S12 of FIG. 16.
  • the second display example is a display example of distribution information.
  • the main control unit 111 controls the distribution information generation unit 140 to generate distribution information (wavefront aberration map) representing the distribution of wavefront aberration for each focal length of the IOL.
  • the main control unit 111 causes the display unit 170 to display the generated distribution information.
  • the main control unit 111 generates distribution information of far points and near points among the distribution information that can be generated for each focal length of the IOL, and generates the generated outer point group (far point group) and inner point group. (Periapsis point group) distribution information can be displayed on the display unit 170 (FIG. 23).
  • FIG. 24 shows a third display example of the display section 170 in step S12 of FIG. 16.
  • the third display example is a display example of simulation results.
  • the main control unit 111 controls the simulation processing unit 150 to execute the visual acuity simulation.
  • the main control unit 111 causes the display unit 170 to display the generated simulation results.
  • the simulation processing unit 150 obtains a plurality of visual acuity values of the eye E to be examined corresponding to each of the plurality of object points while changing the position of the object point.
  • the main control unit 111 can display the visual acuity simulation result T2 on the display unit 170, superimposing it on the IOL characteristic information (product specifications) T1 specified based on the IOL information (FIG. 24).
  • FIG. 25 shows a fourth display example of the display unit 170 in step S12 of FIG. 16.
  • the fourth display example is a display example of a simulation image showing how the optotype looks.
  • the main control unit 111 controls the simulation processing unit 150 to obtain the PSF for each of the plurality of focal lengths of the IOL or one or more predetermined fixed distances, and combines the obtained PSF with the image data of the optotype ( By calculating convolution with the luminance distribution), a simulation image when the optotype is projected onto the fundus Ef is generated.
  • images of optotypes corresponding to fixed distances include a landscape image corresponding to an infinity optotype, an image representing a desktop computer screen corresponding to a 1 m optotype, and a notebook corresponding to a 40 cm optotype.
  • An image representing a computer screen and an image representing a smartphone screen corresponding to a 20 cm visual target are included.
  • the simulation processing unit 150 calculates the convolution integral between the image data of each image shown in FIG. 25 and the PSF.
  • the main control unit 111 causes the display unit 170 to display a simulation image representing how visual targets look at fixed distances of infinity, 1 m, 40 cm, and 20 cm.
  • the visual target may be a Landolt ring.
  • the refractive power of the eye E to be examined wearing the IOL is calculated using a calculation processing method according to the type of IOL, it is possible to improve the reliability of the calculation result of the refractive power of the eye E to be examined wearing the IOL. become.
  • ⁇ Second embodiment> It is generally believed that the eye to be examined wearing an IOL loses its accommodative function. However, it is possible to provide an accommodating function to the eye wearing the IOL by the movement of the ciliary muscle or the like. Therefore, in the second embodiment, wavefront aberration is measured at two or more distances including the far point side and the near point side, and the distance power (refractive power at the far point) and the near power (near power) are measured at each position. The refractive power of the point) is calculated.
  • the configuration of the ophthalmologic apparatus according to the second embodiment is similar to the configuration of the ophthalmologic apparatus 100 according to the first embodiment.
  • FIGS. 26 and 27 show flowcharts of an example of the operation of the ophthalmologic apparatus according to the second embodiment.
  • 26 and 27 are flowcharts of an example of the operation of the ophthalmological apparatus that calculates the refractive power of the eye E to be examined using a calculation processing method according to the type of IOL worn by the eye E to be examined.
  • the storage unit 112 stores a computer program for implementing the processes shown in FIGS. 26 and 27.
  • the main control unit 111 executes the processes shown in FIGS. 26 and 27 by operating according to this computer program.
  • the main control unit 111 acquires IOL information worn by the eye E to be examined, similarly to step S1.
  • the main control unit 111 acquires pupil diameter information representing the pupil diameter of the eye E to be examined, similarly to step S2.
  • the main control unit 111 causes the alignment to be executed while the fixation target is presented to the eye E, as in step S3.
  • the main control unit 111 moves each of the moving unit 69 (light source 61), moving unit 77, and moving unit 46 to the origin position (for example, a position corresponding to 0D) along the optical axis. .
  • the main controller 111 moves each of the moving unit 69 (light source 61), the moving unit 77, and the moving unit 46 to the origin position (for example, , 0D).
  • step S4 the main control unit 111 determines whether the IOL worn by the eye E is a multifocal diffractive IOL based on the IOL information acquired in step S71.
  • step S74 when it is determined that the IOL worn by the subject's eye E is a multifocal diffractive IOL (S74: Y), the operation of the ophthalmological apparatus moves to step S75.
  • step S74 when it is determined that the IOL worn by the subject's eye E is not a multifocal diffractive IOL (S74:N), the operation of the ophthalmological apparatus moves to step S76.
  • step S74 when it is determined that the IOL worn by the subject's eye E is a multifocal diffractive IOL (S74: Y), the main control unit 111 controls the light source 61 to perform measurement, as in step S5.
  • the light source for use is switched from light source 61B to light source 61A.
  • step S76 (S76: Obtain Hartmann statue) Subsequently, the main control unit 111 executes provisional measurement similarly to step S6.
  • step S7 the main control unit 111 causes the refraction power calculation unit 130 to calculate the refraction power based on the interval between the point images forming the Hartmann image detected by the area sensor 76, and calculates the refraction power calculated by the refraction power calculation unit 130.
  • the amount of movement of the moving unit 77 including the collimator lens 74 as a focusing lens is specified from the power.
  • step S78 Move the focusing lens (distance)
  • the main controller 111 moves the moving unit 77 (collimator lens as a focusing lens) to a position corresponding to the far point based on the amount of movement corresponding to the refractive power (spherical power S) calculated in step S77. 74) along the optical axis.
  • each of the moving unit 46 and the moving unit 69 also moves in the optical axis direction by an amount of movement corresponding to the above-mentioned refractive power.
  • step S9 the main control unit 111 controls each unit to search for a position where the separated point image becomes clear while moving the focusing lens.
  • the main control unit 111 further moves the moving unit 46 in the optical axis direction by a predetermined diopter from the position corresponding to the far point moved in step S78, and causes the eye E to see the target as a fog. Note that it may be determined that the eye to be examined wearing the IOL has no accommodative ability, and the fog vision function may be omitted.
  • step S10 the main control unit 111 moves the moving unit 77 to the position searched in step S79, and as the main measurement, turns on the light source 61A to irradiate the eye E with visible light, A Hartmann image (point image group) based on the return light from the eye E to be examined is detected by the area sensor 76.
  • step S74 when it is determined in step S74 that the IOL worn by the eye E to be examined is not a multifocal diffractive IOL (S74:N), the main control unit 111 executes provisional measurement similarly to step S13.
  • the main control unit 111 causes the optotype chart 42 to present the optotype to the eye E to be examined, turns on the light source 61B to irradiate the eye E with near-infrared light, and controls the return from the eye E to be examined.
  • a Hartmann image (point image group) based on light is detected by the area sensor 76.
  • step S87 the main control unit 111 causes the refraction power calculation unit 130 to calculate the refraction power based on the interval between the point images forming the Hartmann image detected by the area sensor 76, and The amount of movement of the moving unit 77 including the collimator lens 74 as a focusing lens (corresponding to the amount of movement of the focusing lens) is determined from the power.
  • step S88 Move the focusing lens
  • the main controller 111 moves the moving unit 77 (collimator lens as a focusing lens) to a position corresponding to the far point based on the amount of movement corresponding to the refractive power (spherical power S) calculated in step S87. 74) along the optical axis.
  • each of the moving unit 46 and the moving unit 69 also moves in the optical axis direction by an amount of movement corresponding to the above-mentioned refractive power.
  • the main control unit 111 further moves the moving unit 46 in the optical axis direction by a predetermined diopter from the position corresponding to the far point moved in step S88, and causes the eye E to see the target as a blur. Note that it may be determined that the eye to be examined wearing the IOL has no accommodative ability, and the fog vision function may be omitted.
  • step S16 the main control unit 111 turns on the light source 61B to irradiate near-infrared light to the eye E as the main measurement, and creates a Hartmann image (point) based on the return light from the eye E. image group) is detected by the area sensor 76.
  • steps S76 to S80 may be uniformly executed regardless of the type of IOL.
  • the IOL worn by the subject's eye E is of a type other than a multifocal diffractive IOL
  • the calculation result of the refractive power obtained when steps S76 to S80 are executed is the same as that obtained when steps S86 to S89 are executed.
  • the result is the same as the calculation result of the refractive power.
  • step S81 Multifocal IOL
  • step S89 the main control unit 111 determines whether the IOL worn by the eye E is a multifocal IOL based on the IOL information acquired in step S71.
  • the operation of the ophthalmological apparatus moves to step S82.
  • the operation of the ophthalmologic apparatus moves to step S84.
  • step S81 when it is determined that the IOL worn by the subject's eye E is a multifocal IOL (S81: Y), the main control unit 111 moves the moving unit 77 (collimator lens as a focusing lens) to the near vision position. 74) along the optical axis.
  • each of the moving unit 46 and the moving unit 69 also moves in the optical axis direction by an amount of movement corresponding to the above-mentioned refractive power.
  • the near position includes, for example, a fixed position such as 40 cm, a position frequently used by the eye E to be examined, a near position predetermined corresponding to the IOL worn by the eye E to be examined, and the like.
  • the main control unit 111 irradiates the eye E with light (near infrared light or visible light) from the light source 61 (the light source 61A or the light source 61B), and uses the return light from the eye E as the main measurement.
  • a Hartmann image (point image group) based on the image is detected by the area sensor 76.
  • step S84 Calculate refractive power
  • the main control unit 111 performs step S83 or in step S76, the refractive power calculation unit 130 calculates the refractive power based on the interval between the point images forming the Hartmann image detected by the area sensor 76. Similar to step S11, the refractive power calculating unit 130 calculates the refractive power of the eye E using the calculation processing method corresponding to the IOL information acquired in step S71, so a detailed explanation of step S84 will be omitted.
  • the main control unit 111 causes the display unit 170 to display the refractive power calculated in step S84, similarly to step S12.
  • the main control unit 111 controls the distribution information generation unit 140 to display the generated distribution information on the display unit 170.
  • the main control unit 111 controls the simulation processing unit 150 to display the obtained simulation results on the display unit 170.
  • the main control unit 111 causes the display unit 170 to display the measurement results obtained by wavefront aberration measurement and the simulation results in association with each other.
  • distance vision power and near vision power can be determined from the Hartmann image obtained in the distance vision measurement in step S76 or step S86, and distance vision power and near vision power can be obtained from the Hartmann image obtained in the near vision measurement in step S83. You can find the frequency.
  • the ophthalmologic apparatus may select and output the distance dioptric power obtained in the distance measurement and the near dioptric power obtained in the near vision measurement.
  • the second embodiment is not limited to this.
  • the number of focal points is 3 or more, it is possible to repeat steps S82 and S83 to acquire Hartmann images for the number of focal points, and calculate the refractive power for each acquired Hartmann image for the number of focal points. It is.
  • a plurality of Hartmann images obtained in a focused state corresponding to each of the plurality of focal lengths of the IOL with respect to the eye E to be examined are obtained. Since the refractive power is calculated using each Hartmann image, the reliability of the calculation result of the refractive power of the eye to be examined wearing the IOL is improved even if the eye to be examined wearing the IOL has an accommodating function. becomes possible.
  • An ophthalmologic apparatus (100) includes a measurement optical system (an aberration measurement projection system 6 and an aberration measurement light receiving system 7), a control section (110, main control section 111), and a calculation section. (refraction power calculation unit 130).
  • the measurement optical system includes a focusing lens (collimator lens 74 moved by a moving unit 77), and measures the wavefront aberration of the eye (E) to be examined wearing an intraocular lens to obtain a Hartmann image.
  • the control unit controls the focusing lens to search for a state in which at least one of the plurality of point images constituting the Hartmann image is separated into two or more separated point images, and a state in which the two or more separated point images are separated.
  • a Hartmann image is acquired using the measurement optical system.
  • the calculation unit calculates the refractive power of the eye to be examined based on the Hartmann image.
  • the reliability of the calculation result of the refractive power of the eye to be examined wearing the IOL can be improved. It becomes possible to improve.
  • the measurement optical system acquires a Hartmann image using visible light.
  • the IOL can be improved. It becomes possible to further improve the reliability of the calculation result of the refractive power of the eye to be examined.
  • an ophthalmologic apparatus includes an acquisition unit (communication unit 190 or aberration measurement projection system 6 and It includes an aberration measurement light receiving system 7).
  • the control unit starts controlling the focusing lens based on the intraocular lens information.
  • the refractive power of the eye to be examined can be calculated by controlling according to the type of IOL worn by the eye to be examined. It becomes possible to further improve the reliability of the results.
  • the acquisition unit acquires pupil diameter information representing a pupil diameter
  • the calculation unit acquires pupil diameter information representing a pupil diameter information.
  • the refractive power is calculated based on the Hartmann image.
  • the refractive power is calculated based on the wavefront aberration information corresponding to the pupil diameter, it is possible to further improve the reliability of the calculation result of the refractive power of the eye to be examined wearing the IOL. becomes possible.
  • the intraocular lens information represents either a monofocal type or a multifocal type.
  • the calculation unit calculates a single refractive power based on the Hartmann image. Calculate.
  • the calculation unit calculates the number of intraocular lenses based on the Hartmann image. Calculate multiple refractive powers corresponding to each focal length of
  • the multifocal type includes a multifocal refractive type and a multifocal diffraction type.
  • the calculation unit calculates the amount of the intraocular lens based on the Hartmann image. A plurality of refractive powers are calculated for each area corresponding to the focal length.
  • the calculation unit calculates that the point images forming the Hartmann image are separated. Two or more separated point images are classified for each focal length, and a plurality of refractive powers are calculated for each focal length based on the classified two or more separated point images.
  • two or more separated point images that constitute the Hartmann image are classified for each focal length, and a plurality of separated point images are classified for each focal length based on the classified two or more separated point images. Since the refractive power is calculated, it is possible to improve the reliability of the calculation result of the refractive power of the subject's eye wearing the multifocal diffractive IOL.
  • the multifocal type further includes an extended depth of focus type.
  • the calculation unit calculates two foci of the approximate ellipse specified by elliptical approximation of each of the plurality of point images constituting the Hartmann image for each focal length. A plurality of refractive powers are calculated for each focal length based on the two or more classified separated point images.
  • the two foci of the approximate ellipse specified by elliptically approximating each of the plurality of point images constituting the Hartmann image are classified by focal length, and the two or more classified separated points are Since a plurality of refractive powers are calculated for each focal length based on the image, it is possible to improve the reliability of the calculation result of the refractive power of the subject's eye wearing the EDoF type IOL.
  • a method for controlling an ophthalmological apparatus includes a focusing lens (collimator lens 74 moved by a moving unit 77), and controls wavefront aberration of a subject's eye (E) wearing an intraocular lens.
  • This is a method of controlling an ophthalmological apparatus (1) including a measurement optical system (an aberration measurement projection system 6 and an aberration measurement light receiving system 7) that measure a Hartmann image and obtain a Hartmann image.
  • a method for controlling an ophthalmological apparatus includes controlling a focusing lens to search for a state in which at least one of a plurality of point images constituting a Hartmann image is separated into two or more separated point images.
  • the method includes a control step of causing the measurement optical system to acquire a Hartmann image in a separated state, and a calculation step of calculating the refractive power of the eye to be examined based on the Hartmann image.
  • the reliability of the calculation result of the refractive power of the eye to be examined wearing the IOL can be improved. It becomes possible to improve.
  • the measurement optical system acquires a Hartmann image using visible light.
  • the IOL can be improved. It becomes possible to further improve the reliability of the calculation result of the refractive power of the eye to be examined.
  • a method for controlling an ophthalmological apparatus includes, in the twelfth aspect, an acquisition step of acquiring intraocular lens information representing at least optical characteristics of the intraocular lens, and the control step includes an acquisition step. Control of the focusing lens is started based on the intraocular lens information acquired in .
  • the refractive power of the eye to be examined can be calculated by controlling according to the type of IOL worn by the eye to be examined. It becomes possible to further improve the reliability of the results.
  • the acquiring step acquires pupil diameter information representing a pupil diameter
  • the calculating step is defined based on the pupil diameter information.
  • the refractive power is calculated based on the Hartmann image within the area.
  • the refractive power is calculated based on the wavefront aberration information corresponding to the pupil diameter, it is possible to further improve the reliability of the calculation result of the refractive power of the eye to be examined wearing the IOL. becomes possible.
  • the intraocular lens information represents either a single-focal type or a multifocal type.
  • the calculation step is based on the Hartmann image. Calculate the refractive power of
  • the calculating step is based on the Hartmann image. A plurality of refractive powers corresponding to each of a plurality of focal lengths of the lens are calculated.
  • the multifocal type includes a multifocal refractive type and a multifocal diffractive type.
  • the calculating step is based on the Hartmann image. A plurality of refractive powers are calculated for each area corresponding to the focal length of the inner lens.
  • the calculating step includes calculating a point image forming a Hartmann image.
  • the two or more separated point images are classified by focal length, and a plurality of refractive powers are calculated for each focal length based on the classified two or more separated point images.
  • two or more separated point images that constitute the Hartmann image are classified for each focal length, and a plurality of separated point images are classified for each focal length based on the classified two or more separated point images. Since the refractive power is calculated, it is possible to improve the reliability of the calculation result of the refractive power of the subject's eye wearing the multifocal diffractive IOL.
  • the multifocal type further includes an extended depth of focus type.
  • the calculation step includes ellipse approximation of each of the plurality of point images constituting the Hartmann image, and calculates two foci of the approximate ellipse for each focal length. A plurality of refractive powers are calculated for each focal length based on the two or more classified separated point images.
  • the two foci of the approximate ellipse specified by elliptically approximating each of the plurality of point images constituting the Hartmann image are classified by focal length, and the two or more classified separated points are Since a plurality of refractive powers are calculated for each focal length based on the image, it is possible to improve the reliability of the calculation result of the refractive power of the subject's eye wearing the EDoF type IOL.
  • a twenty-third aspect of some embodiments is a program that causes a computer to execute each step of the method for controlling an ophthalmic apparatus according to any one of the twelfth to fifteenth aspects.
  • the reliability of the calculation result of the refractive power of the eye to be examined wearing the IOL can be improved.
  • the above embodiments can be applied to an apparatus having any functions usable in the ophthalmology field, such as an intraocular pressure measurement function, a fundus imaging function, an anterior segment imaging function, an optical coherence tomography (OCT) function, and an ultrasound examination function.
  • the intraocular pressure measurement function is realized by a tonometer or the like.
  • the fundus photographing function is realized by a fundus camera, a scanning ophthalmoscope (SLO), or the like.
  • the anterior segment photographing function is realized by a slit lamp or the like.
  • the OCT function is realized by optical coherence tomography or the like.
  • the ultrasonic testing function is realized by an ultrasonic diagnostic device or the like.
  • the present invention can also be applied to a device (multifunction device) that has two or more of these functions.
  • Optical target projection system 5 Observation system 6
  • Aberration measurement projection system 7 Aberration measurement light receiving system 61, 61A, 61B
  • Light source 75 Hartmann plate 76
  • Area sensor 100
  • Control section 111 Main control section 120
  • Arithmetic processing section 130 Refraction power calculation section 131 First refractive power calculating section 131A, 132A, 133B, 134A Point image specifying section 131B, 132B, 133C Representative position specifying section 131C, 132D, 133E, 134D Zernike polynomial approximation processing section 132 Second refractive power calculating section 132C, 133D, 134C Point image group identification section 133
  • Third refraction power calculation section 133A Emphasis processing section 134
  • Fourth refraction power calculation section 134B Ellipse approximation processing section 140
  • Distribution information generation section 150 Simulation processing section E Subject's eye Ef Fundus

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

眼科装置は、測定光学系と、制御部と、算出部とを含む。測定光学系は、合焦レンズを含み、眼内レンズを装用する被検眼の波面収差を測定してハルトマン像を取得する。制御部は、ハルトマン像を構成する複数の点像の少なくとも1つが2以上の分離点像に分離する状態を探索するように合焦レンズを制御して、2以上の分離点像が分離した状態で測定光学系によりハルトマン像を取得させる。算出部は、ハルトマン像に基づいて、被検眼の屈折度数を算出する。

Description

眼科装置、眼科装置の制御方法、及びプログラム
 この発明は、眼科装置、眼科装置の制御方法、及びプログラムに関する。
 白内障が進行すると、白内障手術が行われることが一般的である。白内障手術では、水晶体嚢の中身が取り除かれ、水晶体嚢に眼内レンズ(Intraocular Lens:以下、IOL)が挿入される。IOLには様々なタイプのものがある。被検者は、像のコントラスト、明るさ、遠見視力、近見視力などを考慮して、適切なタイプのIOLを選択する必要がある。手術後には、IOLを装用する被検眼の屈折度数を測定し、見え方や視力の回復等の確認が行われる。
 このようなIOLを装用する被検眼を検査するための眼科装置が、いくつか提案されている。例えば、特許文献1には、被検眼の徹照像を取得し、取得された徹照像から被検眼がIOLを装用するか否かを判定する手法が開示されている。例えば、特許文献2には、波面収差情報を用いて、得られた点像の一部の点像群を用いて屈折度数を求める手法が開示されている。例えば、特許文献3には、リングパターンを投影してIOLを装用する被検眼の屈折度数を測定する手法が開示されている。
特開2014-209994号公報 特開2017-213124号公報 特開2021-083940号公報
 従来の手法は、被検眼に挿入されるIOLのタイプによって屈折度数の算出結果の信頼性が低下するという問題がある。
 本発明は、このような事情を鑑みてなされたものであり、その目的の1つは、IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させるための新たな技術を提供することにある。
 実施形態の1つの態様は、合焦レンズを含み、眼内レンズを装用する被検眼の波面収差を測定してハルトマン像を取得する測定光学系と、前記ハルトマン像を構成する複数の点像の少なくとも1つが2以上の分離点像に分離する状態を探索するように前記合焦レンズを制御して、前記2以上の分離点像が分離した状態で前記測定光学系により前記ハルトマン像を取得させる制御部と、前記ハルトマン像に基づいて、前記被検眼の屈折度数を算出する算出部と、を含む、眼科装置である。
 実施形態の別の態様は、合焦レンズを含み、眼内レンズを装用する被検眼の波面収差を測定してハルトマン像を取得する測定光学系を含む眼科装置の制御方法である。眼科装置の制御方法は、前記ハルトマン像を構成する複数の点像の少なくとも1つが2以上の分離点像に分離する状態を探索するように前記合焦レンズを制御して、前記2以上の分離点像が分離した状態で前記測定光学系により前記ハルトマン像を取得させる制御ステップと、前記ハルトマン像に基づいて、前記被検眼の屈折度数を算出する算出ステップと、を含む。
 実施形態の更に別の態様は、コンピュータに、上記の眼科装置の制御方法の各ステップを実行させるプログラムである。
 この発明によれば、IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させるための新たな技術を提供することが可能になる。
第1実施形態に係る眼科装置の光学系の構成例を示す概略図である。 第1実施形態に係る眼科装置の光学系の構成例を示す概略図である。 第1実施形態に係る眼科装置の光学系の構成例を示す概略図である。 第1実施形態に係る眼科装置の光学系の構成例を示す概略図である。 第1実施形態に係る眼科装置の動作説明図である。 第1実施形態に係る眼科装置の処理系の構成例を示す概略図である。 第1実施形態に係る眼科装置の処理系の構成例を示す概略図である。 第1実施形態に係る眼科装置の処理系の構成例を示す概略図である。 第1実施形態に係る眼科装置の処理系の構成例を示す概略図である。 第1実施形態に係る多焦点屈折型IOLを説明するための概略図である。 第1実施形態に係る多焦点屈折型IOLを説明するための概略図である。 第1実施形態に係る眼科装置の処理系の構成例を示す概略図である。 第1実施形態に係る多焦点回折型IOLを説明するための概略図である。 第1実施形態に係る眼科装置の処理系の構成例を示す概略図である。 第1実施形態に係る焦点深度拡張型IOLを説明するための概略図である。 第1実施形態に係る眼科装置の動作例のフロー図である。 第1実施形態に係る眼科装置の動作例のフロー図である。 第1実施形態に係る眼科装置の動作例のフロー図である。 第1実施形態に係る眼科装置の動作例のフロー図である。 第1実施形態に係る眼科装置の動作例のフロー図である。 第1実施形態に係る眼科装置の動作例のフロー図である。 第1実施形態に係る眼科装置の動作説明図である。 第1実施形態に係る眼科装置の動作説明図である。 第1実施形態に係る眼科装置の動作説明図である。 第1実施形態に係る眼科装置の動作説明図である。 第2実施形態に係る眼科装置の動作例のフロー図である。 第2実施形態に係る眼科装置の動作例のフロー図である。
 この発明に係る眼科装置、眼科装置の制御方法、及びプログラムの実施形態の例について、図面を参照しながら詳細に説明する。なお、この明細書において引用された文献の記載内容や任意の公知技術を、以下の実施形態に援用することが可能である。
 実施形態に係る眼科装置は、合焦レンズを含み、IOL(眼内レンズ)を装用する被検眼の波面収差を測定してハルトマン像を取得する測定光学系を有する。例えば、手術により中身が取り除かれた水晶体嚢にIOLを挿入することで、被検眼はIOLを装用することができる。眼科装置は、ハルトマン像を構成する複数の点像の少なくとも1つが2以上の分離点像に分離する状態を探索するように合焦レンズを制御して、2以上の分離点像が分離した状態で測定光学系によりハルトマン像を取得させ、取得されたハルトマン像に基づいて、被検眼の屈折度数を算出する。いくつかの実施形態では、測定光学系は、近赤外光又は可視光を用いてハルトマン像を取得する。いくつかの実施形態では、少なくともIOLの光学特性を表すIOL情報を取得し、取得されたIOL情報に基づいて、上記の合焦レンズの制御を開始する。
 IOL情報は、例えば、IOLが有する焦点数(焦点距離の数)を表す情報、IOLにおいて焦点距離が異なるエリアの位置を表す情報、光の屈折現象を利用するか否かを表す情報、光の回折現象を利用するか否かを表す情報、及び、深い焦点深度を有するか否かを表す情報の少なくとも1つを含む。このようなIOL情報は、あらかじめ決められたIOLのタイプにより特定可能である。IOLのタイプには、単焦点型(monofocal type)、多焦点型(multifocal type)がある。多焦点型には、多焦点屈折型(multifocal diffractive type)と、多焦点回折型(multifocal refractive type)がある。いくつかの実施形態では、多焦点型には、焦点深度拡張(Extended Depth of Focus:以下、EDoF)型が含まれる。このようなIOL情報は、操作部を用いてユーザー(被検者、検者、医師等)により指定されたり、被検眼の前眼部画像又は徹照像を解析して被検眼に挿入されているIOLのタイプを判別したりすることで取得される。
 例えば、IOL情報に基づいて、被検眼が装用するIOLが多焦点回折型IOLであると判定されたとき、眼科装置は、ハルトマン像を構成する複数の点像の少なくとも1つが2以上の分離点像に分離する状態を探索するように合焦レンズを制御し、2以上の分離点像が分離した状態で測定光学系により取得されたハルトマン像に基づいて屈折度数を算出する。例えば、IOL情報に基づいて、被検眼が装用するIOLが単焦点型IOLであると判定されたとき、眼科装置は、IOLが有する平均焦点距離で合焦するように合焦レンズを制御し、測定光学系により取得されたハルトマン像に基づいて屈折度数を算出する。これにより、IOLのタイプに応じて、被検眼の屈折度数の算出処理方法を変更して、IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態では、眼科装置は、被検眼の瞳孔径を表す瞳孔径情報を取得し、取得された瞳孔径情報に基づいて画定される領域内の波面収差情報に基づいて、屈折度数を算出する。例えば、眼科装置は、瞳孔径情報を用いて波面収差情報を正規化し、正規化された波面収差情報を用いたゼルニケ多項式近似を行う公知の手法で、屈折度数を算出する。
 実施形態に係る眼科装置の制御方法は、実施形態に係る眼科装置を制御するためにプロセッサ(コンピュータ)により実行される処理を実現するための1以上のステップを含む。実施形態に係るプログラムは、プロセッサに実施形態に係る眼科装置の制御方法の各ステップを実行させる。実施形態に係る記録媒体(記憶媒体)は、実施形態に係るプログラムが記録(記憶)されたコンピュータにより読み取り可能な非一時的な記録媒体(記憶媒体)である。
 本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。
 以下、IOLのタイプに、単焦点型、多焦点型、及びEDoF型が含まれるものとする。この場合、特に言及しない限り、多焦点型IOLの焦点数が「2」である場合について説明するが、実施形態に係る構成は、焦点数が3以上の場合にも適用可能である。
 実施形態に係る眼科装置は、任意の自覚検査及び任意の他覚測定の少なくとも一方を実行可能である。自覚検査では、被検者に情報(視標など)が呈示され、その情報に対する被検者の応答に基づいて結果が取得される。自覚検査には、遠用検査、近用検査、コントラスト検査、グレアー検査等の自覚屈折測定や、視野検査などがある。他覚測定では、被検眼に光を照射し、その戻り光の検出結果に基づいて被検眼に関する情報が取得される。他覚測定には、被検眼の特性を取得するための測定と、被検眼の画像を取得するための撮影とが含まれる。他覚測定には、他覚屈折測定、角膜形状測定、眼圧測定、眼底撮影、光コヒーレンストモグラフィ(Optical Coherence Tomography:以下、OCT)を用いた断層像撮影(OCT撮影)、OCTを用いた計測等がある。
 以下、実施形態に係る眼科装置は、自覚検査として、遠用検査、近用検査などを実行可能であり、且つ、他覚測定として、波面収差計測による他覚屈折測定、角膜形状測定などを実行可能な装置であるものとする。しかしながら、実施形態に係る眼科装置の構成は、これに限定されるものではない。
<第1実施形態>
[構成]
 第1実施形態に係る眼科装置は、ベースに固定された顔受け部と、ベースに対して前後上下左右に移動可能な架台とを備えている。架台には、被検眼の検査(測定)を行うための光学系が収納されたヘッド部が設けられている。検者側の位置に配置された操作部に対して操作を行うことにより、顔受け部とヘッド部とを相対移動することができる。また、眼科装置は、後述のアライメントを実行することにより顔受け部とヘッド部とを自動で相対移動することができる。
(光学系)
 図1に、第1実施形態に係る眼科装置の光学系の構成例を示す。第1実施形態に係る眼科装置100は、被検眼Eの検査を行うための光学系として、Zアライメント系1、XYアライメント系2、ケラト測定系3、視標投影系4、観察系5、収差測定投影系6、及び収差測定受光系7を含む。また、眼科装置は、処理部9を含む。
(処理部9)
 処理部9は、眼科装置の各部を制御する。また、処理部9は、各種演算処理を実行可能である。処理部9はプロセッサを含む。処理部9は、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。
(観察系5)
 観察系5は、被検眼Eの前眼部を動画撮影する。例えば、観察系5の光軸から離れた位置に配置された複数の前眼部照明光源57からの光(例えば、中心波長が950nmの赤外光)で照明された被検眼Eの前眼部からの戻り光は、対物レンズ51を通過し、ダイクロイックミラー52を透過し、絞り53の開口を通過する。絞り53の開口を通過した光は、ハーフミラー22を透過し、リレーレンズ54を通過し、結像レンズ55に導かれる。結像レンズ55は、リレーレンズ54から導かれた光をエリアセンサー(イメージセンサー)56の受光面に結像する。エリアセンサー56の受光面は、被検眼Eの瞳孔と光学的に略共役な位置に配置されている。エリアセンサー56は、所定のレートで撮像及び信号出力を行う。エリアセンサー56の出力(映像信号)は処理部9に入力される。処理部9は、この映像信号に基づく前眼部像E’を表示部10の表示画面10aに表示させる。前眼部像E’は、例えば赤外動画像である。
(Zアライメント系1)
 Zアライメント系1は、観察系5の光軸方向(前後方向、Z方向)におけるアライメントを行うための光(赤外光)を被検眼Eに照射する。Zアライメント光源11から出力された光は、被検眼Eの角膜Kに照射され、角膜Kにより反射され、結像レンズ12に導かれる。結像レンズ12は、導かれてきた光をラインセンサー13の受光面に結像する。角膜頂点の位置が前後方向に変化すると、ラインセンサー13に対する光の投影位置が変化する。ラインセンサー13の出力は処理部9に入力される。処理部9は、ラインセンサー13に対する光の投影位置に基づいて被検眼Eの角膜頂点の位置を求め、これに基づきZアライメントを実行する。
(XYアライメント系2)
 XYアライメント系2は、観察系5の光軸に直交する方向(左右方向(X方向)、上下方向(Y方向))のアライメントを行うための光(赤外光)を被検眼Eに照射する。XYアライメント系2は、ハーフミラー22により観察系5から分岐された光路に設けられたXYアライメント光源21を含む。XYアライメント光源21から出力された光は、リレーレンズ23を通過し、ハーフミラー22により反射される。ハーフミラー22により反射された光は、観察系5の光軸上の対物レンズ51の前側焦点位置で集光された後、ダイクロイックミラー52を透過し、対物レンズ51により平行光とされ、被検眼Eの角膜Kに照射される。角膜Kの表面で反射した光は、被検眼Eの角膜表面の反射焦点位置近傍にプルキンエ像を形成する。XYアライメント光源21は、対物レンズ51の焦点位置と光学的に略共役な位置に配置されている。角膜Kによる反射光は、観察系5を通じてエリアセンサー56に導かれる。エリアセンサー56の受光面には、XYアライメント光源21から出力された光のプルキンエ像(輝点)による像Brが形成される。
 処理部9は、図1に示すように、輝点像Brを含む前眼部像E’とアライメントマークALとを表示画面10aに表示させる。手動でXYアライメントを行う場合、検者は、アライメントマークAL内に輝点像Brを誘導するように光学系の移動操作を行う。自動でアライメントを行う場合、処理部9は、アライメントマークALに対する輝点像Brの変位がキャンセルされるように、光学系を移動させるための機構を制御する。
(ケラト測定系3)
 ケラト測定系3は、角膜Kの曲率を測定するためのリング状光束(赤外光)を角膜Kに投影する。ケラト板31は、対物レンズ51の近傍に配置されている。ケラト板31の背面側(対物レンズ51側)にはケラトリング光源32が設けられている。ケラトリング光源32からの光でケラト板31を照明することにより、角膜Kにリング状光束が投影される。その反射光(ケラトリング像)はエリアセンサー56により前眼部像とともに検出される。処理部9は、このケラトリング像を基に公知の演算を行うことで角膜曲率パラメータを算出する。ケラトリングの代わりに多重リングからなるプラチドリング板が配置されていてもよい。この場合、角膜の曲率だけではなく、角膜形状を測定することが可能となる。
(視標投影系4)
 視標投影系4は、固視標や自覚検査用の視標等の各種視標を被検眼Eに呈示する。視標チャート42は、処理部9からの制御を受け、視標を表すパターンを表示する。光源41から出力された光(可視光)は、視標チャート42を通過し、リレーレンズ43及びフィールドレンズ44を通過し、反射ミラー45により反射され、ビームスプリッター68を透過し、ダイクロイックミラー52により反射される。ダイクロイックミラー52により反射された光は、対物レンズ51を通過して眼底Efに投影される。
 光源41及び視標チャート42を含む移動ユニット46は、視標投影系4の光軸に沿って移動可能である。視標チャート42と眼底Efとが光学的に略共役となるように移動ユニット46の位置が調整される。
 視標チャート42は、処理部9からの制御を受け、被検眼Eを固視させるための固視標を表すパターンを表示することが可能である。視標チャート42において固視標を表すパターンの表示位置を順次に変更することで固視位置を移動し、視線や被検眼の調節を誘導することができる。このような視標チャート42には、液晶パネルや、EL(エレクトロルミネッセンス)などを利用した電子表示デバイスや、回転するガラス板等に描画された複数の視標のいずれかを光軸上に適宜配置するもの(ターレットタイプ)などがある。また、視標投影系4は、前述の視標とともにグレアー光を被検眼Eに投影するためのグレアー検査光学系を含んでもよい。
 自覚検査を行う場合、処理部9は、他覚測定の結果に基づき移動ユニット46を制御する。処理部9は、検者又は処理部9により選択された視標を視標チャート42に表示させる。それにより、当該視標が被検者に呈示される。被検者は視標に対する応答を行う。応答内容の入力を受けて、処理部9は、更なる制御や、自覚検査値の算出を行う。例えば、視力測定において、処理部9は、ランドルト環等に対する応答に基づいて、次の視標を選択して呈示し、これを繰り返し行うことで視力値を決定する。
 他覚測定(他覚屈折測定など)においては、風景チャートが眼底Efに投影される。この風景チャートを被検者に固視させつつアライメントが行われ、雲霧視状態で屈折度数が測定される。
(収差測定投影系6、収差測定受光系7)
 収差測定投影系6及び収差測定受光系7は、被検眼Eの眼球収差特性の測定に用いられる。収差測定投影系6は、眼球収差特性測定用の光束(主に、赤外光)を眼底Efに投影する。収差測定受光系7は、この光束の被検眼Eの眼底Efからの戻り光を受光する。収差測定受光系7による戻り光の受光結果から被検眼Eの眼球収差特性が求められる。
 収差測定投影系6は、中心波長が異なる2以上の波長領域の光を出力可能な光源61を含む。光源61は、出力光の波長領域(中心波長)を変更可能な単一の光源により構成されていてもよいし、互いに波長領域(中心波長)が異なる出力光を出力する2以上の光源を切り替えるように構成されていてもよい。図1では、光源61は、第1中心波長を含む第1波長領域の光を出力する光源61Aと、第2中心波長を含む第2波長領域の光を出力する光源61Bとを含むものとする。例えば、第1中心波長は560nm(可視領域)であり、第2中心波長は840nm(近赤外領域)である。この場合、光源61は、光源61A及び光源61Bのいずれか1つから出力された光を出力する。いくつかの実施形態では、光源61Aからの光路と光源61Bからの光路とがダイクロイックミラーにより結合され、光源61A及び光源61Bが排他的にオンとなるように制御される。いくつかの実施形態では、光源61Aからの光路と光源61Bからの光路とがダイクロイックミラーにより結合され、光源61Aとダイクロイックミラーとの間に挿脱可能な第1シャッターが設けられ、光源61Bとダイクロイックミラーとの間に挿脱可能な第2シャッターが設けられる。
 光源(点光源)61A、61Bのそれぞれは、微小な点状の光を発するものが用いられる。光源61A、61Bとしては、例えば集光性の高いスーパールミネッセントダイオード(Super Luminescent Diode:SLD)などが挙げられるが、集光性の高いLD(レーザーダイオード)や発光径の小さく高輝度なLEDでもよい。
 光源61を含む移動ユニット69は、収差測定投影系6の光軸に沿って移動可能である。光源61は、眼底Efと光学的に略共役な位置に配置される。光源61から出力された光(測定光)は、リレーレンズ62及びフィールドレンズ63を通過し、偏光板64を透過する。偏光板64は、光源61から出力された光の偏光成分のうちs偏光成分のみを透過させる。偏光板64を透過した光は、絞り65の開口を通過し、s偏光成分を反射する偏光ビームスプリッター66により反射され、ロータリープリズム67を通過し、ビームスプリッター68により反射される。ビームスプリッター68により反射された光は、ダイクロイックミラー52により反射され、対物レンズ51を通過して眼底Efに投影される。
 図2に、ビームスプリッター68の波長選択特性の一例を模式的に示す。図2において、縦軸は光の透過率を表し、横軸は波長を表す。
 例えば、ビームスプリッター68は、第1波長λ1を中心波長とする波長領域の光、第2波長λ2を中心波長とする波長領域の光、第3波長λ3(0<λ1<λ2<λ3)を中心波長とする波長領域の光を反射し、それ以外の波長領域の光を透過させる。例えば、第1波長λ1は光源61Aが出力する光の中心波長(560nm)であり、第2波長λ2は光源61Bが出力する光の中心波長(840nm)であり、第3波長λ3は前眼部照明光源57が出力する光の中心波長(950nm)である。
 これにより、ビームスプリッター68は、視標投影系4からの光を透過し、収差測定投影系6の光源61A、61Bからの光及びその戻り光を反射し、視標投影系4と、収差測定投影系6及び収差測定受光系7との波長分離を良好に行うことができる。このようなビームスプリッター68は、例えば、特開2010-099354号公報に開示されているような波長選択性ミラーであってよい。
 なお、光源61の位置に光源を配置せず、当該光源と眼科装置とを接続する光ファイバーにより光源61からの光をリレーレンズ62に導くようにしてもよい。この場合、光ファイバーのファイバー端は、眼底Efと光学的に略共役な位置に配置される。
 ロータリープリズム67は、眼底Efの血管や疾患部位における反射率のムラを平均化させたり、SLD光源によるスペックルノイズを軽減したりするために用いられる。
 被検眼Eに入射した光は、眼底による散乱反射により偏光状態が維持されなくなり、眼底Efからの戻り光は、p偏光成分とs偏光成分とが混在した光となる。このような眼底Efからの戻り光は、対物レンズ51を通過し、ダイクロイックミラー52及びビームスプリッター68により反射される。ビームスプリッター68により反射された戻り光は、ロータリープリズム67を通過し、偏光ビームスプリッター66に導かれる。偏光ビームスプリッター66は、戻り光の偏光成分のうちp偏光成分のみを透過させる。偏光ビームスプリッター66を透過したp偏光成分の光は、フィールドレンズ71を通過し、反射ミラー72により反射され、リレーレンズ73を通過し、移動ユニット77に導かれる。対物レンズ51の表面や被検眼Eの角膜Kで正反射した光はs偏光を維持しているため偏光ビームスプリッター66により反射され、収差測定受光系7に入射しないためゴーストの発生を軽減できる。
 移動ユニット77は、コリメータレンズ74と、ハルトマン板75と、エリアセンサー76とを含む。コリメータレンズ74は、移動ユニット77の移動により、合焦レンズとして機能する。エリアセンサー76には、例えばCCD(Charge Coupled Device)イメージセンサー又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーが用いられる。移動ユニット77に導かれた光は、コリメータレンズ74を通過し、ハルトマン板75に入射する。ハルトマン板75は、被検眼Eの瞳孔と光学的に略共役な位置に配置されている。移動ユニット77は、収差測定受光系7の光軸に沿って移動可能である。移動ユニット77は、眼底Efとコリメータレンズ74の前側焦点位置とが光学的に略共役になるように被検眼Eの屈折度数に応じて光軸に沿って移動される。
 図3及び図4に、実施形態に係るハルトマン板75の説明図を示す。図3及び図4は、収差測定受光系7の光軸方向から見たときのハルトマン板75の構成を模式的に表したものである。
 ハルトマン板75は、眼底Efからの戻り光から複数の集束光を生成する。図3及び図4に示すように、ハルトマン板75には、複数のマイクロレンズ75Aが格子状に配列されている。ハルトマン板75は、入射光を多数の光束に分割しそれぞれ集光する。
 例えば、ハルトマン板75は、図3に示すように、エッチングやモールド等によりガラス板に複数のマイクロレンズ75Aが配列された構成を有する。この場合、各マイクロレンズの開口を大きくとることができ、信号の強度を高めることができる。
 また、ハルトマン板75は、図4に示すように、各マイクロレンズ75Aの周囲にクロム遮光膜等を形成することにより遮光部75Bを設けて複数のマイクロレンズ75Aが配列された構成を有していてもよい。マイクロレンズ75Aは、正方配列されたものに限らず、同心円周上に配置されたものや三角形の各頂点位置に配置されたものや六方細密配置されたものであってもよい。
 エリアセンサー76は、マイクロレンズ75Aの焦点位置に配置され、ハルトマン板75によりそれぞれ集光された光(集束光)を検出する。図5に示すように、エリアセンサー76の受光面には、被検眼Eの瞳孔Ep上の光の照射領域a、・・・、b、・・・、c、・・・に対応してハルトマン板75のマイクロレンズ75Aにより点像A、・・・、B、・・・、C、・・・が形成される。上記のように眼底Efとコリメータレンズ74の前側焦点位置とが光学的に略共役な関係にある場合、エリアセンサー76の受光面に形成された点像の重心位置(又は、点像の輝度のピーク位置)の間隔はマイクロレンズ75Aのレンズ中心間距離と略等しくなる。エリアセンサー76は、ハルトマン板75のマイクロレンズ75Aにより形成された点像群を検出する。処理部9は、エリアセンサー76により検出された点像群に基づく検出信号と点像群の検出位置を示す位置情報とを取得し、各マイクロレンズ75Aにより形成された点像の位置を解析することで、ハルトマン板75に入射した光の波面収差を求める。それにより、点像の間隔から被検眼Eの眼球収差特性が求められる。処理部9は、求められた眼球収差特性から被検眼Eの屈折度数を求める。
 処理部9は、算出された屈折度数に基づいて、光源61(光源61A、61B)と眼底Efとコリメータレンズ74の前側焦点位置とが光学的に共役になるように、移動ユニット69と移動ユニット77とをそれぞれ光軸方向に移動させることが可能である。更に、処理部9は、移動ユニット69、77の移動に連動して移動ユニット46をその光軸方向に移動させることが可能である。
 いくつかの実施形態では、眼科装置100は、被検眼Eの徹照像を取得可能である。例えば、複数の前眼部照明光源57の1つ(又は一部)を点灯させ、光軸から離れた位置から瞳孔を通じて眼底Efに光を投射させ、その戻り光をエリアセンサー56で受光することで徹照像が取得される。
 いくつかの実施形態では、XYアライメント光源21を点灯させ、瞳孔を通じて眼底Efに光を投射させ、その戻り光をエリアセンサー56で受光することで徹照像が取得される。この場合、XYアライメント光源21は、SLD又は高輝度LEDであってよい。例えば、XYアライメント光源21は、アライメント時にはアライメント光源としてのLDから光を出力し、徹照像取得時には徹照像取得用照明光源としてのSLD又は高輝度LEDから光を出力するように構成されてもよい。
(処理系の構成)
 実施形態に係る眼科装置100の処理系について説明する。
 図6に、眼科装置100の処理系の機能的な構成例を示す。図6は、実施形態に係る眼科装置の処理系の機能ブロック図の一例を表したものである。図6において、図1と同様の部分には同一符号を付し、適宜説明を省略する。
 処理部9は、制御部110と、演算処理部120とを含む。また、眼科装置100は、表示部170と、操作部180と、通信部190と、移動機構200とを含む。
 移動機構200は、Zアライメント系1、XYアライメント系2、ケラト測定系3、視標投影系4、観察系5、収差測定投影系6、及び収差測定受光系7等の光学系が収納されたヘッド部を前後上下左右方向に移動させるための機構である。例えば、移動機構200には、移動機構200を移動するための駆動力を発生するアクチュエータと、この駆動力を伝達する伝達機構とが設けられる。アクチュエータは、例えばパルスモータにより構成される。伝達機構は、例えば歯車の組み合わせやラック・アンド・ピニオンなどによって構成される。制御部110(主制御部111)は、アクチュエータに対して制御信号を送ることにより移動機構200に対する制御を行う。
(制御部110)
 制御部110は、プロセッサを含み、眼科装置の各部を制御する。制御部110は、主制御部111と、記憶部112とを含む。記憶部112には、眼科装置を制御するためのコンピュータプログラムがあらかじめ格納されている。コンピュータプログラムには、光源制御用プログラム、センサー制御用プログラム、光学系制御用プログラム、演算処理用プログラム及びユーザインターフェイス用プログラムなどが含まれる。このようなコンピュータプログラムに従って主制御部111が動作することにより、制御部110は制御処理を実行する。
 主制御部111は、測定制御部として眼科装置の各種制御を行う。Zアライメント系1に対する制御には、Zアライメント光源11の制御、ラインセンサー13の制御などがある。Zアライメント光源11の制御には、光源の点灯、消灯、光量調整などがある。ラインセンサー13の制御には、検出素子の露光調整やゲイン調整や検出レート調整などがある。それにより、Zアライメント光源11の点灯と非点灯とが切り替えられたり、光量が変更されたりする。主制御部111は、ラインセンサー13により検出された信号を取り込み、取り込まれた信号に基づいてラインセンサー13に対する光の投影位置を特定する。主制御部111は、特定された投影位置に基づいて被検眼Eの角膜頂点の位置を求め、これに基づき移動機構200を制御してヘッド部を前後方向に移動させる(Zアライメント)。
 XYアライメント系2に対する制御には、XYアライメント光源21の制御などがある。XYアライメント光源21の制御には、光源の点灯、消灯、光量調整などがある。それにより、XYアライメント光源21の点灯と非点灯とが切り替えられたり、光量が変更されたりする。主制御部111は、エリアセンサー56により検出された信号を取り込み、取り込まれた信号に基づいてXYアライメント光源21からの光の戻り光に基づく輝点像の位置を特定する。主制御部111は、所定の目標位置(例えば、アライメントマークの中心位置)に対する輝点像の位置との変位がキャンセルされるように移動機構200を制御してヘッド部を左右上下方向に移動させる(XYアライメント)。
 ケラト測定系3に対する制御には、ケラトリング光源32の制御などがある。ケラトリング光源32の制御には、光源の点灯、消灯、光量調整などがある。それにより、ケラトリング光源32の点灯と非点灯とが切り替えられたり、光量が変更されたりする。主制御部111は、エリアセンサー56により検出されたケラトリング像に対する公知の演算を演算処理部120に実行させる。それにより、被検眼Eの角膜形状パラメータが求められる。
 視標投影系4に対する制御には、光源41の制御、視標チャート42の制御、移動ユニット46の移動制御などがある。光源41の制御には、光源の点灯、消灯、光量調整などがある。それにより、光源41の点灯と非点灯とが切り替えられたり、光量が変更されたりする。視標チャート42の制御には、視標や固視標の表示のオン・オフや、固視標の表示位置の切り替えなどがある。それにより、被検眼Eの眼底Efに視標や固視標が投影される。例えば、視標投影系4は、移動ユニット46を光軸方向に移動する移動機構を含む。この移動機構には、移動機構200と同様に、当該移動機構を移動するための駆動力を発生するアクチュエータと、この駆動力を伝達する伝達機構とが設けられる。主制御部111は、アクチュエータに対して制御信号を送ることにより移動機構に対する制御を行い、移動ユニット46を光軸方向に移動させる。それにより、視標チャート42と眼底Efとが光学的に共役となるように移動ユニット46の位置が調整される。
 観察系5に対する制御には、エリアセンサー56の制御、前眼部照明光源57の制御などがある。エリアセンサー56の制御には、エリアセンサー56の露光調整やゲイン調整や検出レート調整などがある。主制御部111は、エリアセンサー56により検出された信号を取り込み、取り込まれた信号に基づく画像の形成等の処理を演算処理部120に実行させる。前眼部照明光源57の制御には、光源の点灯、消灯、光量調整などがある。それにより、前眼部照明光源57の点灯と非点灯とが切り替えられたり、前眼部照明光源57の1つ又は一部だけを点灯させたり、各光源の光量が変更されたりする。
 収差測定投影系6に対する制御には、光源61A、61Bの制御、ロータリープリズム67の制御、移動ユニット69の制御などがある。光源61A、61Bの制御には、光源の点灯、消灯、光量調整などがある。それにより、光源61A、61Bの点灯と非点灯とが切り替えられたり、光量が変更されたり、光源61が出力する光の波長領域を変更したりする。ロータリープリズム67の制御には、ロータリープリズム67の回転制御などがある。例えば、ロータリープリズム67を回転させる回転機構が設けられており、主制御部111は、この回転機構を制御することによりロータリープリズム67を回転させる。例えば、収差測定投影系6は、移動ユニット69を光軸方向に移動する移動機構を含む。この移動機構には、移動機構200と同様に、当該移動機構を移動するための駆動力を発生するアクチュエータと、この駆動力を伝達する伝達機構とが設けられる。主制御部111は、アクチュエータに対して制御信号を送ることにより移動機構に対する制御を行い、移動ユニット69を光軸方向に移動させる。
 収差測定受光系7に対する制御には、エリアセンサー76の制御、移動ユニット77の移動制御などがある。エリアセンサー76の制御には、エリアセンサー76の露光調整やゲイン調整や検出レート調整などがある。主制御部111は、エリアセンサー76により検出された信号を取り込み、取り込まれた信号に基づく眼球収差特性の算出処理などを演算処理部120に実行させる。例えば、収差測定受光系7は、移動ユニット77を光軸方向に移動する移動機構を含む。この移動機構には、移動機構200と同様に、当該移動機構を移動するための駆動力を発生するアクチュエータと、この駆動力を伝達する伝達機構とが設けられる。主制御部111は、アクチュエータに対して制御信号を送ることにより移動機構に対する制御を行い、移動ユニット77を光軸方向に移動させる。主制御部111は、アクチュエータに対して制御信号を送ることにより移動機構に対する制御を行い、移動ユニット77を光軸方向に移動させる。
 主制御部111は、表示制御部として各種情報を表示部170に表示させることが可能である。表示部170に表示される情報には、上記の光学系を用いて取得された他覚測定結果(収差測定結果)や自覚検査結果、これらに基づく画像や情報などがある。例えば、演算処理部120により求められた屈折度数、波面収差の分布を表す波面収差マップ、見え方を表すシミュレーション画像、視力シミュレーション結果などが表示部170に表示される。主制御部111は、IOLが有する複数の焦点距離のエリア毎にこれらの情報を表示部170に表示させたり、その一部を識別表示させたりすることが可能である。
 また、主制御部111は、記憶部112にデータを書き込む処理や、記憶部112からデータを読み出す処理を行う。
(記憶部112)
 記憶部112は、各種のデータを記憶する。記憶部112に記憶されるデータとしては、例えば自覚検査の検査結果、他覚測定の測定結果、前眼部像の画像データ、ハルトマン点像の画像データ、被検眼情報、演算処理部120の処理結果などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部112には、眼科装置を動作させるための各種プログラムやデータが記憶されている。
(演算処理部120)
 演算処理部120は、プロセッサを含み、図示しない記憶部(又は記憶部112)に記憶されたコンピュータプログラムに従って次の各部の処理を実行する。
 図7に、図6の演算処理部120の構成例の機能ブロック図を示す。
 演算処理部120は、屈折度数算出部130と、分布情報生成部140と、シミュレーション処理部150とを含む。
(屈折度数算出部130)
 屈折度数算出部130は、IOLのタイプに応じた算出処理方法で被検眼Eの屈折度数を求める。IOLのタイプには、単焦点型、多焦点屈折型、多焦点回折型、EDoF型がある。そこで、屈折度数算出部130は、第1屈折度数算出部131と、第2屈折度数算出部132と、第3屈折度数算出部133と、第4屈折度数算出部134とを含む。
 第1屈折度数算出部131は、単焦点型IOLに対応した算出処理方法で被検眼Eの屈折度数を算出する第1屈折度数算出処理を実行する。第2屈折度数算出部132は、多焦点屈折型IOLに対応した算出処理方法で被検眼Eの屈折度数を算出する第2屈折度数算出処理を実行する。第3屈折度数算出部133は、多焦点回折型IOLに対応した算出処理方法で被検眼Eの屈折度数を算出する第3屈折度数算出処理を実行する。第4屈折度数算出部134は、EDoF型IOLに対応した算出処理方法で被検眼Eの屈折度数を算出する第4屈折度数算出処理を実行する。
 第1屈折度数算出部131、第2屈折度数算出部132、第3屈折度数算出部133、及び第4屈折度数算出部134のそれぞれを構成する機能ブロックは、同一機能を有する場合、適宜、共用されていてもよい。
(第1屈折度数算出部131)
 被検眼Eが装用するIOLが単焦点型IOLである場合、第1屈折度数算出部131は、波面収差測定により得られたハルトマン像を含む波面収差情報に基づいて、単一の屈折度数を算出する。
 図8に、図7に示す第1屈折度数算出部131の構成例の機能ブロック図を示す。
 第1屈折度数算出部131は、点像特定部131Aと、代表位置特定部131Bと、ゼルニケ多項式近似処理部131Cとを含む。
 点像特定部131Aは、ハルトマン像を構成する点像を特定する。点像特定部131Aは、エリアセンサー56により得られたハルトマン像の輝度値に基づいて点像を特定する。いくつかの実施形態では、点像特定部131Aにより点像が特定される前に、ハルトマン像に対して点像の強調処理が行われる。
 代表位置特定部131Bは、点像特定部131Aにより特定された点像の代表位置を特定する。代表位置の例として、重心位置、中心位置、ハルトマン像の中心に最も近い点像内の位置、ハルトマン像の中心から最も遠い点像内の位置などがある。この実施形態では、代表位置特定部131Bは、代表位置として、重心位置を特定する。
 ゼルニケ多項式近似処理部131Cは、代表位置特定部131Bにより特定された複数の点像の代表位置に基づいてゼルニケ多項式近似処理を実行し、球面度数S、乱視度数C及び乱視軸角度Aを単一の屈折度数として求める。すなわち、ゼルニケ多項式近似処理部131Cは、代表位置特定部131Bにより特定された複数の点像の代表位置における光線の傾きを求め、求められた光線の傾き量を用いた公知の演算により波面の近似式を求める。求められた波面の近似式は、ゼルニケ係数とゼルニケ多項式とにより表される。波面収差情報は、ゼルニケ係数で表される。このとき、ゼルニケ多項式近似処理部131Cは、例えば、特開2002-209854号公報に開示されているように、被検眼Eの瞳孔径、又は模型眼の瞳孔径を用いて、波面収差情報を正規化することが可能である。ゼルニケ多項式近似処理部131Cは、公知の演算により、ゼルニケ係数の低次項から球面度数S、乱視度数C及び乱視軸角度Aを求める。例えば、ゼルニケ多項式近似処理部131Cは、特開2002-209854号公報又は特開2017-213124号公報に開示された手法で屈折度数を算出することが可能である。
(第2屈折度数算出部132)
 被検眼Eが装用するIOLが多焦点屈折型IOLである場合、第2屈折度数算出部132は、波面収差測定により得られたハルトマン像を含む波面収差情報に基づいて、IOLの複数の焦点距離のそれぞれに対応した複数の屈折度数を算出する。すなわち、第2屈折度数算出部132は、IOLが有する焦点距離に対応したエリア毎に、遠点に対応する屈折度数と近点に対応する屈折度数とを含む複数の屈折度数を算出する。
 図9に、図7に示す第2屈折度数算出部132の構成例の機能ブロック図を示す。
 第2屈折度数算出部132は、点像特定部132Aと、代表位置特定部132Bと、点像群特定部132Cと、ゼルニケ多項式近似処理部132Dとを含む。
 点像特定部132Aは、点像特定部131Aと同様に、ハルトマン像を構成する点像を特定する。いくつかの実施形態では、点像特定部132Aにより点像が特定される前に、ハルトマン像に対して点像の強調処理が行われる。
 代表位置特定部132Bは、代表位置特定部131Bと同様に、点像特定部132Aにより特定された点像の代表位置(重心位置)を特定する。
 点像群特定部132Cは、本来形成されるべき点像が分離した2以上の分離点像を、IOLが有する焦点距離毎に点像群に分類する。
 ゼルニケ多項式近似処理部132Dは、点像群特定部132Cにより特定された点像群毎に、ゼルニケ多項式近似処理部131Cと同様に被検眼Eの屈折度数を算出する。
 図10及び図11に、第1実施形態に係る多焦点屈折型IOLのレンズ領域に対応付けてエリアセンサー56により取得された点像を模式的に示す。図10は、焦点距離が異なるエリアが同心円状に配置された輪帯型の多焦点屈折型IOLに対応付けて点像を表したものである。図11は、焦点距離が異なるエリアがレンズ領域の下方に配置されたセクター型の多焦点屈折型IOLに対応付けて点像を表したものである。
 輪帯型の多焦点屈折型IOLの焦点数が「2」の場合、例えば、中心から外側に向けて、近方に焦点を合わせることが可能な近用エリアと、遠方に焦点を合わせることが可能な遠用エリアとが交互に配置される。図10では、中心から外側に向けて、近用エリアNA1、遠用エリアFA1、近用エリアNA2、遠用エリアFA2、・・・、近用エリアNA4、及び遠用エリアFA4が交互に配置される。輪帯型の多焦点屈折型IOLの焦点数が「3」の場合、同様に、中心から外側に向けて、近用エリアと、近方と遠方の中間の中間距離に焦点を合わせることが可能な中用エリアと、遠用エリアとが順番に配置される。輪帯型の多焦点屈折型IOLの焦点数が4以上の場合、同様に、中心から外側に向けて、近用エリアと、互いに中間距離が異なる2以上の中用エリアと、遠用エリアとが順番に配置される。この例では、中心側を近用のエリアとして配置し、中心から遠い方を遠用のエリアとして配置しているが、中心側を遠用のエリアとして配置し、中心から遠い方を近用のエリアとして配置するようにしてもよい。
 第2屈折度数算出部132は、あらかじめ決められた焦点距離に対応したエリアに含まれる点像群を特定し、特定された点像群から求められる波面収差情報に基づいて、点像群毎に屈折度数を算出する。
 セクター型の多焦点屈折型IOLの焦点数が「2」の場合、図11に示すように、全体が遠用エリアFA1であるレンズ領域の下方に近用エリアNA1が配置される。セクター型の多焦点屈折型IOLの焦点数が3以上の場合、例えば、遠用エリアFA1と近用エリアNA1との間に1以上の中用エリアが配置される。
 この場合、第2屈折度数算出部132は、輪帯型と同様に、焦点距離に対応したエリアに含まれる点像群を特定し、特定された点像群から求められる波面収差情報に基づいて、点像群毎に屈折度数を算出する。
 これにより、例えば、近用エリアに含まれる点像群から屈折度数を算出し、遠用エリアに含まれる点像群から屈折度数を算出することができる。いくつかの実施形態では、1以上の中用エリアのそれぞれに含まれる点像群から屈折度数を算出することができる。
(第3屈折度数算出部133)
 被検眼Eが装用するIOLが多焦点回折型IOLである場合、第3屈折度数算出部133は、波面収差測定により得られたハルトマン像を含む波面収差情報に基づいて、IOLの複数の焦点距離のそれぞれに対応した複数の屈折度数を算出する。具体的には、第3屈折度数算出部133は、ハルトマン像を構成する点像が分離した2以上の分離点像を、IOLが有する焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に、遠点に対応する屈折度数と近点に対応する屈折度数とを含む複数の屈折度数を算出する。
 図12に、図7に示す第3屈折度数算出部133の構成例の機能ブロック図を示す。
 第3屈折度数算出部133は、強調処理部133Aと、点像特定部133Bと、代表位置特定部133Cと、点像群特定部133Dと、ゼルニケ多項式近似処理部133Eとを含む。
 強調処理部133Aは、ハルトマン像における点像の強調処理を行う。例えば、強調処理部133Aは、ハルトマン像のコントラストを上げ、輝度値が飽和した部分を除去する。
 点像特定部133Bは、点像特定部131Aとほぼ同様に、ハルトマン像を構成する点像を特定する。具体的には、点像特定部133Bは、ハルトマン像を構成する点像が分離した2以上の分離点像を特定する。この場合、点像特定部133Bは、ハルトマン像を解析することにより遠点側の1以上の分離点像を特定し、強調処理部133Aにより強調処理が施されたハルトマン像を解析することにより近点側の残りの1以上の分離点像を特定する。すなわち、点像特定部133Bは、ハルトマン像から所定の第1輝度値以上の点像を遠点側の分離点像として特定し、コントラストを上げることにより輝度値が飽和した部分が除去されたハルトマン像において所定の第2輝度値以上の点像を近点側の分離点像として特定する。これにより、多焦点回折型IOLによりコントラストが低下する近点側の分離点像の特定が容易になる。
 いくつかの実施形態では、点像特定部133Bは、強調処理部133Aにより強調処理が施されたハルトマン像を解析することにより遠点側の1以上の分離点像と、近点側の1以上の分離点像とを特定する。
 いくつかの実施形態では、近点側の分離点像を特定し易くするために、可視領域の光(例えば、光源61Aからの光)を用いて波面収差測定が実行される。
 代表位置特定部133Cは、代表位置特定部131Bと同様に、点像特定部133Bにより特定された分離点像の代表位置(重心位置)を特定する。
 点像群特定部133Dは、代表位置特定部133Cにより特定された2以上の分離点像を、IOLが有する焦点距離に対応する2以上の点像群のいずれかに分類する。点像群特定部133Dは、1つの点像が分離した2以上の分離点像のそれぞれを、ハルトマン像の中心に近い順に、近点の分離点像の点像群、1以上の中点に対応する1以上の分離点像の点像群、及び遠点の分離点像の点像群のいずれかに分類する。
 ゼルニケ多項式近似処理部133Eは、点像群特定部133Dにより特定された点像群毎に、ゼルニケ多項式近似処理部131Cと同様に被検眼Eの屈折度数を算出する。
 図13に、第1実施形態に係る多焦点回折型IOLのレンズ領域に対応付けてエリアセンサー56により取得された点像を模式的に示す。図13は、焦点数が「2」であるものとする。
 ハルトマン像を構成する点像は、IOLの焦点距離に応じて2以上の分離点像に分離する。図13に示すように、焦点数が「2」の場合、点像PI1は、本来形成されるべき点像を基準に、ハルトマン像の中心に近い分離点像(近点点像)Pn1と、ハルトマン像の中心から遠い分離点像(遠点点像)Pf1とに分離される。光学系の構成によっては、点像PI1は、ハルトマン像の中心に近い分離点像が遠点点像Pf1として、ハルトマン像の中心から遠い分離点像が近点点像Pn1として分離される場合もある。
 第3屈折度数算出部133は、特定された2以上の分離点像を、IOLの焦点距離に対応した2以上の点像群のいずれかに分類し、点像群毎に屈折度数を算出する。図13では、点像群特定部133Dは、ハルトマン像を構成する各点像に対応した2つの分離点像を、近点の点像群と遠点の点像群とに分類する。ゼルニケ多項式近似処理部133Eは、分類された点像群から求められる波面収差情報に基づいて、点像群毎に屈折度数を算出する。第3屈折度数算出部133は、ハルトマン像毎に、上記のように点像群毎に屈折度数を算出することが可能である。
(第4屈折度数算出部134)
 被検眼Eが装用するIOLがEDoF型IOLである場合、第4屈折度数算出部134は、波面収差測定により得られたハルトマン像を含む波面収差情報に基づいて、ハルトマン像を構成する点像に対応した2つの分離点像を特定し、特定された分離点像を2つの点像群のいずれかに分類し、分類された点像群から求められる波面収差情報に基づいて、点像群毎に屈折度数を算出する。具体的には、第4屈折度数算出部134は、ハルトマン像を構成する複数の点像のそれぞれを楕円近似することにより特定された近似楕円の2つの焦点を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に、遠点に対応する屈折度数と近点に対応する屈折度数とを含む複数の屈折度数を算出する。
 図14に、図7に示す第4屈折度数算出部134の構成例の機能ブロック図を示す。
 第4屈折度数算出部134は、点像特定部134Aと、楕円近似処理部134Bと、点像群特定部134Cと、ゼルニケ多項式近似処理部134Dとを含む。
 点像特定部134Aは、点像特定部131Aと同様に、ハルトマン像を構成する点像を特定する。いくつかの実施形態では、点像特定部134Aにより点像が特定される前に、ハルトマン像に対して点像の強調処理が行われる。
 楕円近似処理部134Bは、点像特定部134Aにより特定された複数の点像のそれぞれに対して公知の楕円近似処理を施すことにより複数の近似楕円を特定し、特定された複数の近似楕円のそれぞれの2つの焦点を特定する。
 点像群特定部134Cは、楕円近似処理部134Bにより特定された近似楕円の2つの焦点のうちハルトマン像の中心に近い焦点を近点点像とし、ハルトマン像の中心から遠い焦点を遠点点像として特定する。点像群特定部134Cは、複数の近似楕円のそれぞれについて特定された複数の近点点像と複数の遠点点像とを、近点点像の点像群と、複数の遠点点像の点像群とに分類する。
 ゼルニケ多項式近似処理部134Dは、点像群特定部134Cにより特定された点像群毎に、ゼルニケ多項式近似処理部131Cと同様に被検眼Eの屈折度数を算出する。
 図15に、第1実施形態に係るEDoF型IOLのレンズ領域に対応付けてエリアセンサー56により取得された点像を模式的に示す。
 点像特定部134Aは、ハルトマン像を解析することにより点像を特定する。このとき、ハルトマン像を構成する点像は、深い焦点深度に起因して、遠点と近点とを結ぶ方向に延びる像(ボケのある像)となる。
 多焦点屈折型IOLと同様に点像が輪帯状又はセクター状に配置されている場合、演算処理部120は、第2屈折度数算出部132により、多焦点屈折型IOLと同様に点像群毎に屈折度数を算出することが可能である。多焦点回折型IOLと同様に点像が2以上の分離点像に分離される場合、演算処理部120は、第3屈折度数算出部133により、多焦点回折型IOLと同様に点像群毎に屈折度数を算出することが可能である。
 点像の形状が楕円形状の場合、楕円近似処理部134Bは、点像PI2の形状に対して楕円近似処理を施して近似楕円AC1を特定し、特定された近似楕円AC1の2つの焦点Pn2、Pf2を特定する。点像群特定部134Cは、特定された2つの焦点のうちハルトマン像の中心に近い焦点Pn2を近点点像とし、ハルトマン像の中心から遠い焦点Pf2を遠点点像として特定する。更に、点像群特定部134Cは、複数の点像のそれぞれについて、同様に2つの焦点を近点点像及び遠点点像として特定し、特定された複数の近点点像及び複数の遠点点像を、近点点像の点像群及び遠点点像の点像群に分類する。ゼルニケ多項式近似処理部134Dは、分類された点像群から求められる波面収差情報に基づいて、点像群毎に屈折度数を算出する。
 また、屈折度数算出部130は、観察系5により取得されたケラトリング像に基づいて、角膜屈折力、角膜乱視度及び角膜乱視軸角度を算出する。例えば、屈折度数算出部130は、ケラトリング像を解析することにより角膜前面の強主経線や弱主経線の角膜曲率半径を算出し、角膜曲率半径に基づいて上記パラメータを算出する。
(分布情報生成部140)
 分布情報生成部140は、IOLが有する焦点距離毎に、波面収差の分布を表す分布情報(波面収差マップ)を生成する。分布情報生成部140は、例えば、特開2002-209854号公報に開示されているように、波面収差情報に基づいて分布情報を生成する。被検眼Eの瞳孔(又はエリアセンサー56の受光面)における水平方向をx方向とし、垂直方向をy方向としたとき、分布情報生成部140は、各位置(x,y)における波面収差を水平方向及び垂直方向に公知の手法で補間して、波面収差の2次元の分布を表す分布情報を生成する。
 被検眼Eが装用するIOLが単焦点型IOLである場合、分布情報生成部140は、単一の波面収差情報に基づいて、波面収差の分布を表す分布情報を生成する。
 被検眼Eが装用するIOLが多焦点屈折型IOL又は多焦点回折型IOLである場合、分布情報生成部140は、最も近点側の点像群から求められた波面収差情報に基づいて、近点の波面収差の分布を表す分布情報を生成し、最も遠点側の点像群から求められた波面収差情報に基づいて、遠点の波面収差の分布を表す分布情報を生成する。
 被検眼Eが装用するIOLがEDoF型IOLである場合、分布情報生成部140は、近点点像の点像群から求められた波面収差情報に基づいて、近点の波面収差の分布を表す分布情報を生成し、遠点点像の点像群から求められた波面収差情報に基づいて、遠点の波面収差の分布を表す分布情報を生成する。
(シミュレーション処理部150)
 シミュレーション処理部150は、視力シミュレーションを実行する。例えば、シミュレーション処理部150は、瞳孔径情報を用いて正規化された波面収差を有する眼球に対して、例えば、0.25D間隔の複数の屈折度数のそれぞれから換算される物点から光線追跡処理を行うことで網膜面における複数の像を求める。シミュレーション処理部150は、求められた複数の屈折度数に対応する複数の像のうち、最も明瞭な像の位置又はシュトレール比が最も高い物点の位置を被検眼Eの度数として特定する。多焦点の場合は、ある範囲の中で、局所的に最も明瞭な像の位置又はシュトレール比が最も高い物点の位置を被検眼Eの遠方もしくは近方などの度数として特定する。
 また、シミュレーション処理部150は、視標の見え方を表すシミュレーション画像を生成することが可能である。視標の例として、ランドルト環、又は、所定の固定距離に対応した画像などがある。例えば、シミュレーション処理部150は、IOLが有する複数の焦点距離、又は所定の1以上の固定距離毎に、公知の手法で、瞳孔径情報を用いて正規化された波面収差情報から点像分布関数(Point Spread Function:以下、PSF)を求める。シミュレーション処理部150は、求められたPSFと、視標の画像データ(輝度分布)との畳み込み積分(コンボリューション)を演算することにより、眼底Efに当該視標が投影されたときのシミュレーション画像を求める。
 いくつかの実施形態では、シミュレーション処理部150は、PSFをフーリエ変換して光学伝達関数(Optical Transfer Function:OTF)を求める。このOTFの振幅の絶対値成分は、振幅伝達関数(Modulation Transfer Function:MTF)であり、その位相成分は、位相伝達関数(Phase Transfer Function:PTF)である。シミュレーション処理部150は、このMTFと視標の画像データとのコンボリューションを演算するとともに、PTFと視標の画像データとのコンボリューションを演算する。更に、シミュレーション処理部150は、これらのコンボリューションの演算結果を逆フーリエ変換することにより、PSFと視標の画像データとのコンボリューションに相当するシミュレーション画像を求める。
 このようなシミュレーション処理部150により実行される処理は、例えば、特開2004-337236号公報に開示されている。
 表示制御部としての制御部110(主制御部111)は、IOLが有する焦点距離毎に又は1以上の固定距離毎に、屈折度数算出部130により算出された屈折度数に対応した被検眼Eの見え方を表す画像を表示部170に表示させることが可能である。例えば、固定距離は、「無限遠」、「1m」、「40cm」、及び「20cm」を含む。被検眼Eの見え方を表す画像は、上記のシミュレーション処理部150により生成されたシミュレーション画像である。
 また、表示制御部としての制御部110(主制御部111)は、IOLが有する焦点距離毎に又は1以上の固定距離毎に、被検眼Eの視力値のシミュレーション結果を表示部170に表示させることが可能である。視力値のシミュレーション結果は、上記のシミュレーション処理部150により求められた被検眼Eの度数(視力値)である。
(表示部170、操作部180)
 表示部170は、ユーザインターフェイス部として、制御部110(主制御部111)による制御を受けて情報を表示する。表示部170は、図1に示す表示部10を含む。
 表示部170は、表示制御部としての制御部110(主制御部111)からの制御を受け、演算処理部120により実行された処理結果を表示することが可能である。演算処理部120により実行された処理結果の例として、屈折度数算出部130により算出された1以上の屈折度数、分布情報生成部140により生成された分布情報、シミュレーション処理部150により実行されたシミュレーション結果などがある。
 屈折度数算出部130により算出された1以上の屈折度数の例として、第1屈折度数算出部131により算出された単一の屈折度数、第2屈折度数算出部132又は第3屈折度数算出部133により算出されIOLが有する焦点距離(エリア)毎の焦点数分の屈折度数、第4屈折度数算出部134により算出された遠点側の屈折度数及び近点側の屈折度数などがある。いくつかの実施形態では、第2屈折度数算出部132又は第3屈折度数算出部133により算出された焦点数分の屈折度数のうち、遠点の屈折度数及び近点の屈折度数が表示部170に表示される。いくつかの実施形態では、屈折度数算出部130により算出された、第4屈折度数算出部134により算出された最も遠点側の屈折度数と最も近点側の屈折度数との差が表示部170に表示される。
 操作部180は、ユーザインターフェイス部として、眼科装置を操作するために使用される。操作部180は、眼科装置に設けられた各種のハードウェアキー(ジョイスティック、ボタン、スイッチなど)を含む。また、操作部180は、タッチパネル式の表示画面10aに表示される各種のソフトウェアキー(ボタン、アイコン、メニューなど)を含んでもよい。
 表示部170及び操作部180の少なくとも一部が一体的に構成されていてもよい。その典型例として、タッチパネル式の表示画面10aがある。
(通信部190)
 通信部190は、図示しない外部装置と通信するための機能を有する。通信部190は、例えば処理部9に設けられていてもよい。通信部190は、外部装置との通信の形態に応じた構成を有する。
 演算処理部120は、実施形態に係る「眼科情報処理装置」の一例である。通信部190、又は収差測定投影系6及び収差測定受光系7は、実施形態に係る「取得部」の一例である。収差測定投影系6及び収差測定受光系7は、実施形態に係る「測定光学系」の一例である。移動ユニット77により光軸方向に移動可能なコリメータレンズ74は、実施形態に係る「合焦レンズ」の一例である。屈折度数算出部130は、実施形態に係る「算出部」の一例である。制御部110(主制御部111)は、実施形態に係る「表示制御部」の一例である。表示部170は、実施形態に係る「表示手段」の一例である。
[動作例]
 第1実施形態に係る眼科装置の動作例について説明する。
 図16~図21に、第1実施形態に係る眼科装置100の動作例のフロー図を示す。図16は、被検眼Eが装用するIOLのタイプに応じた算出処理方法で被検眼Eの屈折度数を算出する眼科装置100の動作例のフロー図を表す。図17は、図16のステップS11の動作例のフロー図を表す。図18は、図17のステップS22の動作例のフロー図を表す。図19は、図17のステップS24の動作例のフロー図を表す。図20は、図17のステップS26の動作例のフロー図を表す。図21は、図17のステップS28の動作例のフロー図を表す。
 記憶部112には、図16~図21に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部111は、このコンピュータプログラムに従って動作することにより、図16~図21に示す処理を実行する。
(S1:IOL情報を取得)
 まず、主制御部111は、被検眼Eが装用するIOL情報を取得する。
 例えば、主制御部111は、通信部190を制御して、通信部190を介して接続されている眼科装置又はサーバー等の外部装置に格納された被検者の電子カルテ情報から、被検眼Eが装用するIOLのタイプを表すIOL情報を取得する。
 いくつかの実施形態では、主制御部111は、操作部180に対するユーザーの操作内容に基づいて指定されたIOLのタイプからIOL情報を取得する。
 いくつかの実施形態では、主制御部111は、後述のアライメント完了後に、観察系5を制御して被検眼Eの徹照像又は前眼部像を取得させ、演算処理部120を制御して徹照像又は前眼部像を解析することにより被検眼Eが装用するIOLのタイプを判別し、IOL情報として取得させる。この場合、例えば、主制御部111は、複数の前眼部照明光源57の1つを点灯させて光軸から離れた位置から照明光で眼底Efを照明してその戻り光をエリアセンサー56で受光することで徹照像を取得することができる。或いは、例えば、主制御部111は、XYアライメント光源21をSLD又は高輝度LEDに切り替えて眼底Efに光を投射させ、その戻り光をエリアセンサー56で受光することで徹照像を取得させる。また、主制御部111は、前眼部照明光源27を点灯させて、エリアセンサー56で戻り光を受光することで、被検眼Eの前眼部像を取得させる。主制御部111は、例えば、特開2014-209994号公報に開示された手法を用いて、被検眼Eが装用するIOLのタイプを判別し、IOL情報を取得することが可能である。
(S2:瞳孔径情報を取得)
 続いて、主制御部111は、被検眼Eの瞳孔径を表す瞳孔径情報を取得する。
 例えば、主制御部111は、通信部190を制御して、通信部190を介して接続されている眼科装置又はサーバー等の外部装置に格納された被検者の電子カルテ情報から、被検眼Eの瞳孔径情報を取得する。
 いくつかの実施形態では、主制御部111は、操作部180に対するユーザーの操作内容に基づいて指定された瞳孔径から瞳孔径情報を取得する。
 いくつかの実施形態では、主制御部111は、後述のアライメント完了後に、視標投影系4の光源41及び視標チャート42の明るさを調整し、観察系5を制御して被検眼Eの前眼部像を取得させ、演算処理部120を制御して前眼部像を解析することにより被検眼Eの瞳孔径を特定して瞳孔径情報を取得させる。ここで、視標投影系4の光源41及び視標チャート42の明るさを、例えば被検眼Eの日常の明るさに近付けたり、被検眼Eが希望する状態の明るさに設定したり、又は、任意の瞳孔径で解析できるように暗めに設定することが可能である。
(S3:アライメント)
 次に、図示しない顔受け部に被検者の顔が固定された状態で、検者が操作部180に対して所定の操作を行うことで、眼科装置100は、被検眼Eに対して固視標の呈示を開始する。具体的には、主制御部111は、視標投影系4を制御することにより、被検眼Eに固視標を呈示させる。
 続いて、図示しない顔受け部に被検者の顔が固定された状態で、検者が操作部180に対して所定の操作を行うことで、眼科装置100は、アライメントを実行する。これにより、XYアライメント系2によるXYアライメントとZアライメント系1によるZアライメントとによりヘッド部が被検眼Eの検査位置に移動される。検査位置とは、被検眼Eの検査を既定の精度内で行うことが可能な位置である。
 具体的には、主制御部111は、エリアセンサー56の受光面上に結像された前眼部像の撮像信号を取得し、表示部170(表示部10の表示画面10a)に前眼部像E’を表示させる。その後、上記のXYアライメントとZアライメントとによりヘッド部が被検眼Eの検査位置に移動される。ヘッド部の移動は、主制御部111による指示に従って、主制御部111によって実行されるが、ユーザーによる操作若しくは指示に従って主制御部111によって実行されてもよい。
 アライメント完了後、主制御部111は、移動ユニット69(光源61)、移動ユニット77、及び移動ユニット46のそれぞれを、光軸に沿って原点の位置(例えば、0Dに相当する位置)に移動させる。いくつかの実施形態では、主制御部111は、アライメントを実行する前に、移動ユニット69(光源61)、移動ユニット77、及び移動ユニット46のそれぞれを、光軸に沿って原点の位置(例えば、0Dに相当する位置)に移動させる。
(S4:多焦点回折型IOL?)
 続いて、主制御部111は、ステップS1において取得されたIOL情報に基づいて、被検眼Eが装用するIOLが多焦点回折型IOLであるか否かを判定する。
 ステップS4において、被検眼Eが装用するIOLが多焦点回折型IOLであると判定されたとき(S4:Y)、眼科装置100の動作は、ステップS5に移行する。ステップS4において、被検眼Eが装用するIOLが多焦点回折型IOLではないと判定されたとき(S4:N)、眼科装置100の動作は、ステップS13に移行する。
(S5:光源を切り替え)
 ステップS4において、被検眼Eが装用するIOLが多焦点回折型IOLであると判定されたとき(S4:Y)、主制御部111は、光源61を制御して、測定用光源を光源61Bから光源61Aに切り替える。
(S6:ハルトマン像を取得)
 ステップS5に続いて、主制御部111は、仮測定を実行する。
 具体的には、主制御部111は、視標チャート42に視標を被検眼Eに呈示させた状態で、光源61Aを点灯させて可視光を被検眼Eに照射し、被検眼Eからの戻り光に基づくハルトマン像(点像群)をエリアセンサー76により検出させる。
(S7:屈折度数を算出)
 次に、主制御部111は、エリアセンサー76により検出されたハルトマン像を構成する点像の間隔に基づいて屈折度数を屈折度数算出部130に算出させ、算出された屈折度数から合焦レンズとしてのコリメータレンズ74を含む移動ユニット77の移動量(合焦レンズの移動量に相当)を特定する。このとき、屈折度数算出部130は、ハルトマン像を構成する点像の間隔に基づいて、球面度数Sを屈折度数として算出する。
(S8:合焦レンズを移動)
 主制御部111は、ステップS7において算出された屈折度数(球面度数S)に対応した移動量に基づき遠点に相当する位置に移動ユニット77(合焦レンズとしてのコリメータレンズ74)を光軸に沿って移動させる。これに連動して、移動ユニット46及び移動ユニット69のそれぞれも、上記の屈折度数に対応した移動量だけ光軸方向に移動する。
(S9:探索)
 上記のように、被検眼Eが装用するIOLが多焦点回折型IOLの場合、ハルトマン像を構成する点像が2以上の分離点像に分離する。このとき、近用側の分離点像の輪郭が明瞭でない場合が多い。そこで、主制御部111は、合焦レンズを移動しつつ(近用側の)分離点像が明瞭になる位置を探索するように各部を制御する。
 主制御部111は、ステップS8において移動された遠点に相当する位置から近点側に所定ステップだけ移動ユニット77を移動させながら、収差測定投影系6及び収差測定受光系7を制御してハルトマン像の取得を繰り返す。例えば、主制御部111は、屈折度数算出部130(演算処理部120)を制御して、繰り返し取得されたハルトマン像のそれぞれに対して強調処理を実行させる。また、主制御部111は、光量を上げるように光源61Aを制御したり、エリアセンサー76のゲインを上げたり露光時間を長くしたりすることで、繰り返しハルトマン像を取得するように収差測定投影系6及び収差測定受光系7を制御してもよい。
 主制御部111は、屈折度数算出部130(演算処理部120)を探索処理部として制御して、取得されたハルトマン像を解析させることにより分離点像を良好に特定可能な位置(合焦レンズ(移動ユニット77)の位置)を探索させる。いくつかの実施形態では、屈折度数算出部130(演算処理部120)は、1つの点像が分離した2以上の分離点像のうちコントラストが最も低い分離点像のコントラストが最高となる位置を、分離点像を良好に特定可能な位置として特定する。いくつかの実施形態では、屈折度数算出部130(演算処理部120)は、2以上の分離点像の間隔(代表位置の間隔)が最も広くなる位置を、分離点像を良好に特定可能な位置として特定する。いくつかの実施形態では、屈折度数算出部130(演算処理部120)は、特定された分離点像の数が最多になる位置を、分離点像を良好に特定可能な位置として特定する。
(S10:ハルトマン像を取得)
 主制御部111は、ステップS8において移動された遠点に相当する位置から更に所定のディオプター分だけ移動ユニット46を光軸方向に移動させ、被検眼Eに視標を雲霧視させる。なお、IOLを装用する被検眼は調節力がないと判断して、雲霧視の機能が省略されてもよい。
 続いて、主制御部111は、ステップS9において探索された位置に移動ユニット77を移動させ、本測定として、光源61Aを点灯させて可視光を被検眼Eに照射し、被検眼Eからの戻り光に基づくハルトマン像(点像群)をエリアセンサー76により検出させる。
(S13:ハルトマン像を取得)
 一方、ステップS4において、被検眼Eが装用するIOLが多焦点回折型IOLではないと判定されたとき(S4:N)、主制御部111は、仮測定を実行する。
 具体的には、主制御部111は、視標チャート42に視標を被検眼Eに呈示させた状態で、光源61Bを点灯させて近赤外光を被検眼Eに照射し、被検眼Eからの戻り光に基づくハルトマン像(点像群)をエリアセンサー76により検出させる。
(S14:屈折度数を算出)
 次に、主制御部111は、エリアセンサー76により検出されたハルトマン像を構成する点像の間隔に基づいて屈折度数を屈折度数算出部130に算出させ、算出された屈折度数から合焦レンズとしてのコリメータレンズ74を含む移動ユニット77の移動量(合焦レンズの移動量に相当)を特定する。このとき、屈折度数算出部130は、ハルトマン像を構成する点像の間隔に基づいて、球面度数Sを屈折度数として算出する。
(S15:合焦レンズを移動)
 主制御部111は、ステップS14において算出された屈折度数(球面度数S)に対応した移動量に基づき遠点に相当する位置に移動ユニット77(合焦レンズとしてのコリメータレンズ74)を光軸に沿って移動させる。これに連動して、移動ユニット46及び移動ユニット69のそれぞれも、上記の屈折度数に対応した移動量だけ光軸方向に移動する。
 主制御部111は、遠点に相当する位置から更に所定のディオプター分だけ移動ユニット46を光軸方向に移動させ、被検眼Eに視標を雲霧視させる。なお、IOLを装用する被検眼は調節力がないと判断して、雲霧視の機能が省略されてもよい。
(S16:ハルトマン像を取得)
 続いて、主制御部111は、本測定として、光源61Bを点灯させて近赤外光を被検眼Eに照射し、被検眼Eからの戻り光に基づくハルトマン像(点像群)をエリアセンサー76により検出させる。
 なお、IOLのタイプにかかわらず、ステップS6~ステップS10を一律に実行してもよい。この場合、被検眼Eが装用するIOLが多焦点回折型IOL以外のタイプである場合、ステップS6~ステップS10を実行した場合の屈折度数の算出結果は、ステップS13~ステップS16を実行した場合の屈折度数の算出結果と同一になる。
(S11:屈折度数を算出)
 ステップS10又はステップS16に続いて、主制御部111は、エリアセンサー76により検出されたハルトマン像を構成する点像の間隔に基づいて屈折度数を屈折度数算出部130に算出させる。屈折度数算出部130は、ステップS1において取得されたIOL情報に対応した算出処理方法で、被検眼Eの屈折度数を算出させる。ステップS11において算出される屈折度数は、球面度数(S)、円柱度数(乱視度数)(C)、及び乱視軸角度(A)を含む。ステップS11の詳細は、後述する。
(S12:出力)
 続いて、主制御部111は、ステップS11において算出された屈折度数を表示部170に表示させる。いくつかの実施形態では、主制御部111は、分布情報生成部140を制御して、生成された分布情報を表示部170に表示させる。いくつかの実施形態では、主制御部111は、シミュレーション処理部150を制御して、取得されたシミュレーション結果を表示部170に表示させる。いくつかの実施形態では、主制御部111は、波面収差測定により得られた測定結果とシミュレーション結果とを関連付けて表示部170に表示させる。
 以上で、眼科装置100の動作は終了である(エンド)。
 図16のステップS11は、図17に示すフローに従って実行される。
(S21:単焦点型IOL?)
 図16のステップS11では、まず、主制御部111は、ステップS1において取得されたIOL情報に基づいて、被検眼Eが装用するIOLが単焦点型IOLであるか否かを判定する。
 ステップS21において、被検眼Eが装用するIOLが単焦点型IOLであると判定されたとき(S21:Y)、眼科装置100の動作は、ステップS22に移行する。ステップS21において、被検眼Eが装用するIOLが単焦点型IOLではないと判定されたとき(S21:N)、眼科装置100の動作は、ステップS23に移行する。
(S22:第1屈折度数算出処理)
 ステップS21において、被検眼Eが装用するIOLが単焦点型IOLであると判定されたとき(S21:Y)、主制御部111は、第1屈折度数算出部131を制御して、ステップS10において取得された波面収差情報に基づいて、単焦点型IOLに対応した算出処理方法で被検眼Eの屈折度数を算出する第1屈折度数算出処理を実行させる。ステップS22の詳細は、後述する。
 以上で、図16のステップS11は終了である(エンド)。
(S23:多焦点屈折型IOL?)
 ステップS21において、被検眼Eが装用するIOLが単焦点型IOLではないと判定されたとき(S21:N)、主制御部111は、ステップS1において取得されたIOL情報に基づいて、被検眼Eが装用するIOLが多焦点屈折型IOLであるか否かを判定する。
 ステップS23において、被検眼Eが装用するIOLが多焦点屈折型IOLであると判定されたとき(S23:Y)、眼科装置100の動作は、ステップS24に移行する。ステップS23において、被検眼Eが装用するIOLが多焦点屈折型IOLではないと判定されたとき(S23:N)、眼科装置100の動作は、ステップS25に移行する。
(S24:第2屈折度数算出処理)
 ステップS23において、被検眼Eが装用するIOLが多焦点屈折型IOLであると判定されたとき(S23:Y)、主制御部111は、第2屈折度数算出部132を制御して、ステップS10において取得された波面収差情報に基づいて、多焦点屈折型IOLに対応した算出処理方法で被検眼Eの屈折度数を算出する第2屈折度数算出処理を実行させる。ステップS24の詳細は、後述する。
 以上で、図16のステップS11は終了である(エンド)。
(S25:多焦点回折型IOL?)
 ステップS23において、被検眼Eが装用するIOLが多焦点屈折型IOLではないと判定されたとき(S23:N)、主制御部111は、ステップS1において取得されたIOL情報に基づいて、被検眼Eが装用するIOLが多焦点回折型IOLであるか否かを判定する。
 ステップS25において、被検眼Eが装用するIOLが多焦点回折型IOLであると判定されたとき(S25:Y)、眼科装置100の動作は、ステップS26に移行する。ステップS25において、被検眼Eが装用するIOLが多焦点回折型IOLではないと判定されたとき(S25:N)、眼科装置100の動作は、ステップS27に移行する。
(S26:第3屈折度数算出処理)
 ステップS25において、被検眼Eが装用するIOLが多焦点回折型IOLであると判定されたとき(S25:Y)、主制御部111は、第3屈折度数算出部133を制御して、ステップS10において取得された波面収差情報に基づいて、多焦点回折型IOLに対応した算出処理方法で被検眼Eの屈折度数を算出する第3屈折度数算出処理を実行させる。ステップS26の詳細は、後述する。
 以上で、図16のステップS11は終了である(エンド)。
(S27:EDoF型IOL?)
 ステップS25において、被検眼Eが装用するIOLが多焦点回折型IOLではないと判定されたとき(S25:N)、主制御部111は、ステップS1において取得されたIOL情報に基づいて、被検眼Eが装用するIOLがEDoF型IOLであるか否かを判定する。
 ステップS27において、被検眼Eが装用するIOLがEDoF型IOLであると判定されたとき(S27:Y)、眼科装置100の動作は、ステップS28に移行する。ステップS27において、被検眼Eが装用するIOLがEDoF型IOLではないと判定されたとき(S27:N)、眼科装置100の動作は、終了である(エンド)。
(S28:第4屈折度数算出処理)
 ステップS27において、被検眼Eが装用するIOLがEDoF型IOLであると判定されたとき(S27:Y)、主制御部111は、第4屈折度数算出部134を制御して、ステップS10において取得された波面収差情報に基づいて、EDoF型IOLに対応した算出処理方法で被検眼Eの屈折度数を算出する第4屈折度数算出処理を実行させる。ステップS28の詳細は、後述する。
 ステップS28の後、図16のステップS11は終了である(エンド)。
 図17のステップS22では、第1屈折度数算出部131により、図18に示すフローに従って第1屈折度数算出処理が実行される。
(S31:点像を特定)
 図17のステップS22では、まず、主制御部111は、点像特定部131Aを制御して、ステップS16において取得されたハルトマン像を構成する点像を特定させる。
(S32:代表位置を特定)
 次に、主制御部111は、代表位置特定部131Bを制御して、ステップS31において特定された点像の代表位置(ここでは、重心位置)を特定させる。
(S33:ゼルニケ多項式近似処理)
 続いて、主制御部111は、ゼルニケ多項式近似処理部131Cを制御して、ステップS32において特定された複数の点像の代表位置とステップS2において取得された瞳孔径情報とに基づいてゼルニケ多項式近似処理を実行することによりゼルニケ係数とゼルニケ多項式とにより表される波面収差情報(波面の近似式)を算出させる。ゼルニケ多項式近似処理部131Cは、ステップS2において取得された瞳孔径情報を用いて、算出された波面収差情報を正規化する。
(S34:屈折度数(SCA)を算出)
 次に、主制御部111は、第1屈折度数算出部131を制御して、ステップS33において実行されたゼルニケ多項式近似処理により得られたゼルニケ係数から、公知の演算により、球面度数S、乱視度数C及び乱視軸角度Aを求める。
 以上で、図17のステップS22における第1屈折度数算出処理は終了である(エンド)。
 図17のステップS24では、第2屈折度数算出部132により、図19に示すフローに従って第2屈折度数算出処理が実行される。
(S41:点像を特定)
 図17のステップS24では、まず、主制御部111は、点像特定部132Aを制御して、ステップS16において取得されたハルトマン像を構成する点像を特定させる。いくつかの実施形態では、主制御部111は、第2屈折度数算出部132を制御して、ステップS16において取得されたハルトマン像に対して点像の強調処理を施してから、上記のように点像特定部132Aを制御する。
(S42:代表位置を特定)
 次に、主制御部111は、代表位置特定部132Bを制御して、ステップS41において特定された点像の代表位置(ここでは、重心位置)を特定させる。
(S43:点像群を特定)
 続いて、主制御部111は、点像群特定部132Cを制御し、ステップS42において特定された代表位置に基づいてハルトマン像を構成する点像が、IOLが有する焦点距離毎にあらかじめ決められた複数のエリアのうち、どのエリアに含まれるかを特定させる。ここで、IOLの瞳孔内での位置を特定できていれば、IOLの焦点距離毎の複数のエリア(焦点数分のエリア)のそれぞれが、ハルトマン像のどの位置に配置されるかを示す位置関係は既知である。従って、点像群特定部132Cは、IOL情報によって特定されるIOLのタイプに基づいて、点像の代表位置がどのエリアに配置されるかを特定することが可能である。点像群特定部132Cは、IOLが有する焦点距離毎(エリア毎)に点像を分類する(図10及び図11参照)。点像群特定部132Cは、所定の基準間隔に対して点像の間隔が狭まっている領域と、点像の間隔が広がっている領域を特定することにより、点像群を特定してもよい。
 例えば、被検眼Eが装用するIOLの焦点数が「2」の場合、点像群特定部132Cは、近用エリアに属する1以上の点像を含む点像群と、遠用エリアに属する1以上の点像を含む点像群とを特定する。例えば、被検眼Eが装用するIOLの焦点数が「3」の場合、点像群特定部132Cは、近用エリアに属する1以上の点像を含む点像群と、1以上の中用エリアに属する1以上の点像を含む点像群と、遠用エリアに属する1以上の点像を含む点像群とを特定する。例えば、被検眼Eが装用するIOLの焦点数が4以上の場合、点像群特定部132Cは、近用エリアに属する1以上の点像を含む点像群と、2以上の中用エリアに属する1以上の点像を含む点像群と、遠用エリアに属する1以上の点像を含む点像群とを特定する。
(S44:点像群毎にゼルニケ多項式近似処理)
 続いて、主制御部111は、ゼルニケ多項式近似処理部132Dを制御して、ステップS43において特定された点像群毎にゼルニケ多項式近似処理を実行することによりゼルニケ係数とゼルニケ多項式とにより表される波面収差情報(波面の近似式)を点像群毎に算出させる。ゼルニケ多項式近似処理部132Dは、ステップS2において取得された瞳孔径情報を用いて、点像群毎に算出された波面収差情報のそれぞれを正規化する。
(S45:点像群毎に屈折度数(SCA)を算出)
 次に、主制御部111は、第2屈折度数算出部132を制御して、ステップS44において点像群毎に実行されたゼルニケ多項式近似処理により得られたゼルニケ係数から、公知の演算により、球面度数S、乱視度数C及び乱視軸角度Aを点像群毎に求める。
 以上で、図17のステップS24における第2屈折度数算出処理は終了である(エンド)。
 図17のステップS26では、第3屈折度数算出部133により、図20に示すフローに従って第3屈折度数算出処理が実行される。
(S51:強調処理)
 図17のステップS26では、まず、主制御部111は、強調処理部133Aを制御して、ステップS10において取得されたハルトマン像に対して点像(分離点像)の強調処理を実行させる。これにより、ハルトマン像を構成する点像が分離することにより形成される2以上の分離点像(特に、近点側の分離点像)を特定しやすくなる。
(S52:点像を特定)
 次に、主制御部111は、点像特定部133Bを制御して、ステップS51において分離点像の強調処理が施されたハルトマン像を構成する分離点像を特定させる。
(S53:代表位置を特定)
 次に、主制御部111は、代表位置特定部133Cを制御して、ステップS51において特定された分離点像の代表位置(ここでは、重心位置)を特定させる。
(S54:点像群を特定)
 続いて、主制御部111は、点像群特定部133Dを制御し、ステップS53において特定された代表位置に基づいて分離点像が、IOLが有する焦点距離毎に点像群を特定させる。点像群特定部132Cは、IOL情報によって特定されるIOLのタイプに応じて決定される2以上の点像群のいずれかに、ステップS52において特定された分離点像を分類する。
 例えば、被検眼Eが装用するIOLの焦点数が「2」の場合、点像群特定部133Dは、ステップS52において特定された複数の分離点像のそれぞれを、近点の分離点像の点像群、及び遠点の分離点像の点像群のいずれかに分類することで、近点の分離点像の点像群、及び遠点の分離点像の点像群を特定する。例えば、被検眼Eが装用するIOLの焦点数が「3」の場合、点像群特定部133Dは、ステップS52において特定された複数の分離点像のそれぞれを、近点の分離点像の点像群、中点の分離点像の点像群、及び遠点の分離点像の点像群のいずれかに分類することで、近点の分離点像の点像群、中点の分離点像の点像群、及び遠点の分離点像の点像群を特定する。例えば、被検眼Eが装用するIOLの焦点数が4以上の場合、点像群特定部133Dは、ステップS52において特定された複数の分離点像のそれぞれを、近点の分離点像の点像群、2以上の中点の分離点像の2以上の点像群、及び遠点の分離点像の点像群のいずれかに分類することで、近点の分離点像の点像群、2以上の中点の分離点像の2以上の点像群、及び遠点の分離点像の点像群を特定する。
(S55:点像群毎にゼルニケ多項式近似処理)
 続いて、主制御部111は、ゼルニケ多項式近似処理部133Eを制御して、ステップS54において特定された点像群毎にゼルニケ多項式近似処理を実行することによりゼルニケ係数とゼルニケ多項式とにより表される波面収差情報(波面の近似式)を点像群毎に算出させる。ゼルニケ多項式近似処理部133Eは、ステップS2において取得された瞳孔径情報を用いて、点像群毎に算出された波面収差情報のそれぞれを正規化する。
(S56:点像群毎に屈折度数(SCA)を算出)
 次に、主制御部111は、第3屈折度数算出部133を制御して、ステップS55において点像群毎に実行されたゼルニケ多項式近似処理により得られたゼルニケ係数から、公知の演算により、球面度数S、乱視度数C及び乱視軸角度Aを点像群毎に求める。
 以上で、図17のステップS26における第3屈折度数算出処理は終了である(エンド)。
 図17のステップS28では、第4屈折度数算出部134により、図21に示すフローに従って第4屈折度数算出処理が実行される。
(S61:点像を特定)
 図17のステップS28では、まず、主制御部111は、点像特定部134Aを制御して、ステップS16において取得されたハルトマン像を構成する点像を特定させる。いくつかの実施形態では、主制御部111は、第4屈折度数算出部134を制御して、ステップS16において取得されたハルトマン像に対して点像の強調処理を施してから、上記のように点像特定部134Aを制御する。
(S62:エリア毎に配置?)
 次に、主制御部111は、ステップS61において特定された複数の点像が、図10又は図11に示すように、IOLが有する焦点距離に対応したエリア毎に配置されているか否かを判定する。いくつかの実施形態では、主制御部111は、第4屈折度数算出部134を制御して、ステップS42と同様に、ステップS61において特定された点像の代表位置を特定し、特定された代表位置に基づいて、ステップS43と同様に、IOLが有する焦点距離に対応したエリア毎に配置されているか否かを判定する。
 特定された複数の点像が、IOLが有する焦点距離に対応したエリア毎に配置されていると判定されたとき(S62:Y)、第4屈折度数算出処理はステップS63に移行する。特定された複数の点像が、IOLが有する焦点距離に対応したエリア毎に配置されていないと判定されたとき(S62:N)、第4屈折度数算出処理はステップS64に移行する。
(S63:第2屈折度数算出処理)
 ステップS62において、特定された複数の点像が、IOLが有する焦点距離に対応したエリア毎に配置されている判定されたとき(S62:Y)、主制御部111は、第2屈折度数算出部132を制御して、ステップS61において特定された点像に基づいて被検眼Eの屈折度数を算出させる第2屈折度数算出処理を実行させる。第2屈折度数算出部132は、図19に示すフローに従って第2屈折度数算出処理を実行する。以上で、図17のステップS28の処理は終了である(エンド)。
(S64:点像は分離?)
 ステップS62において、特定された複数の点像が、IOLが有する焦点距離に対応したエリア毎に配置されていないと判定されたとき(S62:N)、主制御部111は、ステップS61において特定された複数の点像が、図13に示すように、ハルトマン像を構成する複数の点像のうち所定の閾値以上の点像が、2以上の分離点像に分離するか否かを判定する。
 特定された複数の点像のうち所定の閾値以上の点像が、2以上の分離点像に分離していると判定されたとき(S64:Y)、第4屈折度数算出処理はステップS65に移行する。特定された複数の点像のうち所定の閾値以上の点像が、2以上の分離点像に分離していないと判定されたとき(S64:N)、第4屈折度数算出処理はステップS66に移行する。
(S65:第3屈折度数算出処理)
 ステップS64において、特定された複数の点像のうち所定の閾値以上の点像が、2以上の分離点像に分離していると判定されたとき(S64:Y)、主制御部111は、第3屈折度数算出部133を制御して、ステップS61において特定された点像に基づいて被検眼Eの屈折度数を算出させる第3屈折度数算出処理を実行させる。第3屈折度数算出部133は、図20に示すフローに従って第3屈折度数算出処理を実行する。以上で、図17のステップS28の処理は終了である(エンド)。
(S66:楕円近似処理)
 ステップS64において、特定された複数の点像のうち所定の閾値以上の点像が、2以上の分離点像に分離していないと判定されたとき(S64:N)、主制御部111は、楕円近似処理部134Bを制御して、ステップS61において特定された複数の点像のそれぞれに対して、公知の楕円近似処理を実行させる。楕円近似処理部134Bは、ステップS61において特定された複数の点像のそれぞれの複数の近似楕円を特定し、特定された複数の近似楕円のそれぞれの2つの焦点を特定する。
(S67:点像群を特定)
 次に、主制御部111は、点像群特定部134Cを制御して、ステップS66において特定された近似楕円の2つの焦点のうちハルトマン像の中心に近い焦点を近点点像とし、ハルトマン像の中心から遠い焦点を遠点点像として特定させる。点像群特定部134Cは、複数の近似楕円のそれぞれについて特定された複数の近点点像と複数の遠点点像とを、近点点像の点像群と、複数の遠点点像の点像群とに分類する。
(S68:点像群毎にゼルニケ多項式近似処理)
 続いて、主制御部111は、ゼルニケ多項式近似処理部134Dを制御して、ステップS67において特定された点像群毎にゼルニケ多項式近似処理を実行することによりゼルニケ係数とゼルニケ多項式とにより表される波面収差情報(波面の近似式)を点像群毎に算出させる。ゼルニケ多項式近似処理部134Dは、ステップS2において取得された瞳孔径情報を用いて、点像群毎に算出された波面収差情報のそれぞれを正規化する。
(S69:点像群毎に屈折度数(SCA)を算出)
 次に、主制御部111は、第4屈折度数算出部134を制御して、ステップS68において点像群毎に実行されたゼルニケ多項式近似処理により得られたゼルニケ係数から、公知の演算により、球面度数S、乱視度数C及び乱視軸角度Aを点像群毎に求める。
 以上で、図17のステップS28における第4屈折度数算出処理は終了である(エンド)。
 図16のステップS12において、例えば、主制御部111は、次のような情報を表示部170に表示させることが可能である。
 図22に、図16のステップS12における表示部170の第1表示例を示す。第1表示例は、屈折度数の算出結果の表示例である。
 主制御部111は、屈折度数算出部130を制御して、図16のステップS11において算出された屈折度数(SCA)から、公知の演算方法で等価球面度数(SE)を算出させる。これにより、単焦点型IOLを除いて、IOLのタイプに応じて、IOLが有する焦点距離毎に、屈折度数(球面度数(S)、円柱度数(C)、乱視軸角度(A)、及び等価球面度数(SE))が算出される。主制御部111は、算出された屈折度数を表示部170に表示させる。
 屈折度数算出部130は、球面度数(S)、円柱度数(C)、乱視軸角度(A)、及び等価球面度数(SE)のそれぞれについて、遠点と及び近点の差分を算出することが可能である。
 例えば、主制御部111は、IOLのタイプに応じてIOLが有する焦点距離(エリア)毎に算出された屈折度数のうち、遠点及び近点の屈折度数を表示部170に表示させる(図22)。
 図23に、図16のステップS12における表示部170の第2表示例を示す。第2表示例は、分布情報の表示例である。
 主制御部111は、分布情報生成部140を制御して、IOLが有する焦点距離毎に、波面収差の分布を表す分布情報(波面収差マップ)を生成させる。主制御部111は、生成された分布情報を表示部170に表示させる。
 主制御部111は、IOLが有する焦点距離毎に生成可能な分布情報のうち、遠点及び近点の分布情報を生成し、生成された外側の点群(遠点点群)及び内側の点群(近点点群)の分布情報を表示部170に表示させることが可能である(図23)。
 図24に、図16のステップS12における表示部170の第3表示例を示す。第3表示例は、シミュレーション結果の表示例である。
 主制御部111は、シミュレーション処理部150を制御して、視力シミュレーションを実行させる主制御部111は、生成されたシミュレーション結果を表示部170に表示させる。シミュレーション処理部150は、物点の位置を変更しつつ、複数の物点のそれぞれに対応する被検眼Eの複数の視力値を求める。
 主制御部111は、IOL情報に基づいて特定されたIOLの特性情報(製品仕様)T1に重畳して、視力シミュレーション結果T2を表示部170に表示させることが可能である(図24)。
 図25に、図16のステップS12における表示部170の第4表示例を示す。第4表示例は、視標の見え方を表すシミュレーション画像の表示例である。
 主制御部111は、シミュレーション処理部150を制御して、IOLが有する複数の焦点距離、又は所定の1以上の固定距離毎に、PSFを求め、求められたPSFと、視標の画像データ(輝度分布)との畳み込み積分(コンボリューション)を演算することにより、眼底Efに当該視標が投影されたときのシミュレーション画像を生成させる。
 図25では、固定距離に対応した視標の画像として、無限遠の視標に対応する風景の画像、1mの視標に対応するデスクトップパソコンの画面を表す画像、40cmの視標に対応するノートパソコンの画面を表す画像、20cmの視標に対応するスマートフォンの画面を表す画像が含まれる。シミュレーション処理部150は、図25に示す各画像の画像データとPSFとの畳み込み積分を演算する。主制御部111は、無限遠、1m、40cm、20cmの固定距離の視標の見え方を表すシミュレーション画像を表示部170に表示させる。なお、図25において、視標はランドルト環であってもよい。
 以上説明したように、第1実施形態によれば、被検眼Eに対してIOLが有する平均焦点距離に対応して合焦された状態で取得された波面収差情報から、被検眼Eが装用するIOLのタイプに応じた算出処理方法で、IOLを装用する被検眼Eの屈折度数を算出するようにしたので、IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
<第2実施形態>
 一般的に、IOLを装用する被検眼には調節機能がなくなると考えられている。しかしながら、毛様体筋の動き等によってIOLを装用する被検眼に調節機能を持たせることが可能である。そこで、第2実施形態では、遠点側と近点側とを含む2以上の距離で波面収差測定を行って、それぞれの位置で遠用度数(遠点の屈折度数)及び近用度数(近点の屈折度数)が算出される。
 以下、第2実施形態に係る眼科装置の構成及び動作について、第1実施形態に係る眼科装置100との相違点を中心に説明する。
 第2実施形態に係る眼科装置の構成は、第1実施形態に係る眼科装置100の構成と同様である。
 図26及び図27に、第2実施形態に係る眼科装置の動作例のフロー図を示す。図26及び図27は、被検眼Eが装用するIOLのタイプに応じた算出処理方法で被検眼Eの屈折度数を算出する眼科装置の動作例のフロー図を表す。記憶部112には、図26及び図27に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部111は、このコンピュータプログラムに従って動作することにより、図26及び図27に示す処理を実行する。
(S71:IOL情報を取得)
 まず、主制御部111は、ステップS1と同様に、被検眼Eが装用するIOL情報を取得する。
(S72:瞳孔径情報を取得)
 続いて、主制御部111は、ステップS2と同様に、被検眼Eの瞳孔径を表す瞳孔径情報を取得する。
(S73:アライメント)
 次に、主制御部111は、ステップS3と同様に、被検眼Eに固視標を呈示させた状態で、アライメントを実行させる。
 アライメント完了後、主制御部111は、移動ユニット69(光源61)、移動ユニット77、及び移動ユニット46のそれぞれを、光軸に沿って原点の位置(例えば、0Dに相当する位置)に移動させる。いくつかの実施形態では、主制御部111は、アライメントを実行する前に、移動ユニット69(光源61)、移動ユニット77、及び移動ユニット46のそれぞれを、光軸に沿って原点の位置(例えば、0Dに相当する位置)に移動させる。
(S74:多焦点回折型IOL?)
 次に、主制御部111は、ステップS4と同様に、ステップS71において取得されたIOL情報に基づいて、被検眼Eが装用するIOLが多焦点回折型IOLであるか否かを判定する。
 ステップS74において、被検眼Eが装用するIOLが多焦点回折型IOLであると判定されたとき(S74:Y)、眼科装置の動作は、ステップS75に移行する。ステップS74において、被検眼Eが装用するIOLが多焦点回折型IOLではないと判定されたとき(S74:N)、眼科装置の動作は、ステップS76に移行する。
(S75:光源を切り替え)
 ステップS74において、被検眼Eが装用するIOLが多焦点回折型IOLであると判定されたとき(S74:Y)、主制御部111は、ステップS5と同様に、光源61を制御して、測定用光源を光源61Bから光源61Aに切り替える。
(S76:ハルトマン像を取得)
 続いて、主制御部111は、ステップS6と同様に、仮測定を実行する。
(S77:屈折度数を算出)
 次に、主制御部111は、ステップS7と同様に、エリアセンサー76により検出されたハルトマン像を構成する点像の間隔に基づいて屈折度数を屈折度数算出部130に算出させ、算出された屈折度数から合焦レンズとしてのコリメータレンズ74を含む移動ユニット77の移動量を特定する。
(S78:合焦レンズを移動(遠用))
 主制御部111は、ステップS8と同様に、ステップS77において算出された屈折度数(球面度数S)に対応した移動量に基づき遠点に相当する位置に移動ユニット77(合焦レンズとしてのコリメータレンズ74)を光軸に沿って移動させる。これに連動して、移動ユニット46及び移動ユニット69のそれぞれも、上記の屈折度数に対応した移動量だけ光軸方向に移動する。
(S79:探索)
 続いて、主制御部111は、ステップS9と同様に、合焦レンズを移動しつつ分離点像が明瞭になる位置を探索するように各部を制御する。
(S80:ハルトマン像を取得)
 主制御部111は、ステップS78において移動された遠点に相当する位置から更に所定のディオプター分だけ移動ユニット46を光軸方向に移動させ、被検眼Eに視標を雲霧視させる。なお、IOLを装用する被検眼は調節力がないと判断して、雲霧視の機能が省略されてもよい。
 続いて、主制御部111は、ステップS10と同様に、ステップS79において探索された位置に移動ユニット77を移動させ、本測定として、光源61Aを点灯させて可視光を被検眼Eに照射し、被検眼Eからの戻り光に基づくハルトマン像(点像群)をエリアセンサー76により検出させる。
(S86:ハルトマン像を取得)
 一方、ステップS74において、被検眼Eが装用するIOLが多焦点回折型IOLではないと判定されたとき(S74:N)、主制御部111は、ステップS13と同様に、仮測定を実行する。
 すなわち、主制御部111は、視標チャート42に視標を被検眼Eに呈示させた状態で、光源61Bを点灯させて近赤外光を被検眼Eに照射し、被検眼Eからの戻り光に基づくハルトマン像(点像群)をエリアセンサー76により検出させる。
(S87:屈折度数を算出)
 次に、主制御部111は、ステップS87と同様に、エリアセンサー76により検出されたハルトマン像を構成する点像の間隔に基づいて屈折度数を屈折度数算出部130に算出させ、算出された屈折度数から合焦レンズとしてのコリメータレンズ74を含む移動ユニット77の移動量(合焦レンズの移動量に相当)を特定する。
(S88:合焦レンズを移動)
 主制御部111は、ステップS15と同様に、ステップS87において算出された屈折度数(球面度数S)に対応した移動量に基づき遠点に相当する位置に移動ユニット77(合焦レンズとしてのコリメータレンズ74)を光軸に沿って移動させる。これに連動して、移動ユニット46及び移動ユニット69のそれぞれも、上記の屈折度数に対応した移動量だけ光軸方向に移動する。
 主制御部111は、ステップS88において移動された遠点に相当する位置から更に所定のディオプター分だけ移動ユニット46を光軸方向に移動させ、被検眼Eに視標を雲霧視させる。なお、IOLを装用する被検眼は調節力がないと判断して、雲霧視の機能が省略されてもよい。
(S89:ハルトマン像を取得)
 続いて、主制御部111は、ステップS16と同様に、本測定として、光源61Bを点灯させて近赤外光を被検眼Eに照射し、被検眼Eからの戻り光に基づくハルトマン像(点像群)をエリアセンサー76により検出させる。
 なお、IOLのタイプにかかわらず、ステップS76~ステップS80を一律に実行してもよい。この場合、被検眼Eが装用するIOLが多焦点回折型IOL以外のタイプである場合、ステップS76~ステップS80を実行した場合の屈折度数の算出結果は、ステップS86~ステップS89を実行した場合の屈折度数の算出結果と同一になる。
(S81:多焦点型IOL?)
 ステップS80又はステップS89に続いて、主制御部111は、ステップS71において取得されたIOL情報に基づいて、被検眼Eが装用するIOLが多焦点型IOLであるか否かを判定する。
 被検眼Eが装用するIOLが多焦点型IOLであると判定されたとき(S81:Y)、眼科装置の動作はステップS82に移行する。被検眼Eが装用するIOLが多焦点型IOLではないと判定されたとき(S81:N)、眼科装置の動作はステップS84に移行する。
(S82:合焦レンズを移動(近用))
 ステップS81において、被検眼Eが装用するIOLが多焦点型IOLであると判定されたとき(S81:Y)、主制御部111は、近用位置に移動ユニット77(合焦レンズとしてのコリメータレンズ74)を光軸に沿って移動させる。これに連動して、移動ユニット46及び移動ユニット69のそれぞれも、上記の屈折度数に対応した移動量だけ光軸方向に移動する。近用位置は、例えば、40cmなどの固定位置、被検眼Eが使用する頻度が多い位置、被検眼Eが装用するIOLに対応してあらかじめ決められた近用位置などがある。
 
(S83:ハルトマン像を取得)
 次に、主制御部111は、本測定として、光源61(光源61A又は光源61B)からの光(近赤外光又は可視光)を被検眼Eに照射し、被検眼Eからの戻り光に基づくハルトマン像(点像群)をエリアセンサー76により検出させる。
(S84:屈折度数を算出)
 ステップS83に続いて、又はステップS81において、被検眼Eが装用するIOL型焦点型IOLではないと判定されたとき(S81:N)、主制御部111は、ステップS11と同様に、ステップS83又はステップS76においてエリアセンサー76により検出されたハルトマン像を構成する点像の間隔に基づいて屈折度数を屈折度数算出部130に算出させる。屈折度数算出部130は、ステップS11と同様に、ステップS71において取得されたIOL情報に対応した算出処理方法で、被検眼Eの屈折度数を算出させるため、ステップS84の詳細な説明は省略する。
(S85:出力)
 続いて、主制御部111は、ステップS12と同様に、ステップS84において算出された屈折度数を表示部170に表示させる。いくつかの実施形態では、主制御部111は、分布情報生成部140を制御して、生成された分布情報を表示部170に表示させる。いくつかの実施形態では、主制御部111は、シミュレーション処理部150を制御して、取得されたシミュレーション結果を表示部170に表示させる。いくつかの実施形態では、主制御部111は、波面収差測定により得られた測定結果とシミュレーション結果とを関連付けて表示部170に表示させる。
 以上で、第2実施形態に係る眼科装置の動作は終了である(エンド)。
 例えば、ステップS76又はステップS86における遠用測定で得られたハルトマン像から遠用度数及び近用度数を求めることができ、ステップS83における近用測定で得られたハルトマン像から遠用度数及び近用度数を求めることができる。このとき、眼科装置は、遠用測定で得られた遠用度数と、近用測定であれた近用度数とを選択して出力するようにしてもよい。
 なお、図26及び図27では、IOLが有する焦点数が「1」(単焦点型)又は「2」の場合について説明したが、第2実施形態はこれに限定されるものではない。例えば、焦点数が3以上の場合、ステップS82~ステップS83を繰り返して、焦点数分のハルトマン像を取得して、取得されたハルトマン像毎に、焦点数分の屈折度数を算出することが可能である。
 以上説明したように、第2実施形態によれば、被検眼Eに対してIOLが有する複数の焦点距離のそれぞれに対応して合焦された状態で得られた複数のハルトマン像を取得して、それぞれのハルトマン像を用いて屈折度数を算出するようにしたので、IOLを装用する被検眼が調節機能を有する場合でも、IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
[作用]
 実施形態に係る眼科装置、眼科装置の制御方法、及びプログラムについて説明する。
 いくつかの実施形態の第1態様に係る眼科装置(100)は、測定光学系(収差測定投影系6及び収差測定受光系7)と、制御部(110、主制御部111)と、算出部(屈折度数算出部130)とを含む。測定光学系は、合焦レンズ(移動ユニット77により移動されるコリメータレンズ74)を含み、眼内レンズを装用する被検眼(E)の波面収差を測定してハルトマン像を取得する。制御部は、ハルトマン像を構成する複数の点像の少なくとも1つが2以上の分離点像に分離する状態を探索するように合焦レンズを制御して、2以上の分離点像が分離した状態で測定光学系によりハルトマン像を取得させる。算出部は、ハルトマン像に基づいて、被検眼の屈折度数を算出する。
 このような態様によれば、IOLのタイプに応じて、ハルトマン像を構成する点像が2以上の分離点像に分離する場合でも、IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態の第2態様に係る眼科装置では、第1態様において、測定光学系は、可視光を用いてハルトマン像を取得する。
 このような態様によれば、近赤外光を用いる場合に比べて、分離点像のコントラストの低下を防止できるようになり、より高精度な分離点像の位置を特定することで、IOLを装用する被検眼の屈折度数の算出結果の信頼性をより一層向上させることが可能になる。
 いくつかの実施形態の第3態様に係る眼科装置は、第1態様において、少なくとも眼内レンズの光学特性を表す眼内レンズ情報を取得する取得部(通信部190、又は収差測定投影系6及び収差測定受光系7)を含む。制御部は、眼内レンズ情報に基づいて、合焦レンズの制御を開始する。
 このような態様によれば、IOL情報に応じて、上記の合焦レンズの制御を開始するようにしたので、被検眼が装用するIOLのタイプに応じた制御で、被検眼の屈折度数の算出結果の信頼性をより一層向上させることが可能になる。
 いくつかの実施形態の第4態様に係る眼科装置では、第3態様において、取得部は、瞳孔径を表す瞳孔径情報を取得し、算出部は、瞳孔径情報に基づいて画定される領域内のハルトマン像に基づいて、屈折度数を算出する。
 このような態様によれば、瞳孔径に対応した波面収差情報に基づいて屈折度数を算出するようにしたので、IOLを装用する被検眼の屈折度数の算出結果の信頼性をより一層向上させることが可能になる。
 いくつかの実施形態の第5態様に係る眼科装置では、第3態様又は第4態様において、眼内レンズ情報は、単焦点型、及び多焦点型のいずれかを表す。
 このような態様によれば、単焦点型IOL又は多焦点型IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態の第6態様に係る眼科装置では、第5態様において、眼内レンズが単焦点型の眼内レンズであるとき、算出部は、ハルトマン像に基づいて、単一の屈折度数を算出する。
 このような態様によれば、単焦点型IOLを含む複数のIOLのタイプに応じて、IOLを装用する被検眼の屈折度数の算出結果を向上させることが可能になる。
 いくつかの実施形態の第7態様に係る眼科装置では、第5態様において、眼内レンズが多焦点型の眼内レンズであるとき、算出部は、ハルトマン像に基づいて、眼内レンズの複数の焦点距離のそれぞれに対応した複数の屈折度数を算出する
 このような態様によれば、多焦点型IOLを含む複数のIOLのタイプに応じて、IOLを装用する被検眼の屈折度数の算出結果を向上させることが可能になる。
 いくつかの実施形態の第8態様に係る眼科装置では、第5態様において、多焦点型は、多焦点屈折型と、多焦点回折型とを含む。
 このような態様によれば、多焦点屈折型IOL及び多焦点回折型IOLを含む複数のIOLのタイプに応じて、IOLを装用する被検眼の屈折度数の算出結果を向上させることが可能になる。
 いくつかの実施形態の第9態様に係る眼科装置では、第8態様において、眼内レンズが多焦点屈折型の眼内レンズであるとき、算出部は、ハルトマン像に基づいて、眼内レンズの焦点距離に対応したエリア毎に複数の屈折度数を算出する。
 このような態様によれば、IOLが有する焦点距離(エリア)毎に算出するようにしたので、多焦点屈折型IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態の第10態様に係る眼科装置では、第8態様において、眼内レンズが多焦点回折型の眼内レンズであるとき、算出部は、ハルトマン像を構成する点像が分離した2以上の分離点像を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出する。
 このような態様によれば、ハルトマン像を構成する点像が分離した2以上の分離点像を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出するようにしたので、多焦点回折型IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態の第11態様に係る眼科装置では、第8態様において、多焦点型は、更に、焦点深度拡張型を含む。眼内レンズが焦点深度拡張型の眼内レンズであるとき、算出部は、ハルトマン像を構成する複数の点像のそれぞれを楕円近似することにより特定された近似楕円の2つの焦点を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出する。
 このような態様によれば、ハルトマン像を構成する複数の点像のそれぞれを楕円近似することにより特定された近似楕円の2つの焦点を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出するようにしたので、EDoF型IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態の第12態様に係る眼科装置の制御方法は、合焦レンズ(移動ユニット77により移動されるコリメータレンズ74)を含み、眼内レンズを装用する被検眼(E)の波面収差を測定してハルトマン像を取得する測定光学系(収差測定投影系6及び収差測定受光系7)を含む眼科装置(1)の制御方法である。眼科装置の制御方法は、ハルトマン像を構成する複数の点像の少なくとも1つが2以上の分離点像に分離する状態を探索するように合焦レンズを制御して、2以上の分離点像が分離した状態で測定光学系によりハルトマン像を取得させる制御ステップと、ハルトマン像に基づいて、被検眼の屈折度数を算出する算出ステップと、を含む。
 このような態様によれば、IOLのタイプに応じて、ハルトマン像を構成する点像が2以上の分離点像に分離する場合でも、IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態の第13態様に係る眼科装置の制御方法では、第12態様において、測定光学系は、可視光を用いてハルトマン像を取得する。
 このような態様によれば、近赤外光を用いる場合に比べて、分離点像のコントラストの低下を防止できるようになり、より高精度な分離点像の位置を特定することで、IOLを装用する被検眼の屈折度数の算出結果の信頼性をより一層向上させることが可能になる。
 いくつかの実施形態の第14態様に係る眼科装置の制御方法は、第12態様において、少なくとも眼内レンズの光学特性を表す眼内レンズ情報を取得する取得ステップを含み、制御ステップは、取得ステップにおいて取得された眼内レンズ情報に基づいて、合焦レンズの制御を開始する。
 このような態様によれば、IOL情報に応じて、上記の合焦レンズの制御を開始するようにしたので、被検眼が装用するIOLのタイプに応じた制御で、被検眼の屈折度数の算出結果の信頼性をより一層向上させることが可能になる。
 いくつかの実施形態の第15態様に係る眼科装置の制御方法では、第14態様において、取得ステップは、瞳孔径を表す瞳孔径情報を取得し、算出ステップは、瞳孔径情報に基づいて画定される領域内のハルトマン像に基づいて、屈折度数を算出する。
 このような態様によれば、瞳孔径に対応した波面収差情報に基づいて屈折度数を算出するようにしたので、IOLを装用する被検眼の屈折度数の算出結果の信頼性をより一層向上させることが可能になる。
 いくつかの実施形態の第16態様に係る眼科装置の制御方法では、第14態様又は第15態様において、眼内レンズ情報は、単焦点型、及び多焦点型のいずれかを表す。
 このような態様によれば、単焦点型IOL又は多焦点型IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態の第17態様に係る眼科装置の制御方法では、第16態様において、眼内レンズが単焦点型の眼内レンズであるとき、算出ステップは、ハルトマン像に基づいて、単一の屈折度数を算出する。
 このような態様によれば、単焦点型IOLを含む複数のIOLのタイプに応じて、IOLを装用する被検眼の屈折度数の算出結果を向上させることが可能になる。
 いくつかの実施形態の第18態様に係る眼科装置の制御方法では、第16態様において、眼内レンズが多焦点型の眼内レンズであるとき、算出ステップは、ハルトマン像に基づいて、眼内レンズの複数の焦点距離のそれぞれに対応した複数の屈折度数を算出する。
 このような態様によれば、多焦点型IOLを含む複数のIOLのタイプに応じて、IOLを装用する被検眼の屈折度数の算出結果を向上させることが可能になる。
 いくつかの実施形態の第19態様に係る眼科装置の制御方法では、第16態様において、多焦点型は、多焦点屈折型と、多焦点回折型とを含む。
 このような態様によれば、多焦点屈折型IOL及び多焦点回折型IOLを含む複数のIOLのタイプに応じて、IOLを装用する被検眼の屈折度数の算出結果を向上させることが可能になる。
 いくつかの実施形態の第20態様に係る眼科装置の制御方法では、第19態様において、眼内レンズが多焦点屈折型の眼内レンズであるとき、算出ステップは、ハルトマン像に基づいて、眼内レンズの焦点距離に対応したエリア毎に複数の屈折度数を算出する。
 このような態様によれば、IOLが有する焦点距離(エリア)毎に算出するようにしたので、多焦点屈折型IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態の第21態様に係る眼科装置の制御方法では、第19態様において、眼内レンズが多焦点回折型の眼内レンズであるとき、算出ステップは、ハルトマン像を構成する点像が分離した2以上の分離点像を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出する。
 このような態様によれば、ハルトマン像を構成する点像が分離した2以上の分離点像を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出するようにしたので、多焦点回折型IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態の第22態様に係る眼科装置の制御方法では、第19態様において、多焦点型は、更に、焦点深度拡張型を含む。眼内レンズが焦点深度拡張型の眼内レンズであるとき、算出ステップは、ハルトマン像を構成する複数の点像のそれぞれを楕円近似することにより特定された近似楕円の2つの焦点を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出する。
 このような態様によれば、ハルトマン像を構成する複数の点像のそれぞれを楕円近似することにより特定された近似楕円の2つの焦点を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出するようにしたので、EDoF型IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能になる。
 いくつかの実施形態の第23態様は、コンピュータに、第12態様~第15態様のいずれかの眼科装置の制御方法の各ステップを実行させるプログラムである。
 このような態様によれば、IOLのタイプに応じて、ハルトマン像を構成する点像が2以上の分離点像に分離する場合でも、IOLを装用する被検眼の屈折度数の算出結果の信頼性を向上させることが可能なプログラムを提供することができるようになる。
(その他の変形例)
 以上に示された実施形態は、この発明を実施するための一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内において任意の変形、省略、追加等を施すことが可能である。
 眼圧測定機能、眼底撮影機能、前眼部撮影機能、光干渉断層撮影(OCT)機能、超音波検査機能など、眼科分野において使用可能な任意の機能を有する装置に対して、上記の実施形態に係る発明を適用することが可能である。なお、眼圧測定機能は眼圧計等により実現される。眼底撮影機能は眼底カメラや走査型検眼鏡(SLO)等により実現される。前眼部撮影機能はスリットランプ等により実現される。OCT機能は光干渉断層計等により実現される。超音波検査機能は超音波診断装置等により実現される。また、このような機能のうち2つ以上を具備した装置(複合機)に対してこの発明を適用することも可能である。
4 視標投影系
5 観察系
6 収差測定投影系
7 収差測定受光系
61、61A、61B 光源
75 ハルトマン板
76 エリアセンサー
100 眼科装置
110 制御部
111 主制御部
120 演算処理部
130 屈折度数算出部
131 第1屈折度数算出部
131A、132A、133B、134A 点像特定部
131B、132B、133C 代表位置特定部
131C、132D、133E、134D ゼルニケ多項式近似処理部
132 第2屈折度数算出部
132C、133D、134C 点像群特定部
133 第3屈折度数算出部
133A 強調処理部
134 第4屈折度数算出部
134B 楕円近似処理部
140 分布情報生成部
150 シミュレーション処理部
E 被検眼
Ef 眼底

Claims (23)

  1.  合焦レンズを含み、眼内レンズを装用する被検眼の波面収差を測定してハルトマン像を取得する測定光学系と、
     前記ハルトマン像を構成する複数の点像の少なくとも1つが2以上の分離点像に分離する状態を探索するように前記合焦レンズを制御して、前記2以上の分離点像が分離した状態で前記測定光学系により前記ハルトマン像を取得させる制御部と、
     前記ハルトマン像に基づいて、前記被検眼の屈折度数を算出する算出部と、
     を含む、眼科装置。
  2.  前記測定光学系は、可視光を用いて前記ハルトマン像を取得する
     ことを特徴とする請求項1に記載の眼科装置。
  3.  少なくとも前記眼内レンズの光学特性を表す眼内レンズ情報を取得する取得部を含み、
     前記制御部は、前記眼内レンズ情報に基づいて、前記合焦レンズの制御を開始する
     ことを特徴とする請求項1に記載の眼科装置。
  4.  前記取得部は、瞳孔径を表す瞳孔径情報を取得し、
     前記算出部は、前記瞳孔径情報に基づいて画定される領域内のハルトマン像に基づいて、前記屈折度数を算出する
     ことを特徴とする請求項3に記載の眼科装置。
  5.  前記眼内レンズ情報は、単焦点型、及び多焦点型のいずれかを表す
     ことを特徴とする請求項3又は請求項4に記載の眼科装置。
  6.  前記眼内レンズが単焦点型の眼内レンズであるとき、前記算出部は、前記ハルトマン像に基づいて、単一の屈折度数を算出する
     ことを特徴とする請求項5に記載の眼科装置。
  7.  前記眼内レンズが多焦点型の眼内レンズであるとき、前記算出部は、前記ハルトマン像に基づいて、前記眼内レンズの複数の焦点距離のそれぞれに対応した複数の屈折度数を算出する
     ことを特徴とする請求項5に記載の眼科装置。
  8.  前記多焦点型は、多焦点屈折型と、多焦点回折型とを含む
     ことを特徴とする請求項5に記載の眼科装置。
  9.  前記眼内レンズが前記多焦点屈折型の眼内レンズであるとき、前記算出部は、前記ハルトマン像に基づいて、前記眼内レンズの焦点距離に対応したエリア毎に複数の屈折度数を算出する
     ことを特徴とする請求項8に記載の眼科装置。
  10.  前記眼内レンズが前記多焦点回折型の眼内レンズであるとき、前記算出部は、前記ハルトマン像を構成する点像が分離した2以上の分離点像を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出する
     ことを特徴とする請求項8に記載の眼科装置。
  11.  前記多焦点型は、更に、焦点深度拡張型を含み、
     前記眼内レンズが前記焦点深度拡張型の眼内レンズであるとき、前記算出部は、前記ハルトマン像を構成する複数の点像のそれぞれを楕円近似することにより特定された近似楕円の2つの焦点を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出する
     ことを特徴とする請求項8に記載の眼科情報処理装置。
  12.  合焦レンズを含み、眼内レンズを装用する被検眼の波面収差を測定してハルトマン像を取得する測定光学系を含む眼科装置の制御方法であって、
     前記ハルトマン像を構成する複数の点像の少なくとも1つが2以上の分離点像に分離する状態を探索するように前記合焦レンズを制御して、前記2以上の分離点像が分離した状態で前記測定光学系により前記ハルトマン像を取得させる制御ステップと、
     前記ハルトマン像に基づいて、前記被検眼の屈折度数を算出する算出ステップと、
     を含む、眼科装置の制御方法。
  13.  前記測定光学系は、可視光を用いて前記ハルトマン像を取得する
     ことを特徴とする請求項12に記載の眼科装置の制御方法。
  14.  少なくとも前記眼内レンズの光学特性を表す眼内レンズ情報を取得する取得ステップを含み、
     前記制御ステップは、前記取得ステップにおいて取得された前記眼内レンズ情報に基づいて、前記合焦レンズの制御を開始する
     ことを特徴とする請求項12に記載の眼科装置の制御方法。
  15.  前記取得ステップは、瞳孔径を表す瞳孔径情報を取得し、
     前記算出ステップは、前記瞳孔径情報に基づいて画定される領域内のハルトマン像に基づいて、前記屈折度数を算出する
     ことを特徴とする請求項14に記載の眼科装置の制御方法。
  16.  前記眼内レンズ情報は、単焦点型、及び多焦点型のいずれかを表す
     ことを特徴とする請求項14又は請求項15に記載の眼科装置の制御方法。
  17.  前記眼内レンズが単焦点型の眼内レンズであるとき、前記算出ステップは、前記ハルトマン像に基づいて、単一の屈折度数を算出する
     ことを特徴とする請求項16に記載の眼科装置の制御方法。
  18.  前記眼内レンズが多焦点型の眼内レンズであるとき、前記算出ステップは、前記ハルトマン像に基づいて、前記眼内レンズの複数の焦点距離のそれぞれに対応した複数の屈折度数を算出する
     ことを特徴とする請求項16に記載の眼科装置の制御方法。
  19.  前記多焦点型は、多焦点屈折型と、多焦点回折型とを含む
     ことを特徴とする請求項16に記載の眼科装置の制御方法。
  20.  前記眼内レンズが前記多焦点屈折型の眼内レンズであるとき、前記算出ステップは、前記ハルトマン像に基づいて、前記眼内レンズの焦点距離に対応したエリア毎に複数の屈折度数を算出する
     ことを特徴とする請求項19に記載の眼科装置の制御方法。
  21.  前記眼内レンズが前記多焦点回折型の眼内レンズであるとき、前記算出ステップは、前記ハルトマン像を構成する点像が分離した2以上の分離点像を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出する
     ことを特徴とする請求項19に記載の眼科装置の制御方法。
  22.  前記多焦点型は、更に、焦点深度拡張型を含み、
     前記眼内レンズが前記焦点深度拡張型の眼内レンズであるとき、前記算出ステップは、前記ハルトマン像を構成する複数の点像のそれぞれを楕円近似することにより特定された近似楕円の2つの焦点を焦点距離毎に分類し、分類された2以上の分離点像に基づいて焦点距離毎に複数の屈折度数を算出する
     ことを特徴とする請求項19に記載の眼科装置の制御方法。
  23.  コンピュータに、請求項12~請求項15のいずれか一項に記載の眼科装置の制御方法の各ステップを実行させることを特徴とするプログラム。
PCT/JP2023/031122 2022-09-09 2023-08-29 眼科装置、眼科装置の制御方法、及びプログラム Ceased WO2024053475A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202380064371.3A CN119836255A (zh) 2022-09-09 2023-08-29 眼科装置、眼科装置的控制方法以及程序
EP23863014.9A EP4585142A1 (en) 2022-09-09 2023-08-29 Ophthalmic device, method for controlling ophthalmic device, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-143376 2022-09-09
JP2022143376A JP2024039090A (ja) 2022-09-09 2022-09-09 眼科装置、眼科装置の制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2024053475A1 true WO2024053475A1 (ja) 2024-03-14

Family

ID=90191150

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/031122 Ceased WO2024053475A1 (ja) 2022-09-09 2023-08-29 眼科装置、眼科装置の制御方法、及びプログラム

Country Status (4)

Country Link
EP (1) EP4585142A1 (ja)
JP (1) JP2024039090A (ja)
CN (1) CN119836255A (ja)
WO (1) WO2024053475A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209854A (ja) 2000-10-18 2002-07-30 Topcon Corp 光学特性測定装置
JP2004337236A (ja) 2003-05-13 2004-12-02 Topcon Corp 眼科データ測定装置、眼科データ測定プログラム、眼科データ測定プログラムを記録した記録媒体
JP2005279022A (ja) * 2004-03-30 2005-10-13 Topcon Corp 眼科装置
JP2010099355A (ja) * 2008-10-24 2010-05-06 Topcon Corp 波面収差測定装置及びその方法
JP2010099354A (ja) 2008-10-24 2010-05-06 Topcon Corp 波面収差測定装置及びその方法
JP2012075647A (ja) * 2010-09-30 2012-04-19 Nidek Co Ltd 眼科測定装置
JP2014209994A (ja) 2013-04-17 2014-11-13 キヤノン株式会社 眼科装置、眼科装置の制御方法、プログラム
JP2017213124A (ja) 2016-05-31 2017-12-07 株式会社トプコン 眼科装置
JP2021083940A (ja) 2019-11-29 2021-06-03 株式会社ニデック 眼科測定装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209854A (ja) 2000-10-18 2002-07-30 Topcon Corp 光学特性測定装置
JP2004337236A (ja) 2003-05-13 2004-12-02 Topcon Corp 眼科データ測定装置、眼科データ測定プログラム、眼科データ測定プログラムを記録した記録媒体
JP2005279022A (ja) * 2004-03-30 2005-10-13 Topcon Corp 眼科装置
JP2010099355A (ja) * 2008-10-24 2010-05-06 Topcon Corp 波面収差測定装置及びその方法
JP2010099354A (ja) 2008-10-24 2010-05-06 Topcon Corp 波面収差測定装置及びその方法
JP2012075647A (ja) * 2010-09-30 2012-04-19 Nidek Co Ltd 眼科測定装置
JP2014209994A (ja) 2013-04-17 2014-11-13 キヤノン株式会社 眼科装置、眼科装置の制御方法、プログラム
JP2017213124A (ja) 2016-05-31 2017-12-07 株式会社トプコン 眼科装置
JP2021083940A (ja) 2019-11-29 2021-06-03 株式会社ニデック 眼科測定装置

Also Published As

Publication number Publication date
EP4585142A1 (en) 2025-07-16
CN119836255A (zh) 2025-04-15
JP2024039090A (ja) 2024-03-22

Similar Documents

Publication Publication Date Title
JP7304780B2 (ja) 眼科装置
JP6522390B2 (ja) 眼科装置
JP6613103B2 (ja) 眼科装置
JP2021023686A (ja) 眼科装置、その制御方法、プログラム、及び、記録媒体
JP6898712B2 (ja) 眼科装置
JP6736356B2 (ja) 眼科装置
JP7349807B2 (ja) 眼科装置
JP7236927B2 (ja) 眼科装置、その制御方法、眼科情報処理装置、その制御方法、プログラム、及び記録媒体
JP6513747B2 (ja) 眼科装置
JP2017042312A (ja) 眼科装置
JP7420476B2 (ja) 眼科装置、その制御方法、眼科情報処理装置、その制御方法、プログラム、及び記録媒体
WO2018135174A1 (ja) 眼科装置
JP7394897B2 (ja) 眼科装置、及び眼科装置の制御方法
WO2024053475A1 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
WO2024053474A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP6795360B2 (ja) 眼科レンズ測定装置
JP7292072B2 (ja) 眼科装置
US20250221621A1 (en) Ophthalmic apparatus, method of controlling ophthalmic apparatus, and recording medium
JP6518733B2 (ja) 眼科装置
JP6766242B2 (ja) 眼科装置
JP6619197B2 (ja) 眼科装置
JP7201855B2 (ja) 眼科装置、及び眼科情報処理プログラム
JP6837107B2 (ja) 眼科装置
JP2020162914A (ja) 眼科装置、その制御方法、眼科情報処理装置、その制御方法、プログラム、及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23863014

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202380064371.3

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2023863014

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2023863014

Country of ref document: EP

Effective date: 20250409

WWP Wipo information: published in national office

Ref document number: 202380064371.3

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2023863014

Country of ref document: EP