[go: up one dir, main page]

WO2006013668A1 - 瞳孔検出装置および虹彩認証装置 - Google Patents

瞳孔検出装置および虹彩認証装置 Download PDF

Info

Publication number
WO2006013668A1
WO2006013668A1 PCT/JP2005/009418 JP2005009418W WO2006013668A1 WO 2006013668 A1 WO2006013668 A1 WO 2006013668A1 JP 2005009418 W JP2005009418 W JP 2005009418W WO 2006013668 A1 WO2006013668 A1 WO 2006013668A1
Authority
WO
WIPO (PCT)
Prior art keywords
pupil
integration
image data
circle
radius
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2005/009418
Other languages
English (en)
French (fr)
Inventor
Morio Sugita
Masahiro Wakamori
Takeshi Fujimatsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to EP05743315A priority Critical patent/EP1796032A1/en
Priority to US10/558,537 priority patent/US20060291702A1/en
Publication of WO2006013668A1 publication Critical patent/WO2006013668A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Definitions

  • Pupil detection device and iris authentication device Pupil detection device and iris authentication device
  • the present invention relates to an iris authentication device used for personal authentication and the like, and more particularly to a pupil detection device that detects the position of a middle-powered pupil image (hereinafter referred to as “eye image”).
  • eye image a middle-powered pupil image
  • the present invention provides a pupil detection device capable of detecting the pupil position at high speed and with high accuracy.
  • the pupil detection device of the present invention includes an image data extraction unit, a circular integration unit, and a pupil position detection unit.
  • the image data extraction unit sets a plurality of concentric circles as integral circles on the eye image, and extracts image data of the eye image located on the circumference of the integral circle.
  • the cyclic integration unit integrates the image data extracted by the image data extraction unit along each circumference of the integration circle.
  • the pupil position detection unit detects, as pupil position coordinates, the center coordinates of the integration circle such that the integration value of the orbital integration unit changes stepwise with respect to the radius of the integration circle.
  • a plurality of concentric integration circles were set so as to become sparse as the radius increased.
  • FIG. 1 is a circuit block diagram of an iris authentication device using a pupil detection device in an embodiment of the present invention.
  • FIG. 2A is a diagram showing an example of an image including a pupil.
  • FIG. 2B is a diagram showing an integrated value with respect to the radius of the integrating circle.
  • FIG. 2C is a diagram showing a value obtained by differentiating the integral value by the radius of the integral circle.
  • FIG. 2D is a diagram showing an integration circle moving on the eye image.
  • FIG. 3A is a diagram showing an example of an eye image when the integrating circle is located in the iris region and luminance at that time.
  • FIG. 3B is a diagram showing an example of an eye image and luminance at that time when the integrating circle is located in the eyeglass frame.
  • FIG. 4 is a circuit block diagram of the pupil detection device.
  • FIG. 5 is a circuit block diagram of an image data extraction unit of the pupil detection device.
  • FIG. 6 is a diagram for explaining the operation of the image data extraction unit of the pupil detection device.
  • FIG. 7 is a diagram for explaining the operation of the image data extraction unit of the pupil detection device.
  • FIG. 8 is a diagram schematically showing the arrangement of image data to be extracted by the image data extraction unit of the pupil detection device.
  • FIG. 9 is a circuit block diagram of a pupil position detection unit of the pupil detection device.
  • FIG. 10 is a diagram for explaining the operation of the pupil selection unit of the pupil detection device.
  • FIG. 11 is a flowchart showing the operation of the pupil selection unit of the pupil detection device.
  • FIG. 12A is a diagram showing an integrated value with respect to the radius of the integrating circle and its difference value.
  • FIG. 12B is a diagram showing an integral value with respect to the radius of the integral circle and its difference value.
  • FIG. 13 is a flowchart showing the operation of one eye image of the pupil detection device.
  • the pupil detection device of the present invention provides a pupil detection device that can detect the pupil position at high speed and with high accuracy.
  • the pupil detection device of the present invention includes an image data extraction unit, a circular integration unit, and a pupil position detection unit.
  • the image data extraction unit sets a plurality of concentric circles as integral circles on the eye image, and extracts image data of the eye image located on the circumference of the integral circle.
  • the cyclic integration unit integrates the image data extracted by the image data extraction unit along each circumference of the integration circle.
  • the pupil position detection unit detects, as pupil position coordinates, the center coordinates of the integration circle such that the integration value of the orbital integration unit changes stepwise with respect to the radius of the integration circle.
  • the plurality of concentric integration circles are set so as to become sparse as the radius increases. With this configuration, the pupil position can be detected at high speed and with high accuracy.
  • the pupil detection device of the present invention may be set so that an increase in radius of a plurality of concentric integration circles increases exponentially with respect to the radius of the integration circle. This configuration also enables detection of the pupil position at high speed and with high accuracy.
  • the image data extraction unit of the pupil detection device of the present invention simultaneously extracts a plurality of image data corresponding to each of the integration circles. With this configuration, calculations for each integral circle can be performed in parallel, and high-speed pupil detection is possible.
  • the iris authentication apparatus of the present invention includes the pupil detection apparatus of the present invention. This configuration
  • an iris authentication apparatus capable of detecting the pupil position with high accuracy and high speed.
  • FIG. 1 is a circuit block diagram of an iris authentication device using a pupil detection device according to an embodiment of the present invention.
  • FIG. 1 also shows an imaging unit 120, an illumination unit 130, and an authentication processing unit 140 that are necessary for configuring the iris authentication device 100 in addition to the pupil detection device 200.
  • the iris authentication device 100 in the present embodiment includes an imaging unit 120, a pupil detection device 200, an authentication processing unit 140, an authentication processing unit 140, and an illumination unit 130.
  • the imaging unit 120 captures a user's eye image.
  • the pupil detection device 200 detects the position of the pupil and its radius from the center of the eye image.
  • the authentication processing unit 140 performs personal authentication by comparing the iris code obtained from the eye image cover with the registered iris code.
  • the illumination unit 130 illuminates the user's eyes and the surrounding area by irradiating near-infrared light with a light amount suitable for eye image acquisition.
  • the imaging unit 120 includes a guide mirror 121, a visible light cut filter 122, a lens 123, an imaging element 124, and a preprocessing unit 125.
  • the guide mirror 121 guides the eyes to the correct imaging position by the user reflecting his / her eyes. Then, the user's eyes are imaged by the image sensor 124 through the lens 123 and the visible light cut filter 122.
  • the pre-processing unit 125 extracts the output signal force image data component of the image sensor 124 and performs necessary processing as image data such as gain adjustment, and then the user's eye image data. Output as data.
  • the pupil detection device 200 includes an image data extraction unit 220, a circular integration unit 230, a luminance difference calculation unit 240, a change circle detection unit 250, a pointer unit 260, and a pupil position detection unit 270.
  • the pupil detection device 200 detects the pupil position and its radius from the eye image, and outputs them to the authentication processing unit 140. Details of the pupil detection device 200 will be described later.
  • the authentication processing unit 140 extracts an iris image from the eye image data based on the pupil center coordinates and the pupil radius detected by the pupil detection device 200. Then, the authentication operation is executed by converting the iris image into a unique iris code indicating an iris pattern and comparing it with a registered iris code.
  • FIG. 2A to 2D are diagrams for explaining a pupil detection method of the pupil detection device according to the embodiment of the present invention.
  • FIG. 2A is a diagram illustrating an example of an image including a pupil.
  • Fig. 2B is a diagram showing the integrated value with respect to the radius of the integrating circle.
  • Fig. 2C shows the value obtained by differentiating the integral value with the radius of the integral circle.
  • FIG. 2D is a diagram showing an integrating circle moving on the eye image.
  • an image including the pupil includes a disk-like low-intensity region indicating the pupil and an annular medium-intensity region indicating the iris on the outer side. Therefore, when the image data is circularly integrated along the circumference of the integration circle C with radius R around the pupil center position coordinate (Xo, Yo), as shown in Fig. 2 ⁇ , the integration value I becomes the pupil radius. It will be a step change at Ro. Therefore, as shown in Fig. 2C, by calculating the radius of the integral circle when the value dl / dR obtained by differentiating the integral value I with the radius R exceeds the threshold value (hereinafter referred to as "difference threshold value”) A lth. You can know the pupil radius Ro.
  • difference threshold value hereinafter referred to as "difference threshold value"
  • the pupil detection device 200 detects the position coordinates (Xo, Yo) of the pupil and the pupil radius Ro.
  • the integration value I for each integration circle C changes in a step shape. Therefore, when the difference value ⁇ with respect to the radius R of the integral value I is obtained, a large maximum value is shown at a position equal to the pupil radius Ro.
  • the position of the pupil and its radius can be obtained by obtaining the integral circle C in which the difference value ⁇ is larger than the difference threshold value A lth.
  • the integration circles C to C are moved to respective positions on the eye image, and the above-described operation is repeated.
  • the center coordinates (X, Y) of the integral circle C and the radius R at that time when the difference value ⁇ shows a large value the pupil position coordinates (Xo, Yo) and the pupil radius Ro are obtained. You can ask for it.
  • a luminance difference calculation unit 240 is provided in the pupil detection device 200, and the difference B between the maximum value and the minimum value on the circumference is obtained for each integration circle C. Only when the difference B is smaller than a predetermined threshold value (hereinafter referred to as “brightness difference threshold value”) Bth, the integration value I or the difference value ⁇ is effective, thereby reducing the pupil detection accuracy.
  • a predetermined threshold value hereinafter referred to as “brightness difference threshold value”
  • FIG. 3A and 3B are diagrams for explaining the operation of the luminance difference calculation unit 240.
  • FIG. 3A is a diagram showing an example of an eye image when the integrating circle is located in the iris region and luminance at that time.
  • FIG. 3B is a diagram showing an example of an eye image when the integrating circle is located in the eyeglass frame and the brightness at that time.
  • Fig. 3A shows the integration circle located in the iris region, which is the middle luminance region of the ring. In this case, the luminance on the circumference The difference between the maximum and minimum values is less than the small brightness difference threshold Bth.
  • the luminance difference threshold Bth is preferably set to be slightly larger than the expected variation in luminance data on the circumference.
  • the difference between the average luminance of the skin and the average luminance of the pupil which is larger than the difference between the average luminance of the iris and the average luminance of the pupil, is preferably set.
  • the average brightness of the pupil is about 40 gradations
  • the average brightness of the iris is about 100 gradations
  • the average brightness of the skin is about 200 gradations.
  • FIG. 4 is a circuit block diagram of the pupil detection device in the embodiment of the present invention.
  • the pupil detection device 200 includes an image data extraction unit 220, a circular integration unit 230, a luminance difference calculation unit 240, a change circle detection unit 250, a pointer unit 260, and a pupil position detection unit 270.
  • the image data extraction unit 220 sets integration circles C to C on the eye image, and extracts image data on the circumference of each integration circle C.
  • the circular integration unit 230 performs circular integration of the extracted image data for each integration circle C.
  • the luminance difference calculation unit 240 obtains a difference B between the maximum value and the minimum value of the image data for each integration circle.
  • the change circle detection unit 250 obtains a difference value ⁇ with respect to the radius R of the integral value I, and when the maximum value ⁇ I of the difference value is larger than the difference threshold ⁇ Ith, the difference value ⁇ I and the radius of the integral circle are obtained. R is output.
  • the pointer 260 designates the center coordinates (X, Y) of the integration circle C to C.
  • the pupil position detection unit 270 includes a pupil candidate holding unit 280 and a pupil selection unit 290.
  • Pupil candidate holding unit 280 has a difference value greater than difference threshold A lth by change circle detection unit 250.
  • is output, it is considered that a pupil candidate has been detected, and the position coordinates (X, Y) and radius R of a plurality of pupil candidates are stored.
  • the pupil selection unit 290 selects one pupil from a plurality of pupil candidates. In this way, the pupil position detector 270 detects the position coordinates of the pupil and the radius of the pupil from the eye image.
  • FIG. 5 is a circuit block diagram of the image data extraction unit 220.
  • the image data extraction unit 220 includes a partial frame memory 222 and a multiplexer 226.
  • the multiplexer 226 collectively outputs the image data read from the partial frame memory 222 for each integration circle C.
  • the partial frame memory 222 is configured using the memories 224 to 224.
  • the memory control units 225 to 225 read and write the corresponding line memories 224 to 224.
  • the multiplexer 226 includes n selectors 228 to 228 corresponding to n integration circles C to C, a selector control unit 229, and a force.
  • the selector 228 selects and outputs the image data located on the circumference of the corresponding integration circle C from the image data output from the partial frame memory 222.
  • the image data extraction unit 220 extracts and outputs the read image data collectively for each integration circle.
  • FIG. 6 and 7 are diagrams for explaining the operation of the image data extraction unit 220.
  • FIG. In the following, for simplicity, it is assumed that seven line memories 224 to 224 constitute a partial frame memory 222, and three concentric integration circles C to C are set thereon. And that
  • FIG. 6 shows three integration circles C to C set on the partial frame memory 222 and 12 images to be extracted from each integration circle.
  • i of the image data D is a subscript for identifying the line memories 224 to 224
  • j is a subscript for identifying the integration circles C to C.
  • FIG. 7 is a timing chart showing image data Sig sent from the preprocessing unit 125 and image data from which the line memories 224 to 224 are also output.
  • periods T1 to T6 in which the line memories 224 to 224 perform a total of six read / write operations during a period Tsig in which one image data is sent from the preprocessing unit 125 are provided.
  • each line memory 22 outputs the oldest written image data to the next line memory 224.
  • step S224 the image data output from the preprocessing unit 125 is written in an empty area.
  • the first two periods Tl and ⁇ 2 are used to make the line memories 224 to 224 function as the partial frame memory 222.
  • Line memory 224 outputs one image data D corresponding to the integration circle C.
  • the line memory 224 outputs one image data D.
  • Line memory 224 has two image data D and
  • the line memory 224 stores the image data D and D in 2
  • a total of 4 data are output one by one.
  • the line memory 224 outputs two pieces of image data D 1 and D 2.
  • Line memory 224 outputs two pieces of image data D 1 and D 2.
  • Line memory 224 outputs one image data D.
  • the selector 228 corresponding to the integration circle C selects the output of the line memory 224 and outputs the image data D in the period ⁇ 3.
  • selector 228 force outputs only the image data D 1, D 2, D 3 and D 4 on the circumference of the integrating circle C.
  • Selector 228 selects the output of line memory 224 during period T3.
  • the image data D, D, D, D on the circumference of the integration circle C are output. [0041] Similarly, the selector 228 selects the output of the line memory 224 in the period T3. Period T4
  • multiplexer 226 reads from partial frame memory 222.
  • the obtained image data is output together for each integration circle.
  • the memory control units 225 to 225 move the line memory so that the image data D to be output is moved by one pixel.
  • the integration circles C to C run the entire eye image.
  • the center coordinates (X, Y) of the integral circle at this time are indicated by the outputs of the X counter 262 and the Y force counter 264.
  • FIG. 8 is a diagram schematically showing the integration circle on the eye image in this embodiment.
  • the number of image data to be set m 8.
  • the total number of image data to be extracted from the image data extraction unit 220 is large, but these image data are arranged so as not to concentrate on a specific line memory. This is because there is an upper limit to the number of times the line memory can be accessed during the period Tsig during which one image data is sent, and the number of accesses to all line memories is kept below that.
  • the above is the configuration and operation of the image data extraction unit 220.
  • the circular integration unit 230 includes adders 230 to 230 that are independent of each of the integration circles C to C, and adds m pieces of image data positioned on the circumference of each integration circle C. Is output to the change circle detector 250 as an integrated value I.
  • the luminance difference calculation unit 240 includes luminance difference calculators 240 to 240 that are independent of each of the integration circles C to C. Each luminance difference calculator 240 detects the maximum value and the minimum value of m pixel data located on the circumference of the integration circle C, and compares the difference B with the luminance difference threshold Bth. The n comparison results are output to the change circle detection unit 250.
  • the odd circle detection pole 250 includes subtracters 252 to 252 _, a selector 253, and a concentrator 254.
  • the subtractor 252 calculates the difference with respect to the radius R of the integral value I for each integral circle C. That is, among the integration circles C to C, the difference value ⁇ I between the integration values I and I with respect to the integration circle C with a different radius is obtained. However, if the difference between the maximum value and the minimum value of the image data for the integration circle C is greater than the brightness difference threshold Bth, the difference value ⁇ is forcibly set to 0.
  • the selector 253 and the comparator 254 output the radius R of the integration circle C in which the difference value ⁇ becomes larger than the difference threshold value A 1th to the pupil candidate holding unit 280, and also evaluate the difference value ⁇ . The result is output to the pupil candidate holding unit 280 as ⁇ . At this time, for the integration circle C
  • the subtractor 252i forcibly sets the difference value ⁇ ⁇ to 0. Accordingly, when the difference B force is greater than the luminance difference threshold Bth, the radius R is not output to the pupil candidate holding unit 280.
  • the difference B between the maximum value and the minimum value of the pixel data is limited to a certain limit. Or less.
  • the difference B increases if it does not coincide with the center of the pupil. Therefore, by removing information when the difference B is greater than the brightness difference threshold Bth, the possibility of erroneous detection can be reduced, and the pupil detection accuracy can be increased.
  • FIG. 9 is a circuit block diagram of pupil position detection unit 270, that is, pupil candidate holding unit 280 and pupil selection unit 290.
  • a plurality of maximum value detectors 280 to 280 are respectively connected in series.
  • Each of the maximum value detectors 280 has a register 282 k i
  • Registers 282, 283, 284, and 285 hold the X-coordinate, Y-coordinate, radius R, and maximum value of the evaluation town of the pupil candidate.
  • the comparator 281 compares the inputted evaluation value T with the register 285 [retained evaluation BJ].
  • Selector 286, 287, 288 and 289 Select the input X coordinate, Y coordinate, radius R and evaluation ⁇ and hold X coordinate, Y coordinate, radius R and evaluation »!
  • the first maximum value detector SSC ⁇ receives the outputs X and Y of the X counter 262 and Y counter 264 indicating the coordinates of the integral circle, and the output R of the change circle detector 250 is also input. .
  • the evaluation town output from the change circle detection unit 250 is held in the register 285.
  • registers 282 to 285 store the newly entered X coordinate X,
  • evaluation city 0 is less than or equal to evaluation city 1, newly entered X coordinates X, Y
  • the second maximum value detector 280 is an evaluation output from the first maximum value detector 280.
  • the i-th maximum value detector 28 ( ⁇ is the maximum value detector 280 ⁇ on the upstream side, and the evaluation force S that is output is larger than the evaluation value that is held until then. In this case, the data stored up to that point is output to the maximum value detector 280 on the downstream side.
  • the leading maximum value detector 280 holds the X coordinate X, Y coordinate Y, radius R, and evaluation eye for the pupil candidate having the largest evaluation value.
  • the second maximum value detector 280 contains the X coordinate X, Y coordinate Y, radius R, evaluation for the second candidate with the largest evaluation value.
  • the i-th maximum value detector 280 has the i-th largest evaluation value.
  • the selector 253 of the change circle detection unit 250 of this embodiment determines the maximum value of the difference value ⁇ and its value.
  • the selector 253 can be configured to simply output the outputs of the subtracters 252 to 252 and the radius of the integrating circle in a time division manner.
  • the pupil selection unit 290 selects one of the plurality of pupil candidates held in the pupil candidate holding unit 280 and uses the position coordinates and radius as the pupil position coordinates and radius, and the authentication processing unit 140. Output to.
  • FIG. 10 is a diagram for explaining the operation of the pupil selection unit 290.
  • Pupil candidates P, P are
  • the erroneously detected pupil candidates are hardly clustered, but the pupil candidates tend to be clustered around the true pupil. This depends on the detection accuracy of the pupil candidates. The higher the detection accuracy, the smaller the number of pupil candidates that are concentrated.
  • the center of another pupil candidate may exist at the pixel position adjacent to the center position of the true pupil. Is expensive.
  • the pupil candidate force S may be generated around the true pupil due to the influence of illumination light reflected by the cornea. Therefore, by selecting a pupil candidate that has other pupil candidates around as a true pupil, it is possible to eliminate false detection such as erroneous detection of eyelashes or the like as a pupil and improve pupil detection accuracy. .
  • FIG. 11 is a flowchart showing an operation of selecting a pupil from pupil candidates based on such a concept.
  • the pupil selection unit 290 captures one pupil candidate.
  • the X-coordinate, Y-coordinate, radius, and evaluation value of the captured pupil candidate are set as Xi, Yi, Ri, and Ji, respectively (S71).
  • the pupil candidate values Xi, Yi, and Ri It is examined whether there is a group in which the difference from the loop average values Xgj, Ygj and Rgj (j is a positive integer) is smaller than the predetermined threshold values Xth, Yth and Rth.
  • the average values Xgj, Ygj, and Rgj are recalculated for the group to which pupil candidates are added in step S73 or the group newly created in step S74 (S75) o group If pupil candidates that have not been divided remain, the process returns to step S71 (S76).
  • the total ⁇ J of the evaluation values of the pupil candidates included in the group is obtained for each group (S77).
  • the average value Xgj, Ygj and Rgj of the X coordinate, Y coordinate and radius of the group with the largest total evaluation value ⁇ J is output to the authentication processing unit 140 as the X coordinate, Y coordinate and radius of the pupil ( S78).
  • the pupil selection unit 290 can be configured by using a dedicated circuit that performs the above operations.
  • a CPU not shown provided in the authentication processing unit 140 The above-described processing is performed using According to this flow, data processing is relatively simple and suitable for high-speed operation.
  • the concentric integral circle which is a feature of the present embodiment, is set so as to become sparse as the radius increases.
  • the integration circle is set densely at the small radius, and the integration circle is set sparse as the radius increases. The reason for this is to prevent the size of the imaged pupil from affecting the pupil detection accuracy.
  • FIG. 12A and FIG. 12B are diagrams for explaining the reason, and the product with respect to the radius of the integrating circle. It is a figure which shows a minute value and its difference value.
  • the horizontal axis shows the radius R of the integration circle
  • the vertical axis shows the integration value I and the difference value ⁇ ⁇ .
  • the integration circle is
  • the integration circle is located in the middle luminance region of the ring showing the iris.
  • Minute value I indicates a relatively large value I.
  • the integrating circle is
  • the radius range R (hereinafter referred to as “boundary range”) is the pupil.
  • the boundary area is generated when the eye image is not focused or due to distortion such as aberration of the optical system. Furthermore, because the pupil or integration circle is not a perfect circle, or because the pixels of the image sensor are discrete, the integration circle
  • the arrows on the horizontal axis in FIG. 12A indicate the radius of the integrating circle.
  • the boundary range is smaller than the interval between the radius of integration circles indicated by arrows, there is a possibility that one integration circle may be included in the boundary range, but two or more integration circles will be included. There is no possibility.
  • Fig. 12B if the captured pupil becomes larger and the boundary range is wider than the interval between the radius of the integration circles, there is a possibility that two or more integration circles may enter the boundary range. Becomes higher.
  • FIG. 12A also shows the difference value ⁇ of the integral value I at the same time when the pupil is imaged small.
  • FIG. 12B also shows the difference value ⁇ of the integral value I at the same time when a large pupil is imaged.
  • the radii of the concentric integration circles C to C are set at equal intervals, and the positions thereof are indicated by arrows.
  • the difference value ⁇ shows a large value at the boundary between the pupil and the iris.
  • the difference value ⁇ tends to be small, as shown in FIG. 12B. This is because when the pupil is imaged large, the boundary area between the pupil and the iris is widened, and if this boundary area includes a plurality of integration circles, the difference is distributed over those integration circles, Difference corresponding to the integral circle This is because the minute value becomes smaller.
  • the radius of the integration circle is set at regular intervals, the difference value ⁇ for the large pupil image, that is, the evaluation town is small.
  • the integration circles C20 to C14 having a small radius are concentric circles having different radii by one pixel.
  • the integration circles C13 to C9 having a slightly larger radius are concentric circles with different radii by two pixels.
  • the integral circles C8 to C1 with larger radii are concentric circles with different radial force pixels.
  • the plurality of concentric circles C1 to C20 are set on the eye image so as to become sparse as the radius increases, and in the embodiment, on the partial frame memory 222.
  • the boundary range tends to become wider as the pupil becomes larger.
  • the radius of the integration circle It is sufficient to set so that the increase amount increases exponentially with respect to the radius.
  • the integration circle having a small radius is set densely, and the integration circle is set sparse as the radius increases, so that the pupil detection accuracy is not affected by the size of the pupil.
  • FIG. 13 is a flowchart showing the operation for one frame of the eye image of the pupil detection device in the embodiment of the present invention.
  • the pupil detection device 200 captures image data for one pixel (S51). If the captured image data is the first data of one frame (S52), the Y counter 263 is reset and the registers 282 to 285 of the pupil candidate holding unit 280 are reset (S53). If the captured image data is the first data of one line (S54), the X counter 262 is reset and the Y counter 264 is incremented (S55). Then, the X counter 262 is incremented (S56).
  • the captured image data is captured into the partial frame memory 222.
  • n ⁇ m image data is extracted for each of the integration circle C forces m.
  • an adder 230 corresponding to each integration circle C Calculates the integral value of each image data.
  • the luminance difference calculator 24 ( ⁇ calculates the difference B between the maximum value and the minimum value of the image data.
  • the change circle detector 250 calculates the difference value ⁇ ⁇ of each integral value I. However, the difference B Is greater than the luminance difference threshold Bth, the difference value ⁇ I is forcibly set to 0 (S57).
  • the comparator 254 force difference value ⁇ I is compared with the difference threshold value ⁇ Ith (S58).
  • the difference value ⁇ is larger than the difference threshold value A 1th
  • the pupil candidate holding unit 280 holds the X counter 262, the Y counter 264, and the radius Ro of the integrating circle at this time as pupil candidates.
  • the difference value ⁇ is also held as the evaluation ⁇ o.
  • the pupil candidate holding unit 280 rearranges the pupil candidates in descending order of evaluation values, and holds a maximum of k pupil candidates (S59).
  • the pupil selection unit 290 exists for each pupil candidate at a pixel position adjacent to the center coordinate. Calculate the number of other pupil candidates. Then, the X coordinate, Y coordinate, and radius value of the pupil candidate having the largest value are output to the authentication processing unit 140 as the X coordinate Xo, Y coordinate Yo, and pupil radius Ro of the true pupil (S61).
  • step S 51 to step S 61 are executed each time image data for one pixel is input to the partial frame memory 222.
  • the frame frequency is 30 Hz and the eye image power is 40 to 480 pixels
  • the above-described series of operations are executed in a time of less than lZ (30 X 640 X 480).
  • the integration circle moves by one pixel on the image, so the integration circle scans the image once while inputting one frame of image. . In this way, pupil detection can be performed in real time on image data captured by the imaging unit 120 using a relatively small circuit.
  • the number of concentric integration circles is 20, and the number of image data drawn from one integration circle is 8.
  • these numbers are based on the detection accuracy and processing. It is desirable to decide in consideration of time and circuit scale.
  • the number of image data drawn from one integration circle need not be the same for all integration circles. In this case positive In order to normalize, the integral value of each integral circle should be divided by the number of image data drawn from that integral circle.
  • the image data extraction unit is configured using the line memory and the multiplexer has been described.
  • the present invention depends on the specific circuit configuration of the image data extraction unit. It is not a thing.
  • it may be an image data extraction unit configured using a shift register, or an image data extraction unit having another configuration.
  • a pupil detection device and an iris authentication device capable of detecting the pupil position with high accuracy and high speed.
  • the present invention can provide a pupil detection device capable of detecting the pupil position with high accuracy and high speed, and thus is useful as an iris authentication device used for personal authentication and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

 同心円状の複数の円をそれぞれ積分円Ciとして目画像上に設定し、積分円Ciの円周上に位置する目画像の画像データを抽出する画像データ抽出部と、画像データ抽出部が抽出した画像データを積分円Ciのそれぞれの円周に沿って積分する周回積分部と、周回積分部の積分値が積分円の半径に対してステップ状に変化するような積分円Ciの中心座標を瞳孔位置座標として検出する瞳孔位置検出部とを備え、同心円状の複数の積分円Ciは半径が大きくなるほど疎になるように設定した。

Description

明 細 書
瞳孔検出装置および虹彩認証装置
技術分野
[0001] 本発明は、個人認証等に用いられる虹彩認証装置に関し、特に目を含む画像 (以 下、「目画像」と記する)の中力 瞳孔の位置を検出する瞳孔検出装置に関する。 背景技術
[0002] 従来より目画像の中から瞳孔の位置を検出する様々な方法が提案されている。たと えば、目画像の画像データ(以下、「目画像データ」と記する)を 2値ィ匕し、低輝度領 域の中の円形の領域を検出する方法が知られている。また、半径力 Srであり、中心座 標が (xO, yO)である円の弧に対して画像強度 I (x, y)の周回積分を計算し、半径 rが 増加するにしたがって rに関するこの量の部分的な導関数を計算する方法等が知ら れている。前述の従来の構成は、例えば、特表平 8— 504979号に開示されている。
[0003] これらの方法を用いて精度よく瞳孔を検出するためには膨大な画像データを高速 に処理する必要があり、処理能力の高い大きな CPUゃ大容量メモリを用いても、現 状では目画像の画像データをリアルタイムで処理することが困難であり得る。また、画 像データをリアルタイムで処理できる程度に CPUの処理量を減らすと検出精度が低 下する等の課題があり得る。 発明の開示
[0004] 本発明は、高速にかつ精度よく瞳孔位置の検出が可能な瞳孔検出装置を提供す る。
[0005] 本発明の瞳孔検出装置は、画像データ抽出部と、周回積分部と、瞳孔位置検出部 とを備える。画像データ抽出部は、同心円状の複数の円をそれぞれ積分円として目 画像上に設定し、積分円の円周上に位置する目画像の画像データを抽出する。周 回積分部は、画像データ抽出部が抽出した画像データを積分円のそれぞれの円周 に沿って積分する。瞳孔位置検出部は、周回積分部の積分値が積分円の半径に対 してステップ状に変化するような積分円の中心座標を瞳孔位置座標として検出する。 そして、同心円状の複数の積分円は半径が大きくなるほど疎になるように設定した。 図面の簡単な説明
[0006] [図 1]図 1は本発明の実施例における瞳孔検出装置を用いた虹彩認証装置の回路 ブロック図である。
[図 2A]図 2Aは瞳孔を含む画像の一例を示す図である。
[図 2B]図 2Bは積分円の半径に対する積分値を示す図である。
[図 2C]図 2Cは積分値を積分円の半径で微分した値を示す図である。
[図 2D]図 2Dは目画像上を移動する積分円を示す図である。
[図 3A]図 3Aは積分円が虹彩領域に位置する場合の目画像とそのときの輝度の一例 を示す図である。
[図 3B]図 3Bは積分円がメガネフレームに位置する場合の目画像とそのときの輝度の 一例を示す図である。
[図 4]図 4は同瞳孔検出装置の回路ブロック図である。
[図 5]図 5は同瞳孔検出装置の画像データ抽出部の回路ブロック図である。
[図 6]図 6は同瞳孔検出装置の画像データ抽出部の動作を説明するための図である
[図 7]図 7は同瞳孔検出装置の画像データ抽出部の動作を説明するための図である
[図 8]図 8は同瞳孔検出装置の画像データ抽出部力 抽出すべき画像データの配置 を模式的に示す図である。
[図 9]図 9は同瞳孔検出装置の瞳孔位置検出部の回路ブロック図である。
[図 10]図 10は同瞳孔検出装置の瞳孔選択部の動作を説明するための図である。
[図 11]図 11は同瞳孔検出装置の瞳孔選択部の動作を示すフローチャートである。
[図 12A]図 12Aは積分円の半径に対する積分値およびその差分値を示す図である。
[図 12B]図 12Bは積分円の半径に対する積分値およびその差分値を示す図である。
[図 13]図 13は同瞳孔検出装置の目画像 1フレーム分の動作を示すフローチャートで ある。
符号の説明
[0007] 120 撮像部 130 照明部
140 認証処理部
200 瞳孔検出装置
220 画像データ抽出部
222 部分フレームメモリ
224 - -224 ラインメモリ
1 L
225 - -225 メモリ制御部
1 L
226 マノレチプレクサ
228 - -228 セレクタ
1 n
229 セレクタ制御部
230 周回積分部
240 輝度差算出部
250 変化円検出部
260 ポインタ咅
270 瞳孔位置検出部
280 瞳孔候補保持部
290 瞳孔選択部
発明を実施するための最良の形態
[0008] 本発明の瞳孔検出装置は、高速にかつ精度よく瞳孔位置の検出が可能な瞳孔検 出装置を提供する。
[0009] 本発明の瞳孔検出装置は、画像データ抽出部と、周回積分部と、瞳孔位置検出部 とを備える。画像データ抽出部は、同心円状の複数の円をそれぞれ積分円として目 画像上に設定し、積分円の円周上に位置する目画像の画像データを抽出する。周 回積分部は、画像データ抽出部が抽出した画像データを積分円のそれぞれの円周 に沿って積分する。瞳孔位置検出部は、周回積分部の積分値が積分円の半径に対 してステップ状に変化するような積分円の中心座標を瞳孔位置座標として検出する。 そして、同心円状の複数の積分円は半径が大きくなるほど疎になるように設定する。 この構成により、高速にかつ精度よく瞳孔位置の検出が可能となる。 [0010] また、本発明の瞳孔検出装置は、同心円状の複数の積分円の半径の増加分が、 その積分円の半径に対して指数関数的に大きくなるように設定してもよい。この構成 によっても、高速にかつ精度よく瞳孔位置の検出が可能となる。
[0011] また、本発明の瞳孔検出装置の画像データ抽出部は、積分円のそれぞれに対応 する複数の画像データを同時に抽出することが望ましい。この構成により、各積分円 に対する演算を並列に行うことができ、高速な瞳孔検出が可能となる。
[0012] また、本発明の虹彩認証装置は、本発明の瞳孔検出装置を備える。この構成により
、精度よくかつ高速に瞳孔位置の検出が可能な虹彩認証装置を提供することができ る。
[0013] 以下、本発明の実施例における瞳孔検出装置を用いた虹彩認証装置について、 図面を用いて説明する。
[0014] (実施例)
図 1は、本発明の実施例における瞳孔検出装置を用いた虹彩認証装置の回路プロ ック図である。図 1には、瞳孔検出装置 200にカ卩えて虹彩認証装置 100を構成する ために必要な撮像部 120、照明部 130、認証処理部 140も示している。
[0015] 本実施例における虹彩認証装置 100は、撮像部 120と、瞳孔検出装置 200と、認 証処理部 140と、認証処理部 140と、照明部 130とを備えている。撮像部 120は、使 用者の目画像を撮像する。瞳孔検出装置 200は、目画像の中カゝら瞳孔位置とその 半径を検出する。認証処理部 140は、目画像カゝら得られた虹彩コードを、登録されて いる虹彩コードと比較して個人認証を行う。照明部 130は、目画像取得に適した光量 の近赤外線を照射し使用者の目とその周辺部分を照明する。
[0016] 撮像部 120は、誘導ミラー 121、可視光カットフィルタ 122、レンズ 123、撮像素子 1 24および前処理部 125を有する。本実施例においては、レンズ 123として固定焦点 レンズを用いることにより光学系の小型、軽量化と低コストィ匕を実現している。誘導ミラ 一 121は、使用者が自らの目を映すことにより目を正しい撮像位置へ誘導する。そし て、使用者の目はレンズ 123、可視光カットフィルタ 122を通して撮像素子 124で撮 像される。前処理部 125は、撮像素子 124の出力信号力 画像データ成分を取り出 し、ゲイン調整等画像データとして必要な処理を行った上で、使用者の目画像デー タとして出力する。
[0017] 瞳孔検出装置 200は、画像データ抽出部 220と、周回積分部 230と、輝度差算出 部 240と、変化円検出部 250と、ポインタ部 260と、瞳孔位置検出部 270とを有する。 瞳孔検出装置 200は、目画像の中から瞳孔位置とその半径を検出し、認証処理部 1 40へ出力する。瞳孔検出装置 200の詳細については後述する。
[0018] 認証処理部 140は、瞳孔検出装置 200が検出した瞳孔中心座標および瞳孔半径 にもとづき、目画像データの中から虹彩画像を切り出す。そして、虹彩画像を虹彩の 模様を示す固有の虹彩コードに変換し、登録されている虹彩コードと比較すること〖こ よって認証動作を実行する。
[0019] 次に、瞳孔検出装置 200の瞳孔検出方法について説明する。図 2A〜図 2Dは、本 発明の実施例における瞳孔検出装置の瞳孔検出方法を説明するための図である。 図 2Aは、瞳孔を含む画像の一例を示す図である。図 2Bは、積分円の半径に対する 積分値を示す図である。図 2Cは、積分値を積分円の半径で微分した値を示す図で ある。図 2Dは、目画像上を移動する積分円を示す図である。
[0020] 瞳孔を含む画像は図 2Aに示すように、瞳孔を示す円盤状の低輝度領域と、その外 側に虹彩を示す円環状の中輝度領域とが存在する。したがって、瞳孔中心の位置座 標 (Xo, Yo)を中心として、半径 Rの積分円 Cの円周に沿って画像データを周回積分 すると、図 2Βに示すように、積分値 Iは、瞳孔半径 Roのところでステップ状に変化す ること〖こなる。そこで、図 2Cに示すように、積分値 Iを半径 Rで微分した値 dl/dRが閾 値 (以下、「差分閾値」と記する) A lthを超えるときの積分円の半径を求めることにより 瞳孔半径 Roを知ることができる。
[0021] 以上の考え方にもとづき、瞳孔検出装置 200は、瞳孔の位置座標 (Xo, Yo)と瞳孔 半径 Roを検出する。まず、図 2Dに示すように、中心座標が等しく半径の異なる n個 の積分円 C〜Cを目画像上に設定し、各々の積分円 C (i= l〜n)に対してその円 周上に位置する画像データを積分する。現実的には、各々の積分円 Cの円周上に 位置する画素の画像データの平均値を計算するか、円周上に位置する画素の中か らー定数 (m個)の画素を選んで、その画像データを加算する。
[0022] 本実施例においては、同心円状の積分円の数 nを 20とし、各積分円 Cの円周上に 位置する画素の中から m= 8画素を選んで、その画像データを加算し、周回積分の 積分値 Iとした。そして、積分円 C〜Cの中心が瞳孔中心と一致している場合には、 上述したように、各積分円 Cに対する積分値 I力ステップ状に変化する。よって、積分 値 Iの半径 Rに対する差分値 Δ Ιを求めると、瞳孔半径 Roに等しいところで大きな極 大値を示すことになる。
[0023] 一方、積分円 C〜Cの中心が瞳孔中心に一致しない場合は、積分値 Iは緩やか に変化するので、その差分値 Δ Ιは大きな値を示さない。したがって、差分値 Δ Ιが 差分閾値 A lthよりも大きな値を示す積分円 Cを求めることで、瞳孔の位置とその半 径を求めることができる。
[0024] そして、目画像上の各位置に積分円 C〜Cを移動させて、上述の動作を繰り返す 。こうして、差分値 Δ Ιが大きな値を示すときの積分円 Cの中心座標 (X, Y)とそのと きの半径 Rを求めることにより、瞳孔の位置座標 (Xo, Yo)と瞳孔半径 Roを求めること ができる。
[0025] し力しながら、画像によっては偶発的に差分値 Δ Ιが大きな値を示す可能性がある 。積分円の数 nや各積分円上で選択する画素の数 mを小さくすると、計算量を減らす ことができ、高速な瞳孔検出が可能となる。反面、偶発的に差分値 Δ Ιが大きな値を 示す可能性が高くなり、瞳孔検出精度が低下する。そのため、瞳孔検出装置 200に 輝度差算出部 240を設け、積分円 Cの各々に対して、円周上における輝度の最大 値と最小値の差 Bを求める。その差 Bが所定の閾値 (以下、「輝度差閾値」と記する) Bthより小さい場合に限り積分値 I、あるいは、その差分値 Δ Ιが有効であるとすること で瞳孔検出精度の低下を防 、で 、る。
[0026] 図 3A及び図 3Bは、輝度差算出部 240の動作を説明するための図である。図 3A は、積分円が虹彩領域に位置する場合の目画像とそのときの輝度の一例を示す図 である。図 3Bは、積分円がメガネフレームに位置する場合の目画像とそのときの輝 度の一例を示す図である。積分円 C〜Cの中心が瞳孔中心と一致している場合に は、各積分円 Cは瞳孔領域内部、虹彩領域内部等、比較的輝度の均一な領域に位 置するため、円周上の画像データの輝度ばらつきは小さい。図 3Aに、円環状の中輝 度領域である虹彩領域に位置する積分円を示している。この場合、円周上の輝度の 最大値と最小値との差 は小さぐ輝度差閾値 Bth以下となる。
[0027] し力し、たとえば図 3Bに示すように、積分円 C〜Cの中心が黒いメガネフレームの 一部に位置するときには、円周上の輝度は、メガネフレーム上では低ぐ皮膚の部分 では高くなるため、輝度の最大値と最小値との差 Bは大きくなる。このように、各積分 円 Cの円周上の輝度の最大値と最小値との差 Bを求め、その差 Bが輝度差閾値 Bth より小さい場合に限り積分値 I、あるいはその差分値 Δ Ιが有効であるとする。これに より、メガネフレーム等を誤って瞳孔と判定する等の誤判定を防ぐことができ、瞳孔検 出精度の低下を防止できる。
[0028] なお、輝度差閾値 Bthとしては、円周上の輝度データの予想されるばらつきよりわ ずかに大きく設定することが望ましい。すなわち、虹彩の平均輝度と瞳孔の平均輝度 との差よりも大きぐ肌の平均輝度と瞳孔の平均輝度との差よりも小さく設定するとよ い。たとえば、 256階調の画像信号の場合、瞳孔の平均輝度が 40階調程度、虹彩 の平均輝度が 100階調程度、肌の平均輝度が 200階調程度となるため、輝度差閾 値 Bthとしては 60〜160の間で設定するとよ!/、。
[0029] また、積分円が瞳孔上にある場合の積分値 Iは、およそ 40 X 8 = 320であり、積分 円が虹彩上にある場合の積分値 Iは、およそ 100 X 8 = 800である。よって、差分閾 値 A lthとしては、その差 480の半分程度、すなわち 240程度に設定するとよい。
[0030] 図 4は、本発明の実施例における瞳孔検出装置の回路ブロック図である。瞳孔検出 装置 200は、画像データ抽出部 220と、周回積分部 230と、輝度差算出部 240と、 変化円検出部 250と、ポインタ部 260と、瞳孔位置検出部 270とを備えている。画像 データ抽出部 220は、目画像上に積分円 C〜Cを設定し、各積分円 Cの円周上の 画像データを抽出する。周回積分部 230は、抽出された画像データを積分円 C毎に 周回積分する。輝度差算出部 240は、各積分円毎に画像データの最大値と最小値 との差 Bを求める。変化円検出部 250は、積分値 Iの半径 Rに対する差分値 Δ Ιを求 め、差分値の最大値 Δ Iが差分閾値 Δ Ithよりも大き 、ときの差分値 Δ Iと積分円の半 径 Rとを出力する。ポインタ部 260は、積分円 C〜Cの中心座標 (X, Y)を指示する 。瞳孔位置検出部 270は、瞳孔候補保持部 280と瞳孔選択部 290とからなる。
[0031] 瞳孔候補保持部 280は、変化円検出部 250が差分閾値 A lthよりも大きい差分値 Δ を出力したとき瞳孔候補を検出したものとみなし、複数の瞳孔候補の位置座標 ( X, Y)と半径 Rを記憶する。瞳孔選択部 290は、複数の瞳孔候補の中から 1つの瞳 孔を選び出す。このようにして瞳孔位置検出部 270は、目画像の中から瞳孔の位置 座標と瞳孔の半径を検出する。
[0032] 図 5は、画像データ抽出部 220の回路ブロック図である。画像データ抽出部 220は 、部分フレームメモリ 222と、マルチプレクサ 226とから構成されている。マルチプレク サ 226は、部分フレームメモリ 222から読出された画像データを各々の積分円 C毎に まとめて出力する。部分フレームメモリ 222は、ランダムアクセス可能なラインメモリ 22 4 〜224を複数個接続したものである。本実施例においては、 L= 101本のラインメ
1 し
モリ 224 〜224 を用いて部分フレームメモリ 222を構成している。
1 101
[0033] メモリ制御部 225 〜225は、対応するラインメモリ 224 〜224の読出し、書込み
1 し 1 し
を制御する。マルチプレクサ 226は、 n個の積分円 C 〜Cに対応する n個のセレクタ 228 〜228と、セレクタ制御部 229と力も構成されている。セレクタ 228;は、部分フ レームメモリ 222から出力される画像データのうち、対応する積分円 Cの円周上に位 置する画像データを選択し出力する。画像データ抽出部 220は、読み出した画像デ ータを積分円毎にまとめて同時に抽出し出力する。
[0034] 図 6および図 7は、画像データ抽出部 220の動作を説明するための図である。以下 では簡単のために、 7本のラインメモリ 224 〜224が部分フレームメモリ 222を構成 し、その上に 3つの同心円状の積分円 C 〜Cを設定するものとする。そして、それぞ
1 3
れの積分円 C 〜Cの円周上に位置する画素の中からそれぞれ 4画素ずつを選んで
1 3
その画素データを抽出するものとして説明する。図 6は、部分フレームメモリ 222上に 設定された 3つの積分円 C 〜Cと、それぞれの積分円上から抽出すべき 12の画像
1 3
データ D とを示している。ここで画像データ D の iはラインメモリ 224 〜224を識別 するための添字であり、 jは積分円 C 〜Cを識別するための添字である。
1 3
[0035] 図 7は、前処理部 125から送られる画像データ Sigとラインメモリ 224 〜224力も出 力される画像データを示すタイミングチャートである。ここで、前処理部 125から 1つの 画像データが送られる期間 Tsigの間にラインメモリ 224 〜224が合計 6回の読出し 書込み動作を行う期間 T1〜T6が設けられているものとする。 [0036] 最初の期間 Tlでは、各ラインメモリ 22 は書込まれている最も古い画像データを 次のラインメモリ 224 に出力する。次の期間 T2では、 1つ前のラインメモリ 224 か
i+ l i-1 ら出力された画像データを空いたデータエリアへ書込む。このとき最初のラインメモリ
224は前処理部 125から出力された画像データを空いたエリアへ書込む。このよう に、最初の 2つの期間 Tl、 Τ2は、ラインメモリ 224〜224を部分フレームメモリ 222 として機能させるために使用する。
[0037] 続く 4つの期間 Τ3〜Τ6は、画像データ D を取り出すために使われる。ラインメモリ
1, ]
224は、積分円 Cに対応する 1つの画像データ D を出力する。ラインメモリ 224 は、 1つの画像データ D を出力する。ラインメモリ 224は、 2つの画像データ D と
2, 2 3 3, 2
D とを出力する。そして、ラインメモリ 224は、画像データ D 、 D をそれぞれ 2
3, 3 4 4, 1 4, 3
つずつ、合計 4つのデータを出力する。
[0038] ラインメモリ 224は、 2つの画像データ D 、 D を出力する。ラインメモリ 224は、
5 5, 2 5, 3 6
1つの画像データ D を出力する。ラインメモリ 224は、 1つの画像データ D を出
6, 2 7 7, 1 力する。画像データの出力においては、それぞれのラインメモリがどのタイミングでど の画像データを出力するかはある程度自由に設定できる。しかし、同一の積分円に 対応する画像データを同一タイミングで出力しな ヽように決められて ヽる。
[0039] 次に、各ラインメモリは、図 6に示した順に、それぞれの画像データを出力するもの として、マルチプレクサ 226の動作について説明する。積分円 Cに対応するセレクタ 228は、期間 Τ3においてラインメモリ 224の出力を選択し画像データ D を出力
1 4 4, 1 する。期間 Τ4においても、ラインメモリ 224の出力を選択し、もう 1つの画像データ D
4
を出力する。期間 Τ5においては、ラインメモリ 224の出力を選択し、画像データ D を出力する。期間 Τ6においては、ラインメモリ 224の出力を選択し、画像データ D を出力する。
[0040] こうして、セレクタ 228力 は、積分円 Cの円周上の画像データ D 、D 、D 、 D だけが出力される。セレクタ 228は、期間 T3ではラインメモリ 224の出力を選
7, 1 2 3
択する。期間 T4ではラインメモリ 224の出力を選択する。期間 T5ではラインメモリ 22
5
4の出力を選択する。期間 T6ではラインメモリ 224の出力を選択する。このようにし
2 6
て、積分円 Cの円周上の画像データ D 、D 、D 、D を出力する。 [0041] セレクタ 228も同様に、期間 T3ではラインメモリ 224の出力を選択する。期間 T4
3 5
ではラインメモリ 224の出力を選択する。期間 T5および T6ではラインメモリ 224の
3 4 出力を選択する。このようにして、積分円 Cの円周上の画像データ D 、 D 、 D
3 5, 3 3, 3 4, 3
、 D を出力する。こうして、マルチプレクサ 226は、部分フレームメモリ 222から読出
4, 3
された画像データを積分円毎にまとめて出力する。
[0042] そして、部分フレームメモリ 222へ画像データ Sigを 1画素入力する毎に、出力すベ き画像データ D を 1画素分移動するように、メモリ制御部 225 〜225は、ラインメモ
1 し
リ 224 〜224のアドレスを制御する。その結果、 1フレーム分の画像データが部分フ
1 し
レームメモリ 222に入力する間に、目画像上では、積分円 C 〜Cが目画像全体を走 查すること〖こなる。このときの積分円の中心座標 (X, Y)は、 Xカウンタ 262および Y力 ゥンタ 264の出力によって示される。
[0043] 以上の説明では、ラインメモリの数 L = 7、積分円の数 n= 3、 1つの積分円の円周 上から取り出すべき画像データの数 m=4として説明したが、これらの数は検出精度 、処理時間、回路規模等との兼ね合いで決定することが望ましい。図 8は、本実施例 における目画像上の積分円を模式的に示した図であり、ラインメモリの数 L= 101、 積分円の数 n= 20、 1つの積分円の円周上から取り出すべき画像データの数 m= 8 と設定している。
[0044] このように、画像データ抽出部 220から取り出すべき画像データの総数は多いが、 これらの画像データが特定のラインメモリに集中しな 、ように配置されて 、る。これは 、 1つの画像データが送られる期間 Tsigの間にラインメモリをアクセスできる回数には 上限があり、すべてのラインメモリのアクセス回数をそれ以下に抑えるためである。以 上が画像データ抽出部 220の構成とその動作である。
[0045] 周回積分部 230は、積分円 C 〜Cの各々に対して独立な加算器 230 〜230を 備え、各積分円 Cの円周上に位置する m個の画像データを加算し、各々の加算結 果を積分値 Iとして変化円検出部 250へ出力する。
[0046] 輝度差算出部 240は、積分円 C 〜Cの各々に対して独立な輝度差算出器 240 〜240を備える。各々の輝度差算出器 240は、積分円 Cの円周上に位置する m個 の画素データの最大値と最小値とを検出し、その差 Bと輝度差閾値 Bthとを比較して n個の比較結果を変化円検出部 250へ出力する。
[0047] 変ィ匕円検出咅 250は、減算器 252〜252 _と、セレクタ 253と、コンノレータ 254 とを備える。減算器 252は、各積分円 Cに対する積分値 Iの半径 Rに対する差分を 求める。すなわち、積分円 C〜Cのうち、半径の 1つ違う積分円 Cとじ とに対する 積分値 Iと I との差分値 Δ Iを求める。ただし、積分円 Cに対する画像データの最大 値と最小値との差 ^が、輝度差閾値 Bthよりも大きい場合には、差分値 Δ Ιを強制的 に 0に設定する。
[0048] そして、セレクタ 253およびコンパレータ 254は、差分値 Δ Ιが差分閾値 A lthより大 きくなる積分円 Cの半径 Rを、瞳孔候補保持部 280に出力するとともに、その差分値 Δ Ιも評価銜として、瞳孔候補保持部 280に出力する。このとき、積分円 Cに対する
0 i 画像データの最大値と最小値との差 Bが、輝度差閾値 Bthよりも大きい場合、減算器 252iは、差分値 Δ Ιを強制的に 0に設定する。従って、差 B力 輝度差閾値 Bthより も大きい場合には、半径 Rが、瞳孔候補保持部 280に出力されることはない。
[0049] 図 3を用いて説明したように、積分円 C〜Cの中心が瞳孔の中心と一致している場 合には、画素データの最大値と最小値との差 Bは、ある限られた値以下となる。しか し、瞳孔の中心と一致していない場合には、差 Bは大きくなる。したがって、差 Bが輝 度差閾値 Bthよりも大きい場合の情報を除くことにより、誤検出の可能性を減らすこと ができ、瞳孔検出精度を上げることができる。
[0050] 図 9は、瞳孔位置検出部 270、すなわち瞳孔候補保持部 280および瞳孔選択部 2 90の回路ブロック図である。瞳孔候補保持部 280は、複数の最大値検出器 280〜 280がそれぞれ直列に接続されている。最大値検出器 280の各々は、レジスタ 282 k i
、 283、 284および 285と、コンノレータ 281と、セレクタ 286、 287、 288および 2 89とを備えている。
[0051] レジスタ 282、 283、 284および 285は、瞳孔候補の X座標、 Y座標、半径 Rおよ び評価街の最大値を保持する。コンパレータ 281は、入力した評価値 T とレジスタ 285【こ保持して!/ヽる評価 BJとを it較する。セレクタ 286、 287、 288および 289【ま 、入力した X座標、 Y座標、半径 Rおよび評価銜と保持している X座標、 Y座標、半 径 Rおよび評価 »の!、ずれかを選択する。 [0052] 先頭の最大値検出器 SSC^には、積分円の座標を示す Xカウンタ 262および Yカウ ンタ 264の出力 X、 Yが入力され、変化円検出部 250の出力 Rも入力されている。
0 0 0
そして、変化円検出部 250から出力される評価街がレジスタ 285の保持している
0 1
評価銜よりも大きい場合には、それまでレジスタ 282〜285に保持していた X座標 X、 Y座標 Y、半径 R、評価街を、セレクタ 286〜289を介して、 2番目の最大値 検出器 280に出力する。さらに、レジスタ 282〜285は、新しく入力した X座標 X、
Y座標 Y
0、半径 R
0、評価街 0を保持する。
[0053] 評価街 0が評価街 1以下の場合には、新しく入力した X座標 X、 Y
0 座標 Y
0、半径 R
0
、評価銜を、セレクタ 286〜289を介して、 2番目の最大値検出器 280に出力す
0 1 1 2
る。
[0054] 2番目の最大値検出器 280は、 1番目の最大値検出器 280から出力される評価
2 1
がレジスタ 285の保持している評価銜よりも大きい場合には、それまでレジスタ
1 2 2
282〜285に保持していた X座標 X、 Y座標 Y、半径 R、評価銜を 3番目の最大
2 2 2 2 2 2 値検出器 280に出力する。さらに、レジスタ 282〜285は、新しく入力した X座標 X
3 2 2
、 Y座標 Y、半径 R、評価 ffiを保持する。評価 »が評価 »以下の場合には、 新しく入力した X座標 X、 Y座標 Y、半径 R、評価街を、 3番目の最大値検出器 2 80に出力する。
3
[0055] 以下同様に、 i番目の最大値検出器 28(^は、上流側の最大値検出器 280卜力も出 力される評価銜 力 Sそれまで保持して 、た評価値丁よりも大き 、場合には、それまで 保持していたデータを下流側の最大値検出器 280 に出力する。さらに、上流側の
i+ 1
データを保持する。評価 iiU が評価 iiU以下の場合には上流側のデータを下流側 に出力する。
[0056] その結果、先頭の最大値検出器 280には、最も評価値の大きい瞳孔候補に対す る X座標 X、 Y座標 Y、半径 R、評価銜が保持される。 2番目の最大値検出器 280 には、 2番目に評価値の大きい瞳孔候補に対する X座標 X、 Y座標 Y、半径 R、評
2 2 2 2 価街が保持される。そして、 i番目の最大値検出器 280には、 i番目に評価値の大
2 i
、瞳孔候補に対する X座標 X、 Y座標 Y、半径 R、評価銜が保持される。
[0057] なお、本実施例の変化円検出部 250のセレクタ 253は、差分値 Δ Ιの最大値とその ときの積分円 Cの半径 Rを選択する機能をもっている。しかしながら、瞳孔候補保持 部 280は、もともと最大値を検出する機能をもっている。したがって、セレクタ 253とし て、単純に時分割で減算器 252〜252 の出力と積分円の半径とを出力する構成 とすることち可會である。
[0058] 瞳孔選択部 290は、瞳孔候補保持部 280に保持されている複数の瞳孔候補の中 力も 1つを選び出し、その位置座標および半径を、瞳孔の位置座標および半径として 、認証処理部 140へ出力する。
[0059] 図 10は、瞳孔選択部 290の動作を説明するための図である。瞳孔候補 P、 Pは、
1 2 まつげを瞳孔と間違って検出したものであり、瞳孔候補 P〜P は、真の瞳孔を検出
3 11
したものである。このように、一般に、誤検出された瞳孔候補が、密集することはほと んどないが、真の瞳孔の周囲には、瞳孔候補が密集する傾向がある。これは、瞳孔 候補の検出精度に依存し、検出精度がよくなるほど、密集する瞳孔候補の数は少な くなる。
[0060] しかし、精度を上げても、撮像素子に依存する 1画素程度の誤差は残るため、真の 瞳孔の中心位置に隣接する画素位置には、他の瞳孔候補の中心が存在する可能性 が高い。また、照明光が角膜で反射する等の影響で、真の瞳孔の周囲に瞳孔候補 力 S生じる場合もある。したがって、周囲に他の瞳孔候補の存在する瞳孔候補を、真の 瞳孔として選択することにより、まつげ等を瞳孔と間違って検出する等の誤検出をなく し、瞳孔検出精度を向上させることができる。
[0061] 本実施例においては、次のようにして、複数の瞳孔候補の中から 1つを選び出して いる。複数の瞳孔候補に対して、互いに距離の近いものを 1つのグループとして、グ ループ分けする。そして、それぞれのグループに含まれる瞳孔候補の数の多いもの、 あるいは、含まれる瞳孔候補の評価値の合計が高いものを手力 Sかりにして、真の瞳 孔を選択している。図 11は、このような考え方にもとづいて瞳孔候補の中から瞳孔を 選択する動作を示すフローチャートである。
[0062] まず、瞳孔選択部 290は、瞳孔候補を 1つ取り込む。取り込んだ瞳孔候補の X座標 、 Y座標、半径および評価値を、それぞれ Xi、 Yi、 Riおよび Jiとする(S71)。次に、 X 座標、 Y座標および半径のそれぞれについて、瞳孔候補の値 Xi、 Yiおよび Riと、グ ループの平均値 Xgj、 Ygjおよび Rgj (jは正の整数)との差が、所定の閾値 Xth、 Yth および Rthより小さくなるグループが存在するか調べる。
[0063] すなわち、 I Xi— Xgj Iく Xth、 | Yi— Ygj |く Yth、 | Ri-Rgj |く Rthを満た すグループが存在するカゝ調べる(S72)。存在する場合には、ステップ S71で取り込 んだ瞳孔候補を、そのグループに追加する(S73)。存在しない場合には、ステップ S 71で取り込んだ瞳孔候補だけを含む新たなグループを作成する(S74)。
[0064] 次に、ステップ S 73で瞳孔候補を追加されたグループ、あるいはステップ S74で新 たに作成されたグループに対して、平均値 Xgj、 Ygjおよび Rgjの再計算を行う(S75 ) oグループ分けの終えていない瞳孔候補が残っている場合は、ステップ S71に戻る (S76)。すべての瞳孔候補のグループ分けを終えると、各々のグループに対して、 そのグループに含まれる各瞳孔候補の評価値の合計∑Jを求める(S77)。そして、評 価値の合計∑Jが最大のグループの X座標、 Y座標および半径の、平均値 Xgj、 Ygj および Rgjを、瞳孔の X座標、 Y座標および半径として、認証処理部 140へ出力する (S78)。
[0065] 以上の方法によれば、原理的には、瞳孔候補の順序によりグループ分けの結果が 変わる等の不安定さはある。しかし、誤検出される瞳孔候補は、孤立しており、真の 瞳孔を含む瞳孔候補の集まりは、密集している。したがって、たとえば Xth、 Ythの値 を予想される瞳孔半径の 1Z2程度に設定すれば、事実上問題は発生しない。瞳孔 選択部 290は、以上の動作を行う専用回路を用いて構成することも可能であるが、本 実施例にぉ ヽては、認証処理部 140に設けられて ヽる CPU (図示せず)を用いて、 上述の処理を行っている。そして、このフローによれば、データ処理が比較的簡単で あり、高速動作に適している。
[0066] 次に、本実施例の特徴である、同心円状の積分円を、半径が大きくなるほど、疎に なるように設定した点について、詳細に説明する。図 8に示したように、積分円は、半 径の小さいところでは密に設定され、半径が大きくなるにつれて、積分円が疎に設定 されている。この理由は、撮像された瞳孔の大きさが、瞳孔検出精度に影響を与えな いようにするためである。
[0067] 図 12A、図 12Bは、この理由を説明するための図であり、積分円の半径に対する積 分値、およびその差分値を示す図である。ここで、横軸は積分円の半径 Rを、縦軸は 積分値 Iおよび差分値 Δ Ιを示す。図 12Aにおいて、半径の範囲 R では、積分円は
(1)
瞳孔の内部の低輝度領域に位置するため、積分値 Iは小さな値 I を示す。また、半
(1)
径の範囲 R では、積分円は虹彩を示す円環状の中輝度領域に位置するため、積
(2)
分値 Iは比較的大きな値 I を示す。ところが、半径の範囲 R では、積分円は瞳孔と
(2) (3)
虹彩との境界部分に位置し、その積分値 Iは I と I との間の値を示す。
(1) (2)
[0068] このように、図 12Aにおいて、半径の範囲 R (以下、「境界範囲」と記す)は、瞳孔
(3)
と虹彩との境界領域に対応しており、境界範囲は、目画像を撮像する際にフォーカス があっていない場合や、光学系の収差等の歪によって発生する。さらに、瞳孔または 積分円が真円でないために、あるいは、撮像素子の画素が離散的なために、積分円
1S 瞳孔と虹彩の両方の領域にまたがってしまうことによつても発生する。このように、 様々な理由により境界範囲が発生するが、境界範囲は、撮像される瞳孔が大きいほ ど、広くなる傾向がある。
[0069] 図 12Aの横軸上に記した矢印は、積分円の半径を示している。このように、境界範 囲が、矢印で示した積分円の半径の間隔よりも小さい場合には、境界範囲に、積分 円が 1つ入る可能性はあるが、 2つ以上の積分円が入る可能性はない。一方、図 12 Bで示したように、撮像された瞳孔が大きくなり、境界範囲が積分円の半径の間隔より も広くなつた場合には、境界範囲に、積分円が 2つ以上入る可能性が高くなる。
[0070] 図 12Aには、瞳孔が小さく撮像された場合について、積分値 Iの差分値 Δ Ιも同時 に示している。また、図 12Bには、瞳孔が大きく撮像された場合について、積分値 Iの 差分値 Δ Ιも同時に示している。ただし、図 12A、図 12Bでは、説明のために、同心 円状の積分円 C〜Cの半径が、等間隔に設定されているものとし、その位置を矢印 で示している。
[0071] 瞳孔が小さく撮像された場合には、図 12Aに示すように、瞳孔と虹彩の境界の位置 で、差分値 Δ Ιが大きな値を示す。ところが、瞳孔が大きく撮影された場合には、図 1 2Bに示すように、差分値 Δ Ιが小さくなる傾向がある。これは、瞳孔が大きく撮像され たときには、瞳孔と虹彩との境界領域も広くなり、この境界領域に複数の積分円が含 まれると、差分がそれらの積分円に亘り、分散され、それぞれの積分円に対応する差 分値 が小さくなるためである。その結果、図 12に示すように、積分円の半径を等 間隔に設定すると、大きな瞳孔の画像に対する差分値 Δ Ι、すなわち評価街が小さ
i 0 くなり、瞳孔検出精度が低下する可能性があった。
[0072] そこで、本実施例においては、図 8に示したように、半径の小さい積分円 C20〜C1 4は、半径が 1画素ずつ異なる同心円である。そして、もう少し半径の大きい積分円 C 13〜C9は、半径が 2画素ずつ異なる同心円である。さらに半径の大きい積分円 C8 〜C1は、半径力 画素ずつ異なる同心円である。このように、同心円状の複数の積 分円 C1〜C20は、半径が大きくなるほど疎になるように目画像上に、実施例におい ては部分フレームメモリ 222上に、設定されている。
[0073] そして、上述したように、境界範囲は、瞳孔が大きくなるほど、広くなる傾向がある。
しかし、たとえば、積分円の半径に比例して境界範囲が広がり、積分円の半径と、積 分円の半径の間隔とが比例するように、積分円を設定する場合には、積分円の半径 の増加分が、半径に対して指数関数的に大きくなるように、設定すればよい。このよう に、半径の小さい積分円を密に設定し、半径が大きくなるにつれて積分円を疎に設 定することにより、瞳孔検出精度が瞳孔の大きさの影響を受けないようにしている。
[0074] 次に、瞳孔検出装置 200の動作について説明する。以下の説明では、目画像デー タが順次走査データであり、 1フレームが、たとえば 480ライン X 640ピクセルのデジ タルデータで構成されているものとする。図 13は、本発明の実施例における瞳孔検 出装置の目画像 1フレーム分の動作を示すフローチャートである。
[0075] まず、瞳孔検出装置 200は、 1画素分の画像データを取り込む(S51)。取り込んだ 画像データが、 1フレームの先頭のデータであれば(S52)、 Yカウンタ 263をリセット するとともに、瞳孔候補保持部 280の各レジスタ 282〜285をリセットする(S53)。取 り込んだ画像データが、 1ラインの先頭のデータであれば(S54)、 Xカウンタ 262をリ セットし、 Yカウンタ 264をインクリメントする(S55)。そして、 Xカウンタ 262をインクリメ ントする(S56)。
[0076] 次に、取り込んだ画像データを、部分フレームメモリ 222に取り込む。すると、目画 像上で、 n個の積分円 C〜Cに対応する画素のうち、各々の積分円 C力 m個ずつ 、 n X m個の画像データが引出される。そして、各積分円 Cに対応する加算器 230 は、それぞれ画像データの積分値 を算出する。輝度差算出器 24(^は、画像データ の最大値と最小値との差 Bを算出する。変化円検出部 250は、それぞれの積分値 I の差分値 Δ Ιを計算する。ただし、差 Bが輝度差閾値 Bthよりも大きい場合には、差 分値 Δ Iを強制的に 0とする(S57)。
[0077] そして、コンパレータ 254力 差分値 Δ Iと差分閾値 Δ Ithとを比較する(S58)。差 分値 Δ Ιが差分閾値 A lthより大きい場合には、瞳孔候補保持部 280は、このときの Xカウンタ 262、 Yカウンタ 264および積分円の半径 Roを、瞳孔候補として保持する。 さらに、その差分値 Δ Ιも評価銜 oとして保持する。この場合、瞳孔候補保持部 280 は、評価値の大きい順に瞳孔候補を並べ替え、最大 k個の瞳孔候補を保持する(S5 9)。次に、取り込んだ画像データが、 1フレームの末尾のデータであるか否かを判定 し(S60)、末尾でなければステップ S 51に戻る。
[0078] 入力される画像データが、 1フレームの最後の画素に到った場合は、瞳孔選択部 2 90は、それぞれの瞳孔候補に対して、その中心座標に隣接する画素位置に存在す る他の瞳孔候補の数を計算する。そして、その値が最も大きい瞳孔候補の X座標、 Y 座標および半径の値を、真の瞳孔の X座標 Xo、 Y座標 Yoおよび瞳孔半径 Roとして 、認証処理部 140へ出力する(S61)。
[0079] 以上の、ステップ S51からステップ S61までの一連の動作は、部分フレームメモリ 22 2に画像データを 1画素分入力する毎に実行される。たとえば、フレーム周波数が 30 Hzで、目画像力 40 Χ 480画素で構成されている場合、 lZ (30 X 640 X 480)禾少 以下の時間で、上記の一連の動作が実行される。そして、部分フレームメモリ 222に 1画素入力されると、積分円は画像上で 1画素分移動するので、 1フレームの画像を 入力する間に、積分円が画像上を 1回走査することになる。このようにして、比較的小 規模な回路を用いて、撮像部 120で撮像された画像データに対して、リアルタイムで 瞳孔検出することができる。
[0080] なお、本発明の実施例においては、同心円状の積分円の数を 20、 1つの積分円か ら引出す画像データの数を 8個としたが、これらの数は、検出精度、処理時間、回路 規模等との兼ね合いで決定することが望ましい。また、 1つの積分円から引出す画像 データの数を、すべての積分円に対して、同じにする必要はない。この場合には正 規化するために、各積分円の積分値を、その積分円から引出す画像データの数で 除しておくとよい。
[0081] また、本実施例においては、ラインメモリとマルチプレクサとを用いて画像データ抽 出部を構成した場合について説明したが、本発明は、画像データ抽出部の具体的な 回路構成に依存するものではない。たとえば、シフトレジスタを用いて構成した画像 データ抽出部であってもよぐ他の構成による画像データ抽出部であってもよい。
[0082] 本発明によれば、精度よぐかつ高速に、瞳孔位置の検出が可能な瞳孔検出装置 および虹彩認証装置を提供することができる。
産業上の利用可能性
[0083] 本発明は、精度よぐかつ高速に、瞳孔位置検出可能な瞳孔検出装置を提供する ことができるので、個人認証等に用いられる虹彩認証装置等として有用である。

Claims

請求の範囲
[1] 同心円状の複数の円をそれぞれ積分円として目画像上に設定し、前記積分円の円 周上に位置する目画像の画像データを抽出する画像データ抽出部と、
前記画像データ抽出部が抽出した画像データを前記積分円のそれぞれの円周に沿 つて積分する周回積分部と、
前記周回積分部の積分値が前記積分円の半径に対してステップ状に変化するような 積分円の中心座標を瞳孔位置座標として検出する瞳孔位置検出部とを備え、 前記同心円状の複数の積分円は、半径が大きくなるほど疎になるように設定されて いる瞳孔検出装置。
[2] 前記同心円状の複数の積分円の半径の増加分は、その積分円の半径に対して指数 関数的に大きくなるように設定した請求項 1に記載の瞳孔検出装置。
[3] 前記画像データ抽出部は、前記積分円のそれぞれに対応する複数の画像データを 同時に抽出する請求項 1に記載の瞳孔検出装置。
[4] 請求項 1から請求項 3までのいずれかに記載の瞳孔検出装置を備えた虹彩認証装 置。
PCT/JP2005/009418 2004-08-02 2005-05-24 瞳孔検出装置および虹彩認証装置 Ceased WO2006013668A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP05743315A EP1796032A1 (en) 2004-08-02 2005-05-24 Pupil detection device and iris authentication apparatus
US10/558,537 US20060291702A1 (en) 2004-08-02 2005-05-24 Pupil detection device and iris authentication apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004225365A JP2006048205A (ja) 2004-08-02 2004-08-02 瞳孔検出装置および虹彩認証装置
JP2004-225365 2004-08-02

Publications (1)

Publication Number Publication Date
WO2006013668A1 true WO2006013668A1 (ja) 2006-02-09

Family

ID=35786968

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/009418 Ceased WO2006013668A1 (ja) 2004-08-02 2005-05-24 瞳孔検出装置および虹彩認証装置

Country Status (5)

Country Link
US (1) US20060291702A1 (ja)
EP (1) EP1796032A1 (ja)
JP (1) JP2006048205A (ja)
CN (1) CN1842819A (ja)
WO (1) WO2006013668A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4033180B2 (ja) * 2004-07-14 2008-01-16 松下電器産業株式会社 瞳孔検出装置、虹彩認証装置及び瞳孔検出方法
US8023699B2 (en) * 2007-03-09 2011-09-20 Jiris Co., Ltd. Iris recognition system, a method thereof, and an encryption system using the same
JP4309928B2 (ja) * 2007-03-15 2009-08-05 アイシン精機株式会社 瞼検出装置、瞼検出方法、及び、プログラム
JP5126084B2 (ja) * 2009-01-22 2013-01-23 日本電気株式会社 生体認証装置、生体認証方法及びプログラム
ES2669058T3 (es) * 2009-07-16 2018-05-23 Tobii Ab Sistema y método de detección ocular que usa flujo de datos secuencial
US10674968B2 (en) * 2011-02-10 2020-06-09 Karl Storz Imaging, Inc. Adjustable overlay patterns for medical display
CN102354359B (zh) * 2011-07-18 2014-12-17 惠州Tcl移动通信有限公司 移动设备及其瞳孔识别方法
CN103413300B (zh) * 2013-07-26 2015-11-25 西安交通大学 一种采用稀疏存储结构的圆形检测方法
CN105708467B (zh) * 2016-04-06 2017-12-29 广州小亮点科技有限公司 人体实际距离测量及眼镜架的定制方法
JP6792364B2 (ja) * 2016-07-22 2020-11-25 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP6751324B2 (ja) * 2016-09-14 2020-09-02 株式会社デンソーアイティーラボラトリ 虹彩検出装置、虹彩検出方法、およびプログラム
JP6930223B2 (ja) * 2017-05-31 2021-09-01 富士通株式会社 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08504979A (ja) * 1991-07-15 1996-05-28 ドーグマン、ジョン・ジー 虹彩解析に基づく生体測定学的人物識別システム
JP2000036036A (ja) * 1998-07-17 2000-02-02 Media Technology:Kk アイリス情報取得装置およびアイリス識別装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000189403A (ja) * 1998-12-25 2000-07-11 Oki Electric Ind Co Ltd 虹彩領域抽出方法及び個体識別装置
US7120607B2 (en) * 2000-06-16 2006-10-10 Lenovo (Singapore) Pte. Ltd. Business system and method using a distorted biometrics
JP3586431B2 (ja) * 2001-02-28 2004-11-10 松下電器産業株式会社 個人認証方法および装置
US6895103B2 (en) * 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08504979A (ja) * 1991-07-15 1996-05-28 ドーグマン、ジョン・ジー 虹彩解析に基づく生体測定学的人物識別システム
JP2000036036A (ja) * 1998-07-17 2000-02-02 Media Technology:Kk アイリス情報取得装置およびアイリス識別装置

Also Published As

Publication number Publication date
JP2006048205A (ja) 2006-02-16
EP1796032A1 (en) 2007-06-13
US20060291702A1 (en) 2006-12-28
CN1842819A (zh) 2006-10-04

Similar Documents

Publication Publication Date Title
JP3966309B2 (ja) 瞳孔検出装置および虹彩認証装置
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
JP4033180B2 (ja) 瞳孔検出装置、虹彩認証装置及び瞳孔検出方法
JP5335536B2 (ja) 情報処理装置及び情報処理方法
US20180357475A1 (en) Authentication device and authentication method
WO2006013668A1 (ja) 瞳孔検出装置および虹彩認証装置
CN109086734A (zh) 一种对人眼图像中瞳孔图像进行定位的方法及装置
JP2003317102A (ja) 瞳孔・虹彩円検出装置
WO2006013669A1 (ja) 瞳孔検出装置および虹彩認証装置
JP2010165046A (ja) 情報処理装置及び情報処理方法
CN115239663A (zh) 隐形眼镜瑕疵检测方法及系统、电子设备、存储介质
JP2014061085A (ja) 瞳孔部分を近似する楕円の検出を行う方法
CN108932498A (zh) 办公场所指纹识别鉴权机构
JP4151624B2 (ja) 瞳孔検出装置、虹彩認証装置及び瞳孔検出方法
JP7238905B2 (ja) 認識器訓練装置、認識装置、データ処理システム、データ処理方法、およびプログラム
JP2006345891A (ja) 瞳孔検出装置および虹彩認証装置
JP2006260351A (ja) 眼鏡反射検出機能つき瞳孔検出装置および虹彩認証装置
JP2008021121A (ja) 瞳孔検出装置および虹彩認証装置ならびに瞳孔検出方法
CN112580462A (zh) 一种特征点选择方法、终端和存储介质
CN118507037B (zh) 快速干眼检测方法、装置及电子设备
JP7298709B2 (ja) パラメータ決定装置、パラメータ決定方法及び記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200580000814.4

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2005743315

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2006291702

Country of ref document: US

Ref document number: 10558537

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 10558537

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005743315

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2005743315

Country of ref document: EP