WO2025187040A1 - 情報処理システム、情報処理装置、情報処理方法及び記録媒体 - Google Patents
情報処理システム、情報処理装置、情報処理方法及び記録媒体Info
- Publication number
- WO2025187040A1 WO2025187040A1 PCT/JP2024/009025 JP2024009025W WO2025187040A1 WO 2025187040 A1 WO2025187040 A1 WO 2025187040A1 JP 2024009025 W JP2024009025 W JP 2024009025W WO 2025187040 A1 WO2025187040 A1 WO 2025187040A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- iris
- target
- information
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
Definitions
- the present invention relates to an information processing system, an information processing device, an information processing method, and a recording medium.
- Iris images are commonly used to authenticate individuals.
- matching is generally performed using feature information (e.g., feature vectors) extracted from an already registered iris image and an iris image for authentication.
- feature information e.g., feature vectors
- authentication is performed to determine, for example, whether the person shown in the iris image for authentication is the same as the person shown in the already registered iris image.
- Patent Document 1 describes a method of determining whether a captured image can be used for authentication, regardless of whether authentication is successful or unsuccessful. According to the description in Patent Document 1, if the captured image has low resolution, is blurry, is overexposed, the eyes are closed, etc., it is determined that the captured image cannot be used for authentication.
- the present disclosure aims to improve upon the technology described in the prior art documents mentioned above.
- the information processing system in the present disclosure includes: a registration storage means for storing registered face information relating to a face and personal identification information in association with each other; an imaging means for imaging a target to obtain a target face image and a target iris image, each including the target's face and iris; a calculation means for calculating a first affinity score indicating an affinity between the target iris image and the first extraction engine based on iris extraction information extracted from the target iris image using the first extraction engine;
- the apparatus further includes an iris registration means for storing, in the registration storage means, iris information relating to the target iris image selected based on the first affinity score, in further association with the registered face information and the personal identification information.
- the information processing device includes: an image acquisition means for acquiring a target face image and a target iris image by photographing the target; a calculation means for calculating a first affinity score indicating an affinity between the target iris image and the first extraction engine based on iris extraction information extracted from the target iris image using the first extraction engine;
- the image processing device further includes an iris registration unit that stores iris information relating to the target iris image selected based on the first affinity score in a registration storage unit.
- the information processing method in the present disclosure includes: One or more computers Acquiring a target face image and a target iris image by photographing the target; calculating a first affinity score indicating an affinity between the target iris image and the first extraction engine based on iris extraction information extracted from the target iris image using the first extraction engine; Iris information relating to the target iris image selected based on the first affinity score is stored in a registration storage unit.
- the recording medium in the present disclosure is On one or more computers, Acquiring a target face image and a target iris image by photographing the target; calculating a first affinity score indicating an affinity between the target iris image and the first extraction engine based on iris extraction information extracted from the target iris image using the first extraction engine;
- the recording medium has recorded thereon a program for causing a registration storage unit to store iris information relating to the target iris image selected based on the first affinity score.
- FIG. 1 is a block diagram illustrating a configuration example of a first information processing system according to the present disclosure.
- FIG. 1 is a block diagram illustrating a configuration example of a first information processing device according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of the first information processing device according to the present disclosure.
- FIG. 1 is a diagram illustrating an example of a device configuration of a first information processing system according to the present disclosure.
- FIG. 2 is a block diagram illustrating a detailed example of the configuration of a first information processing device according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of the first information processing system according to the present disclosure.
- FIG. 2 is a block diagram showing an example configuration of a first imaging unit according to the present disclosure.
- FIG. 10 is a flowchart illustrating an example of a processing operation of a first imaging unit according to the present disclosure.
- FIG. 10 is a diagram illustrating an example of the positions of images, etc. in a feature space according to the present disclosure.
- FIG. 2 is a block diagram illustrating a configuration example of a first iris registration unit according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of a first iris registration unit according to the present disclosure.
- FIG. 1 is a diagram illustrating an example of the physical configuration of a first information processing apparatus according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a second information processing system according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a second information processing device according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of a second information processing system according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of a second information processing system according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a third information processing system according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a third information processing device according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of a third information processing system according to the present disclosure.
- FIG. 10 is a flowchart illustrating an example of a processing operation of a third information processing system according to the present disclosure.
- FIG. 10 is a block diagram showing an example configuration of a second imaging unit according to the present disclosure.
- FIG. 10 is a diagram illustrating an example of a device configuration of a fourth information processing system according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a fourth information processing device according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of a fourth information processing system according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a second iris registration unit according to the present disclosure.
- FIG. 10 is a flowchart illustrating an example of a processing operation of a second iris registration unit according to the present disclosure.
- FIG. 10 is a diagram illustrating an example of a device configuration of a fifth information processing system according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a fifth information processing device according to the present disclosure.
- 13 is a flowchart illustrating an example of a processing operation of a fifth information processing system according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a third iris registration unit according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of a third iris registration unit according to the present disclosure.
- FIG. 10 is a flowchart illustrating an example of a processing operation of a third iris registration unit according to the present disclosure.
- FIG. 10 is a diagram illustrating an example of the device configuration of a sixth information processing system according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a sixth information processing device according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of a sixth information processing system according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a third imaging unit according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of a third imaging unit according to the present disclosure.
- FIG. 10 is a block diagram illustrating a configuration example of a third iris registration unit according to the present disclosure.
- 10 is a flowchart illustrating an example of a processing operation of a third iris registration unit according to the present disclosure.
- iris feature vector is a feature vector extracted from the iris image using a first extraction engine.
- the extent to which each of the image degradation factors described above affects authentication accuracy often depends on the characteristics of the specific first extraction engine used for authentication.
- Patent Document 3 JP 2007-159610 A describes a registration process in which the eye image evaluated as the best out of multiple eye images is stored in a storage unit as registered authentication information. It also describes the use of eye openness and image quality for this evaluation.
- the eye openness described in Patent Document 3 indicates whether the eyes of the person being authenticated are wide open.
- the image quality described in Patent Document 3 uses a method in which the image is frequency analyzed, the amount of information of predetermined high-frequency components is integrated, and the higher the integrated value, the better the image quality is determined.
- One of the objectives of this disclosure is to improve the accuracy of authentication using iris information.
- the information processing system S1 includes a registration storage unit 110, an imaging unit 50, a calculation unit 130, and an iris registration unit 140.
- the registration storage unit 110 stores registered face information related to faces in association with personal identification information.
- the photographing unit 50 photographs a subject and acquires a subject face image and a subject iris image, which respectively include the subject's face and iris.
- the calculation unit 130 calculates a first affinity score indicating the affinity between the target iris image and the first extraction engine based on the iris extraction information extracted from the target iris image using the first extraction engine.
- the iris registration unit 140 stores iris information related to the target iris image selected based on the first affinity score in the registration storage unit 110.
- the iris registration unit 140 further associates the iris information with registered face information and personal identification information and stores the information in the registration storage unit 110.
- the first affinity score is a score that indicates the affinity between the target iris image and the first extraction engine. Therefore, it is possible to select a target iris image that can be authenticated with high accuracy using the first extraction engine, and perform authentication using the iris information related to that target iris image. Therefore, it is possible to improve the accuracy of authentication using iris information.
- the information processing device 100 includes an image acquisition unit 120, a calculation unit 130, and an iris registration unit 140.
- the image acquisition unit 120 acquires a target face image and a target iris image.
- the calculation unit 130 calculates a first affinity score indicating the affinity between the target iris image and the first extraction engine based on the iris extraction information extracted from the target iris image using the first extraction engine.
- the iris registration unit 140 stores iris information relating to the target iris image selected based on the first affinity score in the registration memory unit 110.
- the first affinity score is a score that indicates the affinity between the target iris image and the first extraction engine. Therefore, it is possible to select a target iris image that can be authenticated with high accuracy using the first extraction engine, and perform authentication using the iris information related to that target iris image. Therefore, it is possible to improve the accuracy of authentication using iris information.
- the information processing device 100 executes information processing as shown in Figure 3.
- the image acquisition unit 120 acquires a target face image and a target iris image (step S120).
- the calculation unit 130 calculates a first affinity score indicating the affinity between the target iris image and the first extraction engine based on the iris extraction information extracted from the target iris image using the first extraction engine (step S130).
- the iris registration unit 140 stores iris information related to the target iris image selected based on the first affinity score in the registration memory unit 110 (step S140).
- the first affinity score is a score that indicates the affinity between the target iris image and the first extraction engine. Therefore, it is possible to select target iris images that can be authenticated with high accuracy using the first extraction engine, and perform authentication using the iris information related to those target iris images. This makes it possible to improve the accuracy of authentication using iris information.
- the information processing system may be composed of one or more devices, and the configuration of the information processing system described below is an example of such a configuration.
- the number of devices that make up the information processing system, the functions provided by each device, and the processes performed by each device are not limited to the example described below, and may be changed as appropriate.
- the information processing system S1 includes the above-described image capturing unit 50 and information processing device 100.
- the image capturing device 40 and the information processing device 100 may be connected to each other via a communication network NT configured by wired or wireless means or a combination thereof so as to be able to transmit and receive information to and from each other.
- the photographing device 40 includes a photographing unit 50.
- the information processing device 100 includes, for example, a registration storage unit 110, an image acquisition unit 120, a calculation unit 130, and an iris registration unit 140, as shown in FIG. 5 .
- the information processing system S1 executes information processing, for example, as shown in Figure 6.
- the photographing unit 50 photographs the subject and acquires a subject face image and a subject iris image, which respectively include the subject's face and iris (step S50).
- the photographing unit 50 includes a face camera 51, an iris camera 52, and a control unit 53, as shown in FIG.
- the face camera 51 photographs a target and acquires a target face image that includes the target's face.
- the iris camera 52 photographs a target and obtains a target iris image that includes the target's iris.
- the control unit 53 transmits the target face image and target iris image captured by the face camera 51 and iris camera 52, respectively.
- the imaging unit 50 executes imaging processing (step S50), for example, as shown in Figure 8.
- the face camera 51 photographs the target and acquires a target face image including the target's face (step S51).
- the iris camera 52 photographs the target and acquires a target iris image including the target's iris (step S52).
- the control unit 53 transmits the target face image and target iris image acquired in steps S51 and S52, respectively (step S53).
- the face camera 51 and the iris camera 52 are cameras that capture an image of a target for authentication.
- the target is a target for authentication and is typically a person. However, the target may also be an animal such as a dog or a snake.
- the face camera 51 and the iris camera 52 have different imaging areas.
- the photographing area of the face camera 51 is, for example, the face of the target and its surroundings.
- the face camera 51 photographs the target and acquires a target face image.
- the target face image is a facial image.
- the facial image is an image that includes the target's face.
- the imaging area of the iris camera 52 is, for example, the subject's eye and its surroundings.
- the iris camera 52 captures an image of the subject's iris and obtains an iris image of the subject.
- the subject iris image is an iris image.
- An iris image is an image that includes the iris.
- the iris image may be an iris region image that shows only the iris region, a monocular image that includes one predetermined eye of the left or right eye, or a binocular image that includes both eyes.
- the photographing unit 50 only needs to be able to capture a target face image including the target's face and a target iris image including the target's iris, and it is sufficient to be equipped with at least one camera (e.g., a face camera 51) for this purpose.
- at least one camera e.g., a face camera 51
- control unit 53 simultaneously or sequentially transmits the target face image and the target iris image acquired by the face camera 51 and the iris camera 52, respectively, to the information processing device 100.
- the control unit 53 may transmit either the target face image or the target iris image first.
- the control unit 53 may also control the timing at which the face camera 51 and iris camera 52 take images.
- control unit 53 may cause the face camera 51 to take a photograph when a predetermined start condition is met, such as receiving a signal from an entry detection sensor (not shown) that detects that the subject has entered a specified shooting area, or a start instruction based on user input, etc.
- control unit 53 may cause the face camera 51 to constantly take pictures, and may perform face detection processing to detect faces from the images obtained by taking pictures.
- the control unit 53 may also cause the iris camera to take pictures when a face is detected, when the face enters a predetermined area in the target face image, when the interocular distance exceeds a predetermined value, etc.
- the interocular distance is the distance between the right eye and the left eye in the target face image.
- the control unit 53 may then identify an area including the iris of the subject (e.g., the iris area, one eye area, or both eye areas) from the subject's face image acquired by the face camera 51, and cause the iris camera 52 to capture an image of the identified area. At this time, the control unit 53 may control the orientation of the iris camera 52 so that the identified area (i.e., the area including the subject's iris) is captured, or may control the exposure of the iris camera 52.
- the image capture unit 50 may include a mechanism (not shown) consisting of, for example, a motor or the like for changing the orientation in which the iris camera 52 captures images.
- the control unit 53 may input the target face image into a region identification model to identify the area containing the iris of the subject.
- the region identification model may be, for example, a machine learning model that has been trained to identify the area containing the iris of the subject from the target face image.
- the region identification model may output, for example, information for identifying the area containing the iris of the subject in the input target face image (iris region identification information).
- the iris region identification information may be, for example, information indicating the position of the iris in the target face image.
- the iris region identification information may be information including the position of at least one circle, such as a circle representing the inner boundary or edge of the iris and a circle representing the outer boundary or edge of the iris, and may further include the size of the at least one circle.
- the control unit 53 may, for example, receive a signal from an exit detection sensor (not shown) that detects that the subject has left a specified shooting area, an end instruction based on user input, or the like.
- the image capture unit 50 may repeatedly execute the image capture process (step S50) until a predetermined image capture end condition is met, such as receiving a signal from the exit detection sensor or an end instruction.
- a predetermined image capture end condition such as receiving a signal from the exit detection sensor or an end instruction.
- control unit 53 controls the control methods and content performed by the control unit 53 .
- the registration storage unit 110 may store in advance registered face information relating to faces and personal identification information in association with each other.
- the image acquisition unit 120 acquires, for example, a target face image and a target iris image acquired by photographing a target with the photographing unit 50.
- the image acquisition unit 120 may acquire the target face image and target iris image from the photographing unit 50 or via another device.
- the image acquisition unit 120 may acquire these images from a storage device in which the target face image and target iris image are stored in advance.
- the calculation unit 130 calculates a first affinity score based on the iris extraction information extracted from the target iris image using the first extraction engine.
- the first extraction engine is an engine for extracting iris extraction information from a target iris image, and when the target iris image is input, the first extraction engine outputs the iris extraction information.
- the iris extraction information may include, for example, at least one of an iris feature vector and iris keypoints.
- the iris extraction information does not have to include the target iris image itself used to extract the iris feature vector and iris keypoints. In this respect, the iris extraction information differs from iris information.
- An iris feature vector is a feature vector extracted from a target iris image.
- an iris feature vector is a vector that indicates the characteristics of the iris pattern.
- a vector may be composed of one or more values, and the same applies below.
- Each value that makes up a vector is typically a numerical value.
- the vector represents a scalar quantity.
- the value is typically a numerical value, it may also be one or more combinations of numerical values, letters, symbols, etc., as long as they are defined so that their magnitude or high/low can be compared according to predetermined criteria, and the same applies below.
- iris keypoints include parameters indicating the shape, position, size, etc. of a specific location contained in the iris.
- the specific location is, for example, at least one of the iris circle, pupil circle, eyelid, etc.
- Iris keypoints include at least one parameter indicating, for example, the shape of a circle, arc, curve, etc. representing the iris circle, pupil circle, eyelid, etc., a point at a specific representative location such as the center, size, etc.
- Such a first extraction engine is, for example, a machine learning model configured using a neural network.
- the first extraction engine may be, for example, a machine learning model trained using training data, or may be a part of the machine learning model that extracts iris extraction information.
- the training data may include, for example, a target iris image for training and correct answer data that includes the correct class to which the target iris image belongs.
- the first affinity score is the affinity score between the target iris image and the first extraction engine, in other words, the affinity score regarding the target iris image.
- the affinity score is a score indicating the affinity between an image and an engine for extracting extracted information from the image.
- the score may be a vector consisting of one or more values.
- Each value constituting the affinity score may be a score corresponding to the estimated accuracy of authentication when authentication is performed using the target image, for example.
- the larger each value constituting the affinity score the higher the accuracy of authentication (i.e., the higher the affinity) is estimated to be.
- the values constituting the affinity score are not limited to this, and may, for example, indicate that the smaller the value, the higher the accuracy of authentication is estimated to be.
- the index representing the accuracy of authentication may be, for example, at least one index related to the error rate in authentication.
- indexes related to error rate include FAR (False Acceptance Rate), FRR (False Reject Rate), ERR (Equal Error Rate), and AUC (Area Under the Curve). Note that indexes related to error rate are not limited to these.
- error rate index values are obtained by verifying the authentication results using images. The lower the error rate indicated by these index values, the higher the accuracy of authentication using those images.
- the affinity score may be a score that corresponds to the estimated accuracy of authentication (i.e., for example, the error rate) when authentication is performed using the target image.
- the affinity score may be a score that correlates with the accuracy of authentication. The higher this correlation, the more desirable it is.
- Affinity score examples 1 to 4 are explained below. Any one of the examples explained below may be used for the affinity score, or an appropriate combination of multiple examples explained below may be used. Affinity scores are not limited to examples 1 to 4. In other words, the affinity score for an image may include at least one of (example 1) to (example 4), etc.
- Example 1 An index value that indicates the accuracy of authentication.
- Example 2 A value based on the degree of deviation between the position of the image in the feature space that represents the feature vector and a predetermined high-accuracy position.
- Example 3 A value based on the norm of the feature vector.
- Example 4 A value based on the degree of deviation between the position of the image in the feature space that represents the feature vector and a predetermined low-accuracy position.
- the affinity score of an image may be an index value (e.g., an error rate) that indicates the accuracy of authentication when authentication is performed using the image and a reference image.
- the reference image is an image that is predetermined as a standard.
- the affinity score of an image may be a value based on the degree of deviation between the position of the image in feature space and a predetermined high-accuracy position.
- the high-precision position is the position in feature space of a high-precision image that has been predetermined as an image that can be used for highly accurate authentication.
- the high-precision position is the position in feature space of the feature vector extracted from the high-precision image.
- the degree of deviation is a value that indicates the degree of separation in feature space, and this also applies below.
- the degree of deviation may be, for example, at least one of Euclidean distance, Mahalanobis distance, cosine similarity, etc. in feature space.
- the affinity score of the image may indicate, for example, that the smaller the deviation between the position of the image in the feature space and a predetermined high-precision position, the higher the authentication accuracy (i.e., the higher the affinity).
- the affinity score in this case may be, but is not limited to, the inverse of this deviation.
- the number of predetermined high-precision positions may be one or more. If there are multiple predetermined high-precision positions, the affinity score of an image may be a value based on the degree of deviation between the position of the image in feature space and at least one of the multiple high-precision positions.
- the affinity score of an image may be a value based on the norm of the feature vector (e.g., L1 norm, L2 norm).
- images that can be authenticated with high accuracy i.e., with a low error rate, for example
- a value indicating that the larger the norm of the feature vector, the higher the authentication accuracy may be used as an affinity score according to the authentication accuracy (i.e., the error rate, for example).
- the value used as such an affinity score i.e., a value based on the norm
- the affinity score of an image may be a value based on the degree of deviation between the position of the image in the feature space and a predetermined low-precision position.
- the low-precision position is the position in feature space of a low-precision image that has been predetermined as an image that will be authenticated with low precision.
- the low-precision position is the position in feature space of the feature vector extracted from the low-precision image.
- the affinity score of the image may indicate, for example, that the greater the deviation between the position of the image in the feature space and a predetermined low-precision position, the higher the accuracy of the authentication (i.e., the higher the affinity).
- the affinity score in this case is, for example, this deviation, but is not limited to this.
- the affinity score of an image may be a value based on the degree of deviation between the position of the image in feature space and at least one of the multiple low-precision positions.
- Example 1 of first affinity score An index value that represents the accuracy of authentication using a target iris image.
- Example 2 of first affinity score A value based on the degree of deviation between the position of the target iris image in the feature space and a predetermined high-quality position.
- Example 3 of first affinity score A value based on the norm of the iris feature vector.
- Example 4 of first affinity score A value based on the degree of deviation between the position of the target iris image in the feature space and a predetermined low-quality position.
- the second affinity score may include at least one of these examples 1 to 4, etc.
- the iris registration unit 140 stores the iris information related to the target iris image selected based on the first affinity score in the registration storage unit 110.
- the iris registration unit 140 may further associate the iris information with registered face information and personal identification information and store the iris information in the registration storage unit 110.
- the iris registration unit 140 may further associate the iris information related to the target iris image with the registered face information and personal identification information of the target corresponding to the target iris image and store the iris information in the registration storage unit 110.
- the iris registration unit 140 includes a selection unit 141, an identification unit 142, and a registration unit 143.
- the selection unit 141 selects target iris images based on the first affinity score.
- the identification unit 142 identifies at least one of the target registered face information and personal identification information from the registered face information and personal identification information stored in association with each other in the registration storage unit 110.
- the registration unit 143 further associates the iris information relating to the target iris image that satisfies the first condition with the registered face information and personal identification information of the target, and stores the information in the registration storage unit 110.
- the iris registration unit 140 executes the registration process (step S140) shown in FIG. 11.
- the registration process (step S140) is a process for storing iris information in the registration storage unit 110.
- the selection unit 141 selects target iris images based on the first affinity score (step S141).
- the identification unit 142 identifies at least one of the target registered face information and personal identification information from the registered face information and personal identification information stored in association with each other in the registration storage unit 110 (step S142).
- the registration unit 143 further associates the iris information related to the target iris image that satisfies the first condition with the registered face information and personal identification information of the target and stores the information in the registration storage unit 110 (step S143).
- the selection unit 141 selects target iris images that satisfy a predetermined first condition regarding the first affinity score, for example.
- the selection unit 141 determines whether the first affinity score calculated for the target iris image satisfies a first condition. Then, the selection unit 141 selects the target iris image for which a first affinity score that satisfies the first condition has been calculated as the target iris image that satisfies the first condition.
- the first condition is a predetermined condition regarding the first affinity score.
- the first condition may be defined using, for example, a threshold value regarding the first affinity score.
- the first affinity score is configured to have a larger value the higher the authentication accuracy (i.e., the higher the affinity).
- the first condition may be, for example, that each value constituting the first affinity score is equal to or greater than a threshold value.
- the first condition may be, for example, that a predetermined number or more of the multiple values that make up the first affinity score are greater than or equal to a threshold.
- the predetermined number may be set as appropriate, for example, between 1 and the number of values that make up the first affinity score.
- the first condition may be that a value obtained by statistically processing the multiple values that make up the first affinity score is greater than or equal to a threshold.
- the value obtained by statistically processing the multiple values is, for example, the average, maximum, median, etc. of the multiple values.
- the first condition may be that a predetermined number or more of the first affinity score, or a value obtained by statistically processing the multiple values that make up the first affinity score, is greater than or equal to a threshold, and the first affinity score is the maximum.
- the first affinity score being the maximum may mean, for example, that when the target iris image has one first affinity score, that first affinity score is the maximum. Furthermore, when the target iris image has multiple first affinity scores, the first affinity score being the maximum may mean that the value obtained by statistically processing the multiple values that make up the first affinity score is the maximum.
- the first condition may be defined without using a threshold.
- the first condition may be that the first affinity score is the maximum.
- the first condition is not limited to the example given here.
- the first condition may be a threshold value.
- the identification unit 142 identifies at least one of the registered face information and the personal identification information of the target from the registered face information and the personal identification information stored in association with each other in the registration storage unit 110 .
- the identification unit 142 may acquire personal identification information based on, for example, an input by the target. Then, based on the acquired personal identification information, the identification unit 142 may identify the personal identification information of the target from the personal identification information stored in the registration storage unit 110. In detail, for example, the identification unit 142 may identify the personal identification information of the target from the personal identification information stored in the registration storage unit 110, as personal identification information that matches the acquired personal identification information.
- the identification unit 142 may use the target face image acquired by the image acquisition unit 120 to identify the registered face information of the target from the registered face information stored in the registration storage unit 110.
- a machine learning model may be used to identify the registered face information of the target using the target face image.
- the identification unit 142 compares the face extraction information extracted from the target face image using the second extraction engine with the registered face information, and identifies the target registered face information based on the comparison result.
- the second extraction engine is an engine for extracting face extraction information from a target face image.
- the second extraction engine outputs face extraction information.
- Face extraction information includes, for example, at least one of a facial feature vector and facial keypoints.
- the face extraction information does not have to include the target face image used to extract the facial feature vector and facial keypoints.
- a facial feature vector is a feature vector extracted from a target face image.
- a facial feature vector is a vector that indicates the characteristics of specific parts contained in a face.
- the specific parts may be predetermined parts such as the eyes, nose, and mouth.
- the characteristics of the specific parts include, but are not limited to, the position and shape of the specific parts.
- Facial keypoints are information about characteristic points (predetermined locations) on the face contained in the target facial image.
- facial keypoints are vectors that indicate the geometric characteristics of facial points (predetermined locations).
- face keypoints include parameters that indicate the shape, position, size, etc. of specific locations contained in the face.
- the specific locations are, for example, at least one of the facial contour, eyebrows, eyes, nose, mouth, etc.
- Iris keypoints include, for example, at least one parameter that indicates the shape, such as an arc or curve representing the facial contour, eyebrows, eyes, nose, mouth, etc., a point at a specific representative location such as the center, at least one edge on the top, bottom, left, or right, the size between points, the size of the shape, etc.
- the result of comparing the face extraction information extracted from the target face image with the registered face information is, for example, the result of comparing the cosine similarity with a predetermined threshold.
- the identification unit 142 identifies registered face information whose cosine similarity is equal to or greater than the threshold as the target registered face information.
- Method for identifying the subject's personal identification information and registered face information For example, a combination of the above-described methods for identifying the target's personal identification information and registered face information may be applied to the identification unit 142. In this way, the identification unit 142 may identify the target's registered face information and personal identification information from the registered face information and personal identification information stored in association with each other in the registration storage unit 110.
- the registration unit 143 further associates the iris information related to the target iris image that satisfies the first condition with the registered face information and personal identification information of the target, and stores the associated iris information in the registration storage unit 110.
- the registered face information and personal identification information of the target may include at least one of the registered face information and personal identification information identified by the identification unit 142.
- the iris information may include at least one of a target iris image, an iris feature vector, and iris key points. Note that the iris information may include at least one of a target iris image and an iris feature vector.
- the iris information may also include an iris feature amount indicating iris features together with or instead of the iris feature vector.
- the iris feature amount may be, for example, a feature map indicating iris features in a two-dimensional matrix, but is not limited to this.
- the information processing apparatus 100 physically includes a bus 1010, a processor 1020, a memory 1030, a storage device 1040, a network interface 1050, an input interface 1060, and an output interface 1070, as shown in FIG.
- the bus 1010 is a data transmission path through which the processor 1020, memory 1030, storage device 1040, network interface 1050, input interface 1060, and output interface 1070 transmit and receive data to and from each other.
- the method of connecting the processor 1020 and other components to each other is not limited to bus connection.
- Processor 1020 is a processor implemented by a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), etc.
- Memory 1030 is a main storage device implemented as RAM (Random Access Memory) or the like.
- Storage device 1040 is an auxiliary storage device realized by a hard disk drive (HDD), solid state drive (SSD), memory card, read-only memory (ROM), etc.
- Storage device 1040 stores program modules for realizing the functions of information processing device 100.
- the processor 1020 reads each of these program modules into memory 1030 and executes them, thereby realizing the function corresponding to that program module.
- the network interface 1050 is an interface for connecting the information processing device 100 to a network.
- the network is a communications network for transmitting and receiving information to and from other devices (not shown), and may be wired, wireless, or a combination of these.
- the input interface 1060 is an interface through which the user inputs information, and is composed of, for example, a touch panel, keyboard, mouse, etc.
- the output interface 1070 is an interface for presenting information to the user, and is composed of, for example, a liquid crystal panel, an organic EL (Electro-Luminescence) panel, etc.
- the imaging device 40 may, for example, have a physical configuration similar to that of the information processing device 100, and may also include a camera.
- the number of devices constituting the information processing system is not limited to two, and may be one or more.
- the multiple devices may be connected so as to be able to send and receive information to and from each other, for example, via a communications network NT.
- some or all of the functions provided in the information processing device 100 may be provided in the imaging device 40 instead of the information processing device 100.
- the imaging device 40 may execute information processing executed by the information processing device 100 instead of the information processing device 100.
- the first extraction engine or calculation unit 130 that extracts an iris feature vector from a target iris image may be provided in the information processing device 100 or in the imaging device 40.
- the information processing system S ⁇ b>1 includes the registration storage unit 110 , the photographing unit 50 , the calculation unit 130 , and the iris registration unit 140 .
- the registration storage unit 110 stores registered face information relating to faces and personal identification information in association with each other.
- the photographing unit 50 photographs a target and acquires a target face image and a target iris image, which respectively include the face and iris of the target, in association with each other.
- the calculation unit 130 calculates a first affinity score indicating the affinity between the target iris image and the first extraction engine based on the iris extraction information extracted from the target iris image using the first extraction engine.
- the iris registration unit 140 stores, in the registration storage unit 110, iris information relating to a target iris image corresponding to a first affinity score that satisfies a predetermined first condition regarding the first affinity score.
- the iris registration unit 140 further associates the iris information with registered face information corresponding to the target face image and personal identification information associated with the registered face information, and stores the iris information in the registration storage unit 110.
- the first affinity score is a score that indicates the affinity between the target iris image and the first extraction engine. Therefore, it is possible to select a target iris image that can be authenticated with high accuracy using the first extraction engine, and register the iris information related to that target iris image to perform authentication. This makes it possible to improve the accuracy of authentication using iris information.
- the information processing system further includes a function of inputting a target iris image to a first extraction engine to extract iris extraction information. Also, an example will be described in which the information processing system further includes a function of authenticating a target using the iris extraction information. Note that, in this embodiment, for the sake of brevity, descriptions that overlap with other embodiments will be omitted as appropriate.
- the information processing system S2 includes a registration storage unit 110, a photographing unit 50, a calculation unit 130, an iris registration unit 140, an extraction unit 260, and an authentication unit 270, similar to those in embodiment 1.
- the extraction unit 260 inputs the target iris image into the first extraction engine and extracts iris extraction information.
- the authentication unit 270 uses the iris extraction information to authenticate the subject.
- the information processing system S2 is composed of, for example, an image capturing device 40 similar to that of embodiment 1, and an information processing device 200 that replaces the information processing device 100 (see FIG. 4).
- the information processing device 200 includes the same registration storage unit 110, image acquisition unit 120, calculation unit 130, and iris registration unit 140 as those of embodiment 1, as well as the extraction unit 260 and authentication unit 270 described above.
- the information processing system S2 executes information processing such as that shown in FIG. 15, for example.
- Steps S50 and S120 are executed in the same manner as in embodiment 1.
- the extraction unit 260 inputs the target iris image acquired in S120 into the first extraction engine and extracts iris extraction information (step S260).
- Steps S130 and S140 are executed in the same manner as in embodiment 1.
- the information processing system S2 executes information processing, for example, as shown in FIG. 16.
- This information processing may be executed when authentication is performed in response to an instruction from a user (e.g., a target).
- the information processing shown in FIG. 16 includes authentication processing (step S270) instead of registration processing (step S140). Except for this point, the information processing shown in FIG. 16 is the same as the information processing shown in FIG. 15.
- steps S50 and S120 which are the same as in embodiment 1, step S260 described above, and step S130, which is the same as in embodiment 1, are executed.
- the authentication unit 270 authenticates the target using the extracted iris information (step S270).
- the extraction unit 260 may include the first extraction engine described in embodiment 1.
- the extraction unit 260 inputs a target iris image acquired by the image acquisition unit 120 to the first extraction engine.
- the first extraction engine outputs iris extraction information according to the input.
- the extraction unit 260 extracts iris extraction information from the target iris image using the first extraction engine.
- the authentication unit 270 authenticates the target using, for example, the registered iris information and the iris extraction information extracted in step S260.
- the registered iris information is iris information pre-stored in the registration storage unit 110.
- the registered iris information may be, for example, the iris information stored in the registration storage unit 110 in step S140.
- the authentication unit 270 acquires registered iris information from the registration storage unit 110.
- the authentication unit 270 uses the acquired registered iris information and the iris extraction information extracted in step S260 to authenticate the target.
- the authentication unit 270 may perform authentication based on the results of comparing the similarity (e.g., cosine similarity) of the iris feature vectors contained in the registered iris information and the iris extraction information with a predetermined threshold.
- similarity e.g., cosine similarity
- the first affinity score may be expressed as a value corresponding to the accuracy of target authentication using iris extraction information, as described in this embodiment, for example.
- the first affinity score may be a value corresponding to the accuracy of authentication estimated in authentication using iris extraction information extracted by the first extraction engine.
- authentication may use common techniques to confirm that the subjects indicated by the registered iris information and the extracted iris information are the same, and the method is not limited to the example given here.
- the information processing system S2 further includes the extraction unit 260 that inputs a target iris image to the first extraction engine to extract iris extraction information, and the authentication unit 270 that authenticates the target using the iris extraction information.
- the first affinity score is expressed as a value corresponding to the accuracy of target authentication using the iris extraction information, for example, as described in this embodiment.
- the affinity (first affinity score) between the target iris image and the first extraction engine is expressed using a value that corresponds to the accuracy of target authentication using iris extraction information. Therefore, it is possible to select target iris images that can be authenticated with high accuracy using the first extraction engine, and then register and authenticate them using the iris information related to the target iris image. This makes it possible to improve the accuracy of authentication using iris information.
- the calculation unit 130 may further calculate a second affinity score, which is an affinity score related to the target face image.
- the information processing system may further include a configuration for extracting face extraction information, which is extraction information for calculating the second affinity score, from the target face image.
- the second affinity score may be used for authentication.
- the second affinity score may be used to improve the shooting environment when the imaging unit 50 captures an image of the target's iris. This is effective, for example, when, after the imaging unit 50 captures an image of the target's face as described above, imaging is performed to obtain a target iris image that is associated with the target face image obtained by this imaging. This is because, by using the second affinity score based on the target face image obtained by capturing the target's face, it is possible to change the shooting environment as necessary to capture the target's iris.
- an example is described in which the information processing system S3 extracts face extraction information from a target face image and calculates a second affinity score. Additionally, in embodiment 3, an example is described in which the second affinity score is used for both authentication and improving the photographing environment for photographing the target's iris. Note that in this embodiment, for the sake of brevity, explanations that overlap with other embodiments will be omitted as appropriate.
- the information processing system S3 includes a registration memory unit 110 and an iris registration unit 140 similar to those in embodiment 1, a photographing unit 350, an extraction unit 360, a calculation unit 330, an authentication unit 370, and a photographing environment change unit 380.
- the photographing unit 350 photographs the subject to obtain a target face image including the subject's face, and then photographs the subject's iris to obtain a target iris image.
- the extraction unit 360 includes a first extraction unit 360a and a second extraction unit 360b.
- the first extraction unit 360a inputs the target iris image into the first extraction engine and extracts iris extraction information.
- the second extraction unit 360b inputs the target face image into the second extraction engine and extracts face extraction information.
- the calculation unit 330 includes a first calculation unit 330a and a second calculation unit 330b.
- the first calculation unit 330a calculates a first affinity score.
- the second calculation unit 330b calculates a second affinity score indicating the affinity between the target face image and the second extraction engine based on the face extraction information.
- the authentication unit 370 authenticates the target using a target iris image selected based on the first affinity score and a target face image selected based on the second affinity score.
- the imaging environment change unit 380 performs processing to change the imaging environment for photographing the subject.
- the imaging environment change unit 380 generates a change instruction for changing the imaging environment for photographing the subject's iris based on the second affinity score.
- the information processing system S3 may, for example, include a camera 340 in place of the camera 40 and an information processing device 300 in place of the information processing device 100 (see FIG. 4). Furthermore, the camera 340 may, for example, include the above-mentioned camera unit 350 in place of the camera unit 50.
- the information processing device 300 includes a registration memory unit 110 and an iris registration unit 140 similar to those in the first embodiment, an image acquisition unit 320, the extraction unit 360, the calculation unit 330, the authentication unit 370, and the shooting environment change unit 380.
- the image acquisition unit 320 acquires a target face image acquired by photographing a target with the photographing unit 350, and then acquires a target iris image acquired by photographing the target with the photographing unit 350.
- the information processing system S3 executes information processing such as that shown in FIG.
- the photographing unit 350 photographs and acquires a target face image including the target's face (step S350b).
- the image acquisition unit 320 acquires the target face image acquired in step S350b (step S320b).
- the second extraction unit 360b inputs the target face image acquired in step S320b into the second extraction engine and extracts face extraction information (step S360b).
- the second calculation unit 330b calculates a second affinity score indicating the affinity between the target face image and the second extraction engine based on the face extraction information extracted in step S360b (step S330b).
- the imaging environment change unit 380 generates a change instruction for changing the imaging environment for photographing the target's iris based on the second affinity score calculated in step S330b (step S380).
- the imaging unit 350 acquires the change instruction generated in step S380 (step S350b).
- the photographing unit 350 changes the photographing environment for photographing the subject's iris based on the change instruction acquired in step S350b (step S350c).
- the photographing unit 350 photographs the subject and acquires a subject iris image including the subject's iris (step S350d).
- the image acquisition unit 320 acquires the target iris image acquired in step S350d (step S320a).
- the first extraction unit 360a inputs the target iris image acquired in step S320a into the first extraction engine and extracts iris extraction information (step S360a).
- the first calculation unit 330a calculates a first affinity score indicating the affinity between the target iris image and the first engine based on the iris extraction information extracted in step S360a (step S330a).
- Step S140 is executed in the same manner as in embodiment 1.
- the information processing system S3 executes information processing such as that shown in FIG. 20. This information processing may be executed when authentication is performed in response to a user instruction, etc.
- the information processing shown in FIG. 20 is similar to the information processing shown in FIG. 19, except that it includes authentication processing (step S370) instead of registration processing (step S140).
- steps S350a, S320b, S360b, S330b, S380, S350b to S350d, S320a, S360a, and S330a are executed as described above.
- the authentication unit 370 authenticates the target using the target iris image selected based on the first affinity score and the target face image selected based on the second affinity score (step S370).
- the photographing unit 350 includes a face camera 51 and an iris camera 52 similar to those in the first embodiment, and a control unit 353.
- the face camera 51 may execute step S350a.
- the control unit 353 may execute steps S350b and S350c.
- the iris camera 52 may execute step S350d.
- control unit 353 may transmit a target face image acquired by the face camera 51.
- the control unit 353 may change the imaging environment for capturing an image of the target's iris based on a change instruction.
- the control unit 353 may transmit a target iris image acquired by the iris camera 52.
- control unit 353 causes the face camera 51 to capture an image of the target.
- the control unit 353 then transmits the target face image captured by the face camera 51 to, for example, the information processing device 100.
- control unit 353 controls various devices (not shown) based on the change instruction, for example, to change the shooting environment for photographing the subject's iris.
- the control unit 353 then causes the iris camera 52 to photograph the subject.
- the change instruction is an instruction regarding a change to the imaging environment in which the subject's iris is photographed.
- the change instruction may include an instruction as to whether or not to change the imaging environment.
- the change instruction may include the details of the changes to the imaging environment.
- the shooting environment may be, for example, the brightness required to capture the subject's iris, the position of the subject, etc.
- the change instructions may include, as changes to the shooting environment, how to change the brightness required to capture the subject's iris, the position of the subject, the direction of the subject's face, etc.
- the brightness may be changed, for example, by controlling a photography light (not shown) attached to the iris camera 52.
- a photography light (not shown) attached to the iris camera 52.
- the brightness may be changed by controlling the room lighting installed in the room or the shading devices (curtains, blinds, etc.) attached to the windows.
- Control of lighting such as photography lighting and room lighting may include, for example, at least one of switching the lights on and off, changing the brightness of the lights, changing the number of lights that are turned on, changing the direction in which the lights shine on the subject, etc. Note that the method of changing the brightness is not limited to the examples given here.
- Changes to the subject may be made, for example, by having the image capture device 340 further equipped with a display and speaker (not shown) and having the control unit 353 control these to notify the subject of a message.
- the message may, for example, guide the subject to a desirable image capture environment.
- the message may guide the subject to a desirable position or the subject's face to a desirable direction.
- the control unit 353 may perform control to change one or more of the photography lighting, room lighting, shading devices, and target position based on the change instruction.
- control unit 353 can make detailed changes to the shooting environment, such as moving the subject to a preferable position and brightening the room lighting and shooting lighting. This allows the iris camera 52 to take a picture in a good shooting environment, improving the chances of capturing a good target iris image.
- control unit 353 may identify an area including the iris of the target from the target face image acquired by the face camera 51, and cause the iris camera 52 to photograph the identified area.
- the extraction unit 360 includes the first extraction unit 360 a and the second extraction unit 360 b described above. As a result, the extraction unit 360 inputs a target iris image to the first extraction engine to extract iris extraction information, and inputs a target face image to the second extraction engine to extract face extraction information.
- the first extraction unit 360a may be configured similarly to the extraction unit 260 in embodiment 2.
- the second extraction unit 360b may include a second extraction engine.
- the second extraction unit 360b inputs the target face image acquired by the image acquisition unit 320 into the second extraction engine.
- the second extraction engine outputs face extraction information according to the input.
- the second extraction unit 360b extracts face extraction information from the target face image using the second extraction engine.
- the second extraction engine is an engine for extracting face extraction information from a target face image.
- the second extraction engine outputs face extraction information.
- the face extraction information includes, for example, at least one of a face feature vector and face key points, but does not include the target face image itself used to extract these.
- Such a second extraction engine is, for example, a machine learning model configured using a neural network.
- the second extraction engine may be, for example, a machine learning model that has been trained using training data, or may be the part of the machine learning model that extracts face extraction information.
- the calculation unit 330 includes the first calculation unit 330 a and the second calculation unit 330 b.
- the calculation unit 330 calculates a first affinity score based on the iris extraction information and a second affinity score based on the face extraction information.
- the second affinity score indicates the affinity between the target face image and the second extraction engine.
- the first calculation unit 330a may be configured similarly to the calculation unit 130 in embodiment 1.
- the second calculation unit 330b calculates a second affinity score based on face extraction information extracted from the target face image using the second extraction engine.
- the second affinity score is the affinity score between the target face image and the second extraction engine, in other words, the affinity score related to the target face image.
- the affinity score is as described above and may include at least one of (Example 1) to (Example 4), etc.
- Example 1 of second affinity score An index value that indicates the accuracy of authentication using a target face image.
- Example 2 of second affinity score A value based on the degree of deviation between the position of the target face image in the feature space and a predetermined high-quality position.
- Example 3 of second affinity score A value based on the norm of a face feature vector.
- Example 4 of second affinity score A value based on the degree of deviation between the position of the target face image in the feature space and a predetermined low-quality position.
- the second affinity score may include at least one of these examples 1 to 4, etc.
- the authentication unit 370 performs authentication of the target using, for example, a target iris image selected based on the first affinity score and a target face image selected based on the second affinity score.
- the authentication unit 370 may select target iris images based on a first affinity score. This selection may be performed using the first condition as described above. Also, for example, the authentication unit 370 may select target face images based on a second affinity score. This selection may be performed using a condition in which the first affinity score in the first condition as described above is changed to a second affinity score.
- the authentication unit 370 may then authenticate the target using, for example, the iris extraction information and face extraction information extracted from the target iris image and target face image that satisfy the respective conditions.
- the iris extraction information and face extraction information extracted by the first extraction unit 360a and the second extraction unit 360b, respectively may be used.
- the authentication method performed by the authentication unit 370 using such iris extraction information and face extraction information may use a common technique known as multimodal authentication, which uses information extracted from multiple pieces of biometric information (e.g., feature vectors).
- the imaging environment change unit 380 performs processing for changing the imaging environment for photographing the target, such as generating a change instruction, based on the second affinity score, as described above.
- the change instruction is, as described above, an instruction regarding changing the imaging environment for photographing the target's iris.
- the imaging environment change unit 380 may generate a change instruction depending on whether the second affinity score satisfies a predetermined second condition. The imaging environment change unit 380 may then transmit the generated change instruction to the imaging device 340. As a result, the imaging unit 350 may acquire the change instruction.
- the shooting environment change unit 380 may generate a change instruction indicating that the shooting environment should not be changed. If the second affinity score does not satisfy the second condition, the shooting environment change unit 380 may generate a change instruction indicating that the shooting environment should be changed.
- the change instruction may include the details of the changes to the shooting environment. The details of the changes may be, for example, information indicating how to change the brightness for photographing the subject's iris, the position of the subject, the direction of the subject's face, etc., as described above.
- the imaging environment change unit 380 may not generate a change instruction if the second affinity score does not satisfy the second condition.
- the control unit 353 may, for example, cause the iris camera 52 to capture an image of the target without changing the imaging environment if a predetermined waiting time has elapsed since the target face image was sent without receiving a change instruction.
- the second condition is a predetermined condition regarding the second affinity score.
- the second condition may be defined using, for example, a threshold regarding the second affinity score.
- the second affinity score is configured to have a larger value the higher the authentication accuracy (i.e., the higher the affinity).
- the second condition is, for example, that each value constituting the second affinity score is equal to or greater than a threshold.
- the threshold included in the second condition may be different from or the same as the threshold included in the first condition.
- the second condition when the second affinity score is composed of multiple values, the second condition may be, for example, that all or a predetermined number of the multiple values that make up the second affinity score are greater than or equal to a threshold. Furthermore, for example, the second condition may be that the value obtained by statistically processing the multiple values that make up the second affinity score is greater than or equal to a threshold. The value obtained by statistically processing the multiple values is, for example, the average, maximum, median, etc. of the multiple values.
- the second condition is not limited to the example given here.
- the second condition may be a threshold value.
- the shooting environment change unit 380 may, for example, analyze the target face image using general image processing. Furthermore, for example, the shooting environment change unit 380 may analyze at least one of the target face image and the face extraction information using an estimation model, which is a machine learning model using a neural network or the like. The results of these analyses may, for example, be the cause of deterioration of the target face image, or may be changes to the shooting environment in accordance with the cause of deterioration.
- Degradation factors include focus blur, motion blur, eyeglass reflection, noise level, resolution, contrast, size of the facial area included in the target face image, occlusion, and the target's facial expression.
- Occlusion may be caused by, for example, a mask or sunglasses.
- the shooting environment change unit 380 may, for example, store in advance change content data indicating a pattern of changes to the shooting environment according to a combination of deterioration factors. The shooting environment change unit 380 may then generate changes to the shooting environment based on the analysis result and the change content data.
- the information processing system S3 further includes the imaging environment change unit 380 for changing the imaging environment for imaging the target.
- the extraction unit 360 includes a first extraction unit 360a and a second extraction unit 360b.
- the first extraction unit 360a inputs a target iris image into a first extraction engine and extracts iris extraction information.
- the second extraction unit 360b inputs a target face image into a second extraction engine and extracts face extraction information.
- the calculation unit 330 includes a first calculation unit 330a and a second calculation unit 330b.
- the first calculation unit 330a calculates a first affinity score based on the iris extraction information.
- the second calculation unit 330b calculates a second affinity score indicating the affinity between the target face image and the second extraction engine based on the face extraction information.
- the photographing unit 350 photographs the subject to obtain a target face image including the subject's face, and then photographs the subject's iris to obtain a target iris image.
- the photographing environment change unit 380 generates a change instruction for changing the photographing environment for photographing the subject's iris based on the second affinity score.
- the shooting environment for capturing a photograph of the target's iris is changed based on the second affinity score. This increases the likelihood of capturing an iris image with minimal degradation. This makes it possible to improve the accuracy of authentication using iris information.
- the authentication unit 370 authenticates the target using a target iris image selected based on the first affinity score and a target face image selected based on the second affinity score.
- the identification unit 142 identifies the target personal identification information based on a user input.
- this input is made to a terminal device that is a device other than the information processing device 100. Note that in the present embodiment, for the sake of brevity, descriptions that overlap with other embodiments will be omitted as appropriate.
- the information processing system S4 includes a photographing device 40 similar to that in embodiment 1, an information processing device 400, and a communication terminal 60.
- the communication terminal 60 is equipped with a communication unit 70 that transmits personal identification information.
- the information processing system S4 only needs to include the communication unit 70, and the device that includes the communication unit 70 is not limited to the communication terminal 60.
- the imaging device 40 may also include the communication unit 70.
- the information processing device 400 includes a registration storage unit 110, an image acquisition unit 120, and a calculation unit 130 similar to those in embodiment 1, as well as an iris registration unit 440.
- the iris registration unit 440 further associates the iris information related to the selected target iris image with the registered face information and personal identification information of the target identified using the personal identification information transmitted by the communication unit 70, and stores the information in the registration storage unit 110.
- the information processing system S4 executes information processing such as that shown in FIG. 24, for example.
- Steps S50, S120, and S130 are executed in the same manner as in embodiment 1.
- the communication unit 70 transmits the personal identification information (step S70).
- the iris registration unit 440 further associates the iris information related to the selected target iris image with the registered face information and personal identification information of the target identified using the personal identification information transmitted in step S70, and stores the information in the registration storage unit 110 (step S440).
- the communication terminal 60 is, for example, a mobile terminal (smartphone, tablet terminal, etc.) of a user (e.g., a target), but is not limited to this.
- the communication terminal 60 may be connected to at least the information processing device 400 via a communication network NT so as to be able to transmit and receive information to and from each other.
- the communication unit 70 accepts input of personal identification information by a user (e.g., a subject) and transmits the input personal identification information to the information processing device 400.
- the communication unit 70 may store personal identification information in advance and transmit the stored personal identification information to the information processing device 400 in response to instructions from a user (e.g., a subject).
- the iris registration unit 440 includes a selection unit 141 and a registration unit 143 similar to those in the first embodiment, and an identification unit 442, as shown in FIG. 25, for example.
- the identification unit 442 uses the personal identification information transmitted by the communication unit 70 to identify the target personal identification information from the registered face information and personal identification information stored in association with each other in the registration storage unit 110.
- the iris registration unit 440 executes a registration process (step S440) such as that shown in FIG. 26.
- the registration process (step S440) is a process for storing iris information in the registration storage unit 110.
- Step S141 is executed in the same manner as in embodiment 1.
- the identification unit 442 uses the personal identification information transmitted in step S70 to identify the target personal identification information from the registered face information and personal identification information stored in association with each other in the registration storage unit 110.
- the identification unit 442 acquires personal identification information transmitted by the communication unit 450.
- the identification unit 442 may, for example, identify target personal identification information from the personal identification information stored in the registration storage unit 110 based on the acquired personal identification information.
- the target personal identification information may, for example, be personal identification information that matches the acquired personal identification information. This allows the registration unit 143 to store in the registration storage unit 110 the iris information related to the selected target iris image (for example, satisfying the first condition) in further association with the personal identification information identified by the identification unit 142.
- the information processing system S4 further includes a communication unit 70 that transmits personal identification information.
- the iris registration unit 440 includes a selection unit 141, an identification unit 442, and a registration unit 143.
- the selection unit 141 selects a target iris image based on the first affinity score.
- the identification unit 442 identifies the target personal identification information based on the transmitted personal identification information.
- the registration unit 143 further associates the selected iris information with the identified personal identification information and stores it in the registration storage unit 110.
- the identification unit 142 identifies the target personal identification information based on user input.
- a first terminal device which is a device other than the information processing device 100, stores personal identification information in advance without using user input.
- a second terminal device reads a display image including personal identification information from the first terminal device and transmits the read personal identification information. Note that in the present embodiment, for the sake of brevity, descriptions that overlap with other embodiments will be omitted as appropriate.
- the information processing system S5 includes an image capture device 40 similar to that in embodiment 1, an information processing device 500, a first communication terminal 80, and a second communication terminal 90.
- the first communication terminal 80 includes a holding unit 81 and a display unit 82.
- the storage unit 81 stores personal identification information in advance.
- the display unit 82 displays an image including the retained personal identification information.
- the second communication terminal 90 includes a reading unit 91 and a communication unit 92.
- the reading unit 91 reads personal identification information from the displayed image.
- the communication unit 92 transmits the read personal identification information.
- the information processing system S5 only needs to include the holding unit 81, display unit 82, reading unit 91, and communication unit, and the devices that include these are not limited to communication terminals 80 and 90.
- the photographing device 40 may also include the reading unit 91 and communication unit 92.
- the control unit 53 may transmit a target iris image that was generated within a predetermined time period when the reading unit 91 read the personal identification information.
- the information processing device 500 includes a registration storage unit 110, an image acquisition unit 120, and a calculation unit 130 similar to those in embodiment 1, as well as an iris registration unit 540.
- the iris registration unit 540 further associates the iris information related to the selected target iris image with the registered face information and personal identification information of the target identified using the personal identification information transmitted by the communication unit 92, and stores the information in the registration memory unit 110.
- the information processing system S5 executes information processing such as that shown in FIG. 29, for example.
- Steps S50, S120, and S130 are executed in the same manner as in embodiment 1.
- the display unit 82 displays a display image including the retained personal identification information (step S82).
- the reading unit 91 reads personal identification information from the displayed image (step S91).
- the communication unit 92 transmits the personal identification information (step S92).
- the iris registration unit 540 further associates the iris information related to the selected target iris image with the registered face information and personal identification information of the target identified using the personal identification information transmitted in step S92, and stores the information in the registration storage unit 110 (step S540).
- the first communication terminal 80 is, for example, a mobile terminal (smartphone, tablet terminal, etc.) of a user (e.g., a target), but is not limited to this. Note that the first communication terminal 80 may be connected to the information processing device 500, etc. via a communication network NT so that they can send and receive information to and from each other, but they do not have to be connected.
- the storage unit 81 stores personal identification information in advance.
- the storage unit 81 may store in advance personal identification information for the same subject that is the same as the personal identification information stored in the registration storage unit 110.
- the storage unit 81 may acquire and store the personal identification information.
- the display unit 82 displays a display image including the personal identification information stored in the storage unit 81.
- the display unit 82 acquires the personal identification information from the storage unit 81 based on a user instruction or the like, and displays a display image including the acquired personal identification information.
- the display image may be an image showing a one-dimensional code, a two-dimensional code, etc., but is not limited to these examples.
- the second communication terminal 90 is, for example, a device disposed close to the image capturing device 40 or a device incorporated into the image capturing device 40, but is not limited to this. Note that the second communication terminal 90 may be connected to at least the information processing device 500 via the communication network NT so as to be able to transmit and receive information to and from each other.
- the reading unit 91 reads personal identification information from the display image displayed on the display unit 82.
- the reading unit 91 may be configured with a scanner or the like, and when a user (e.g., a subject) carrying the first communication terminal 80 places the display image displayed on the display unit 82 in a predetermined area, the reading unit 91 may read the personal identification information included in the display image.
- the communication unit 92 transmits, for example, the personal identification information read by the reading unit 91 to the information processing device 500 .
- the iris registration unit 540 includes, for example, a selection unit 141 and a registration unit 143 similar to those in the first embodiment, and an identification unit 542, as shown in FIG.
- the identification unit 542 uses the personal identification information transmitted by the communication unit 92 to identify the target personal identification information from the registered face information and personal identification information stored in association with each other in the registration storage unit 110.
- the iris registration unit 540 executes a registration process (step S540) such as that shown in FIG. 31.
- the registration process (step S540) is a process for storing iris information in the registration storage unit 110.
- the identification unit 542 uses the personal identification information transmitted in step S92 to identify the target personal identification information from the registered face information and personal identification information stored in association with each other in the registration storage unit 110.
- the identification unit 542 acquires the personal identification information transmitted by the communication unit 92.
- the identification unit 542 may identify target personal identification information from the personal identification information stored in the registration storage unit 110 based on the acquired personal identification information.
- the target personal identification information may be, for example, personal identification information that matches the acquired personal identification information.
- the information processing system S5 includes a storage unit 81, a display unit 82, a reading unit 91, and a communication unit 92.
- the storage unit 81 stores personal identification information in advance.
- the display unit 82 displays a display image including the stored personal identification information.
- the reading unit 91 reads the personal identification information from the display image.
- the communication unit 92 transmits the read personal identification information.
- Each of the face camera and the iris camera may acquire a still image of the target, or may acquire multiple images by repeatedly capturing images of the target at predetermined time intervals. That is, the target face image and target iris image of the target transmitted by the control unit are not limited to one each, and one or both of them may be multiple.
- the image acquisition unit may acquire one or multiple target face images and one or multiple target iris images of the target.
- the information processing system S6 includes an imaging device 40a including an imaging unit 50a, and an information processing device 600.
- the photographing unit 50a photographs a subject and acquires a target face image and multiple target iris images of the subject.
- the information processing device 600 includes a registration storage unit 110 similar to that of embodiment 1, an image acquisition unit 620, a calculation unit 630, and an iris registration unit 640.
- the image acquisition unit 620 acquires a target face image and multiple target iris images obtained by photographing the target.
- the calculation unit 630 calculates a plurality of first affinity scores indicating the affinity between each of the plurality of target iris images and the first extraction engine based on a plurality of pieces of iris extraction information extracted from each of the plurality of target iris images using the first extraction engine.
- the iris registration unit 640 further associates iris information relating to at least one of the target iris images selected based on the multiple first affinity scores with the registered face information and personal identification information and stores the information in the registration storage unit 110.
- the information processing system S6 executes information processing such as that shown in FIG. 34, for example.
- the photographing unit 50a photographs the subject and acquires a target face image and multiple target iris images of the subject (step S50a).
- the image acquisition unit 620 acquires a target face image and multiple target iris images obtained by photographing the target (step S620).
- the calculation unit 630 calculates a plurality of first affinity scores indicating the affinity between each of the plurality of target iris images and the first extraction engine based on the plurality of iris extraction information extracted from each of the plurality of target iris images using the first extraction engine (step S630).
- the iris registration unit 640 further associates the iris information for at least one of the target iris images selected based on the multiple first affinity scores with the registered face information and personal identification information and stores it in the registration storage unit 110 (step S640).
- the photographing unit 50a includes a face camera 51, an iris camera 52a, and a control unit 53a, similar to those in the first embodiment.
- the iris camera 52a photographs a target and acquires multiple target iris images including the target's iris.
- the control unit 53a transmits the target face image and multiple target iris images acquired by the face camera 51 and iris camera 52a, respectively.
- the photographing unit 50 executes a photographing process (step S50a) such as that shown in Figure 36, for example.
- Step S51 is executed in the same manner as in embodiment 1.
- the iris camera 52a photographs the target and acquires multiple target iris images including the target's iris (step S52a).
- the control unit 53a transmits the target face image and multiple target iris images acquired by the face camera 51 and iris camera 52a, respectively (step S53a).
- the iris camera 52a may capture an image of the target multiple times under the control of the control unit 53a, for example, to obtain multiple target iris images including the iris of the target.
- control unit 53a simultaneously or sequentially transmits the target face image and the plurality of target iris images acquired by the face camera 51 and the iris camera 52a, respectively, to the information processing device 100.
- the control unit 53 may transmit either the target face image or the plurality of target iris images first.
- the image acquisition section 620 may acquire, for example, a target face image and a plurality of target iris images acquired by photographing a target with the photographing section 50a from the photographing section 50a or via another device.
- the calculation unit 630 calculates a plurality of first affinity scores based on a plurality of pieces of iris extraction information extracted from each of a plurality of target iris images using the first extraction engine, as described above.
- the plurality of pieces of iris extraction information may be obtained, for example, by repeatedly extracting iris extraction information for each of the plurality of target iris images using a first extraction engine.
- the plurality of first affinity scores correspond to each of the plurality of target iris images.
- Each of the first affinity scores may indicate the affinity between the corresponding target iris image and the first extraction engine.
- the iris registration unit 640 stores, in the registration storage unit 110, iris information relating to at least one of the target iris images selected based on the plurality of first affinity scores, as described above.
- the iris registration unit 640 may further associate the iris information with registered face information and personal identification information and store it in the registration storage unit 110. Furthermore, when storing it in the registration storage unit 110, the iris registration unit 640 may further associate the iris information related to the target iris image with the registered face information and personal identification information of the target corresponding to the target iris image and store it in the registration storage unit 110.
- the iris registration unit 640 includes a selection unit 641, an identification unit 142 similar to that in embodiment 1, and a registration unit 643.
- the selection unit 641 selects multiple target iris images based on multiple first affinity scores.
- the registration unit 643 further associates the iris information relating to at least one target iris image that satisfies the first condition with the registered face information and personal identification information of the target and stores the information in the registration storage unit 110.
- the iris registration unit 640 executes the registration process (step S640) shown in FIG. 38.
- the registration process (step S140) is a process for storing iris information in the registration storage unit 110.
- the selection unit 641 selects multiple target iris images based on multiple first affinity scores (step S641).
- Step S142 is executed in the same manner as in embodiment 1.
- the registration unit 643 further associates the iris information for at least one target iris image that satisfies the first condition with the registered face information and personal identification information of the target and stores the information in the registration storage unit 110 (step S643).
- the selection unit 641 determines whether each of the first affinity scores calculated for each of the target iris images satisfies a first condition, and then selects at least one target iris image for which a first affinity score that satisfies the first condition has been calculated as the target iris image that satisfies the first condition.
- the selection unit 641 may select target iris images having a first affinity score equal to or greater than a predetermined number, or a value obtained by statistically processing the multiple values constituting the first affinity score equal to or greater than a threshold value. For example, if there are multiple target iris images selected in this manner, the selection unit 641 may select the target iris image having the largest first affinity score from among the multiple target iris images. For example, the selection unit 641 may select the target iris image having the largest first affinity score.
- the registration unit 643 further associates the iris information related to at least one target iris image that satisfies the first condition with the registered face information and personal identification information of the target, and stores the associated iris information in the registration storage unit 110.
- the registered face information and personal identification information of the target may include at least one of the registered face information and personal identification information identified by the identification unit 642.
- the calculation unit 630 calculates multiple first affinity scores indicating the affinity between each of the multiple target iris images and the first extraction engine based on multiple pieces of iris extraction information extracted from each of the multiple target iris images using the first extraction engine.
- the iris registration unit 640 further associates the iris information for at least one of the target iris images selected based on the multiple first affinity scores with the registered face information and personal identification information, and stores the iris information in the registration storage unit 110.
- At least one target iris image that can be accurately authenticated to be selected from multiple target iris images using the first extraction engine, and iris information related to that at least one target iris image to be registered and used for authentication. This makes it possible to further improve the accuracy of authentication using iris information.
- a registration storage means for storing registered face information relating to a face and personal identification information in association with each other; an imaging means for imaging a target to obtain a target face image and a target iris image, each including the target's face and iris; a calculation means for calculating a first affinity score indicating an affinity between the target iris image and the first extraction engine based on iris extraction information extracted from the target iris image using the first extraction engine; an iris registration unit that further associates iris information related to the target iris image selected based on the first affinity score with the registered face information and the personal identification information and stores the iris information in the registration storage unit.
- an extraction means for inputting the target iris image into the first extraction engine to extract the iris extraction information; further comprising an authentication means for authenticating the subject using the extracted iris information; 2.
- the extraction means a first extraction means for inputting the target iris image into the first extraction engine to extract the iris extraction information; a second extraction means for inputting the target face image into a second extraction engine to extract face extraction information;
- the calculation means a first calculation means for calculating the first affinity score based on the iris extraction information; a second calculation means for calculating a second affinity score indicating an affinity between the target face image and the second extraction engine based on the face extraction information; the photographing means photographs the target to obtain a target face image including the face of the target, and then photographs the iris of the target to obtain a target iris image; 2.
- the information processing system according to 2., wherein the imaging environment change means generates a change instruction regarding a change of the imaging environment in which the iris of the target is photographed, based on the second affinity score. 4. 3. The information processing system according to Item 3, wherein the authentication means authenticates the target using the target iris image selected based on the first affinity score and the target face image selected based on the second affinity score. 5. Further comprising a communication means for transmitting personal identification information; The iris registration means a selection means for selecting the target iris image based on the first affinity score; an identification means for identifying the target's personal identification information based on the transmitted personal identification information; and a registration unit that stores the selected iris information in the registration storage unit in association with the specified personal identification information. 6.
- the communication means transmits the read personal identification information.
- the target iris image is a plurality of images
- the calculation means calculates a plurality of first affinity scores indicating an affinity between each of the plurality of target iris images and the first extraction engine based on a plurality of pieces of iris extraction information extracted from each of the plurality of target iris images using the first extraction engine; 7.
- the information processing system according to any one of 1.
- the iris registration means further associates iris information relating to at least one of the target iris images selected based on the plurality of first affinity scores with the registered face information and the personal identification information, and stores the iris information in the registration storage means.
- an image acquisition means for acquiring a target face image and a target iris image by photographing the target; a calculation means for calculating a first affinity score indicating an affinity between the target iris image and the first extraction engine based on iris extraction information extracted from the target iris image using the first extraction engine; an iris registration unit that stores iris information relating to the target iris image selected based on the first affinity score in a registration storage unit.
- an extraction means for inputting the target iris image into the first extraction engine to extract the iris extraction information; further comprising an authentication means for authenticating the subject using the extracted iris information; 8.
- the information processing device according to Item 8, wherein the first affinity score is expressed as a value according to accuracy of authentication of the target using the iris extraction information.
- the extraction means a first extraction means for inputting the target iris image into the first extraction engine to extract the iris extraction information; a second extraction means for inputting the target face image into a second extraction engine to extract face extraction information;
- the calculation means a first calculation means for calculating the first affinity score based on the iris extraction information; a second calculation means for calculating a second affinity score indicating an affinity between the target face image and the second extraction engine based on the face extraction information; the photographing means photographs the target to obtain a target face image including the face of the target, and then photographs the iris of the target to obtain a target iris image;
- the information processing device wherein the environment change means generates a change instruction regarding a change of the imaging environment for photographing the iris of the target based on the second affinity score.
- the authentication means authenticates the target using the target iris image selected based on the first affinity score and the target face image selected based on the second affinity score.
- the iris registration means a selection means for selecting the target iris image based on the first affinity score; an identification means for identifying the target's personal identification information based on the transmitted personal identification information; 12.
- the information processing device according to any one of 8.
- the communication means transmits the read personal identification information.
- the target iris image is a plurality of images
- the calculation means calculates a plurality of first affinity scores indicating an affinity between each of the plurality of target iris images and the first extraction engine based on a plurality of pieces of iris extraction information extracted from each of the plurality of target iris images using the first extraction engine; 14.
- the iris registration means further associates iris information regarding at least one of the target iris images selected based on the plurality of first affinity scores with the registered face information and the personal identification information, and stores the iris information in the registration storage means.
- One or more computers Acquiring a target face image and a target iris image by photographing the target; calculating a first affinity score indicating an affinity between the target iris image and the first extraction engine based on iris extraction information extracted from the target iris image using the first extraction engine; and storing iris information relating to the target iris image selected based on the first affinity score in a registration storage unit.
- the target face image is input to a second extraction engine to extract face extraction information; calculating a second affinity score indicating an affinity between the target face image and the second extraction engine based on the face extraction information; changing a photographing environment for photographing the object; In the case of acquiring the target face image and the target iris image, the target face image including the face of the target is acquired by photographing the target, and then the iris of the target is photographed to acquire the target iris image; 16.
- changing the imaging environment includes generating a change instruction regarding a change of the imaging environment in which the iris of the target is imaged, based on the second affinity score. 18. 17.
- authenticating the target includes authenticating the target using the target iris image selected based on the first affinity score and the target face image selected based on the second affinity score. 19. further includes transmitting personally identifiable information; Storing the iris information includes: filtering the target iris image based on the first affinity score; Identifying personal identification information of the subject based on the transmitted personal identification information; 19.
- the one or more computers a storage means for storing the personal identification information in advance; a display means for displaying a display image including the stored personal identification information; a reading means for reading the personal identification information from the displayed image, 19.
- the target iris image is a plurality of images
- a plurality of first affinity scores indicating an affinity between each of the plurality of target iris images and the first extraction engine are calculated based on a plurality of pieces of iris extraction information extracted from each of the plurality of target iris images using the first extraction engine; 21.
- storing the iris information includes storing, in the registration storage unit, iris information related to at least one of the target iris images selected based on the plurality of first affinity scores, in further association with the registered face information and the personal identification information. 22.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
情報処理システムは、登録記憶部と、撮影部と、算出部と、虹彩登録部とを備える。登録記憶部は、顔に関する登録顔情報と個人識別情報とを関連付けて記憶される。撮影部は、対象を撮影して当該対象の顔及び虹彩のそれぞれを含む対象顔画像及び対象虹彩画像を取得する。算出部は、第1抽出エンジンを用いて対象虹彩画像から抽出された虹彩抽出情報に基づいて、対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する。虹彩登録部は、第1親和性スコアに基づいて選別された対象虹彩画像に関する虹彩情報を、登録顔情報及び個人識別情報にさらに関連付けて登録記憶部に記憶させる。
Description
本発明は、情報処理システム、情報処理装置、情報処理方法及び記録媒体に関する。
一般的に、虹彩画像を用いた本人の認証が用いられている。この種の認証では、一般的に、既に登録された虹彩画像と、認証用の虹彩画像との各々から抽出される特徴情報(例えば、特徴ベクトル)を用いて照合が行われる。その照合の結果に応じて、例えば、認証用の虹彩画像に示される人物が既に登録された虹彩画像が示す本人と同一であるか否かの認証が行われる。
例えば特許文献1には、認証の成功/失敗に限らず、撮影した画像が認証に使用できるか否かを判断することが記載されている。特許文献1の記載によれば、撮影した画像において、解像度が低い、ぼけている、露出過多、目をつむっている、等の場合、撮影した画像が認証に使用できないと判断する。
本開示は、上述した先行技術文献に記載の技術を改良することを目的とする。
本開示における情報処理システムは、
顔に関する登録顔情報と個人識別情報とを関連付けて記憶される登録記憶手段と、
対象を撮影して当該対象の顔及び虹彩のそれぞれを含む対象顔画像及び対象虹彩画像を取得する撮影手段と、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する算出手段と、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる虹彩登録手段とを備える。
顔に関する登録顔情報と個人識別情報とを関連付けて記憶される登録記憶手段と、
対象を撮影して当該対象の顔及び虹彩のそれぞれを含む対象顔画像及び対象虹彩画像を取得する撮影手段と、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する算出手段と、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる虹彩登録手段とを備える。
本開示における情報処理装置は、
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得する画像取得手段と、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する算出手段と、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶手段に記憶させる虹彩登録手段とを備える。
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得する画像取得手段と、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する算出手段と、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶手段に記憶させる虹彩登録手段とを備える。
本開示における情報処理方法は、
1つ以上のコンピュータが、
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得し、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出し、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶部に記憶させる。
1つ以上のコンピュータが、
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得し、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出し、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶部に記憶させる。
本開示における記録媒体は、
1つ以上のコンピュータに、
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得し、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出し、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶部に記憶させることを実行させるためのプログラムが記録された記録媒体である。
1つ以上のコンピュータに、
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得し、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出し、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶部に記憶させることを実行させるためのプログラムが記録された記録媒体である。
以下、本開示において図面は、1以上の実施の形態に関連付けられる。また、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
[実施形態1]
(概要)
特許文献1では、解像度が低い、ぼけている、露出過多、目をつむっている等の場合に、撮影した画像が認証に使用できないと判断する。一般的に、解像度が低い、ぼけている、露出過多、目をつむっている等は、画像が劣化する要因となり、その結果、認証の精度が低下することがある。
(概要)
特許文献1では、解像度が低い、ぼけている、露出過多、目をつむっている等の場合に、撮影した画像が認証に使用できないと判断する。一般的に、解像度が低い、ぼけている、露出過多、目をつむっている等は、画像が劣化する要因となり、その結果、認証の精度が低下することがある。
しかしながら、虹彩画像を用いた一般的な認証では、第1抽出エンジンを用いて虹彩画像から抽出される特徴ベクトルである虹彩特徴ベクトルを用いて認証が行われることが多い。そして、上述のような画像の劣化要因の各々が認証の精度に影響する程度は、認証に用いられる具体的な第1抽出エンジンの特性に依存することが多い。
そのため、撮影した画像が認証に使用できるか否かを、上述のような劣化要因を用いて判断したとしても、精度良く認証することが困難になるおそれがある。
また例えば、特許文献2(国際公開第2021/177214号)には、認証用顔情報に対するスコアが基準値以上のマスター顔情報がある場合は、当該マスター顔情報に対応する決済情報を用いた精算処理を精算装置に実行する旨の記載がある。
さらに例えば、特許文献3(特開2007-159610号公報)には、複数の眼画像のうち、最もよいと評価された眼画像を登録認証情報として記憶部に記憶させる登録処理を行う旨の記載がある。この評価には、開目度、画質を用いることが記載されている。特許文献3に記載の開目度は、被認証者の目が見開かれているか否かを示す。特許文献3に記載の画質では、画像を周波数解析し、その所定の高周波成分の情報量を積算して、その積算値が多いほど画質がよいと判定する方法が用いられる。
このように、いずれの文献にも、画像の劣化要因の各々が認証の精度に影響する程度について、認証に用いられる第1抽出エンジンの特性に依存することに関する記載は見当たらない。そのため、特許文献2,3の技術を用いたとしても、精度良く認証することが困難になるおそれがある。
本開示の課題の1つは、虹彩情報を用いた認証の精度を向上させることにある。
情報処理システムS1は、図1に示すように、登録記憶部110と、撮影部50と、算出部130と、虹彩登録部140とを備える。
登録記憶部110は、顔に関する登録顔情報と個人識別情報とを関連付けて記憶される。
撮影部50は、対象を撮影して当該対象の顔及び虹彩のそれぞれを含む対象顔画像及び対象虹彩画像を取得する。
算出部130は、第1抽出エンジンを用いて対象虹彩画像から抽出された虹彩抽出情報に基づいて、対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する。
虹彩登録部140は、第1親和性スコアに基づいて選別された対象虹彩画像に関する虹彩情報を、登録記憶部110に記憶させる。虹彩登録部140は、当該虹彩情報を、登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。
この情報処理システムS1によれば、第1親和性スコアは、対象虹彩画像と第1抽出エンジンとの親和性を示すスコアである。そのため、第1抽出エンジンを用いて精度良く認証を行うことができる対象虹彩画像を選別し、当該対象虹彩画像に関する虹彩情報を用いて認証を行うことができる。従って、虹彩情報を用いた認証の精度を向上させることが可能になる。
情報処理装置100は、図2に示すように、画像取得部120と、算出部130と、虹彩登録部140とを備える。
画像取得部120は、対象顔画像及び対象虹彩画像を取得する。
算出部130は、第1抽出エンジンを用いて対象虹彩画像から抽出された虹彩抽出情報に基づいて、対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する。
虹彩登録部140は、第1親和性スコアに基づいて選別された対象虹彩画像に関する虹彩情報を登録記憶部110に記憶させる。
この情報処理装置100によれば、第1親和性スコアは、対象虹彩画像と第1抽出エンジンとの親和性を示すスコアである。そのため、第1抽出エンジンを用いて精度良く認証を行うことができる対象虹彩画像を選別し、当該対象虹彩画像に関する虹彩情報を用いて認証を行うことができる。従って、虹彩情報を用いた認証の精度を向上させることが可能になる。
情報処理装置100は、図3に示すような情報処理を実行する。
画像取得部120は、対象顔画像及び対象虹彩画像を取得する(ステップS120)。
算出部130は、第1抽出エンジンを用いて対象虹彩画像から抽出された虹彩抽出情報に基づいて、対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する(ステップS130)。
虹彩登録部140は、第1親和性スコアに基づいて選別された対象虹彩画像に関する虹彩情報を登録記憶部110に記憶させる(ステップS140)。
この情報処理によれば、第1親和性スコアは、対象虹彩画像と第1抽出エンジンとの親和性を示すスコアである。そのため、第1抽出エンジンを用いて精度良く認証を行うことができる対象虹彩画像を選別し、当該対象虹彩画像に関する虹彩情報を用いて認証を行うことができる。従って、虹彩情報を用いた認証の精度を向上させることが可能になる。
以下、情報処理システムS1の詳細例について説明する。なお、情報処理システムは1つ以上の装置から構成されてもよく、以下で説明する情報処理システムの構成はその例である。すなわち、情報処理システムを構成する装置の数、各装置が備える機能及び実行する処理等は、以下で説明する例に限られず、適宜変更されてもよい。
(詳細例)
情報処理システムS1は、例えば図4に示すように、上述の撮影部50及び情報処理装置100を備える。撮影装置40及び情報処理装置100は、互いに情報を送受信できるように、有線、無線又はこれらを組み合わせて構成された通信ネットワークNTを介して互いに接続されてもよい。
情報処理システムS1は、例えば図4に示すように、上述の撮影部50及び情報処理装置100を備える。撮影装置40及び情報処理装置100は、互いに情報を送受信できるように、有線、無線又はこれらを組み合わせて構成された通信ネットワークNTを介して互いに接続されてもよい。
撮影装置40は、撮影部50を備える。情報処理装置100は、例えば図5に示すように、登録記憶部110、画像取得部120、算出部130及び虹彩登録部140を備える。
情報処理システムS1は、例えば図6に示すような情報処理を実行する。
撮影部50は、対象を撮影して当該対象の顔及び虹彩のそれぞれを含む対象顔画像及び対象虹彩画像を取得する(ステップS50)。
上述のステップS120,S130及びS140が実行される。
(撮影部50について)
撮影部50は、例えば図7に示すように、顔カメラ51と、虹彩カメラ52と、制御部53とを備える。
撮影部50は、例えば図7に示すように、顔カメラ51と、虹彩カメラ52と、制御部53とを備える。
顔カメラ51は、対象を撮影して当該対象の顔を含む対象顔画像を取得する。
虹彩カメラ52は、対象を撮影して当該対象の虹彩を含む対象虹彩画像を取得する。
制御部53は、顔カメラ51及び虹彩カメラ52がそれぞれ撮影した対象顔画像及び対象虹彩画像を送信する。
撮影部50は、例えば図8に示すような撮影処理(ステップS50)を実行する。
顔カメラ51は、対象を撮影して当該対象の顔を含む対象顔画像を取得する(ステップS51)。
虹彩カメラ52は、対象を撮影して当該対象の虹彩を含む対象虹彩画像を取得する(ステップS52)。
制御部53は、ステップS51及びS52のそれぞれで取得された対象顔画像及び対象虹彩画像を送信する(ステップS53)。
(顔カメラ51及び虹彩カメラ52について)
顔カメラ51と虹彩カメラ52とは、認証の対象を撮影するカメラである。対象は、認証の対象であって、典型的には人物である。なお、対象は、犬、蛇等の動物であってもよい。
顔カメラ51と虹彩カメラ52とは、認証の対象を撮影するカメラである。対象は、認証の対象であって、典型的には人物である。なお、対象は、犬、蛇等の動物であってもよい。
顔カメラ51と虹彩カメラ52とは、例えば、撮影領域が異なる。
顔カメラ51の撮影領域は、例えば、対象の顔及びその周辺である。すなわち、顔カメラ51は、対象を撮影して、対象顔画像を取得する。対象顔画像は、顔画像である。顔画像は、対象の顔を含む画像である。
虹彩カメラ52の撮影領域は、例えば、対象の眼及びその周辺である。すなわち、虹彩カメラ52は、対象を撮影して、対象虹彩画像を取得する。対象虹彩画像は、虹彩画像である。
虹彩画像は、虹彩を含む画像である。例えば、虹彩画像は、虹彩領域のみを示す虹彩領域画像、左右の眼のうち予め定められた一方の眼である片眼を含む片眼画像、両眼を含む両眼画像等であってもよい。
なお、撮影部50は、対象の顔を含む対象顔画像と当該対象の虹彩を含む対象虹彩画像を撮影により取得できればよく、そのための少なくとも1つのカメラ(例えば、顔カメラ51)を備えればよい。
(制御部53について)
制御部53は、例えば、顔カメラ51及び虹彩カメラ52がそれぞれ取得した対象顔画像及び対象虹彩画像を、同時に又は順に情報処理装置100へ送信する。対象顔画像及び対象虹彩画像を順に送信する場合、制御部53は、対象顔画像及び対象虹彩画像のいずれを先に送信してもよい。
制御部53は、例えば、顔カメラ51及び虹彩カメラ52がそれぞれ取得した対象顔画像及び対象虹彩画像を、同時に又は順に情報処理装置100へ送信する。対象顔画像及び対象虹彩画像を順に送信する場合、制御部53は、対象顔画像及び対象虹彩画像のいずれを先に送信してもよい。
制御部53は、顔カメラ51及び虹彩カメラ52が撮影を行うタイミングを制御してもよい。
例えば制御部53は、対象が所定の撮影領域に進入したことを検知する進入検知センサ(不図示)からの信号、ユーザの入力等に基づく開始指示を取得する等の予め定められた開始条件を満たした場合に、顔カメラ51に撮影させてもよい。
また例えば、制御部53は、顔カメラ51に常時撮影させるとともに、撮影で得られた画像から顔を検出する顔検出処理を行ってもよい。制御部53は、顔を検出した場合、顔が対象顔画像における所定領域に入った場合、眼間距離が所定値以上になった場合等に、虹彩カメラに撮影させてもよい。眼間距離は、対象顔画像における右眼と左眼の距離である。
そして、制御部53は、顔カメラ51が取得した対象顔画像から、対象の虹彩を含む領域(例えば、虹彩領域、片眼領域又は両眼領域)を特定し、当該特定した領域を撮影するように虹彩カメラ52に撮影させてもよい。このとき、制御部53は、特定した領域(すなわち、対象の虹彩を含む領域)を撮影するように虹彩カメラ52の向きを制御してもよく、虹彩カメラ52の露出を制御してもよい。虹彩カメラ52の向きを制御するために、撮影部50は、例えば、虹彩カメラ52が撮影する向きを変更するためのモータ等から構成される機構(不図示)を備えてもよい。
対象顔画像から対象の虹彩を含む領域を特定する方法には、一般的な技術が適用されてよい。例えば、制御部53は、対象顔画像を領域特定モデルに入力して、対象の虹彩を含む領域を特定してもよい。領域特定モデルは、例えば、対象顔画像から対象の虹彩を含む領域を特定するための学習をした機械学習モデルである。領域特定モデルは、例えば、入力された対象顔画像において、対象の虹彩を含む領域を特定するための情報(虹彩領域特定情報)を出力してもよい。虹彩領域特定情報は、例えば、対象顔画像における虹彩の位置を示す情報であってもよい。詳細には例えば、虹彩領域特定情報は、虹彩の内側の境界又は縁を表す円、虹彩の外側の境界又は縁を表す円の少なくとも1つの円の位置を含む情報であってもよく、さらに当該少なくとも1つの円の大きさ等を含んでもよい。
制御部53は、例えば、対象が所定の撮影領域から退出したことを検知する退出検知センサ(不図示)からの信号、ユーザの入力に基づく終了指示等を取得してもよい。この場合、撮影部50は、退出検知センサからの信号、終了指示を取得する等の予め定められた撮影終了条件を満たすまで、撮影処理(ステップS50)を繰り返し実行させてもよい。撮影処理(ステップS50)が繰り返し実行されることで、対象について複数組の対象顔画像及び対象虹彩画像が取得されるとよい。複数組の対象顔画像及び対象虹彩画像を用いる例については、他の実施形態で説明する。
なお、制御部53が制御する方法や内容は、ここで例示したものに限られない。
(登録記憶部110について)
登録記憶部110には、顔に関する登録顔情報と個人識別情報とが関連付けられて、予め記憶されていてもよい。
登録記憶部110には、顔に関する登録顔情報と個人識別情報とが関連付けられて、予め記憶されていてもよい。
(画像取得部120について)
画像取得部120は、例えば、撮影部50にて対象を撮影して取得された対象顔画像及び対象虹彩画像を取得する。画像取得部120は、当該取得された対象顔画像及び対象虹彩画像を、撮影部50から取得してもよく、他の装置を介して取得してもよい。画像取得部120は、対象顔画像及び対象虹彩画像を予め記憶した記憶装置から、これらの画像を取得してもよい。
画像取得部120は、例えば、撮影部50にて対象を撮影して取得された対象顔画像及び対象虹彩画像を取得する。画像取得部120は、当該取得された対象顔画像及び対象虹彩画像を、撮影部50から取得してもよく、他の装置を介して取得してもよい。画像取得部120は、対象顔画像及び対象虹彩画像を予め記憶した記憶装置から、これらの画像を取得してもよい。
(算出部130について)
算出部130は、第1抽出エンジンを用いて対象虹彩画像から抽出された虹彩抽出情報に基づいて、第1親和性スコアを算出する。
算出部130は、第1抽出エンジンを用いて対象虹彩画像から抽出された虹彩抽出情報に基づいて、第1親和性スコアを算出する。
(第1抽出エンジンについて)
第1抽出エンジンは、対象虹彩画像から虹彩抽出情報を抽出するためのエンジンである。第1抽出エンジンは、対象虹彩画像を入力すると、虹彩抽出情報を出力する。
第1抽出エンジンは、対象虹彩画像から虹彩抽出情報を抽出するためのエンジンである。第1抽出エンジンは、対象虹彩画像を入力すると、虹彩抽出情報を出力する。
虹彩抽出情報は、例えば、虹彩特徴ベクトル及び虹彩キーポイントの少なくとも一方を含むとよい。虹彩抽出情報は、虹彩特徴ベクトル及び虹彩キーポイントを抽出するために用いられた対象虹彩画像自体を含まなくてもよい。この点で、虹彩抽出情報は、虹彩情報と異なる。
虹彩特徴ベクトルは、対象虹彩画像から抽出される特徴ベクトルである。例えば、虹彩特徴ベクトルは、虹彩の模様の特徴を示すベクトルである。
ここで、ベクトルは、1つ又は複数の値で構成されるとよく、以下においても同様である。ベクトルを構成する各値は、典型的には、数値である。ベクトルが1つの値で構成される場合、当該ベクトルはスカラー量を表す。また、値は、典型的には数値であるが、予め定められた基準に従って大小或いは高低を比較可能に定義されていれば、例えば、数値、文字、記号等の1つ又は複数の組み合わせであってもよく、以下においても同様である。
虹彩キーポイントは、虹彩画像に含まれる虹彩に関する特徴的なポイント(所定箇所)に関する情報である。例えば、虹彩キーポイントは、虹彩のポイント(所定箇所)の幾何学的な特徴を示すベクトルである。
詳細には例えば、虹彩キーポイントは、虹彩に含まれる所定箇所の形状、位置、サイズ等を示すパラメータを含む。所定箇所は、例えば、虹彩円、瞳孔円、まぶた等の少なくとも1つである。虹彩キーポイントは、例えば、虹彩円、瞳孔円、まぶた等を表す円、円弧、曲線等の形状、中心等の所定の代表的な位置の点、サイズ等を示す少なくとも1つのパラメータを含む。
このような第1抽出エンジンは、例えば、ニューラルネットワークを用いて構成される機械学習モデルである。第1抽出エンジンは、例えば、訓練データを用いて、学習をした機械学習モデルであってもよく、当該機械学習モデルの虹彩抽出情報を抽出する部分であってもよい。訓練データは、例えば、学習用の対象虹彩画像と、当該対象虹彩画像が属する正しいクラスとを含む正解データとを含んでもよい。
(第1親和性スコアについて)
第1親和性スコアは、対象虹彩画像と第1抽出エンジンとの親和性スコア、言い換えると対象虹彩画像に関する親和性スコアである。
第1親和性スコアは、対象虹彩画像と第1抽出エンジンとの親和性スコア、言い換えると対象虹彩画像に関する親和性スコアである。
(親和性スコアについて)
親和性スコアは、画像と当該画像から抽出情報を抽出するためのエンジンとの親和性を示すスコアである。スコアは、1つ又は複数の値で構成されるベクトルであってもよい。
親和性スコアは、画像と当該画像から抽出情報を抽出するためのエンジンとの親和性を示すスコアである。スコアは、1つ又は複数の値で構成されるベクトルであってもよい。
親和性スコアを構成する各値は、例えば、対象の画像を用いて認証を行った場合に推定される当該認証の精度に応じたスコアであってもよい。詳細には例えば、親和性スコアを構成する各値は、それが大きい程、認証の精度が高い(すなわち、親和性が高い)と推定されることを示すとよい。なお、親和性スコアを構成する各値は、これに限られず、例えばその値が小さい程、認証の精度が高いと推定されることを示してもよい。
認証の精度を表す指標は、例えば、認証におけるエラー率に関する指標の少なくとも1つでよい。エラー率に関する指標の例として、FAR(False Acceptance Rate)、FRR(False Reject Rate)、ERR(Equal Error Rate)、AUC(Area Under the Curve)等を挙げることができる。なお、エラー率に関する指標は、これらに限られない。
一般的に、エラー率に関する指標の値は、画像を用いた認証結果を検証することで得られる。これらの指標の値によって示されるエラー率が低い程、当該画像を用いた認証の精度が高い。
このように、親和性スコアは、対象の画像を用いて認証を行った場合に推定される当該認証の精度(すなわち、例えばエラー率)に応じたスコアであればよい。或いは、親和性スコアは、当該認証の精度と相関のあるスコアであればよい。この相関は高い程望ましい。
以下、親和性スコアの例1~例4について説明する。親和性スコアには、以下に説明する例のいずれか1つが用いられてもよく、以下に説明する例のうちの適宜の複数の組み合わせが用いられてもよい。親和性スコアは、例1~例4に限定されない。すなわち、画像の親和性スコアは、(例1)~(例4)等の少なくとも1つを含めばよい。
(例1)認証の精度を表す指標の値
(例2)特徴ベクトルを表す特徴空間における当該画像の位置と予め定められた高精度位置との乖離度に基づく値
(例3)特徴ベクトルのノルムに基づく値
(例4)特徴ベクトルを表す特徴空間における当該画像の位置と予め定められた低精度位置との乖離度に基づく値
(例2)特徴ベクトルを表す特徴空間における当該画像の位置と予め定められた高精度位置との乖離度に基づく値
(例3)特徴ベクトルのノルムに基づく値
(例4)特徴ベクトルを表す特徴空間における当該画像の位置と予め定められた低精度位置との乖離度に基づく値
(親和性スコアの例1について)
画像の親和性スコアは、当該画像と基準画像とを用いて認証を行った場合の当該認証の精度を表す指標の値(すなわち、例えばエラー率)であってもよい。基準画像は、基準として予め定められた画像である。
画像の親和性スコアは、当該画像と基準画像とを用いて認証を行った場合の当該認証の精度を表す指標の値(すなわち、例えばエラー率)であってもよい。基準画像は、基準として予め定められた画像である。
(親和性スコアの例2について)
画像の親和性スコアは、特徴空間における当該画像の位置と予め定められた高精度位置との乖離度に基づく値であってもよい。
画像の親和性スコアは、特徴空間における当該画像の位置と予め定められた高精度位置との乖離度に基づく値であってもよい。
特徴空間は、特徴ベクトルを表す空間であり、以下においても同様である。画像の位置は、当該画像から抽出された特徴ベクトルの、特徴空間における位置であり、以下においても同様である。
高精度位置は、図9に示すように、高精度な認証を行うことができる画像として予め定められた高精度画像の、特徴空間における位置である。すなわち、高精度位置は、当該高精度画像から抽出された特徴ベクトルの、特徴空間における位置である。
乖離度は、特徴空間においてどの程度離れているかを示す値であり、以下においても同様である。乖離度は、例えば、特徴空間でのユークリッド距離、マハラノビス距離、コサイン類似度等の少なくとも1つであればよい。
この場合の画像の親和性スコアは、例えば、特徴空間における当該画像の位置と予め定められた高精度位置との乖離度が小さい程、認証の精度が高い(すなわち、親和性が高い)ことを示してもよい。詳細には例えば、この場合の親和性スコアは、例えば、この乖離度の逆数等であるが、これに限られない。
予め定められた高精度位置は1つであってもよく、複数であってもよい。予め定められた高精度位置が複数である場合、画像の親和性スコアは、特徴空間における当該画像の位置と、複数の高精度位置のうちの少なくとも1つの位置との乖離度に基づく値であってもよい。
(親和性スコアの例3について)
画像の親和性スコアは、特徴ベクトルのノルム(例えば、L1ノルム、L2ノルム)に基づく値であってもよい。
画像の親和性スコアは、特徴ベクトルのノルム(例えば、L1ノルム、L2ノルム)に基づく値であってもよい。
一般的に、認証の精度の良い(すなわち、例えばエラー率が少ない)認証を行うことができる画像では、それから抽出される特徴ベクトルのノルムが大きくなることが多い。そのため、認証の精度(すなわち、例えばエラー率)に応じた親和性スコアとして、特徴ベクトルのノルムが大きい程、認証の精度が高い(すなわち、親和性が高い)ことを示す値が用いられてもよい。このような親和性スコアとして用いる値(すなわち、ノルムに基づく値)は、ノルム自体であってもよく、ノルムに適宜の演算を行うによって得られる値であってもよい。
(親和性スコアの例4について)
画像の親和性スコアは、特徴空間における当該画像の位置と予め定められた低精度位置との乖離度に基づく値であってもよい。
画像の親和性スコアは、特徴空間における当該画像の位置と予め定められた低精度位置との乖離度に基づく値であってもよい。
低精度位置は、図9に示すように、低精度な認証となる画像として予め定められた低精度画像の、特徴空間における位置である。すなわち、低精度位置は、当該低精度画像から抽出された特徴ベクトルの、特徴空間における位置である。
この場合の画像の親和性スコアは、例えば、特徴空間における当該画像の位置と予め定められた低精度位置との乖離度が大きい程、認証の精度が高い(すなわち、親和性が高い)ことを示してもよい。詳細には例えば、この場合の親和性スコアは、例えば、この乖離度であるが、これに限られない。
予め定められた低精度位置は1つであってもよく、複数であってもよい。予め定められた低精度位置が複数である場合、画像の親和性スコアは、特徴空間における当該画像の位置と、複数の低精度位置のうちの少なくとも1つの位置との乖離度に基づく値であってもよい。
これらの親和性スコアの例1~例4を、第1親和性スコア(すなわち、対象虹彩画像に関する親和性スコア)に適用すると以下のようになる。
(第1親和性スコアの例1)対象虹彩画像を用いた認証の精度を表す指標の値
(第1親和性スコアの例2)特徴空間における当該対象虹彩画像の位置と予め定められた高品質位置との乖離度に基づく値
(第1親和性スコアの例3)虹彩特徴ベクトルのノルムに基づく値
(第1親和性スコアの例4)特徴空間における当該対象虹彩画像の位置と予め定められた低品質位置との乖離度に基づく値
(第1親和性スコアの例2)特徴空間における当該対象虹彩画像の位置と予め定められた高品質位置との乖離度に基づく値
(第1親和性スコアの例3)虹彩特徴ベクトルのノルムに基づく値
(第1親和性スコアの例4)特徴空間における当該対象虹彩画像の位置と予め定められた低品質位置との乖離度に基づく値
第2親和性スコアは、これらの例1~例4等の少なくとも1つを含んでもよい。
(虹彩登録部140について)
虹彩登録部140は、上述のように、第1親和性スコアに基づいて選別された対象虹彩画像に関する虹彩情報を、登録記憶部110に記憶させる。虹彩登録部140は、虹彩情報を、登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させてもよい。登録記憶部110に記憶させる場合に、虹彩登録部140は、対象虹彩画像に関する虹彩情報を、当該対象虹彩画像に対応する対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させてもよい。
虹彩登録部140は、上述のように、第1親和性スコアに基づいて選別された対象虹彩画像に関する虹彩情報を、登録記憶部110に記憶させる。虹彩登録部140は、虹彩情報を、登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させてもよい。登録記憶部110に記憶させる場合に、虹彩登録部140は、対象虹彩画像に関する虹彩情報を、当該対象虹彩画像に対応する対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させてもよい。
例えば、虹彩登録部140は、図10に示すように、選別部141と、特定部142と、登録部143とを含む。
選別部141は、第1親和性スコアに基づいて、対象虹彩画像を選別する。
特定部142は、登録記憶部110に関連付けて記憶された登録顔情報及び個人識別情報の中から、対象の登録顔情報及び個人識別情報の少なくとも一方を特定する。
登録部143は、第1条件を満たす対象虹彩画像に関する虹彩情報を、当該対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。
虹彩登録部140は、図11に示すような登録処理(ステップS140)を実行する。登録処理(ステップS140)は、虹彩情報を登録記憶部110に記憶させるための処理である。
選別部141は、第1親和性スコアに基づいて、対象虹彩画像を選別する(ステップS141)。
特定部142は、登録記憶部110に関連付けて記憶された登録顔情報及び個人識別情報の中から、対象の登録顔情報及び個人識別情報の少なくとも一方を特定する(ステップS142)。
登録部143は、第1条件を満たす対象虹彩画像に関する虹彩情報を、当該対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる(ステップS143)。
(選別部141について)
選別部141は、例えば、第1親和性スコアに関して予め定められた第1条件を満たす対象虹彩画像を選別する。
選別部141は、例えば、第1親和性スコアに関して予め定められた第1条件を満たす対象虹彩画像を選別する。
例えば、選別部141は、対象虹彩画像について算出された第1親和性スコアが第1条件を満たすか否かを判定する。そして、選別部141は、第1条件を満たす第1親和性スコアが算出された対象虹彩画像を、第1条件を満たす対象虹彩画像として選別する。
(第1条件について)
第1条件は、第1親和性スコアに関して予め定められた条件である。第1条件は、例えば、第1親和性スコアに関する閾値を用いて規定されてもよい。
第1条件は、第1親和性スコアに関して予め定められた条件である。第1条件は、例えば、第1親和性スコアに関する閾値を用いて規定されてもよい。
第1親和性スコアが、認証の精度が高い(すなわち、親和性が高い)程、大きくなる値で構成されるとする。
この場合の第1条件は、例えば、第1親和性スコアを構成する各値が閾値以上であることであってもよい。
詳細には例えば、第1親和性スコアが複数の値で構成される場合、第1条件は、例えば、第1親和性スコアを構成する複数の値の所定数以上が閾値以上であることであってもよい。所定数は、例えば、1から、第1親和性スコアを構成する値の数までの間で、適宜定められてもよい。さらに例えば、第1条件は、第1親和性スコアを構成する複数の値を統計処理した値が閾値以上であることであってもよい。複数の値を統計処理した値は、例えば、複数の値の、平均値、最大値、中央値等である。また、第1条件は、所定数以上の第1親和性スコア、又は第1親和性スコアを構成する複数の値を統計処理した値が、閾値以上であり、かつ、第1親和性スコアが最大であることであってもよい。
第1親和性スコアが最大であることは、例えば、対象虹彩画像の第1親和性スコアが1つである場合、当該第1親和性スコアが最大であることであってもよい。また、対象虹彩画像の第1親和性スコアが複数である場合、第1親和性スコアが最大であることは、第1親和性スコアを構成する複数の値を統計処理した値が最大であることであってもよい。
例えば、第1条件は、閾値を用いずに規定されてもよい。詳細には例えば、第1条件は、第1親和性スコアが最大であることであってもよい。
なお、第1条件は、ここで例示したものに限られない。例えば、第1条件は、閾値であってもよい。
(特定部142について)
特定部142は、登録記憶部110に関連付けて記憶された登録顔情報及び個人識別情報の中から、対象の登録顔情報及び個人識別情報の少なくとも一方を特定する。
特定部142は、登録記憶部110に関連付けて記憶された登録顔情報及び個人識別情報の中から、対象の登録顔情報及び個人識別情報の少なくとも一方を特定する。
対象の登録顔情報及び個人識別情報の少なくとも一方を特定する方法は、種々である。その例を以下に説明する。
(対象の個人識別情報を特定する方法)
特定部142は、例えば、対象の入力等に基づいて、個人識別情報を取得してもよい。そして、特定部142は、当該取得した個人識別情報に基づいて、登録記憶部110に記憶された個人識別情報の中から、対象の個人識別情報を特定してもよい。詳細には例えば、特定部142は、登録記憶部110に記憶された個人識別情報の中から、当該取得した個人識別情報と一致する個人識別情報を、対象の個人識別情報を特定してもよい。
特定部142は、例えば、対象の入力等に基づいて、個人識別情報を取得してもよい。そして、特定部142は、当該取得した個人識別情報に基づいて、登録記憶部110に記憶された個人識別情報の中から、対象の個人識別情報を特定してもよい。詳細には例えば、特定部142は、登録記憶部110に記憶された個人識別情報の中から、当該取得した個人識別情報と一致する個人識別情報を、対象の個人識別情報を特定してもよい。
(対象の登録顔情報を特定する方法)
特定部142は、例えば、画像取得部120が取得した対象顔画像を用いて、登録記憶部110に記憶された登録顔情報の中から、対象の登録顔情報を特定してもよい。対象顔画像を用いて対象の登録顔情報を特定するために、機械学習モデルが用いられてもよい。
特定部142は、例えば、画像取得部120が取得した対象顔画像を用いて、登録記憶部110に記憶された登録顔情報の中から、対象の登録顔情報を特定してもよい。対象顔画像を用いて対象の登録顔情報を特定するために、機械学習モデルが用いられてもよい。
詳細には例えば、特定部142は、第2抽出エンジンを用いて対象顔画像から抽出された顔抽出情報と、登録顔情報とを比較し、比較した結果に基づいて対象の登録顔情報を特定する。
第2抽出エンジンは、対象顔画像から顔抽出情報を抽出するためのエンジンである。第2抽出エンジンは、対象顔画像を入力すると、顔抽出情報を出力する。
顔抽出情報は、例えば、顔特徴ベクトル及び顔キーポイントの少なくとも一方を含む。顔抽出情報は、顔特徴ベクトル及び顔キーポイントを抽出するために用いられた対象顔画像を含まなくてもい。
顔特徴ベクトルは、対象顔画像から抽出される特徴ベクトルである。例えば、顔特徴ベクトルは、顔に含まれる所定部位の特徴を示すベクトルである。所定部位は、例えば、眼、鼻、口等の予め定められる部位であってもよい。所定部位の特徴は、例えば、当該所定部位の位置、形状等であるが、これらに限られない。
顔キーポイントは、対象顔画像に含まれる顔に関する特徴的なポイント(所定箇所)に関する情報である。例えば、顔キーポイントは、顔のポイント(所定箇所)の幾何学的な特徴を示すベクトルである。
詳細には例えば、顔キーポイントは、顔に含まれる所定箇所の形状、位置、サイズ等を示すパラメータを含む。所定箇所は、例えば、顔の輪郭、まゆげ、眼、鼻、口等の少なくとも1つである。虹彩キーポイントは、例えば、顔の輪郭、まゆげ、眼、鼻、口等を表す円弧、曲線等の形状、中心、上下左右の少なくとも1つの端等の所定の代表的な位置の点、点間のサイズ、形状のサイズ等を示す少なくとも1つのパラメータを含む。
対象顔画像から抽出された顔抽出情報と登録顔情報とを比較した結果は、例えばコサイン類似度が予め定められた閾値との比較結果である。例えば、特定部142は、コサイン類似度が当該閾値以上である登録顔情報を、対象の登録顔情報として特定する。
なお、当該比較した結果は、ここで例示したものに限られない。また、特定部142は、第2抽出エンジンを用いた顔抽出情報の抽出、対象顔画像から抽出された顔抽出情報と登録顔情報との比較等を行ってもよいが、他の機能部が当該処理を行った結果を取得してもよい。また、対象顔画像を用いて対象の登録顔画を特定するために、機械学習モデル以外の一般的な画像処理技術が適用されてもよい。
(対象の個人識別情報及び登録顔情報を特定する方法)
特定部142には、例えば、上述のような対象の個人識別情報と登録顔情報との各々を特定する方法が組み合わせて適用されてもよい。これにより、特定部142は、登録記憶部110に関連付けて記憶された登録顔情報及び個人識別情報の中から、対象の登録顔情報及び個人識別情報を特定してもよい。
特定部142には、例えば、上述のような対象の個人識別情報と登録顔情報との各々を特定する方法が組み合わせて適用されてもよい。これにより、特定部142は、登録記憶部110に関連付けて記憶された登録顔情報及び個人識別情報の中から、対象の登録顔情報及び個人識別情報を特定してもよい。
(登録部143について)
登録部143は、上述のように、第1条件を満たす対象虹彩画像に関する虹彩情報を、当該対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。ここで、当該対象の登録顔情報及び個人識別情報は、特定部142が特定した登録顔情報及び個人識別情報の少なくとも一方を含んでもよい。
登録部143は、上述のように、第1条件を満たす対象虹彩画像に関する虹彩情報を、当該対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。ここで、当該対象の登録顔情報及び個人識別情報は、特定部142が特定した登録顔情報及び個人識別情報の少なくとも一方を含んでもよい。
(虹彩情報について)
虹彩情報は、対象虹彩画像、虹彩特徴ベクトル及び虹彩キーポイントの少なくとも1つを含んでもよい。なお、虹彩情報は、対象虹彩画像及び虹彩特徴ベクトルの少なくとも一方を含んでもよい。また、虹彩情報は、虹彩特徴ベクトルとともに、又は虹彩特徴ベクトルの代わりに、虹彩の特徴を示す虹彩特徴量を含んでもよい。虹彩特徴量は、例えば虹彩の特徴を2次元行列で示す特徴マップ等であってもよいが、これに限られない。
虹彩情報は、対象虹彩画像、虹彩特徴ベクトル及び虹彩キーポイントの少なくとも1つを含んでもよい。なお、虹彩情報は、対象虹彩画像及び虹彩特徴ベクトルの少なくとも一方を含んでもよい。また、虹彩情報は、虹彩特徴ベクトルとともに、又は虹彩特徴ベクトルの代わりに、虹彩の特徴を示す虹彩特徴量を含んでもよい。虹彩特徴量は、例えば虹彩の特徴を2次元行列で示す特徴マップ等であってもよいが、これに限られない。
(情報処理装置100の物理的な構成例)
情報処理装置100は、物理的には例えば図12に示すように、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、入力インタフェース1060、及び、出力インタフェース1070を有する。
情報処理装置100は、物理的には例えば図12に示すように、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、入力インタフェース1060、及び、出力インタフェース1070を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、入力インタフェース1060及び出力インタフェース1070が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020等を互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等で実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)等で実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)等で実現される補助記憶装置である。ストレージデバイス1040は、情報処理装置100の機能を実現するためのプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030に読み込んで実行することで、そのプログラムモジュールに対応する機能が実現される。
ネットワークインタフェース1050は、情報処理装置100をネットワークに接続するためのインタフェースである。なお、ネットワークは、図示しない他の装置と互いに情報を送受信するための通信ネットワークであり、有線、無線又はこれらを組み合わせて構成されてもよい。
入力インタフェース1060は、ユーザが情報を入力するためのインタフェースであり、例えばタッチパネル、キーボード、マウス等から構成される。
出力インタフェース1070は、ユーザに情報を提示するためのインタフェースであり、例えば液晶パネル、有機EL(Electro-Luminescence)パネル等から構成される。
撮影装置40は、物理的には例えば、情報処理装置100と同様の構成に加えて、カメラを備えてもよい。
なお、情報処理システムを構成する装置は、2つに限られず、1つ以上であってもよい。情報処理システムが複数の装置で構成される場合、当該複数の装置は、例えば通信ネットワークNTを介して、互いに情報を送受信できるように接続されてもよい。また、情報処理装置100が備える機能の一部又は全部は、情報処理装置100の代わりに撮影装置40に備えられてもよい。撮影装置40は、情報処理装置100で実行される情報処理を、情報処理装置100の代わりに実行してもよい。詳細には例えば、対象虹彩画像から虹彩特徴ベクトルを抽出する第1抽出エンジン又は算出部130は、情報処理装置100に備えられてもよく、撮影装置40に備えられてもよい。
(作用・効果)
以上、本実施形態によれば、情報処理システムS1は、登録記憶部110と、撮影部50と、算出部130と、虹彩登録部140とを備える。
以上、本実施形態によれば、情報処理システムS1は、登録記憶部110と、撮影部50と、算出部130と、虹彩登録部140とを備える。
登録記憶部110は、顔に関する登録顔情報と個人識別情報とを関連付けて記憶される。
撮影部50は、対象を撮影して当該対象の顔及び虹彩のそれぞれを含む対象顔画像及び対象虹彩画像を関連付けて取得する。
撮影部50は、対象を撮影して当該対象の顔及び虹彩のそれぞれを含む対象顔画像及び対象虹彩画像を関連付けて取得する。
算出部130は、第1抽出エンジンを用いて対象虹彩画像から抽出された虹彩抽出情報に基づいて、対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する。
虹彩登録部140は、第1親和性スコアに関して予め定められた第1条件を満たす第1親和性スコアに対応する対象虹彩画像に関する虹彩情報を、登録記憶部110に記憶させる。虹彩登録部140は、当該虹彩情報を、対象顔画像に対応する登録顔情報と当該登録顔情報が関連付けられた個人識別情報とにさらに関連付けて登録記憶部110に記憶させる。
これによれば、第1親和性スコアは、対象虹彩画像と第1抽出エンジンとの親和性を示すスコアである。そのため、第1抽出エンジンを用いて精度良く認証を行うことができる対象虹彩画像を選別し、当該対象虹彩画像に関する虹彩情報を登録して認証を行うことができる。従って、虹彩情報を用いた認証の精度を向上させることが可能になる。
[実施形態2]
本実施形態では、情報処理システムが、対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出する機能をさらに備える例を説明する。また、情報処理システムが、虹彩抽出情報を用いて対象の認証を行う機能をさらに備える例を説明する。なお、本実施形態では、説明を簡潔にするため、他の実施形態と重複する説明は適宜省略する。
本実施形態では、情報処理システムが、対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出する機能をさらに備える例を説明する。また、情報処理システムが、虹彩抽出情報を用いて対象の認証を行う機能をさらに備える例を説明する。なお、本実施形態では、説明を簡潔にするため、他の実施形態と重複する説明は適宜省略する。
情報処理システムS2は、例えば図13に示すように、実施形態1と同様の登録記憶部110、撮影部50、算出部130及び虹彩登録部140と、抽出部260と、認証部270とを備える。
抽出部260は、対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出する。
認証部270は、虹彩抽出情報を用いて対象の認証を行う。
情報処理システムS2は、例えば、実施形態1と同様の撮影装置40と、情報処理装置100に代わる情報処理装置200とから構成される(図4参照)。情報処理装置200は、例えば図14に示すように、実施形態1と同様の登録記憶部110、画像取得部120、算出部130及び虹彩登録部140と、上述の抽出部260及び認証部270とを備える。
情報処理システムS2は、例えば図15に示すような情報処理を実行する。
実施形態1と同様のステップS50及びS120が実行される。
抽出部260は、S120にて取得された対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出する(ステップS260)。
実施形態1と同様のステップS130及びS140が実行される。
また、情報処理システムS2は、例えば図16に示すような情報処理を実行する。この情報処理は、ユーザ(例えば、対象)の指示等に応じて、認証を行う場合に実行されてもよい。図16に示す情報処理は、登録処理(ステップS140)の代わりに認証処理(ステップS270)を含む。この点を除いて、図16に示す情報処理は、図15に示す情報処理と同様である。
すなわち、実施形態1と同様のステップS50及びS120と、上述のステップS260と、実施形態1と同様のステップS130とが実行される。認証部270は、虹彩抽出情報を用いて対象の認証を行う(ステップS270)。
(抽出部260について)
抽出部260は、実施形態1で説明した第1抽出エンジンを含んでもよい。抽出部260は、例えば、画像取得部120が取得した対象虹彩画像を第1抽出エンジンに入力する。第1抽出エンジンは、入力に応じた虹彩抽出情報を出力する。これにより、抽出部260は、第1抽出エンジンを用いて対象虹彩画像から虹彩抽出情報を抽出する。
抽出部260は、実施形態1で説明した第1抽出エンジンを含んでもよい。抽出部260は、例えば、画像取得部120が取得した対象虹彩画像を第1抽出エンジンに入力する。第1抽出エンジンは、入力に応じた虹彩抽出情報を出力する。これにより、抽出部260は、第1抽出エンジンを用いて対象虹彩画像から虹彩抽出情報を抽出する。
(認証部270について)
認証部270は、例えば、登録虹彩情報と、ステップS260にて抽出された虹彩抽出情報とを用いて、対象の認証を行う。登録虹彩情報は、登録記憶部110に予め記憶された虹彩情報である。登録虹彩情報は、例えば、ステップS140にて登録記憶部110に記憶された虹彩情報であってもよい。
認証部270は、例えば、登録虹彩情報と、ステップS260にて抽出された虹彩抽出情報とを用いて、対象の認証を行う。登録虹彩情報は、登録記憶部110に予め記憶された虹彩情報である。登録虹彩情報は、例えば、ステップS140にて登録記憶部110に記憶された虹彩情報であってもよい。
詳細には例えば、認証部270は、登録記憶部110から登録虹彩情報を取得する。認証部270は、当該取得した登録虹彩情報と、ステップS260にて抽出された虹彩抽出情報とを用いて、対象の認証を行う。
例えば、認証部270は、登録虹彩情報及び虹彩抽出情報の各々に含まれる虹彩特徴ベクトルの類似度(例えば、コサイン類似度等)と予め定められた閾値との比較結果に基づいて、認証を行ってもよい。
第1親和性スコアは、例えば本実施形態で説明したような、虹彩抽出情報を用いた対象の認証の精度に応じた値で表されてもよい。すなわち、第1親和性スコアは、第1抽出エンジンで抽出される虹彩抽出情報を用いた認証において推定される当該認証の精度に応じた値であってもよい。
なお、認証では、一般的な技術を用いて、登録虹彩情報と虹彩抽出情報との各々が示す対象が同一であることが確認されてもよく、その方法は、ここで例示したものに限られない。
(作用・効果)
以上、本実施形態によれば、情報処理システムS2は、対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出する抽出部260と、虹彩抽出情報を用いて対象の認証を行う認証部270とをさらに備える。第1親和性スコアは、例えば本実施形態で説明したような、虹彩抽出情報を用いた対象の認証の精度に応じた値で表される。
以上、本実施形態によれば、情報処理システムS2は、対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出する抽出部260と、虹彩抽出情報を用いて対象の認証を行う認証部270とをさらに備える。第1親和性スコアは、例えば本実施形態で説明したような、虹彩抽出情報を用いた対象の認証の精度に応じた値で表される。
これによれば、虹彩抽出情報を用いた対象の認証の精度に応じた値を用いて、対象虹彩画像と第1抽出エンジンとの親和性(第1親和性スコア)が表される。そのため、第1抽出エンジンを用いて精度良く認証を行うことができる対象虹彩画像を選別し、当該対象虹彩画像に関する虹彩情報を用いて登録して認証を行うことができる。従って、虹彩情報を用いた認証の精度を向上させることが可能になる。
[実施形態3]
算出部130は、さらに、対象顔画像に関する親和性スコアである第2親和性スコアをさらに算出してもよい。また、情報処理システムは、第2親和性スコアを算出するための抽出情報である顔抽出情報を対象顔画像から抽出するための構成をさらに備えてもよい。
算出部130は、さらに、対象顔画像に関する親和性スコアである第2親和性スコアをさらに算出してもよい。また、情報処理システムは、第2親和性スコアを算出するための抽出情報である顔抽出情報を対象顔画像から抽出するための構成をさらに備えてもよい。
第2親和性スコアを用いる処理は種々である。
例えば、第2親和性スコアは、認証のために用いられてもよい。
また例えば、第2親和性スコアは、撮影部50が対象の虹彩を撮影する場合の撮影環境を良好にするために用いられてもよい。これは、例えば、上述のように撮影部50が対象の顔を撮影した後に、この撮影によって取得された対象顔画像に関連付けられる対象虹彩画像を取得するための撮影が行われる場合に、有効である。対象の顔を撮影した対象顔画像に基づく第2親和性スコアを用いることで、必要に応じて撮影環境を変更して対象の虹彩を撮影することができるからである。
実施形態3では、情報処理システムS3が、対象顔画像から顔抽出情報を抽出し、第2親和性スコアを算出する例を説明する。併せて、実施形態3では、第2親和性スコアが、認証と、対象の虹彩を撮影する撮影環境の向上と、の両者のために用いられる例を説明する。なお、本実施形態では、説明を簡潔にするため、他の実施形態と重複する説明は適宜省略する。
(情報処理システムS3について)
情報処理システムS3は、例えば図17に示すように、実施形態1と同様の登録記憶部110及び虹彩登録部140と、撮影部350と、抽出部360と、算出部330と、認証部370と、撮影環境変更部380とを備える。
情報処理システムS3は、例えば図17に示すように、実施形態1と同様の登録記憶部110及び虹彩登録部140と、撮影部350と、抽出部360と、算出部330と、認証部370と、撮影環境変更部380とを備える。
撮影部350は、対象を撮影して当該対象の顔を含む対象顔画像を取得した後に、当該対象の虹彩を撮影して対象虹彩画像を取得する。
抽出部360は、第1抽出部360aと、第2抽出部360bとを含む。
第1抽出部360aは、対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出する。第2抽出部360bは、対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出する。
算出部330は、第1算出部330aと、第2算出部330bとを含む。
第1算出部330aは、第1親和性スコアを算出する。第2算出部330bは、顔抽出情報に基づいて、対象顔画像と第2抽出エンジンとの親和性を示す第2親和性スコアを算出する。
認証部370は、第1親和性スコアに基づいて選別された対象虹彩画像と第2親和性スコアに基づいて選別された対象顔画像とを用いて、対象の認証を行う。
撮影環境変更部380は、対象を撮影するための撮影環境を変更するための処理を行う。撮影環境変更部380は、第2親和性スコアに基づいて、対象の虹彩を撮影する撮影環境の変更に関する変更指示を生成する。
情報処理システムS3は、例えば、撮影装置40に代わる撮影装置340と、情報処理装置100に代わる情報処理装置300とを備えてもよい(図4参照)。また、撮影装置340は、例えば、撮影部50の代わりに、上述の撮影部350を備えてもよい。
(情報処理装置300について)
情報処理装置300は、例えば図18に示すように、実施形態1と同様の登録記憶部110及び虹彩登録部140と、画像取得部320と、上述の抽出部360、算出部330、認証部370及び撮影環境変更部380を備える。
情報処理装置300は、例えば図18に示すように、実施形態1と同様の登録記憶部110及び虹彩登録部140と、画像取得部320と、上述の抽出部360、算出部330、認証部370及び撮影環境変更部380を備える。
画像取得部320は、撮影部350にて対象を撮影して取得された対象顔画像を取得した後に、撮影部350にて当該対象を撮影して取得された対象虹彩画像を取得する。
(情報処理システムS3の動作例について)
情報処理システムS3は、例えば図19に示すような情報処理を実行する。
情報処理システムS3は、例えば図19に示すような情報処理を実行する。
撮影部350は、対象の顔を含む対象顔画像を撮影により取得する(ステップS350b)。
画像取得部320は、ステップS350bにて取得された対象顔画像を取得する(ステップS320b)。
第2抽出部360bは、ステップS320bで取得された対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出する(ステップS360b)。
第2算出部330bは、ステップS360bで抽出された顔抽出情報に基づいて、対象顔画像と第2抽出エンジンとの親和性を示す第2親和性スコアを算出する(ステップS330b)。
撮影環境変更部380は、ステップS330bで算出された第2親和性スコアに基づいて、対象の虹彩を撮影する撮影環境の変更に関する変更指示を生成する(ステップS380)。
撮影部350は、ステップS380で生成された変更指示を取得する(ステップS350b)。
撮影部350は、ステップS350bで取得した変更指示に基づいて、対象の虹彩を撮影する撮影環境を変更する(ステップS350c)。
撮影部350は、対象を撮影して当該対象の虹彩を含む対象虹彩画像を取得する(ステップS350d)。
画像取得部320は、ステップS350dで取得された対象虹彩画像を取得する(ステップS320a)。
第1抽出部360aは、ステップS320aで取得された対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出する(ステップS360a)。
第1算出部330aは、ステップS360aで抽出された虹彩抽出情報に基づいて、対象虹彩画像と第1エンジンとの親和性を示す第1親和性スコアを算出する(ステップS330a)。
実施形態1と同様のステップS140が実行される。
また、情報処理システムS3は、例えば図20に示すような情報処理を実行する。この情報処理は、ユーザの指示等に応じて、認証を行う場合に実行されてもよい。図20に示す情報処理は、登録処理(ステップS140)の代わりに認証処理(ステップS370)を含む点を除いて、図19に示す情報処理と同様である。
すなわち、上述と同様のステップS350a、S320b、S360b、S330b、S380、S350b~S350d、S320a、S360a、S330aが実行される。
認証部370は、第1親和性スコアに基づいて選別された対象虹彩画像と第2親和性スコアに基づいて選別された対象顔画像とを用いて、対象の認証を行う(ステップS370)。
(撮影部350について)
撮影部350は、例えば図21に示すように、実施形態1と同様の顔カメラ51及び虹彩カメラ52と、制御部353とを含む。
撮影部350は、例えば図21に示すように、実施形態1と同様の顔カメラ51及び虹彩カメラ52と、制御部353とを含む。
この場合例えば、顔カメラ51がステップS350aを実行してもよい。例えば、制御部353が、ステップS350b及びS350cを実行してもよい。例えば、虹彩カメラ52がステップS350dを実行してもよい。
(制御部353について)
制御部353は、例えば、顔カメラ51が取得した対象顔画像を送信してもよい。制御部353は、例えば、対象を撮影した対象顔画像を送信した後に、変更指示に基づいて、対象の虹彩を撮影する撮影環境を変更させてもよい。制御部353は、例えば、虹彩カメラ52が取得した対象虹彩画像を送信してもよい。
制御部353は、例えば、顔カメラ51が取得した対象顔画像を送信してもよい。制御部353は、例えば、対象を撮影した対象顔画像を送信した後に、変更指示に基づいて、対象の虹彩を撮影する撮影環境を変更させてもよい。制御部353は、例えば、虹彩カメラ52が取得した対象虹彩画像を送信してもよい。
詳細には例えば、制御部353は、上述のような開始条件を満たした場合に、顔カメラ51に対象を撮影させる。制御部353は、これによって顔カメラ51が取得した対象顔画像を、例えば情報処理装置100へ送信する。
その後に、制御部353は、例えば、変更指示に基づいて各種の機器(不図示)を制御して、対象の虹彩を撮影する撮影環境を変更させる。続けて、制御部353は、虹彩カメラ52に対象を撮影させる。
変更指示は、対象の虹彩を撮影する撮影環境の変更に関する指示である。例えば、変更指示は、撮影環境を変更するか否かの指示を含んでもよい。また例えば、撮影環境を変更する場合の変更指示は、撮影環境の変更内容を含んでもよい。
撮影環境は、例えば、対象の虹彩を撮影するための明るさ、対象の位置等である。すなわち、撮影環境を変更する場合の変更指示は、撮影環境の変更内容として、対象の虹彩を撮影するための明るさ、対象の位置、対象の顔の向き等をどのように変更するかを含んでもよい。
明るさの変更は、例えば、虹彩カメラ52に併設される撮影用照明(不図示)を制御することで行われてもよい。例えば、撮影が室内で行われる場合等には、明るさの変更は、部屋に設けられた室内照明、窓に取り付けられた遮光具(カーテン、ブラインド等)を制御することで行われてもよい。撮影用照明、室内照明等の照明の制御は、例えば、照明の点灯及び消灯の切り替え、照明の明るさの変更、点灯する照明の数の変更、照明が対象を照らす方向の変更等の少なくとも1つを含んでもよい。なお、明るさを変更する方法は、ここで例示したものに限られない。
対象の位置、対象の顔の向き等の対象に関する変更は、例えば、撮影装置340がさらにディスプレイ、スピーカ(不図示)を備え、制御部353がこれらを制御してメッセージを対象に報知することで行われてもよい。メッセージは、例えば、対象を望ましい撮影環境へ誘導するものであってもよい。詳細には例えば、メッセージは、対象を望ましい位置へ、或いは対象の顔を望ましい向きへ誘導するものであってもよい。
制御部353は、変更指示に基づいて、撮影用照明、室内照明、遮光具、対象の位置の1つ又は複数を変更するための制御を行ってもよい。
例えば、対象顔画像において顔が明る過ぎる場合(いわゆる、顔の白飛びしている等)であっても、その原因は、顔以外の背景が暗い場合、対象の服の色が濃い場合、対象の位置又は顔の向きが望ましくない場合等のように種々である。制御部353は、変更指示に基づいて、上述のような複数の制御を組み合わせて行うことで、例えば、対象を好ましい位置に移動させて、室内照明及び撮影用照明を明るくする等のように、撮影環境を詳細に変更することができる。これにより、良好な撮影環境で虹彩カメラ52に撮影させて、良好な対象虹彩画像を撮影できる可能性を向上させることができる。
なお、撮影環境及びこれを変更する方法は、ここで説明したものに限られない。また制御部353は、実施形態1の制御部53と同様に、顔カメラ51が取得した対象顔画像から、対象の虹彩を含む領域を特定し、当該特定した領域を撮影するように虹彩カメラ52に撮影させてもよい。
(抽出部360について)
抽出部360は、上述の第1抽出部360a及び第2抽出部360bを含む。これにより、抽出部360は、対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出し、対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出する。
抽出部360は、上述の第1抽出部360a及び第2抽出部360bを含む。これにより、抽出部360は、対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出し、対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出する。
第1抽出部360aは、実施形態2の抽出部260と同様に構成されてもよい。
第2抽出部360bは、第2抽出エンジンを含んでもよい。第2抽出部360bは、例えば、画像取得部320が取得した対象顔画像を第2抽出エンジンに入力する。第2抽出エンジンは、入力に応じた顔抽出情報を出力する。これにより、第2抽出部360bは、第2抽出エンジンを用いて対象顔画像から顔抽出情報を抽出する。
第2抽出エンジンは、上述のように、対象顔画像から顔抽出情報を抽出するためのエンジンである。第2抽出エンジンは、対象顔画像を入力すると、顔抽出情報を出力する。顔抽出情報は、上述のように、例えば、顔特徴ベクトル及び顔キーポイントの少なくとも一方を含み、これらを抽出するために用いられた対象顔画像自体を含まない。
このような第2抽出エンジンは、例えば、ニューラルネットワークを用いて構成される機械学習モデルである。第2抽出エンジンは、例えば、訓練データを用いて、学習をした機械学習モデルであってもよく、当該機械学習モデルの顔抽出情報を抽出する部分であってもよい。
(算出部330について)
算出部330は、上述の第1算出部330a及び第2算出部330bを含む。これにより、算出部330は、虹彩抽出情報に基づいて第1親和性スコアを算出し、顔抽出情報に基づいて、第2親和性スコアを算出する。第2親和性スコアは、対象顔画像と第2抽出エンジンとの親和性を示す。
算出部330は、上述の第1算出部330a及び第2算出部330bを含む。これにより、算出部330は、虹彩抽出情報に基づいて第1親和性スコアを算出し、顔抽出情報に基づいて、第2親和性スコアを算出する。第2親和性スコアは、対象顔画像と第2抽出エンジンとの親和性を示す。
第1算出部330aは、実施形態1の算出部130と同様に構成されてもよい。
第2算出部330bは、第2抽出エンジンを用いて対象顔画像から抽出された顔抽出情報に基づいて、第2親和性スコアを算出する。
(第2親和性スコアについて)
第2親和性スコアは、対象顔画像と第2抽出エンジンとの親和性スコア、言い換えると対象顔画像に関する親和性スコアである。親和性スコアは、上述した通りであり、(例1)~(例4)等の少なくとも1つを含んでもよい。
第2親和性スコアは、対象顔画像と第2抽出エンジンとの親和性スコア、言い換えると対象顔画像に関する親和性スコアである。親和性スコアは、上述した通りであり、(例1)~(例4)等の少なくとも1つを含んでもよい。
上述の親和性スコアの例1~例4を、第2親和性スコア(すなわち、対象顔画像に関する親和性スコア)に適用すると以下のようになる。
(第2親和性スコアの例1)対象顔画像を用いた認証の精度を表す指標の値
(第2親和性スコアの例2)特徴空間における当該対象顔画像の位置と予め定められた高品質位置との乖離度に基づく値
(第2親和性スコアの例3)顔特徴ベクトルのノルムに基づく値
(第2親和性スコアの例4)特徴空間における当該対象顔画像の位置と予め定められた低品質位置との乖離度に基づく値
(第2親和性スコアの例2)特徴空間における当該対象顔画像の位置と予め定められた高品質位置との乖離度に基づく値
(第2親和性スコアの例3)顔特徴ベクトルのノルムに基づく値
(第2親和性スコアの例4)特徴空間における当該対象顔画像の位置と予め定められた低品質位置との乖離度に基づく値
第2親和性スコアは、これらの例1~例4等の少なくとも1つを含んでもよい。
(認証部370について)
認証部370は、例えば、第1親和性スコアに基づいて選別された対象虹彩画像と第2親和性スコアに基づいて選別された対象顔画像とを用いて、対象の認証を行う。
認証部370は、例えば、第1親和性スコアに基づいて選別された対象虹彩画像と第2親和性スコアに基づいて選別された対象顔画像とを用いて、対象の認証を行う。
例えば、認証部370は、第1親和性スコアに基づいて対象虹彩画像を選別してもよい。この選別には、上述のような第1条件を用いた選別が適用されてもよい。また例えば、認証部370は、第2親和性スコアに基づいて対象顔画像を選別してもよい。この選別には、上述のような第1条件における第1親和性スコアを第2親和性スコアに変更した条件を用いた選別が適用されてもよい。
そして、認証部370は、例えば、それぞれの条件を満たす対象虹彩画像及び対象顔画像から抽出された虹彩抽出情報と顔抽出情報とを用いて対象の認証を行ってもよい。ここでは、例えば、第1抽出部360a及び第2抽出部360bのそれぞれが抽出した虹彩抽出情報及び顔抽出情報が用いられてもよい。
このような虹彩抽出情報及び顔抽出情報(例えば、虹彩特徴ベクトル及び顔特徴ベクトル)を用いて認証部370が行う認証方法には、複数の生体情報からの抽出情報(例えば、特徴ベクトル)を用いた、いわゆるマルチモーダル認証の一般的な技術が用いられてよい。
(撮影環境変更部380について)
撮影環境変更部380は、上述のように、第2親和性スコアに基づいて、変更指示を生成する等の、対象を撮影するための撮影環境を変更するための処理を行う。変更指示は、上述のように、対象の虹彩を撮影する撮影環境の変更に関する指示である。
撮影環境変更部380は、上述のように、第2親和性スコアに基づいて、変更指示を生成する等の、対象を撮影するための撮影環境を変更するための処理を行う。変更指示は、上述のように、対象の虹彩を撮影する撮影環境の変更に関する指示である。
例えば、撮影環境変更部380は、第2親和性スコアが予め定められた第2条件を満たすか否かに応じた変更指示を生成してもよい。そして、撮影環境変更部380は、当該生成した変更指示を、撮影装置340へ送信してもよい。これにより、撮影部350は、変更指示を取得してもよい。
詳細には例えば、第2親和性スコアが第2条件を満たす場合に、撮影環境変更部380は、撮影環境を変更しないことを示す変更指示を生成してもよい。第2親和性スコアが第2条件を満たさない場合に、撮影環境変更部380は、撮影環境を変更することを示す変更指示を生成してもよい。この場合の変更指示は、撮影環境の変更内容を含んでもよい。変更内容は、例えば、上述のような、対象の虹彩を撮影するための明るさ、対象の位置、対象の顔の向き等をどのように変更するかを示す情報であってもよい。
なお、撮影環境変更部380は、第2親和性スコアが第2条件を満たさない場合に、変更指示を生成しなくてもよい。この場合、制御部353は、例えば、対象顔画像を送信してから変更指示を取得することなく所定の待機時間が経過した場合に、撮影環境を変更せずに虹彩カメラ52に対象を撮影させてもよい。
(第2条件について)
第2条件は、第2親和性スコアに関して予め定められた条件である。第2条件は、例えば、第2親和性スコアに関する閾値を用いて規定されてもよい。
第2条件は、第2親和性スコアに関して予め定められた条件である。第2条件は、例えば、第2親和性スコアに関する閾値を用いて規定されてもよい。
第2親和性スコアが、認証の精度が高い(すなわち、親和性が高い)程、大きくなる値で構成されるとする。
この場合の第2条件は、例えば、第2親和性スコアを構成する各値が閾値以上であることである。第2条件に含まれる閾値は、第1条件に含まれる閾値と異なっていてもよく、同じであってもよい。
またこの場合において、第2親和性スコアが複数の値で構成されるとき、第2条件は、例えば、第2親和性スコアを構成する複数の値のすべて又は所定数以上が閾値以上であることであってもよい。さらに例えば、第2条件は、第2親和性スコアを構成する複数の値を統計処理した値が閾値以上であることであってもよい。複数の値を統計処理した値は、例えば、複数の値の、平均値、最大値、中央値等である。
なお、第2条件は、ここで例示したものに限られない。例えば、第2条件は、閾値であってもよい。
(撮影環境の変更内容を生成する方法について)
撮影環境変更部380は、例えば、対象顔画像と顔抽出情報との少なくとも1つを用いて、撮影環境の変更内容を生成してもよい。
撮影環境変更部380は、例えば、対象顔画像と顔抽出情報との少なくとも1つを用いて、撮影環境の変更内容を生成してもよい。
撮影環境変更部380は、例えば、一般的な画像処理を用いて、対象顔画像を解析してもよい。また例えば、撮影環境変更部380は、ニューラルネットワーク等を用いた機械学習モデルである推定モデルを用いて、対象顔画像と顔抽出情報との少なくとも1つを解析してもよい。これらの解析結果は、例えば、対象顔画像の劣化要因であってもよく、その劣化要因に応じた撮影環境の変更内容であってもよい。
劣化要因は、フォーカスブラー、動きボケ、眼鏡反射、ノイズの程度、解像度、コントラスト、対象顔画像に含まれる顔領域の大きさ、オクルージョン、対象の表情等である。オクルージョンは、例えば、マスクやサングラスによるものであってもよい。
解析結果が劣化要因である場合、撮影環境変更部380は、例えば、劣化要因の組み合わせに応じた撮影環境の変更内容のパターンを示す変更内容データを予め保持してもよい。そして、撮影環境変更部380は、解析結果と変更内容データとに基づいて、撮影環境の変更内容を生成してもよい。
なお、撮影環境の変更内容を生成する方法は、ここで説明した例に限られない。
(作用・効果)
以上、本実施形態によれば、情報処理システムS3は、対象を撮影するための撮影環境を変更するための撮影環境変更部380をさらに備える。
以上、本実施形態によれば、情報処理システムS3は、対象を撮影するための撮影環境を変更するための撮影環境変更部380をさらに備える。
抽出部360は、第1抽出部360aと、第2抽出部360bとを含む。第1抽出部360aは、対象虹彩画像を第1抽出エンジンに入力して虹彩抽出情報を抽出する。第2抽出部360bは、対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出する。
算出部330は、第1算出部330aと、第2算出部330bとを含む。第1算出部330aは、虹彩抽出情報に基づいて、第1親和性スコアを算出する。第2算出部330bは、顔抽出情報に基づいて、対象顔画像と第2抽出エンジンとの親和性を示す第2親和性スコアを算出する。
撮影部350は、対象を撮影して当該対象の顔を含む対象顔画像を取得した後に、対象の虹彩を撮影して対象虹彩画像を取得する。撮影環境変更部380は、第2親和性スコアに基づいて、対象の虹彩を撮影する撮影環境の変更に関する変更指示を生成する。
これによれば、第2親和性スコアに基づいて、対象の虹彩を撮影する撮影環境を変更する。そのため、劣化が少ない虹彩画像を撮影できる可能性を高めることができる。従って、虹彩情報を用いた認証の精度を向上させることが可能になる。
本実施形態によれば、認証部370は、第1親和性スコアに基づいて選別された対象虹彩画像と、第2親和性スコアに基づいて選別された対象顔画像とを用いて、対象の認証を行う。
これによれば、第1抽出エンジン及び第2抽出エンジンのそれぞれを用いて精度良く認証を行うことができる対象虹彩画像及び虹彩顔画像を選別し、これらの虹彩抽出情報及び顔抽出情報を用いて認証を行うことができる。従って、虹彩情報及び顔情報を用いたマルチモーダル認証の精度を向上させることが可能になる。
[実施形態4]
実施形態1では、特定部142が対象の個人識別情報を特定する場合に、ユーザの入力に基づく例を挙げた。本実施形態では、この入力が、情報処理装置100以外の装置である端末装置に行われる例を説明する。なお、本実施形態では、説明を簡潔にするため、他の実施形態と重複する説明は適宜省略する。
実施形態1では、特定部142が対象の個人識別情報を特定する場合に、ユーザの入力に基づく例を挙げた。本実施形態では、この入力が、情報処理装置100以外の装置である端末装置に行われる例を説明する。なお、本実施形態では、説明を簡潔にするため、他の実施形態と重複する説明は適宜省略する。
情報処理システムS4は、例えば図22に示すように、実施形態1と同様の撮影装置40と、情報処理装置400と、通信端末60とを備える。
通信端末60は、個人識別情報を送信する通信部70を備える。
なお、情報処理システムS4が通信部70を備えればよく、通信部70を備える装置は、通信端末60に限られない。例えば、撮影装置40が、通信部70をさらに備えてもよい。
情報処理装置400は、例えば、図23に示すように、実施形態1と同様の登録記憶部110、画像取得部120及び算出部130と、虹彩登録部440とを備える。
虹彩登録部440は、選別された対象虹彩画像に関する虹彩情報を、通信部70が送信した個人識別情報を用いて特定された対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。
情報処理システムS4は、例えば図24に示すような情報処理を実行する。
実施形態1と同様のステップS50、S120、S130が実行される。
通信部70は、個人識別情報を送信する(ステップS70)。
虹彩登録部440は、選別された対象虹彩画像に関する虹彩情報を、ステップS70で送信された個人識別情報を用いて特定された対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる(ステップS440)。
(通信端末60及び通信部70について)
通信端末60は、例えば、ユーザ(例えば、対象)の携帯端末(スマートフォン、タブレット端末等)であるが、これに限られない。通信端末60は、少なくとも情報処理装置400と互いに情報を送受信できるように、通信ネットワークNTを介して互いに接続されてもよい。
通信端末60は、例えば、ユーザ(例えば、対象)の携帯端末(スマートフォン、タブレット端末等)であるが、これに限られない。通信端末60は、少なくとも情報処理装置400と互いに情報を送受信できるように、通信ネットワークNTを介して互いに接続されてもよい。
通信部70は、例えば、ユーザ(例えば、対象)による個人識別情報の入力を受け付け、当該入力された個人識別情報を情報処理装置400へ送信する。
なお、通信部70は、個人識別情報を予め保持し、ユーザ(例えば、対象)の指示等に応じて当該保持した個人識別情報を情報処理装置400へ送信してもよい。
(虹彩登録部440について)
虹彩登録部440は、例えば図25に示すように、実施形態1と同様の選別部141及び登録部143と、特定部442とを含む。
虹彩登録部440は、例えば図25に示すように、実施形態1と同様の選別部141及び登録部143と、特定部442とを含む。
特定部442は、通信部70が送信した個人識別情報を用いて、登録記憶部110に関連付けて記憶された登録顔情報及び個人識別情報の中から、対象の個人識別情報を特定する。
虹彩登録部440は、例えば図26に示すような登録処理(ステップS440)を実行する。登録処理(ステップS440)は、虹彩情報を登録記憶部110に記憶させるための処理である。
実施形態1と同様のステップS141が実行される。
特定部442は、ステップS70で送信された個人識別情報を用いて、登録記憶部110に関連付けて記憶された登録顔情報及び個人識別情報の中から、対象の個人識別情報を特定する。
(特定部442について)
特定部442は、例えば、通信部450が送信した個人識別情報を取得する。特定部442は、例えば、当該取得した個人識別情報に基づいて、登録記憶部110に記憶された個人識別情報の中から、対象の個人識別情報を特定してもよい。対象の個人識別情報は、例えば、当該取得した個人識別情報と一致する個人識別情報であってもよい。これにより、登録部143は、選別された(例えば、第1条件を満たす)対象虹彩画像に関する虹彩情報を、特定部142が特定した個人識別情報にさらに関連付けて登録記憶部110に記憶させることができる。
特定部442は、例えば、通信部450が送信した個人識別情報を取得する。特定部442は、例えば、当該取得した個人識別情報に基づいて、登録記憶部110に記憶された個人識別情報の中から、対象の個人識別情報を特定してもよい。対象の個人識別情報は、例えば、当該取得した個人識別情報と一致する個人識別情報であってもよい。これにより、登録部143は、選別された(例えば、第1条件を満たす)対象虹彩画像に関する虹彩情報を、特定部142が特定した個人識別情報にさらに関連付けて登録記憶部110に記憶させることができる。
(作用・効果)
以上、本実施形態によれば、情報処理システムS4は、個人識別情報を送信する通信部70をさらに備える。虹彩登録部440は、選別部141と、特定部442と、登録部143とを含む。選別部141は、第1親和性スコアに基づいて、対象虹彩画像を選別する。特定部442は、送信された個人識別情報に基づいて対象の個人識別情報を特定する。登録部143は、選別された虹彩情報を、特定された個人識別情報にさらに関連付けて登録記憶部110に記憶させる。
以上、本実施形態によれば、情報処理システムS4は、個人識別情報を送信する通信部70をさらに備える。虹彩登録部440は、選別部141と、特定部442と、登録部143とを含む。選別部141は、第1親和性スコアに基づいて、対象虹彩画像を選別する。特定部442は、送信された個人識別情報に基づいて対象の個人識別情報を特定する。登録部143は、選別された虹彩情報を、特定された個人識別情報にさらに関連付けて登録記憶部110に記憶させる。
これにより、第1抽出エンジンを用いて精度良く認証を行うことができる対象虹彩画像を選別し、当該対象虹彩画像に関する虹彩情報を用いて登録して認証を行うことができる。従って、虹彩情報を用いた認証の精度を向上させることが可能になる。
[実施形態5]
実施形態1では、特定部142が対象の個人識別情報を特定する場合に、ユーザの入力に基づく例を挙げた。本実施形態では、ユーザの入力を用いずに、情報処理装置100以外の装置である第1の端末装置が個人識別情報を予め保持している例を説明する。また本実施形態では、第2の端末装置が、個人識別情報を含む表示画像を第1の端末装置から読み取って、読み取られた個人識別情報を送信する例を説明する。なお、本実施形態では、説明を簡潔にするため、他の実施形態と重複する説明は適宜省略する。
実施形態1では、特定部142が対象の個人識別情報を特定する場合に、ユーザの入力に基づく例を挙げた。本実施形態では、ユーザの入力を用いずに、情報処理装置100以外の装置である第1の端末装置が個人識別情報を予め保持している例を説明する。また本実施形態では、第2の端末装置が、個人識別情報を含む表示画像を第1の端末装置から読み取って、読み取られた個人識別情報を送信する例を説明する。なお、本実施形態では、説明を簡潔にするため、他の実施形態と重複する説明は適宜省略する。
情報処理システムS5は、例えば図27に示すように、実施形態1と同様の撮影装置40と、情報処理装置500と、第1の通信端末80と、第2の通信端末90とを備える。
第1の通信端末80は、保持部81と、表示部82とを備える。
保持部81は、個人識別情報を予め保持する。
表示部82は、保持された個人識別情報を含む表示画像を表示する。
第2の通信端末90は、読取部91と、通信部92とを備える。
読取部91は、表示画像から個人識別情報を読み取る。
通信部92は、読み取られた個人識別情報を送信する。
なお、情報処理システムS5が保持部81、表示部82、読取部91及び通信部を備えればよく、これらを備える装置は、通信端末80,90に限られない。例えば、撮影装置40が、読取部91及び通信部92をさらに備えてもよい。また例えば、制御部53は、読取部91が個人識別情報を読み取った時期の所定時間内に生成された対象虹彩画像を送信してもよい。
情報処理装置500は、図28に示すように、実施形態1と同様の登録記憶部110、画像取得部120及び算出部130と、虹彩登録部540とを備える。
虹彩登録部540は、選別された対象虹彩画像に関する虹彩情報を、通信部92が送信した個人識別情報を用いて特定された対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。
情報処理システムS5は、例えば図29に示すような情報処理を実行する。
実施形態1と同様のステップS50、S120、S130が実行される。
表示部82は、保持された個人識別情報を含む表示画像を表示する(ステップS82)。
読取部91は、表示画像から個人識別情報を読み取る(ステップS91)。
通信部92は、個人識別情報を送信する(ステップS92)。
虹彩登録部540は、選別された対象虹彩画像に関する虹彩情報を、ステップS92で送信された個人識別情報を用いて特定された対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる(ステップS540)。
(第1の通信端末80について)
第1の通信端末80は、例えば、ユーザ(例えば、対象)の携帯端末(スマートフォン、タブレット端末等)であるが、これに限られない。なお、第1の通信端末80は、情報処理装置500等と互いに情報を送受信できるように通信ネットワークNTを介して互いに接続されてもよいが、接続されなくてもよい。
第1の通信端末80は、例えば、ユーザ(例えば、対象)の携帯端末(スマートフォン、タブレット端末等)であるが、これに限られない。なお、第1の通信端末80は、情報処理装置500等と互いに情報を送受信できるように通信ネットワークNTを介して互いに接続されてもよいが、接続されなくてもよい。
(保持部81について)
保持部81は、上述のように、個人識別情報を予め保持する。保持部81は、同じ対象について、登録記憶部110に記憶された個人識別情報と同じ個人識別情報を予め保持してもよい。詳細には例えば、登録顔情報と個人識別情報とが登録記憶部110に記憶された場合に、保持部81は、当該個人識別情報を取得して保持してもよい。
保持部81は、上述のように、個人識別情報を予め保持する。保持部81は、同じ対象について、登録記憶部110に記憶された個人識別情報と同じ個人識別情報を予め保持してもよい。詳細には例えば、登録顔情報と個人識別情報とが登録記憶部110に記憶された場合に、保持部81は、当該個人識別情報を取得して保持してもよい。
なお、保持部81が個人識別情報を予め保持する方法は、ここで説明した例に限られない。
(表示部82について)
表示部82は、保持部81に保持された個人識別情報を含む表示画像を表示する。例えば、表示部82は、ユーザの指示等に基づいて、保持部81から個人識別情報を取得して、当該取得した個人識別情報を含む表示画像を表示する。
表示部82は、保持部81に保持された個人識別情報を含む表示画像を表示する。例えば、表示部82は、ユーザの指示等に基づいて、保持部81から個人識別情報を取得して、当該取得した個人識別情報を含む表示画像を表示する。
表示画像は、一次元コード、二次元コード等を示す画像であるが、これらの例に限られない。
(第2の通信端末90について)
第2の通信端末90は、例えば、撮影装置40に近接配置される装置、撮影装置40に組み込まれる装置であるが、これに限られない。なお、第2の通信端末90は、少なくとも情報処理装置500と互いに情報を送受信できるように、通信ネットワークNTを介して互いに接続されてもよい。
第2の通信端末90は、例えば、撮影装置40に近接配置される装置、撮影装置40に組み込まれる装置であるが、これに限られない。なお、第2の通信端末90は、少なくとも情報処理装置500と互いに情報を送受信できるように、通信ネットワークNTを介して互いに接続されてもよい。
(読取部91について)
読取部91は、表示部82に表示された表示画像から個人識別情報を読み取る。例えば、読取部91は、スキャナ等から構成され、第1の通信端末80を所持するユーザ(例えば、対象)が表示部82に表示された表示画像を所定の領域に配置すると、表示画像に含まれる個人識別情報を読み取ってもよい。
読取部91は、表示部82に表示された表示画像から個人識別情報を読み取る。例えば、読取部91は、スキャナ等から構成され、第1の通信端末80を所持するユーザ(例えば、対象)が表示部82に表示された表示画像を所定の領域に配置すると、表示画像に含まれる個人識別情報を読み取ってもよい。
(通信部92について)
通信部92は、例えば、読取部91が読み取った個人識別情報を、情報処理装置500へ送信する。
通信部92は、例えば、読取部91が読み取った個人識別情報を、情報処理装置500へ送信する。
(虹彩登録部540について)
虹彩登録部540は、例えば図30に示すように、実施形態1と同様の選別部141及び登録部143と、特定部542とを含む。
虹彩登録部540は、例えば図30に示すように、実施形態1と同様の選別部141及び登録部143と、特定部542とを含む。
特定部542は、通信部92が送信した個人識別情報を用いて、登録記憶部110に関連付けて記憶された登録顔情報及び個人識別情報の中から、対象の個人識別情報を特定する。
虹彩登録部540は、例えば図31に示すような登録処理(ステップS540)を実行する。登録処理(ステップS540)は、虹彩情報を登録記憶部110に記憶させるための処理である。
実施形態1と同様のステップS141が実行される。
特定部542は、ステップS92で送信された個人識別情報を用いて、登録記憶部110に関連付けて記憶された登録顔情報及び個人識別情報の中から、対象の個人識別情報を特定する。
(特定部542について)
特定部542は、例えば、通信部92が送信した個人識別情報を取得する。特定部542は、例えば、当該取得した個人識別情報に基づいて、登録記憶部110に記憶された個人識別情報の中から、対象の個人識別情報を特定してもよい。対象の個人識別情報は、例えば、当該取得した個人識別情報と一致する個人識別情報であってもよい。
特定部542は、例えば、通信部92が送信した個人識別情報を取得する。特定部542は、例えば、当該取得した個人識別情報に基づいて、登録記憶部110に記憶された個人識別情報の中から、対象の個人識別情報を特定してもよい。対象の個人識別情報は、例えば、当該取得した個人識別情報と一致する個人識別情報であってもよい。
(作用・効果)
以上、本実施形態によれば、情報処理システムS5は、保持部81と、表示部82と、読取部91と、通信部92とを備える。保持部81は、個人識別情報を予め保持する。表示部82は、保持された個人識別情報を含む表示画像を表示する。読取部91は、表示画像から個人識別情報を読み取る。通信部92は、読み取られた個人識別情報を送信する。
以上、本実施形態によれば、情報処理システムS5は、保持部81と、表示部82と、読取部91と、通信部92とを備える。保持部81は、個人識別情報を予め保持する。表示部82は、保持された個人識別情報を含む表示画像を表示する。読取部91は、表示画像から個人識別情報を読み取る。通信部92は、読み取られた個人識別情報を送信する。
これにより、第1抽出エンジンを用いて精度良く認証を行うことができる対象虹彩画像を選別し、当該対象虹彩画像に関する虹彩情報を用いて登録して認証を行うことができる。従って、虹彩情報を用いた認証の精度を向上させることが可能になる。
また、個人識別情報を情報処理装置500から送信しないので、個人識別情報の通信による漏洩の可能性を低減しつつ、個人識別情報を入力する手間を省くことができる。従って、個人情報の保護を図るとともに、ユーザの手間を省くことが可能になる。
[実施形態6]
顔カメラ及び虹彩カメラの各々は、対象を撮影した静止画像を取得してもよく、対象の撮影を所定の時間間隔で繰り返すことで複数の画像を取得してもよい。すなわち、制御部が送信する対象の対象顔画像及び対象虹彩画像は、それぞれが1つに限られず、それらの一方又は両方が複数であってもよい。そして、画像取得部は、対象について、1つ又は複数の対象顔画像と1つ又は複数の対象虹彩画像を取得してもよい。
顔カメラ及び虹彩カメラの各々は、対象を撮影した静止画像を取得してもよく、対象の撮影を所定の時間間隔で繰り返すことで複数の画像を取得してもよい。すなわち、制御部が送信する対象の対象顔画像及び対象虹彩画像は、それぞれが1つに限られず、それらの一方又は両方が複数であってもよい。そして、画像取得部は、対象について、1つ又は複数の対象顔画像と1つ又は複数の対象虹彩画像を取得してもよい。
本実施形態では、対象虹彩画像が複数の例について説明する。なお、本実施形態では、説明を簡潔にするため、他の実施形態と重複する説明は適宜省略する。
情報処理システムS6は、例えば図32に示すように、撮影部50aを含む撮影装置40aと、情報処理装置600とを備える。
撮影部50aは、対象を撮影して当該対象の対象顔画像及び複数の対象虹彩画像を取得する。
情報処理装置600は、例えば図33に示すように、実施形態1と同様の登録記憶部110と、画像取得部620と、算出部630と、虹彩登録部640とを備える。
画像取得部620は、対象を撮影して取得された対象顔画像及び複数の対象虹彩画像を取得する。
算出部630は、第1抽出エンジンを用いて複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の第1親和性スコアを算出する。
虹彩登録部640は、複数の第1親和性スコアに基づいて選別された対象虹彩画像の少なくとも1つに関する虹彩情報を、登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。
情報処理システムS6は、例えば図34に示すような情報処理を実行する。
撮影部50aは、対象を撮影して当該対象の対象顔画像及び複数の対象虹彩画像を取得する(ステップS50a)。
画像取得部620は、対象を撮影して取得された対象顔画像及び複数の対象虹彩画像を取得する(ステップS620)。
算出部630は、第1抽出エンジンを用いて複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の第1親和性スコアを算出する(ステップS630)。
虹彩登録部640は、複数の第1親和性スコアに基づいて選別された対象虹彩画像の少なくとも1つに関する虹彩情報を、登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる(ステップS640)。
(撮影部50aについて)
撮影部50aは、例えば図35に示すように、実施形態1と同様の顔カメラ51と、虹彩カメラ52aと、制御部53aとを備える。
撮影部50aは、例えば図35に示すように、実施形態1と同様の顔カメラ51と、虹彩カメラ52aと、制御部53aとを備える。
虹彩カメラ52aは、対象を撮影して当該対象の虹彩を含む複数の対象虹彩画像を取得する。
制御部53aは、顔カメラ51及び虹彩カメラ52aがそれぞれ取得した対象顔画像及び複数の対象虹彩画像を送信する。
撮影部50は、例えば図36に示すような撮影処理(ステップS50a)を実行する。
実施形態1と同様のステップS51が実行される。
虹彩カメラ52aは、対象を撮影して当該対象の虹彩を含む複数の対象虹彩画像を取得する(ステップS52a)。
制御部53aは、顔カメラ51及び虹彩カメラ52aがそれぞれ取得した対象顔画像及び複数の対象虹彩画像を送信する(ステップS53a)。
(虹彩カメラ52aについて)
虹彩カメラ52aは、例えば制御部53aの制御の下で、対象を複数回撮影して当該対象の虹彩を含む複数の対象虹彩画像を取得してもよい。
虹彩カメラ52aは、例えば制御部53aの制御の下で、対象を複数回撮影して当該対象の虹彩を含む複数の対象虹彩画像を取得してもよい。
(制御部53aについて)
制御部53aは、例えば、顔カメラ51及び虹彩カメラ52aがそれぞれ取得した対象顔画像及び複数の対象虹彩画像を、同時に又は順に情報処理装置100へ送信する。対象顔画像及び複数の対象虹彩画像を順に送信する場合、制御部53は、対象顔画像及び複数の対象虹彩画像の各々のいずれを先に送信してもよい。
制御部53aは、例えば、顔カメラ51及び虹彩カメラ52aがそれぞれ取得した対象顔画像及び複数の対象虹彩画像を、同時に又は順に情報処理装置100へ送信する。対象顔画像及び複数の対象虹彩画像を順に送信する場合、制御部53は、対象顔画像及び複数の対象虹彩画像の各々のいずれを先に送信してもよい。
(画像取得部620について)
画像取得部620は、例えば、撮影部50aにて対象を撮影して取得された対象顔画像及び複数の対象虹彩画像を、撮影部50aから又は他の装置を介して取得してもよい。
画像取得部620は、例えば、撮影部50aにて対象を撮影して取得された対象顔画像及び複数の対象虹彩画像を、撮影部50aから又は他の装置を介して取得してもよい。
(算出部630について)
算出部630は、上述のように、第1抽出エンジンを用いて複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、複数の第1親和性スコアを算出する。
算出部630は、上述のように、第1抽出エンジンを用いて複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、複数の第1親和性スコアを算出する。
複数の虹彩抽出情報は例えば、複数の対象虹彩画像の各々について、第1抽出エンジンを用いて虹彩抽出情報を繰り返し抽出することで得られる。複数の第1親和性スコアは、複数の対象虹彩画像のそれぞれに対応している。第1親和性スコアの各々は、対応する対象虹彩画像と第1抽出エンジンとの親和性を示してもよい。
(虹彩登録部640について)
虹彩登録部640は、上述のように、複数の第1親和性スコアに基づいて選別された対象虹彩画像の少なくとも1つに関する虹彩情報を登録記憶部110に記憶させる。
虹彩登録部640は、上述のように、複数の第1親和性スコアに基づいて選別された対象虹彩画像の少なくとも1つに関する虹彩情報を登録記憶部110に記憶させる。
虹彩登録部640は、虹彩登録部140と同様に、虹彩情報を、登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させてもよい。また、登録記憶部110に記憶させる場合に、虹彩登録部640は、対象虹彩画像に関する虹彩情報を、当該対象虹彩画像に対応する対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させてもよい。
虹彩登録部640は、例えば図37に示すように、選別部641と、実施形態1と同様の特定部142と、登録部643とを含む。
選別部641は、複数の第1親和性スコアに基づいて、複数の対象虹彩画像を選別する。
登録部643は、第1条件を満たす少なくとも1つの対象虹彩画像に関する虹彩情報を、当該対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。
虹彩登録部640は、図38に示すような登録処理(ステップS640)を実行する。登録処理(ステップS140)は、虹彩情報を登録記憶部110に記憶させるための処理である。
選別部641は、複数の第1親和性スコアに基づいて、複数の対象虹彩画像を選別する。(ステップS641)。
実施形態1と同様のステップS142が実行される。
登録部643は、第1条件を満たす少なくとも1つの対象虹彩画像に関する虹彩情報を、当該対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる(ステップS643)。
(選別部641について)
選別部641は、例えば、複数の対象虹彩画像のそれぞれについて算出された複数の第1親和性スコアの各々が第1条件を満たすか否かを判定する。そして、選別部641は、例えば、第1条件を満たす第1親和性スコアが算出された少なくとも1つの対象虹彩画像を、第1条件を満たす対象虹彩画像として選別する。
選別部641は、例えば、複数の対象虹彩画像のそれぞれについて算出された複数の第1親和性スコアの各々が第1条件を満たすか否かを判定する。そして、選別部641は、例えば、第1条件を満たす第1親和性スコアが算出された少なくとも1つの対象虹彩画像を、第1条件を満たす対象虹彩画像として選別する。
詳細には例えば、選別部641は、所定数以上の第1親和性スコア、又は第1親和性スコアを構成する複数の値を統計処理した値が閾値以上である対象虹彩画像を選別してもよい。例えば、選別部641は、これにより選別された対象虹彩画像が複数である場合、当該複数の対象虹彩画像の中から、第1親和性スコアが最大である対象虹彩画像を選別してもよい。例えば、選別部641は、第1親和性スコアが最大である対象虹彩画像を選別してもよい。
(登録部643について)
登録部643は、上述のように、第1条件を満たす少なくとも1つの対象虹彩画像に関する虹彩情報を、当該対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。ここで、当該対象の登録顔情報及び個人識別情報は、特定部642が特定した登録顔情報及び個人識別情報の少なくとも一方を含んでもよい。
登録部643は、上述のように、第1条件を満たす少なくとも1つの対象虹彩画像に関する虹彩情報を、当該対象の登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。ここで、当該対象の登録顔情報及び個人識別情報は、特定部642が特定した登録顔情報及び個人識別情報の少なくとも一方を含んでもよい。
(作用・効果)
以上、本実施形態によれば、対象虹彩画像は、複数である。算出部630は、第1抽出エンジンを用いて複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の第1親和性スコアを算出する。虹彩登録部640は、複数の第1親和性スコアに基づいて選別された対象虹彩画像の少なくとも1つに関する虹彩情報を、登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。
以上、本実施形態によれば、対象虹彩画像は、複数である。算出部630は、第1抽出エンジンを用いて複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の第1親和性スコアを算出する。虹彩登録部640は、複数の第1親和性スコアに基づいて選別された対象虹彩画像の少なくとも1つに関する虹彩情報を、登録顔情報及び個人識別情報にさらに関連付けて登録記憶部110に記憶させる。
これによれば、複数の対象虹彩画像の中から、第1抽出エンジンを用いて精度良く認証を行うことができる少なくとも1つの対象虹彩画像を選別し、当該少なくとも1つの対象虹彩画像に関する虹彩情報を登録して認証を行うことができる。従って、虹彩情報を用いた認証の精度をより一層向上させることが可能になる。
以上、実施の形態を参照して本開示を説明したが、本開示は上述の実施の形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。そして、各実施の形態は、適宜他の実施の形態と組み合わせることができる。
また、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1.
顔に関する登録顔情報と個人識別情報とを関連付けて記憶される登録記憶手段と、
対象を撮影して当該対象の顔及び虹彩のそれぞれを含む対象顔画像及び対象虹彩画像を取得する撮影手段と、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する算出手段と、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる虹彩登録手段とを備える
情報処理システム。
2.
前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出する抽出手段と、
前記虹彩抽出情報を用いて前記対象の認証を行う認証手段とをさらに備え、
前記第1親和性スコアは、前記虹彩抽出情報を用いた前記対象の認証の精度に応じた値で表される
1.に記載の情報処理システム。
3.
前記対象を撮影するための撮影環境を変更するための撮影環境変更手段をさらに備え、
前記抽出手段は、
前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出する第1抽出手段と、
前記対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出する第2抽出手段とを含み、
前記算出手段は、
前記虹彩抽出情報に基づいて、前記第1親和性スコアを算出する第1算出手段と、
前記顔抽出情報に基づいて、前記対象顔画像と前記第2抽出エンジンとの親和性を示す第2親和性スコアを算出する第2算出手段とを含み、
前記撮影手段は、前記対象を撮影して当該対象の顔を含む対象顔画像を取得した後に、前記対象の虹彩を撮影して対象虹彩画像を取得し、
前記撮影環境変更手段は、前記第2親和性スコアに基づいて、前記対象の虹彩を撮影する前記撮影環境の変更に関する変更指示を生成する
2.に記載の情報処理システム。
4.
前記認証手段は、前記第1親和性スコアに基づいて選別された前記対象虹彩画像と、前記第2親和性スコアに基づいて選別された前記対象顔画像とを用いて、前記対象の認証を行う
3.に記載の情報処理システム。
5.
個人識別情報を送信する通信手段をさらに備え、
前記虹彩登録手段は、
前記第1親和性スコアに基づいて、前記対象虹彩画像を選別する選別手段と、
前記送信された個人識別情報に基づいて、前記対象の個人識別情報を特定する特定手段と、
前記選別された虹彩情報を、前記特定された個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる登録手段とを含む
1.から4.のいずれか1つに記載の情報処理システム。
6.
個人識別情報を予め保持する保持手段と、
前記保持された個人識別情報を含む表示画像を表示する表示手段と、
前記表示画像から前記個人識別情報を読み取る読取手段とをさらに備え、
前記通信手段は、前記読み取られた個人識別情報を送信する
5.に記載の情報処理システム。
7.
前記対象虹彩画像は、複数であり、
前記算出手段は、前記第1抽出エンジンを用いて前記複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、前記複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の前記第1親和性スコアを算出し、
前記虹彩登録手段は、前記複数の第1親和性スコアに基づいて選別された前記対象虹彩画像の少なくとも1つに関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる
1.から6.のいずれか1つに記載の情報処理システム。
8.
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得する画像取得手段と、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する算出手段と、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶手段に記憶させる虹彩登録手段とを備える
情報処理装置。
9.
前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出する抽出手段と、
前記虹彩抽出情報を用いて前記対象の認証を行う認証手段とをさらに備え、
前記第1親和性スコアは、前記虹彩抽出情報を用いた前記対象の認証の精度に応じた値で表される
8.に記載の情報処理装置。
10.
前記対象を撮影するための撮影環境を変更するための撮影環境変更手段をさらに備え、
前記抽出手段は、
前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出する第1抽出手段と、
前記対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出する第2抽出手段とを含み、
前記算出手段は、
前記虹彩抽出情報に基づいて、前記第1親和性スコアを算出する第1算出手段と、
前記顔抽出情報に基づいて、前記対象顔画像と前記第2抽出エンジンとの親和性を示す第2親和性スコアを算出する第2算出手段とを含み、
前記撮影手段は、前記対象を撮影して当該対象の顔を含む対象顔画像を取得した後に、前記対象の虹彩を撮影して対象虹彩画像を取得し、
前記環境変更手段は、前記第2親和性スコアに基づいて、前記対象の虹彩を撮影する前記撮影環境の変更に関する変更指示を生成する
9.に記載の情報処理装置。
11.
前記認証手段は、前記第1親和性スコアに基づいて選別された前記対象虹彩画像と、前記第2親和性スコアに基づいて選別された前記対象顔画像とを用いて、前記対象の認証を行う
10.に記載の情報処理装置。
12.
個人識別情報を送信する通信手段をさらに備え、
前記虹彩登録手段は、
前記第1親和性スコアに基づいて、前記対象虹彩画像を選別する選別手段と、
前記送信された個人識別情報に基づいて、前記対象の個人識別情報を特定する特定手段と、
前記選別された虹彩情報を、前記特定された個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる登録手段とを含む
8.から11.のいずれか1つに記載の情報処理装置。
13.
個人識別情報を予め保持する保持手段と、
前記保持された個人識別情報を含む表示画像を表示する表示手段と、
前記表示画像から前記個人識別情報を読み取る読取手段とをさらに備え、
前記通信手段は、前記読み取られた個人識別情報を送信する
12.に記載の情報処理装置。
14.
前記対象虹彩画像は、複数であり、
前記算出手段は、前記第1抽出エンジンを用いて前記複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、前記複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の前記第1親和性スコアを算出し、
前記虹彩登録手段は、前記複数の第1親和性スコアに基づいて選別された前記対象虹彩画像の少なくとも1つに関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる
8.から13.のいずれか1つに記載の情報処理装置。
15.
1つ以上のコンピュータが、
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得し、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出し、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶部に記憶させる
情報処理方法。
16.
さらに、前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出し、
前記虹彩抽出情報を用いて前記対象の認証を行うことを含み、
前記第1親和性スコアは、前記虹彩抽出情報を用いた前記対象の認証の精度に応じた値で表される
15.に記載の情報処理方法。
17.
さらに、前記対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出し、
前記顔抽出情報に基づいて、前記対象顔画像と前記第2抽出エンジンとの親和性を示す第2親和性スコアを算出し、
前記対象を撮影するための撮影環境を変更することを含み、
前記対象顔画像及び前記対象虹彩画像を取得することでは、前記対象を撮影して当該対象の顔を含む対象顔画像を取得した後に、前記対象の虹彩を撮影して対象虹彩画像を取得し、
前記撮影環境を変更することでは、前記第2親和性スコアに基づいて、前記対象の虹彩を撮影する前記撮影環境の変更に関する変更指示を生成する
16.に記載の情報処理方法。
18.
前記対象の認証を行うことでは、前記第1親和性スコアに基づいて選別された前記対象虹彩画像と、前記第2親和性スコアに基づいて選別された前記対象顔画像とを用いて、前記対象の認証を行う
17.に記載の情報処理方法。
19.
さらに、個人識別情報を送信することを含み、
前記虹彩情報を記憶させることは、
前記第1親和性スコアに基づいて、前記対象虹彩画像を選別し、
前記送信された個人識別情報に基づいて、前記対象の個人識別情報を特定し、
前記選別された虹彩情報を、前記特定された個人識別情報にさらに関連付けて前記登録記憶手段に記憶させることを含む
15.から18.のいずれか1つに記載の情報処理方法。
20.
前記1つ以上のコンピュータが、
前記個人識別情報を予め保持する保持手段と、
前記保持された個人識別情報を含む表示画像を表示する表示手段と、
前記表示画像から前記個人識別情報を読み取る読取手段とを備え、
前記個人識別情報を送信することでは、前記読み取られた個人識別情報を送信する
19.に記載の情報処理方法。
21.
前記対象虹彩画像は、複数であり、
前記第1親和性スコアを算出することでは、前記第1抽出エンジンを用いて前記複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、前記複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の前記第1親和性スコアを算出し、
前記虹彩情報を記憶させることでは、前記複数の第1親和性スコアに基づいて選別された前記対象虹彩画像の少なくとも1つに関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶部に記憶させる
15.から20.のいずれか1つに記載の情報処理方法。
22.
1つ以上のコンピュータに、
15.から20.のいずれか1つに記載の情報処理方法を実行させるためのプログラム。
23.
1つ以上のコンピュータに、
15.から20.のいずれか1つに記載の情報処理方法を実行させるためのプログラムが記録された記録媒体。
1.
顔に関する登録顔情報と個人識別情報とを関連付けて記憶される登録記憶手段と、
対象を撮影して当該対象の顔及び虹彩のそれぞれを含む対象顔画像及び対象虹彩画像を取得する撮影手段と、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する算出手段と、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる虹彩登録手段とを備える
情報処理システム。
2.
前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出する抽出手段と、
前記虹彩抽出情報を用いて前記対象の認証を行う認証手段とをさらに備え、
前記第1親和性スコアは、前記虹彩抽出情報を用いた前記対象の認証の精度に応じた値で表される
1.に記載の情報処理システム。
3.
前記対象を撮影するための撮影環境を変更するための撮影環境変更手段をさらに備え、
前記抽出手段は、
前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出する第1抽出手段と、
前記対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出する第2抽出手段とを含み、
前記算出手段は、
前記虹彩抽出情報に基づいて、前記第1親和性スコアを算出する第1算出手段と、
前記顔抽出情報に基づいて、前記対象顔画像と前記第2抽出エンジンとの親和性を示す第2親和性スコアを算出する第2算出手段とを含み、
前記撮影手段は、前記対象を撮影して当該対象の顔を含む対象顔画像を取得した後に、前記対象の虹彩を撮影して対象虹彩画像を取得し、
前記撮影環境変更手段は、前記第2親和性スコアに基づいて、前記対象の虹彩を撮影する前記撮影環境の変更に関する変更指示を生成する
2.に記載の情報処理システム。
4.
前記認証手段は、前記第1親和性スコアに基づいて選別された前記対象虹彩画像と、前記第2親和性スコアに基づいて選別された前記対象顔画像とを用いて、前記対象の認証を行う
3.に記載の情報処理システム。
5.
個人識別情報を送信する通信手段をさらに備え、
前記虹彩登録手段は、
前記第1親和性スコアに基づいて、前記対象虹彩画像を選別する選別手段と、
前記送信された個人識別情報に基づいて、前記対象の個人識別情報を特定する特定手段と、
前記選別された虹彩情報を、前記特定された個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる登録手段とを含む
1.から4.のいずれか1つに記載の情報処理システム。
6.
個人識別情報を予め保持する保持手段と、
前記保持された個人識別情報を含む表示画像を表示する表示手段と、
前記表示画像から前記個人識別情報を読み取る読取手段とをさらに備え、
前記通信手段は、前記読み取られた個人識別情報を送信する
5.に記載の情報処理システム。
7.
前記対象虹彩画像は、複数であり、
前記算出手段は、前記第1抽出エンジンを用いて前記複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、前記複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の前記第1親和性スコアを算出し、
前記虹彩登録手段は、前記複数の第1親和性スコアに基づいて選別された前記対象虹彩画像の少なくとも1つに関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる
1.から6.のいずれか1つに記載の情報処理システム。
8.
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得する画像取得手段と、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する算出手段と、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶手段に記憶させる虹彩登録手段とを備える
情報処理装置。
9.
前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出する抽出手段と、
前記虹彩抽出情報を用いて前記対象の認証を行う認証手段とをさらに備え、
前記第1親和性スコアは、前記虹彩抽出情報を用いた前記対象の認証の精度に応じた値で表される
8.に記載の情報処理装置。
10.
前記対象を撮影するための撮影環境を変更するための撮影環境変更手段をさらに備え、
前記抽出手段は、
前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出する第1抽出手段と、
前記対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出する第2抽出手段とを含み、
前記算出手段は、
前記虹彩抽出情報に基づいて、前記第1親和性スコアを算出する第1算出手段と、
前記顔抽出情報に基づいて、前記対象顔画像と前記第2抽出エンジンとの親和性を示す第2親和性スコアを算出する第2算出手段とを含み、
前記撮影手段は、前記対象を撮影して当該対象の顔を含む対象顔画像を取得した後に、前記対象の虹彩を撮影して対象虹彩画像を取得し、
前記環境変更手段は、前記第2親和性スコアに基づいて、前記対象の虹彩を撮影する前記撮影環境の変更に関する変更指示を生成する
9.に記載の情報処理装置。
11.
前記認証手段は、前記第1親和性スコアに基づいて選別された前記対象虹彩画像と、前記第2親和性スコアに基づいて選別された前記対象顔画像とを用いて、前記対象の認証を行う
10.に記載の情報処理装置。
12.
個人識別情報を送信する通信手段をさらに備え、
前記虹彩登録手段は、
前記第1親和性スコアに基づいて、前記対象虹彩画像を選別する選別手段と、
前記送信された個人識別情報に基づいて、前記対象の個人識別情報を特定する特定手段と、
前記選別された虹彩情報を、前記特定された個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる登録手段とを含む
8.から11.のいずれか1つに記載の情報処理装置。
13.
個人識別情報を予め保持する保持手段と、
前記保持された個人識別情報を含む表示画像を表示する表示手段と、
前記表示画像から前記個人識別情報を読み取る読取手段とをさらに備え、
前記通信手段は、前記読み取られた個人識別情報を送信する
12.に記載の情報処理装置。
14.
前記対象虹彩画像は、複数であり、
前記算出手段は、前記第1抽出エンジンを用いて前記複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、前記複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の前記第1親和性スコアを算出し、
前記虹彩登録手段は、前記複数の第1親和性スコアに基づいて選別された前記対象虹彩画像の少なくとも1つに関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる
8.から13.のいずれか1つに記載の情報処理装置。
15.
1つ以上のコンピュータが、
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得し、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出し、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶部に記憶させる
情報処理方法。
16.
さらに、前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出し、
前記虹彩抽出情報を用いて前記対象の認証を行うことを含み、
前記第1親和性スコアは、前記虹彩抽出情報を用いた前記対象の認証の精度に応じた値で表される
15.に記載の情報処理方法。
17.
さらに、前記対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出し、
前記顔抽出情報に基づいて、前記対象顔画像と前記第2抽出エンジンとの親和性を示す第2親和性スコアを算出し、
前記対象を撮影するための撮影環境を変更することを含み、
前記対象顔画像及び前記対象虹彩画像を取得することでは、前記対象を撮影して当該対象の顔を含む対象顔画像を取得した後に、前記対象の虹彩を撮影して対象虹彩画像を取得し、
前記撮影環境を変更することでは、前記第2親和性スコアに基づいて、前記対象の虹彩を撮影する前記撮影環境の変更に関する変更指示を生成する
16.に記載の情報処理方法。
18.
前記対象の認証を行うことでは、前記第1親和性スコアに基づいて選別された前記対象虹彩画像と、前記第2親和性スコアに基づいて選別された前記対象顔画像とを用いて、前記対象の認証を行う
17.に記載の情報処理方法。
19.
さらに、個人識別情報を送信することを含み、
前記虹彩情報を記憶させることは、
前記第1親和性スコアに基づいて、前記対象虹彩画像を選別し、
前記送信された個人識別情報に基づいて、前記対象の個人識別情報を特定し、
前記選別された虹彩情報を、前記特定された個人識別情報にさらに関連付けて前記登録記憶手段に記憶させることを含む
15.から18.のいずれか1つに記載の情報処理方法。
20.
前記1つ以上のコンピュータが、
前記個人識別情報を予め保持する保持手段と、
前記保持された個人識別情報を含む表示画像を表示する表示手段と、
前記表示画像から前記個人識別情報を読み取る読取手段とを備え、
前記個人識別情報を送信することでは、前記読み取られた個人識別情報を送信する
19.に記載の情報処理方法。
21.
前記対象虹彩画像は、複数であり、
前記第1親和性スコアを算出することでは、前記第1抽出エンジンを用いて前記複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、前記複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の前記第1親和性スコアを算出し、
前記虹彩情報を記憶させることでは、前記複数の第1親和性スコアに基づいて選別された前記対象虹彩画像の少なくとも1つに関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶部に記憶させる
15.から20.のいずれか1つに記載の情報処理方法。
22.
1つ以上のコンピュータに、
15.から20.のいずれか1つに記載の情報処理方法を実行させるためのプログラム。
23.
1つ以上のコンピュータに、
15.から20.のいずれか1つに記載の情報処理方法を実行させるためのプログラムが記録された記録媒体。
S1~S6 情報処理システム
40,340,40a 撮影装置
50,350,50a 撮影部
53,353,53a 制御部
60 通信端末
70 通信部
80 第1の通信端末
81 保持部
82 表示部
90 第2の通信端末
91 読取部
92 通信部
100,200,300,400,500,600 情報処理装置
110 登録記憶部
120,320,620 画像取得部
130,330,630 算出部
140,440,540,640 虹彩登録部
141,641 選別部
142,442,542,642 特定部
143,643 登録部
260,360 抽出部
270,370 認証部
330a 第1算出部
330b 第2算出部
360a 第1抽出部
360b 第2抽出部
380 撮影環境変更部
450 通信部
40,340,40a 撮影装置
50,350,50a 撮影部
53,353,53a 制御部
60 通信端末
70 通信部
80 第1の通信端末
81 保持部
82 表示部
90 第2の通信端末
91 読取部
92 通信部
100,200,300,400,500,600 情報処理装置
110 登録記憶部
120,320,620 画像取得部
130,330,630 算出部
140,440,540,640 虹彩登録部
141,641 選別部
142,442,542,642 特定部
143,643 登録部
260,360 抽出部
270,370 認証部
330a 第1算出部
330b 第2算出部
360a 第1抽出部
360b 第2抽出部
380 撮影環境変更部
450 通信部
Claims (10)
- 顔に関する登録顔情報と個人識別情報とを関連付けて記憶される登録記憶手段と、
対象を撮影して当該対象の顔及び虹彩のそれぞれを含む対象顔画像及び対象虹彩画像を取得する撮影手段と、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する算出手段と、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる虹彩登録手段とを備える
情報処理システム。 - 前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出する抽出手段と、
前記虹彩抽出情報を用いて前記対象の認証を行う認証手段とをさらに備え、
前記第1親和性スコアは、前記虹彩抽出情報を用いた前記対象の認証の精度に応じた値で表される
請求項1に記載の情報処理システム。 - 前記対象を撮影するための撮影環境を変更するための撮影環境変更手段をさらに備え、
前記抽出手段は、
前記対象虹彩画像を前記第1抽出エンジンに入力して前記虹彩抽出情報を抽出する第1抽出手段と、
前記対象顔画像を第2抽出エンジンに入力して顔抽出情報を抽出する第2抽出手段とを含み、
前記算出手段は、
前記虹彩抽出情報に基づいて、前記第1親和性スコアを算出する第1算出手段と、
前記顔抽出情報に基づいて、前記対象顔画像と前記第2抽出エンジンとの親和性を示す第2親和性スコアを算出する第2算出手段とを含み、
前記撮影手段は、前記対象を撮影して当該対象の顔を含む対象顔画像を取得した後に、前記対象の虹彩を撮影して対象虹彩画像を取得し、
前記撮影環境変更手段は、前記第2親和性スコアに基づいて、前記対象の虹彩を撮影する前記撮影環境の変更に関する変更指示を生成する
請求項2に記載の情報処理システム。 - 前記認証手段は、前記第1親和性スコアに基づいて選別された前記対象虹彩画像と、前記第2親和性スコアに基づいて選別された前記対象顔画像とを用いて、前記対象の認証を行う
請求項3に記載の情報処理システム。 - 個人識別情報を送信する通信手段をさらに備え、
前記虹彩登録手段は、
前記第1親和性スコアに基づいて、前記対象虹彩画像を選別する選別手段と、
前記送信された個人識別情報に基づいて、前記対象の個人識別情報を特定する特定手段と、
前記選別された虹彩情報を、前記特定された個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる登録手段とを含む
請求項1から4のいずれか1項に記載の情報処理システム。 - 個人識別情報を予め保持する保持手段と、
前記保持された個人識別情報を含む表示画像を表示する表示手段と、
前記表示画像から前記個人識別情報を読み取る読取手段とをさらに備え、
前記通信手段は、前記読み取られた個人識別情報を送信する
請求項5に記載の情報処理システム。 - 前記対象虹彩画像は、複数であり、
前記算出手段は、前記第1抽出エンジンを用いて前記複数の対象虹彩画像のそれぞれから抽出された複数の虹彩抽出情報に基づいて、前記複数の対象虹彩画像のそれぞれと当該第1抽出エンジンとの親和性を示す複数の前記第1親和性スコアを算出し、
前記虹彩登録手段は、前記複数の第1親和性スコアに基づいて選別された前記対象虹彩画像の少なくとも1つに関する虹彩情報を、前記登録顔情報及び前記個人識別情報にさらに関連付けて前記登録記憶手段に記憶させる
請求項1から6のいずれか1項に記載の情報処理システム。 - 対象を撮影して取得された対象顔画像及び対象虹彩画像を取得する画像取得手段と、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出する算出手段と、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶手段に記憶させる虹彩登録手段とを備える
情報処理装置。 - 1つ以上のコンピュータが、
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得し、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出し、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶部に記憶させる
情報処理方法。 - 1つ以上のコンピュータに、
対象を撮影して取得された対象顔画像及び対象虹彩画像を取得し、
第1抽出エンジンを用いて前記対象虹彩画像から抽出された虹彩抽出情報に基づいて、前記対象虹彩画像と当該第1抽出エンジンとの親和性を示す第1親和性スコアを算出し、
前記第1親和性スコアに基づいて選別された前記対象虹彩画像に関する虹彩情報を登録記憶部に記憶させることを実行させるためのプログラムが記録された記録媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2024/009025 WO2025187040A1 (ja) | 2024-03-08 | 2024-03-08 | 情報処理システム、情報処理装置、情報処理方法及び記録媒体 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2024/009025 WO2025187040A1 (ja) | 2024-03-08 | 2024-03-08 | 情報処理システム、情報処理装置、情報処理方法及び記録媒体 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| WO2025187040A1 true WO2025187040A1 (ja) | 2025-09-12 |
| WO2025187040A8 WO2025187040A8 (ja) | 2025-10-02 |
Family
ID=96990384
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/009025 Pending WO2025187040A1 (ja) | 2024-03-08 | 2024-03-08 | 情報処理システム、情報処理装置、情報処理方法及び記録媒体 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025187040A1 (ja) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005004781A (ja) * | 2002-02-05 | 2005-01-06 | Matsushita Electric Ind Co Ltd | 個人認証方法および個人認証装置 |
| JP2022069084A (ja) * | 2020-10-23 | 2022-05-11 | 富士通クライアントコンピューティング株式会社 | 情報処理装置およびプログラム |
| WO2022190310A1 (ja) * | 2021-03-11 | 2022-09-15 | 日本電気株式会社 | 入場制御装置、入場制御システム、入場制御方法、及び非一時的なコンピュータ可読媒体 |
-
2024
- 2024-03-08 WO PCT/JP2024/009025 patent/WO2025187040A1/ja active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005004781A (ja) * | 2002-02-05 | 2005-01-06 | Matsushita Electric Ind Co Ltd | 個人認証方法および個人認証装置 |
| JP2022069084A (ja) * | 2020-10-23 | 2022-05-11 | 富士通クライアントコンピューティング株式会社 | 情報処理装置およびプログラム |
| WO2022190310A1 (ja) * | 2021-03-11 | 2022-09-15 | 日本電気株式会社 | 入場制御装置、入場制御システム、入場制御方法、及び非一時的なコンピュータ可読媒体 |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2025187040A8 (ja) | 2025-10-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12014571B2 (en) | Method and apparatus with liveness verification | |
| JP5247480B2 (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
| JP6544900B2 (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
| KR101381439B1 (ko) | 얼굴 인식 장치 및 얼굴 인식 방법 | |
| JP6550094B2 (ja) | 認証装置および認証方法 | |
| US10679083B2 (en) | Liveness test method and apparatus | |
| JP5517858B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
| EP2336949B1 (en) | Apparatus and method for registering plurality of facial images for face recognition | |
| JP7674149B2 (ja) | 生体の認証システムおよび認証方法 | |
| JP2019057815A (ja) | 監視システム | |
| US20090309700A1 (en) | Authentication apparatus, image sensing apparatus, authentication method and program therefor | |
| JP5787686B2 (ja) | 顔認識装置、及び顔認識方法 | |
| CN112633221B (zh) | 一种人脸方向的检测方法及相关装置 | |
| JP7269897B2 (ja) | データ登録装置、生体認証装置、およびデータ登録プログラム | |
| WO2020195732A1 (ja) | 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体 | |
| JP2014064083A (ja) | 監視装置及び方法 | |
| JP2012068948A (ja) | 顔属性推定装置およびその方法 | |
| WO2022222957A1 (zh) | 一种目标识别的方法和系统 | |
| JP5791361B2 (ja) | パターン識別装置、パターン識別方法およびプログラム | |
| WO2025187040A1 (ja) | 情報処理システム、情報処理装置、情報処理方法及び記録媒体 | |
| KR20210153989A (ko) | 맞춤형 객체 검출 모델을 가진 객체 검출 장치 | |
| JP4708835B2 (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
| CN115116147B (zh) | 图像识别、模型训练、活体检测方法及相关装置 | |
| JP7103443B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| CN117593629B (zh) | 刷掌识别方法、装置、设备及存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24928513 Country of ref document: EP Kind code of ref document: A1 |