[go: up one dir, main page]

WO2018150519A1 - 物体照合装置 - Google Patents

物体照合装置 Download PDF

Info

Publication number
WO2018150519A1
WO2018150519A1 PCT/JP2017/005733 JP2017005733W WO2018150519A1 WO 2018150519 A1 WO2018150519 A1 WO 2018150519A1 JP 2017005733 W JP2017005733 W JP 2017005733W WO 2018150519 A1 WO2018150519 A1 WO 2018150519A1
Authority
WO
WIPO (PCT)
Prior art keywords
ink layer
unit
image
imaging
ink
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/005733
Other languages
English (en)
French (fr)
Inventor
佑太 工藤
石山 塁
高橋 徹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to US16/486,352 priority Critical patent/US11594067B2/en
Priority to JP2019500111A priority patent/JP6730697B2/ja
Priority to PCT/JP2017/005733 priority patent/WO2018150519A1/ja
Publication of WO2018150519A1 publication Critical patent/WO2018150519A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0289Field-of-view determination; Aiming or pointing of a spectrometer; Adjusting alignment; Encoding angular position; Size of measurement area; Position tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0291Housings; Spectrometer accessories; Spatial arrangement of elements, e.g. folded path arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/52Measurement of colour; Colour measuring devices, e.g. colorimeters using colour charts
    • G01J3/524Calibration of colorimeters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • H04N1/6033Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer using test pattern analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Definitions

  • the present invention relates to an object collation device, an identifier generation device, an object management system, an object collation method, an identifier generation method, an object management method, a program, and an imaging adapter.
  • Patent Document 1 describes that an uneven pattern formed by a satin pattern formed on the surface of an object is used for authentication and verification of the object.
  • the pear texture pattern includes not only the case where the pattern is formed as a design but also the case where the pear texture pattern is intentionally formed in the verification region for object identification or verification.
  • the pear texture includes not only a pear texture that has been applied to a metal or a synthetic resin, but also a wrinkle pattern that is obtained by subjecting a leather product to a surface treatment (for example, wrinkle processing). It is said.
  • Patent Document 1 describes a photographing auxiliary tool, a photographing device, and a photographing method for photographing such a fine uneven pattern with good contrast.
  • Patent Document 2 describes a method of forming a concavo-convex pattern on the inner surface of a mold by blasting or embossing by etching.
  • Patent Document 2 describes a method of coloring a concave portion with, for example, black ink in order to image a concave / convex pattern with good contrast, and then removing the ink adhering to the convex portion by dummy casting.
  • An object of the present invention is to provide an apparatus and a method for solving the above-described problems.
  • An object matching apparatus is An imaging unit that captures an uneven pattern on the surface of the ink layer formed on the target object; A recognition unit for recognizing the target object based on the image of the uneven pattern obtained by the imaging; including.
  • An identifier generation device for forming an ink layer on a target object;
  • An imaging unit for imaging the uneven pattern on the surface of the ink layer;
  • a registration unit for registering the imaged result in a storage unit; including.
  • An object management system includes: An object management system having an identifier generation device and an object collation device,
  • the identifier generation device includes: A generating unit for forming an ink layer on a target object; An imaging unit for imaging the uneven pattern on the surface of the ink layer; A registration unit for registering the imaged result in a storage unit; Including The object matching device An imaging unit that images a concavo-convex pattern on the surface of the ink layer formed on the target object; A recognition unit for recognizing the target object based on the image of the uneven pattern obtained by the imaging; including.
  • An object matching method includes: Image the uneven pattern on the surface of the ink layer formed on the target object, The target object is recognized based on the image of the concavo-convex pattern obtained by the imaging.
  • An identifier generation method includes: Forming an ink layer on the target object, Imaging the uneven pattern on the surface of the ink layer, The imaged result is registered in the storage unit.
  • An object management method includes: An object management method comprising an identifier generation step and an object matching step, In the identifier generating step, Forming an ink layer on the target object, Imaging the uneven pattern on the surface of the ink layer, Register the imaged result in the storage unit, In the object matching step, Imaging the uneven pattern on the surface of the ink layer formed on the target object, The target object is recognized based on the image of the concavo-convex pattern obtained by the imaging.
  • a program according to another aspect of the present invention is: Computer A recognition unit for recognizing the target object based on an image of the concavo-convex pattern obtained by imaging the concavo-convex pattern on the surface of the ink layer formed on the target object; To function as.
  • An imaging adapter is: An imaging adapter that can be attached to a camera that captures an uneven pattern on the surface of an ink layer formed on an object, A light source that projects light onto the surface of the ink layer from oblique directions of a predetermined angle from a normal direction facing the ink layer; A housing having a dark area in a direction other than the direction of the light source as viewed from the ink layer, receiving light projected from the light source and specularly reflected on the surface of the ink layer, and displaying the uneven pattern as a light-dark image A housing having an opening for observing as Is provided.
  • the present invention having the above-described configuration can realize a simple device and method that can use individual differences of minute uneven patterns for authentication and verification.
  • the surface of the ink layer formed on the object is not completely flat but has fine irregularities.
  • the surface of an ink layer made of quick-drying ink or a non-fast-drying ink layer that is strongly heated in the initial stage of the drying process has a crater-like shape due to a phenomenon called cratering. Unevenness occurs. Cratering is a phenomenon in which a dry film is formed only on the surface layer of the ink film, and the solvent component is confined in the lower layer, and this solvent component breaks through the surface film and blows out, creating a crater pattern (cratering pattern). .
  • the diameter of the crater (size in the ink layer plane direction) was 10 ⁇ m or more and 100 ⁇ m or less.
  • the main feature of the present invention is that the fine cratering pattern formed on the surface of the ink layer is used for individual identification.
  • the present invention will be described with reference to some embodiments.
  • the ink in this specification not only means an ink in a narrow sense but also includes a paint.
  • the individual identification device 100 is a device that generates an ink layer 111 on an object 110.
  • the individual identification device 100 is a device that captures the concavo-convex pattern 112 in order to acquire an image of the concavo-convex pattern 112 on the surface of the generated ink layer 111.
  • the individual identification device 100 is a device that generates an individual identifier used for individual identification of the object 110 from the acquired image of the uneven pattern 112.
  • the individual identification device 100 is a device that registers the generated individual identifier in the storage unit 120.
  • the object 110 is an object that generates a concavo-convex pattern 112 for individual identification.
  • the object 110 is, for example, an industrial product or a product package.
  • the object 110 may be a personal belonging (such as a business card or a notebook) or a part of the personal body (such as a finger).
  • the individual identification device 100 includes a generation unit 101, an imaging unit 102, and a registration unit 103 as main functional units.
  • the generation unit 101 has a function of generating the ink layer 111 on the object 110.
  • the generation unit 101 generates the ink layer 111 by applying only one or several drops of ink on the object 110.
  • the generation unit 101 can include an ink application unit such as a commercially available ink pen or inkjet.
  • the ink used for forming the ink layer 111 is preferably a quick-drying ink.
  • “Quick-Dry Marker Dry Ace” manufactured and sold by Teranishi Chemical Industry Co., Ltd. can be used as the ink pen, but it goes without saying that it is not limited thereto.
  • Ink pens designed specifically for the present invention may be used.
  • the generation unit 101 selects a non-absorbing surface from among a plurality of surfaces of the object 110, and an ink layer on the non-absorbing surface 111 is formed. By doing so, it is possible to reliably generate a large number of irregularities due to the cratering phenomenon on the surface of the ink layer.
  • the generation unit 101 when generating the ink layer 111 on the object 110, the generation unit 101 preferably applies or drops ink to the same location or a nearby location on the object 110 a plurality of times within a limited short time. . In other words, the generation unit 101 repeatedly strikes the surface of the object 110 with the pen tip of the ink pen. By doing so, the thickness of the ink layer applied on the object 110 increases, so that a large number of irregularities due to the cratering phenomenon can be generated reliably on the surface of the ink layer. In addition, by doing this, even when the ink layer 111 is formed on the non-absorbing surface on the object 110, it is possible to promote the occurrence of unevenness due to the cratering phenomenon on the surface of the ink layer.
  • FIG. 2 shows an example of an ink application unit that can be used as the generation unit 101.
  • a pen tip portion 123 made of a felt material is attached to a through hole provided in a tip portion of a pen-shaped housing 122.
  • the housing 122 is filled with ink 124.
  • the ink 124 is desirably quick-drying.
  • the color of the ink 124 may be arbitrary, such as black or red.
  • the ink 124 filled in the housing 122 soaks into the pen tip 123 by capillary action. When the tip of the nib portion 123 comes into contact with the object, ink that oozes from the nib portion 123 is applied onto the object.
  • a cap 127 attached to the rear end of the housing 122 is detachable so that the ink 124 can be replenished.
  • FIG. 3 shows another example of an ink application unit that can be used as the generation unit 101.
  • the ink application unit 141 in this example includes an inkjet nozzle 142, a drive unit 143, and an ink tank 144.
  • the ink tank 144 is preferably filled with quick-drying ink.
  • the drive unit 143 ejects ink supplied from the ink tank 144 from the tip of the inkjet nozzle 142 to the outside at a predetermined pressure for a predetermined time.
  • the ink ejected to the outside adheres to the surface of the object and forms an ink layer.
  • FIG. 4 is a configuration diagram illustrating an example of the generation unit 101.
  • an ink application unit 152 is detachably mounted in a through hole provided in the plate 151.
  • the ink application unit 152 is, for example, an ink pen.
  • the ink application unit 152 includes a return spring 153 that always applies an elastic force upward to the ink application unit 152.
  • Above the ink application unit 152 there is provided a drive unit 155 that moves the piston rod 154 of the cylinder up and down when a predetermined command is received from the outside.
  • the housing of the driving unit 155 and the plate 151 are connected by a connecting member 157. As shown in FIG.
  • the ink application unit 152 resists the elastic force of the return spring 153 from the standby position to the ink application position. To descend.
  • the ink application unit 152 is an ink pen
  • the pen tip comes into contact with the surface of the object 110 and only one drop of ink is applied to the surface of the object 110.
  • the ink application unit 152 is an ink jet
  • the tip of the ink jet nozzle is positioned at an appropriate height for ejecting ink, and when ink is ejected from that position, ink is applied to the surface of the object 110.
  • the piston rod 154 is raised by the drive unit 155, the ink application unit 152 is raised to the standby position by the elastic force of the return spring 153.
  • the cylinder using the piston rod 154 of the cylinder is used to move the ink application unit 152 from the standby position to the ink application position and from the ink application position to the standby position.
  • a stroke mechanism was used.
  • the mechanism for moving the ink applying unit 152 up and down is not limited to the cylinder stroke mechanism, and other mechanisms such as a linear motion mechanism using a linear guide and a ball screw may be used.
  • the imaging unit 102 has a function of imaging the uneven pattern 112 on the surface of the ink layer 111 in conjunction with the generation of the ink layer 111 by the generation unit 101.
  • the imaging unit 102 has a function of acquiring an image of the concavo-convex pattern 112 after the concavo-convex pattern 112 is stabilized. Further, the imaging unit 102 has a function of extracting a feature amount dependent on the uneven pattern 112 as an individual identifier of the object 110 from the acquired image of the uneven pattern 112.
  • FIG. 6 is a configuration diagram illustrating an example of the imaging unit 102.
  • the imaging unit 102 in this example includes a camera 161, a detection unit 162, a determination unit 163, and an image processing unit 164.
  • the detection unit 162, the determination unit 163, and the image processing unit 164 can be realized by dedicated hardware, and in addition to the computer 500 having the arithmetic processing unit 501 and the storage unit 502 as shown in FIG. Can be realized.
  • the program 503 is read by the computer 500 when the computer 500 is started up and the like, and controls the operation of the computer 500 to realize the detection unit 162, the determination unit 163, and the image processing unit 164 on the computer 500.
  • the camera 161 can be configured by, for example, a camera using a CCD (Charge Coupled Devices) image sensor or a CMOS (Complementary Metal Oxide) image sensor.
  • CCD Charge Coupled Devices
  • CMOS Complementary Metal Oxide
  • the detection unit 162 has a function of detecting whether or not the generation of the ink layer 111 has been performed by the generation unit 101.
  • the determination unit 163 has a function of determining whether the uneven pattern 112 on the surface of the ink layer 111 is stable.
  • the image processing unit 164 has a function of acquiring an image of the concavo-convex pattern 112 after it is determined that the concavo-convex pattern 112 is stable.
  • the image processing unit 164 has a function of extracting a feature amount for individual identification from the acquired image and outputting it to the registration unit 103.
  • configuration examples of the detection unit 162, the determination unit 163, and the image acquisition unit 164 will be described in detail.
  • the detection unit 162 can be configured to detect whether or not the ink layer 111 has been generated by detecting the movement of the generation unit 101 when generating the ink layer 111 using a sensor. For example, when the generation unit 101 performs a predetermined movement when generating the ink layer 111, the detection unit 162 can be configured to detect the predetermined movement of the generation unit 101. For example, when the generation unit 101 has the configuration shown in FIGS. 4 and 5, the limit switch 156 can detect that the ink application unit 152 has been lowered to the ink application position.
  • the detection unit 162 can be configured to detect whether the generation of the ink layer 111 has been performed by the generation unit 101 by exchanging signals with the generation unit 101. For example, when the generation unit 101 has the configuration shown in FIGS. 4 and 5, a command given from the outside to the drive unit 155 is also given to the detection unit 162 at the same time. The detecting unit 162 detects that the ink layer 111 has been generated by the generating unit 101 when a command is received.
  • the detection unit 162 can be configured to detect whether or not the ink layer 111 has been generated by detecting a visual change of a predetermined region on the object 110 by image recognition. For example, the detection unit 162 acquires an image of a predetermined area on the object 110 by the camera 161 through the image processing unit 164 at regular time intervals. As the predetermined area, an area including a place where the ink layer 111 is to be generated is desirable. Next, the detection unit 162 calculates the difference between the predetermined feature amount extracted from the acquired single image and the predetermined feature amount extracted from the single image acquired immediately before, and the absolute value of the calculated difference Is compared to a threshold.
  • an average value of luminance values of the image can be used, but is not limited thereto.
  • the detection unit 162 determines that the generation unit 101 has generated the ink layer. Otherwise, the generation unit 101 has not generated the ink layer. to decide.
  • the region where the ink layer T111 is scheduled to be generated before and after the generation of the ink layer 111 changes greatly visually. Therefore, it is possible to detect whether or not the generation unit 101 has generated the ink layer 111 by detecting such a visual change.
  • FIG. 8 is a configuration diagram illustrating an example of the determination unit 163.
  • the determination unit 163 determines whether or not the uneven pattern 112 is stable based on a time-series image obtained by capturing the uneven pattern 112 on the surface of the ink layer 111 generated on the object 110 in time series. Judged by image processing.
  • the determination unit 163 includes an image acquisition unit 171, a feature point extraction unit 172, a local feature amount calculation unit 173, a reference value storage unit 174, a feature point storage unit 175, a local feature amount storage unit 176, a comparison unit 177, and a collation unit 178. ⁇ 179 and a determination result output unit 180.
  • the image acquisition unit 171 acquires a time-series image of the concavo-convex pattern 112 generated on the object 110 directly from the camera 161 or indirectly through the image processing unit 164.
  • An image identifier i such as an image number is assigned to the acquired image.
  • the feature point extraction unit 172 applies a differential filter (sobel or the like) to the two-dimensional luminance distribution of the image acquired by the image acquisition unit 171 so that a characteristic point (such as an edge or a corner) from the image ( (Feature point) is extracted.
  • the local feature amount calculation unit 173 calculates a feature amount (local feature amount) related to the feature point from the extracted feature point and the pixel values of the neighboring pixels.
  • a method of assigning an orientation (direction) for each feature point based on the gradient and gradient direction of the distribution of pixel values in a two-dimensional array for example, a SIFT (Scale Invariant Feature Transform) feature amount, BRIEF (Binary) (Robust Independent Elementary Features) can be used, but is not limited thereto.
  • SIFT Scale Invariant Feature Transform
  • BRIEF Binary Independent Elementary Features
  • the reference value storage unit 174 stores a reference value for comparison with the number of feature points extracted from each image of the time series image. This reference value is determined based on the number of feature points required to obtain a predetermined collation accuracy.
  • the feature point storage unit 175 stores feature point information (number of feature points, positions in the image, and the like) extracted from each image of the time-series image in association with the image identifier i.
  • the local feature amount storage unit 176 stores the local feature amount calculated from each feature point of each image of the time series image in association with the image identifier i.
  • the comparison unit 177 calculates the number of feature points extracted from the image and the reference value stored in the reference value storage unit 174. If the number of extracted feature points exceeds the reference value, a set of the image identifier i and the value 1 is output, and if not, a set of the image identifier i and the value 0 is output.
  • the collation unit 178 Each time the feature point is extracted from the image having the image identifier i in the feature point extraction unit 172, the collation unit 178 has information about the extracted feature point and the time stored in the feature point storage unit 175.
  • the feature point information extracted from the previous image (image identifier i-1) is collated, and a score representing the degree of similarity between the two is calculated.
  • the collation unit 178 calculates a score using the number of feature points corresponding between both images.
  • the collation part 178 normalizes the number of the feature points corresponding between both images with the number of feature points of a collation image, and calculates a score.
  • the score calculation method is not limited to these.
  • the collation unit 178 compares the calculated score with a threshold value, and outputs a pair of an image identifier i and a value 1 if they are more similar to the threshold value. Output a set.
  • the matching unit 179 extracts the extracted local feature amount and the temporal feature stored in the local feature amount storage unit 176. Then, the local feature amount extracted from the previous image (image identifier i-1) is collated, and a score indicating the degree of similarity between the two is calculated. For example, the collation unit 179 calculates a score using the number of local feature amounts corresponding between both images. Or the collation part 179 normalizes the number of the local feature-value corresponding between both images with the number of the local feature-value of a collation image, and calculates a score.
  • the collation part 179 calculates a score by the Hamming distance between the codes showing both local feature-values.
  • the score calculation method is not limited to these.
  • the collation unit 179 compares the calculated score with a threshold value, and outputs a pair of an image identifier i and a value 1 if they are more similar to the threshold value. Output a set.
  • FIG. 9 is a graph for explaining the operation of the comparison unit 177 in the determination unit 163, where the horizontal axis indicates the elapsed time after ink application, the vertical axis indicates the number of detected feature points, and the black circles constitute a time-series image. The number of feature points acquired from individual images is shown. A one-dot chain line is a reference value stored in the reference value storage unit 174. As shown in FIG. 9, generally, the number of feature points extracted from an image increases as the time after ink application elapses. The reason for this is that the ink changes in a direction of increasing the number of feature points due to a cratering phenomenon until the ink is dried.
  • the comparison unit 177 outputs the set of the image identifier and the value 0 for the images captured at the times t1 and t2, and sets the set of the image identifier and the value 1 for the image captured at the time t3. Output.
  • FIG. 10 is a graph for explaining the operation of the collation units 178 and 179 in the determination unit 163, where the horizontal axis represents the elapsed time after ink application, the vertical axis represents the collation score, and the black circles constitute a time-series image.
  • the collation score between each image and the immediately preceding image is shown.
  • the alternate long and short dash line is a threshold value.
  • the example shown in FIG. 10 is a case where the feature point information of two images and the local feature amount are more similar as the matching score is larger.
  • the matching score with the immediately preceding image becomes higher.
  • the reason for this is that although the cratering phenomenon occurs actively at the initial stage of the ink drying process, the temporal change of the uneven pattern is severe, but the ink is almost dry and the cratering phenomenon gradually occurs. This is because such a change does not occur if it decreases. Therefore, a certain threshold value is set, and it is determined that the pattern is stable when the score between the previous image exceeds the threshold value.
  • the matching score between the two images captured at time t1 and time t2 is below the threshold, but the matching score between the image captured at time t3 and the image captured at time t2. Exceeds the threshold.
  • the collation units 178 and 179 output the set of the image identifier and value 0 for the image captured at time t2, and the set of the image identifier and value 1 for the image captured at time t3. Output.
  • the matching units 178 and 179 unconditionally output a value 0 for the image at time t1 that is first captured after ink application.
  • FIG. 11 is a graph for explaining the operation of the collation units 178 and 179 in the determination unit 163, where the horizontal axis represents the elapsed time after ink application, the vertical axis represents the collation score, and the black circles constitute a time-series image.
  • the collation score between each image and the previous image is shown.
  • the alternate long and short dash line is a threshold value.
  • the example shown in FIG. 11 is a case where the feature point information and local feature amount of two images are more similar as the collation score is smaller.
  • the collation score between the two images captured at time t1 and time t2 exceeds the threshold, but the collation score between the image captured at time t3 and the image captured at time t2. Is below the threshold.
  • the collation units 178 and 179 output the set of the image identifier and value 0 for the image captured at time t2, and the set of the image identifier and value 1 for the image captured at time t3. Output.
  • the matching units 178 and 179 unconditionally output a value 0 for the image at time t1 that is first captured after ink application.
  • FIG. 12 is a configuration diagram illustrating another example of the determination unit 163.
  • the determination unit 163 in this example includes a timer 181.
  • the timer 181 is activated when the detection unit 162 detects that the ink layer 111 has been generated, and outputs a signal indicating that the uneven pattern 112 has become stable after the elapse of a predetermined period thereafter. To do.
  • the predetermined period is determined based on the result of actually measuring the time required from the time when ink is applied to the object 110 to generate the ink layer 111 until the uneven pattern 112 is stabilized.
  • FIG. 13 is a configuration diagram illustrating an example of the image processing unit 164.
  • the image processing unit 164 of this example includes an image acquisition unit 191, a feature point extraction unit 192, a local feature amount calculation unit 193, and a local feature amount output unit 194.
  • the image acquisition unit 191 has a function of acquiring an image of the uneven pattern 112 on the surface of the ink layer 111 formed on the object 110 using the camera 161. For example, the image acquisition unit 191 acquires a single image by transmitting a command to release the shutter to the camera 161 and reading an image obtained by the camera 161 according to the command from the camera 161. The image acquisition unit 191 transmits the acquired image to a subsequent processing unit, or outputs the acquired image to the detection unit 162 or the determination unit 163.
  • the feature point extraction unit 192 and the local feature amount calculation unit 193 have the same functions as the feature point extraction unit 172 and the local feature amount calculation unit 173 shown in FIG. That is, the feature point extraction unit 192 extracts a characteristic point (feature point) at an edge or a corner from the image acquired by the image acquisition unit 191. Further, the local feature amount calculation unit 193 calculates a feature amount (local feature amount) related to the feature point from the extracted feature point and the pixel values of the neighboring pixels.
  • the local feature quantity output unit 194 outputs the local feature quantity calculated by the local feature quantity calculation unit 193 to the registration unit 103 as an individual identifier of the object 110.
  • the registration unit 103 has a function of registering the individual identifier of the object 110 input from the imaging unit 102 in the storage unit 120.
  • the registration unit 103 preferably registers the individual identifier of the object 110 in the storage unit 120 in association with the attribute information of the object 110 (such as the name and number of the object 110).
  • the storage unit 120 may be a local memory of a computer that constitutes the identifier generation apparatus 100, or may be a remote memory connected via a network such as the Internet.
  • FIG. 14 is a flowchart showing a procedure of an identifier generation method executed using the identifier generation apparatus 100.
  • the identifier generation method according to the present embodiment will be described with reference to FIG.
  • the generation unit 101 of the identifier generation apparatus 100 generates the ink layer 111 by applying ink on the object 110 (step S101). For example, in the case of the generation unit 101 shown in FIG. 4, the drive unit 155 strokes the piston rod 154 downward to lower the ink application unit 152 from the standby position to the ink application position.
  • the ink application unit 152 is an ink pen
  • the pen tip comes into contact with the surface of the object 110 and only one drop of ink is applied to the surface of the object 110.
  • the tip of the ink jet nozzle is positioned at an appropriate height for ejecting ink, and when ink is ejected from that position, ink is applied to the surface of the object 110. Thereafter, the piston rod 154 is raised by the drive unit 155 to raise the ink application unit 152 to the standby position.
  • the imaging unit 102 of the identifier generation device 100 detects whether the generation unit 101 has generated an ink layer (step S102). Specifically, the imaging unit 102 detects whether or not an ink layer has been generated by detecting a predetermined movement of the generation unit 101 using the detection unit 162. Alternatively, the imaging unit 102 uses the detection unit 162 to detect whether or not an ink layer has been generated by detecting a visual change in the ink layer generation scheduled region on the object 110 by image recognition. To do. Alternatively, the imaging unit 102 detects whether or not the ink layer has been generated by exchanging commands to the driving unit 155 with the generation unit 101 using the detection unit 162.
  • the imaging unit 102 determines whether or not the uneven pattern 112 on the surface of the generated ink layer has become stable (step S103). Specifically, the image capturing unit 102 uses the determination unit 163 to extract feature points extracted from a plurality of images constituting a time-series image of the uneven pattern obtained by capturing the uneven pattern in time series after the ink layer is generated. Is compared with a reference value, and when an image having more feature points than the reference value is obtained, it is determined that the pattern has become stable.
  • the imaging unit 102 uses the determination unit 163 to extract a plurality of feature points extracted from a plurality of images constituting a time-series image of the uneven pattern obtained by capturing the uneven pattern in time series after the ink layer is generated.
  • the temporally succeeding image obtained by extracting the information on the plurality of feature points that is substantially equal to the information on the plurality of feature points extracted from the temporally preceding image is obtained. It is determined that a stable state has been reached.
  • the imaging unit 102 uses the determination unit 163 to determine that the uneven pattern has become stable when a predetermined time has elapsed since the generation of the ink layer.
  • the imaging unit 102 detects that the uneven pattern 111 is in a stable state
  • the imaging unit 102 acquires an image of the uneven pattern 111 after the pattern is stabilized (step S104). Specifically, the imaging unit 102 acquires an image of the concavo-convex pattern 111 using the camera 161 after detecting that the concavo-convex pattern 111 is in a stable state using the image processing unit 164. .
  • the imaging unit 102 omits the operation of acquiring again because the stabilized pattern has already been acquired by the image acquisition unit 171.
  • the imaging unit 102 extracts a local feature amount for individual identification from the acquired uneven pattern image (step S105). Specifically, the imaging unit 102 uses the image processing unit 164 to extract a local feature amount for individual identification from a stable uneven pattern image. Alternatively, when the determination unit 163 has the configuration illustrated in FIG. 8, the imaging unit 102 has already extracted the local feature amount for individual identification from the image of the pattern after stabilization by the image acquisition unit 171. The operation of extracting again is omitted.
  • the registration unit 103 registers the individual identifier extracted by the imaging unit 102 in the storage unit 120 (step S106). Specifically, the registration unit 103 registers the local feature amount of the object 110 in the storage unit 120 in association with attribute information (such as the name and number of the object 110) of the object 110.
  • attribute information such as the name and number of the object 110
  • the registration unit 103 reads the local feature amount extracted from the image of the stable pattern from the local feature amount storage unit 176 of the image processing unit 164, and the object 110 Are registered in the storage unit 120 in association with the attribute information.
  • the image of the uneven pattern in an unstable state is not completely the same as the image of the uneven pattern in a stable state thereafter, but is different. For this reason, if an image of an uneven pattern in an unstable state is used for individual identification of an object, the accuracy of individual identification deteriorates.
  • the imaging unit 102 acquires an image of the concavo-convex pattern after the concavo-convex pattern on the surface of the ink layer generated by the generation unit 101 is in a stable state. Therefore, according to the present embodiment, it is possible to prevent an image of an uneven pattern in an unstable state from being acquired, thereby improving the accuracy of individual identification.
  • settings such as an appropriate magnification, focusing, illumination lighting, shooting distance, and exposure for the pattern at the time of imaging are optimally set in advance. Therefore, it is possible to prevent an imaging error because timely adjustment is unnecessary.
  • the identifier generating apparatus 200 generates the ink layer 211 on the object 210 and the uneven pattern on the surface of the ink layer 211 on the upper surface of the belt conveyor 205 for each feed pitch. Acquisition of images.
  • the object 210 and the ink layer 211 are the same as the object 110 and the ink layer 111 shown in FIG.
  • the belt conveyor 205 is also called a conveyance path.
  • the identifier generation device 200 includes a generator 201, an imager 202, a dryer 203, a controller 204, a belt conveyor driver 206, optical switches 207 and 208, and a storage device 209.
  • the generator 201 and the image pickup device 202 are disposed above the belt conveyor 205 with an interval in the longitudinal direction of the belt conveyor 205.
  • the belt conveyor driver 206 is composed of a stepping motor that pitch-feeds the belt conveyor 205.
  • the optical switch 207 is a sensor that detects whether or not an object 211 exists on the belt conveyor 205 immediately below the generator 201.
  • the optical switch 208 is a sensor that detects whether or not the object 211 exists on the belt conveyor 205 immediately below the image pickup device 202.
  • the generator 201 is a unit that generates the ink layer 211 for the object 210 on the conveyor belt 205 positioned immediately below the generator 201.
  • the generator 201 can be realized by the generation unit 101 as illustrated in FIG. 4, for example.
  • the dryer 203 is a unit that rapidly accelerates drying of the ink layer 211.
  • the dryer 203 is attached so that high-temperature hot air can be blown against the ink layer 211 of the object 210 on the conveyor belt 205 positioned immediately below the image pickup device 202.
  • the dryer 203 may be a type that blows out warm air, or may be a heating type such as a heater.
  • the imager 202 is a unit that determines whether the uneven pattern on the surface of the ink layer of the object 210 on the conveyor belt 205 positioned immediately below the imager 202 is stable, and acquires an image of the stabilized uneven pattern. is there.
  • the imager 202 is a unit that extracts a feature amount for individual identification from the acquired image of the uneven pattern and outputs it to the controller 204.
  • the controller 204 is a unit that controls the entire identifier generation apparatus 200.
  • the controller 204 is connected to the generator 201, the imager 202, the dryer 203, the belt conveyor driver 206, the optical sensors 207 and 208, and the storage device 209 by wire or wirelessly, and transmits commands to them. To control their operation or receive signals from them.
  • FIG. 16 is a flowchart showing an example of the operation of the identifier generation method executed by the identifier generation apparatus 200.
  • the identifier generation method according to the present embodiment will be described with reference to FIG.
  • a plurality of objects 210 are placed on the belt conveyor 205 at a pitch equal to the interval between the generator 201 and the imager 202.
  • the controller 204 drives the belt conveyor 205 by one pitch by issuing a command to the belt conveyor driver 206, and positions one object 210 on the belt conveyor 205 immediately below the generator 201 (S201).
  • the optical switch 207 detects that the object 210 has been positioned on the belt conveyor 205 immediately below the generator 201. At this time, the object 210 that has existed immediately below the generator 201 moves to the position immediately below the imager 202 in a state where the ink layer 211 has been generated.
  • the optical switch 208 detects that the object 210 has been positioned on the belt conveyor 205 immediately below the imager 202.
  • the controller 204 generates an ink layer 211 for the object 210 on the belt conveyor 205 immediately below the generator 201 by issuing a command to the generator 201 (S202).
  • the generator 101 shown in FIG. 4 is used as the generator 201
  • the drive unit 155 strokes the piston rod 154 downward to lower the ink application unit 152 from the standby position to the ink application position.
  • the ink application unit 152 is an ink pen type
  • the pen tip comes into contact with the surface of the object 210 on the belt conveyor 205, and only one drop of ink is applied to the surface of the object 210.
  • the tip of the ink jet nozzle is positioned at an appropriate height for ejecting ink, and when ink is ejected from that position, ink is applied to the surface of the object 210 on the belt conveyor 205. Is granted. Thereafter, the piston rod 154 is raised by the drive unit 155 to raise the ink application unit 152 to the standby position.
  • the controller 204 detects whether or not the object 210 on which the ink layer has been generated exists immediately below the image pickup device 202 (S203). For example, in the controller 204, the object 210 is detected immediately below the image pickup device 202 by the optical sensor 208, and the object 210 is detected immediately below the generator 201 by the optical sensor 207 before moving by one pitch. If the command to generate the ink layer is transmitted, it is determined that the object 210 on which the ink layer has been generated exists immediately below the image pickup device 202. Next, if the object 210 does not exist immediately below the image pickup device 202 at that time (S203), the control unit 204 returns to the process of step S201.
  • control unit 204 first issues a command to the dryer 203 to the object 210 on the belt conveyor 205 immediately below the image pickup device 202. High-temperature hot air is blown onto the generated ink layer 211 (step S204).
  • the controller 204 issues a command to the image pickup device 202 to determine whether or not the uneven pattern on the surface of the ink layer 211 generated on the object 210 on the belt conveyor 205 immediately below the image pickup device 202 is stable. (S205). Next, when the controller 204 determines that the concavo-convex pattern is stable (S206), the controller 204 issues an instruction to the image pickup device 202, thereby displaying an image of the response pattern generated on the object 210 on the belt conveyor 205 immediately below the image pickup device 202. Obtain (S207). Next, the controller 204 issues a command to the image pickup device 202 to extract a feature amount for individual identification from the acquired image of the uneven pattern 211 (S208).
  • the controller 204 registers the feature quantity for individual identification extracted by the imaging device 202 in the storage device 209 as the individual identifier of the object 210 (S209). Then, the process returns to step S201.
  • the determination of whether or not the concavo-convex pattern is stable in step S205, the acquisition of the concavo-convex pattern image in step S207, the extraction of the feature amount for individual identification in step S208, and the registration of the individual identifier in step S209 are the first implementation. It is implemented by a method similar to the method described in the embodiment.
  • processing such as pattern generation, pattern drying, and pattern image acquisition can be performed for each feed pitch on the upper surface of the belt conveyor 205.
  • the ink layer 211 generated on the object 210 by the dryer 203 is rapidly heated and dried, the cratering phenomenon is easily generated, and the surface of the ink layer 210 is finely formed by the cratering phenomenon.
  • the uneven pattern can be sufficiently formed.
  • an identifier generating apparatus 300 is a small and lightweight portable identifier generating apparatus.
  • the identifier generation device 300 includes a hollow outer case 302 having three legs 301, a disk-like plate 303 that is rotatably provided to the outer case 302, and ink attached to the plate 303.
  • An application unit 304, an imager 305, and a dryer 306 are provided.
  • the ink application unit 304 can use, for example, an ink pen or an ink jet.
  • the ink application unit 304, the image pickup device 305, and the drying device 306 are mounted on the outer peripheral portion of the plate 303 at predetermined intervals in the circumferential direction. Specifically, the ink application unit 304, the image pickup device 305, and the dryer 306 are detachably attached to a plurality of through holes provided at predetermined intervals in the circumferential direction on the outer peripheral portion of the plate 303. The dryer 306 is attached so that high-temperature hot air can be blown against the ink layer on the object existing immediately below the image pickup device 305.
  • the ink application unit 304 includes a return spring 307 that applies an elastic force to the ink application unit 304 upward at all times.
  • the lower ends of the ink application unit 304, the image pickup device 305, and the dryer 306 are located at a position away from the plane by a predetermined distance. As described above, the lengths and attachment angles of the three leg portions 301 are adjusted.
  • a stepping motor 309 connected to the rotating shaft 308 of the plate 303, a drive unit 311 that moves the piston rod 310 of the cylinder up and down, a controller 312 that controls the entire identifier generation apparatus 300, A battery 315 for supplying power is provided.
  • the piston rod 310 of the drive unit 311 is mounted at a location separated from the rotation shaft 308 by the same distance as the distance between the ink application unit 304 and the rotation shaft 308.
  • An operation button 313 and an LED 314 are provided on the upper surface of the exterior case 302.
  • the controller 204 is connected to the ink applying unit 304, the image pickup device 305, the dryer 306, the stepping motor 309, the driving unit 311, the operation button 313, and the LED 314 through signal lines, and exchanges signals and commands with them. To control their operation and receive signals from them.
  • the signal line and the power line that connect the controller 204 and the battery 315 to the ink application unit 304, the image pickup device 305, and the dryer 306 can be routed through the rotation shaft 308 with the rotation shaft 308 having a hollow structure. it can.
  • the controller 204 has a wireless interface for registering the individual identifier of the object extracted by the image pickup device 305 in an external storage device (not shown).
  • FIG. 19 is a flowchart showing an example of the operation of the identifier generation method executed by the identifier generation device 300.
  • an identifier generation method according to the present embodiment will be described with reference to FIG.
  • the user When generating a concavo-convex pattern on an object, acquiring an image of the generated concavo-convex pattern, and extracting an individual identifier from the acquired image of the concavo-convex pattern, the user places the exterior case 302 on the surface of the object on which the concavo-convex pattern is to be generated. The leg part 301 is placed. Then, the user turns on the operation button 313.
  • the controller 312 When the operation button 313 is turned on (S301 in FIG. 19), the controller 312 turns on the LED 314 to notify the user that it is operating (S302). Next, the controller 312 issues a command to the stepping motor 309 to position the plate 303 at the pattern generation position (S303).
  • the pattern generation position is a position where the ink application unit 304 comes directly below the piston rod 310.
  • the controller 312 generates an ink layer on the object by the ink application unit 304 (S304). Specifically, a command is issued to the drive unit 311 to lower the piston rod 310 by a predetermined amount. As a result, the ink application unit 152 is pushed by the piston rod 310 and descends to the ink application position against the elastic force of the return spring 307.
  • the ink application unit 304 is an ink pen
  • the pen tip comes into contact with the object surface, and ink is applied to the object surface.
  • the ink application unit 304 is an ink jet type
  • the tip of the ink jet nozzle is positioned at an appropriate height for ejecting ink, and ink is ejected from the ink jet nozzle in response to a command from the controller 312.
  • Ink is applied to the surface of the object.
  • the controller 312 finishes generating the ink layer, it issues a command to the drive unit 311 to raise the piston rod 310 to the original position.
  • the ink application unit 304 is raised by the elastic force of the return spring 307.
  • the controller 312 issues a command to the stepping motor 309 to position the plate 303 at the pattern imaging position (S305).
  • the pattern imaging position is a position where the imaging device 305 is located directly below the piston rod 310.
  • the controller 312 drives the dryer 306 to blow hot air on the generated pattern (S306).
  • the controller 312 determines whether or not the generated concavo-convex pattern is stable by issuing a command to the image pickup device 305 (S307).
  • the controller 312 issues an instruction to the image pickup device 305 to acquire the generated concavo-convex pattern image (S309).
  • the controller 312 issues a command to the image pickup device 305 to extract a feature amount for individual identification from the acquired pattern image (S310).
  • the controller 312 registers the extracted feature quantity in a storage device (not shown) as an individual identifier of the object (S311).
  • the determination of whether or not the concavo-convex pattern is stable in step S307, the acquisition of the concavo-convex pattern image in step S309, the extraction of the feature amount for individual identification in step S310, and the registration of the individual identifier in step S311 are the first implementation. It is implemented by a method similar to the method described in the embodiment.
  • controller 312 turns off the LED 314 to notify the user that the operation has ended (S312). Then, the controller 312 ends the process of FIG. Note that the controller 312 may be configured to issue a command to the stepping motor 309 to position the plate 303 at the pattern generation position before the processing of FIG.
  • a concavo-convex pattern is generated on an object with a simple operation of selecting time and place, and feature quantities for individual identification are extracted from an image obtained by imaging the concavo-convex pattern.
  • a portable individual identification device 300 that can be provided can be provided.
  • an object collation apparatus 400 has a function of identifying and collating an object 410.
  • the object 410 is an object to be identified and verified, such as an industrial product or a product package.
  • FIG. 20 only one object 410 to be identified / verified is shown, but in general, a large number of objects 410 are objects of identification / collation.
  • the multiple objects 410 may be a collection of the same type of objects having the same external shape (for example, specific electronic parts produced on a certain production line), or different having different external shapes and sizes.
  • a set of different types of objects for example, different external shapes and electronic parts having functions produced in different production lines) may be mixed.
  • An ink layer 411 is formed on any surface of the object 410.
  • Such an ink layer 411 is formed on the object 410 by, for example, the identifier generation device 100, 200, or 300 according to the first to third embodiments of the present invention.
  • the object collation apparatus 400 includes an imaging unit 401 and a recognition unit 402 as main functional units.
  • the imaging unit 401 has a function of capturing the concavo-convex pattern 412 in order to acquire an image of the concavo-convex pattern 412 on the surface of the ink layer 411 formed on the object 410.
  • the imaging unit 401 has a function of extracting an individual identifier from the image of the concavo-convex pattern 412 obtained by imaging.
  • the recognition unit 402 compares the individual identifier of the object 410 extracted by the imaging unit 401 with the individual identifier of the registered object stored in the storage unit 420, and based on the comparison result, identifies and collates the object. It has a function to make a determination.
  • individual identifiers of registered objects are stored in advance using the individual identifier registration apparatus 100, 200, or 300 according to the first to third embodiments of the present invention.
  • FIG. 21 is a flowchart showing the procedure of the object matching method executed using the object matching device 400.
  • the object matching method according to the present embodiment will be described with reference to FIGS.
  • the imaging unit 401 of the object matching apparatus 400 captures an image of the concave / convex pattern 412 on the surface of the ink layer 411 formed on the object 410, and acquires an image of the concave / convex pattern 412 (step S301).
  • the imaging unit 401 extracts a feature amount dependent on the uneven pattern 412 from the acquired image of the uneven pattern 412 as an individual identifier of the object 410 (step S302).
  • the recognition unit 402 of the object matching device 400 compares the individual identifier of the extracted object 410 with the individual identifier of the registered object stored in the storage unit 420, and based on the comparison result, Are identified and verified (step S303). For example, when the individual identifier is an N-dimensional vector, the recognition unit 402 calculates the similarity (or distance) between the individual identifier of the object 410 and the individual identifier vector of the registered object, and the similarity is equal to or greater than a threshold value. If (if the distance is less than or equal to the threshold), it is determined that the two individual identifiers are the same, and the other is not the same.
  • the recognition unit 402 finds an individual identifier of a registered object that is the same as the individual identifier of the object 410, or finishes comparison with the individual identifiers of all registered objects, whichever comes first As a condition, the repetition of the object identification / collation process is terminated. Then, the recognition unit 402 outputs a recognition result 430.
  • the recognition result 430 may indicate whether or not identification / collation is successful. Moreover, the recognition result 430 may have the attribute value of the object memorize
  • the recognition result 430 may be displayed on a display device (not shown) or stored in a storage device (not shown).
  • FIG. 22 is a configuration diagram illustrating an example of the imaging unit 401.
  • the imaging unit 401 in this example includes a camera 431, an imaging adapter 432, and an image processing unit 433.
  • the image processing unit 433 can be realized by a computer 500 and a program 503 having an arithmetic processing unit 501 and a storage unit 502 as shown in FIG.
  • the program 503 is read by the computer 500 when the computer 500 is started up, and the image processing unit 433 is realized on the computer 500 by controlling the operation of the computer 500.
  • the imaging adapter 432 emphasizes the local inclination of the concavo-convex pattern 412 on the surface of the ink layer 411 as a shadow, and is used by being attached to the camera 431 so that the concavo-convex pattern 412 can be stably imaged. It is.
  • an imaging assistance tool described in Patent Document 1 can be used.
  • Other preferable configuration examples of the imaging adapter 432 will be described later.
  • the camera 431 can be constituted by a camera using a CCD image sensor or a CMOS image sensor, for example.
  • the camera 431 captures an uneven pattern 412 on the surface of the ink layer 411 formed on the object 410 through the attached imaging adapter 432 as a color image or a monochrome image.
  • the camera 431 outputs an image of the concavo-convex pattern 412 obtained by imaging to the image processing unit 433.
  • the image processing unit 433 uses the camera 431 to acquire an image of the concavo-convex pattern 412 on the surface of the ink layer 411 on the object 410 and extract a feature amount dependent on the concavo-convex pattern 412 as an individual identifier of the object 410.
  • imaging adapter 432 and the image processing unit 433 will be described in detail.
  • FIG. 23 is a side view illustrating a first configuration example of the imaging adapter 412.
  • the imaging adapter 412 in this example has a housing 441 made of a cylindrical black plastic having an opening at the lower end.
  • the inner diameter of the housing 441 is approximately 28 mm, and the distance from the lower end of the housing 441 to the inside of the upper surface is approximately 25 mm.
  • a camera 431 is mounted in a direction in which the lower part is imaged from the central opening 442.
  • a diffusion plate 444 made of milky white plastic is attached to the upper surface of the housing 441 so as to cover the donut-shaped opening 443.
  • a ring-shaped light source 445 that emits light toward the diffusion plate 444 is attached to the upper surface of the diffusion plate 444. This realizes a rotationally symmetric light source in which the portion of the donut-shaped opening 443 shown in FIG. 24 shines brightly.
  • the housing 441 When the ink layer 411 formed on the object 410 is imaged by the camera 431, the housing 441 is pressed against the object 410 so that the ink layer 411 is located at the center of the lower end of the housing 441.
  • the size of the ink layer 411 is about 2 mm at the maximum.
  • the angle range from 0.7 ° to 25.6 ° becomes brighter, otherwise it becomes darker.
  • the opening 442 on the upper surface of the housing 441 is closed by the camera 431, and the inner surface of the housing 441 other than the donut-shaped opening 443 is a black region made of black plastic. Therefore, when the inner surface of the housing 441 is observed from the ink layer 411, the bright and dark state of the inner surface is as shown in the schematic diagram of FIG. As a result, light incident on the ink layer 411 from a low angle can be blocked, and diffuse reflected light resulting from such low angle light can be reduced. As a result, as shown in the schematic diagram of FIG. 26, it is possible to relatively emphasize the specular reflection light by the light projected on the ink layer 411 from diagonally upward four directions.
  • a part of the surface corresponding to the predetermined angle range from the normal direction facing the predetermined area on the object surface is a black background, and the other angle ranges.
  • region surface which diffuses and emits the light irradiated from the light source part is used.
  • the camera 431 images the ink layer 411 from a distance of approximately 25 mm.
  • the size of the captured image is VGA (640 ⁇ 480 pixels) and the imaging resolution is 100 to 160 pixels / mm, the size is 1 to 1.6 pixels / 10 ⁇ m. Therefore, a cratering pattern having a diameter of 10 ⁇ m or more is captured by at least one pixel. That is, the cratering pattern can be imaged as a light / dark pattern.
  • black plastic is used for the housing 441.
  • the material is not limited to black plastic as long as it does not transmit and reflect light, and other materials such as paper may be used.
  • the housing 441 may be made of a material such as transparent or translucent plastic, and a portion corresponding to the black plastic in FIG. 23 may be painted black so that the structure has the same function as the housing 441 in FIG. Further, the same structure may be realized by using milky white plastic on the entire surface of the housing 441 and painting the portion corresponding to the black plastic in FIG. 23 in black. In that case, the milky white plastic 444 may be omitted.
  • the wavelength band of light emitted from the light source 445 is preferably a wavelength band where the reflectance of the ink layer 411 is low. That is, the light source 445 is preferably a light source having a radiation intensity with a relatively high spectral distribution in a wavelength band where the spectral reflectance of the ink layer 411 has a relatively low spectral reflectance. Specifically, when the ink layer 411 is formed using blue ink, a red light source is desirable.
  • the camera 431 combined with the light source 445 in the wavelength band where the reflectance of the ink layer 411 is low is preferably a monochrome camera.
  • FIG. 28 is a side view illustrating a second configuration example of the imaging adapter 412.
  • the imaging adapter 412 shown in FIG. 28 is different from the imaging adapter shown in FIG. 23 in that the width of the lower end and the upper end is the same in that the casing 441 has a truncated cone shape that narrows toward the lower end.
  • the other configuration is the same as that of the imaging adapter shown in FIG.
  • the imaging adapter 412 shown in FIG. 28 can easily align the ink layer 411 and the tip (lower end) of the imaging adapter 412 during imaging, and can be pressed and imaged even if the surface of the object 410 is a curved surface. There is.
  • FIG. 29 is a side view illustrating a third configuration example of the imaging adapter 412.
  • the imaging adapter 412 shown in FIG. 29 moves the position of the light source 445 closer to the ink layer 411 while keeping the distance between the camera 431 and the ink layer 411, and adjusts the housing 441 to two lower sides having different outer shapes and inner diameters accordingly.
  • the imaging adapter shown in FIG. 23 is different from the imaging adapter shown in FIG. 23 in that it is configured by the casing 441-1 and the upper casing 441-2, and the other configuration is the imaging adapter shown in FIG. Is the same.
  • the lower casing 441-1 has a cylindrical shape with openings at the lower end and the upper end, and the height thereof is approximately 12.5 mm.
  • a doughnut-shaped diffusion plate 444 whose outer shape is equal to the outer shape of the lower housing 441-1 is horizontally attached to the upper end of the lower housing 441-1.
  • an upper housing 441-2 whose outer shape is equal to the inner diameter of the diffusion plate 444 is erected so as not to protrude into the lower housing 441-1.
  • a donut-shaped light source 445 is attached on the diffusion plate 444.
  • At least a portion having a width of 2 mm is exposed in the lower housing 441-1.
  • the imaging adapter 412 shown in FIG. 29 has an advantage that the adapter can be downsized as compared with the imaging adapter 412 shown in FIG.
  • FIG. 30 is a side view illustrating a fourth configuration example of the imaging adapter 412.
  • the imaging adapter 412 shown in FIG. 30 has the same width at the lower end and the upper end in that the lower casing 441-1 is shaped like a truncated cone that narrows toward the lower end.
  • the other configuration is the same as that of the imaging adapter shown in FIG.
  • the imaging adapter 412 shown in FIG. 30 has an advantage that the ink layer 411 and the tip (lower end) of the imaging adapter 412 can be easily aligned at the time of imaging, and even if the surface of the object 410 is a curved surface, the image can be pressed. There is.
  • FIG. 31 is a side view illustrating a fifth configuration example of the imaging adapter 412.
  • the imaging adapter 412 shown in FIG. 31 is cylindrical in that it has a structure in which a part of a side surface of a cylindrical housing 441 is configured by a diffusion plate 444 and a ring-shaped light source 445 is attached to the outer peripheral surface of the diffusion plate 444.
  • 23 is different from the imaging adapter shown in FIG. 23 in which the diffusion plate 444 and the ring-shaped light source 445 are attached to the periphery of the upper surface of the casing 441, and the other configuration is the same as that of the imaging adapter shown in FIG. is there.
  • the imaging adapter 412 shown in FIG. 31 has an advantage that the outer shape can be narrowed. Since the diffusion plate 444 is attached to the side surface of the cylindrical housing 441, the light directly incident on the camera 431 from the diffusion plate 444 increases. However, since such direct incident light is always a constant amount, It can be easily removed.
  • FIG. 32 is a side view illustrating a sixth configuration example of the imaging adapter 412.
  • the imaging adapter 412 shown in FIG. 32 has a structure in which a circular polarizing filter 446 is attached inside the upper surface of the housing 441 so as to cover the openings 442 and 443, and there is no such polarizing filter 446.
  • 23 is the same as the imaging adapter shown in FIG. 23 except for the configuration shown in FIG.
  • the polarizing filter 446 is a linearly polarizing plate that converts the passed light into light that vibrates only in one direction.
  • the polarizing filter 446 By attaching the polarizing filter 446 to the housing 441 so as to cover the opening 442, the light projected from the light source 445 through the diffusion plate 444 passes through the polarizing filter 446 and is projected to the ink layer 411 as linearly polarized light. . Further, by attaching the polarizing filter 446 to the housing 441 so as to cover the opening 442, the camera 431 receives specular reflection on the surface of the ink layer 411 and receives light that has passed through the polarizing filter 446.
  • the portion covering the opening 443 of the polarizing filter 446 functions as a polarizer
  • the portion covering the opening 442 functions as an analyzer
  • the polarizer and the analyzer satisfy the parallel Nicols condition. Accordingly, among the light projected from the light source 445 through the polarizing filter 446, the light component specularly reflected by the ink layer 411 passes through the polarizing filter 446 and is received by the camera 431, but the diffusely reflected light component is polarized. It can be blocked by the filter 446 so that it is not received by the camera 431.
  • the imaging adapter shown in FIG. 32 includes the polarizing filter 446, so that it is possible to reduce the diffuse reflection light input to the camera 431, and as a result, it is possible to relatively emphasize the specular reflection light from the ink layer 411. .
  • one polarizing filter 446 is used for a polarizer and an analyzer satisfying parallel Nicols, the configuration is simplified. However, instead of the single polarizing filter 446, a donut-shaped polarizer covering the opening 443 and an analyzer covering the opening 442 may be used.
  • FIG. 33 is a side view illustrating a seventh configuration example of the imaging adapter 412.
  • the imaging adapter 412 shown in FIG. 33 has a structure in which a circular polarizing filter 446 is attached so as to cover the lower end opening of the diffusion plate 444 and the upper housing 441-2, and thus there is no such polarizing filter 446.
  • 30 is the same as the imaging adapter shown in FIG. 30 except for the configuration shown in FIG.
  • the light projected from the light source 445 through the diffusing plate 444 passes through the polarizing filter 446 and becomes linearly polarized ink. Project to layer 411. Further, by attaching the polarizing filter 446 so as to cover the lower end opening of the upper housing 441-2, the camera 431 is specularly reflected on the surface of the ink layer 411 and receives the light that has passed through the polarizing filter 446.
  • the light component specularly reflected by the ink layer 411 passes through the polarizing filter 446 and is received by the camera 431, but the diffusely reflected light component is polarized. It can be blocked by the filter 446 so that it is not received by the camera 431.
  • the imaging adapter shown in FIG. 33 includes the polarization filter 446, so that it is possible to reduce diffusely reflected light input to the camera 431, and as a result, it is possible to relatively emphasize the specularly reflected light from the ink layer 411. .
  • one polarizing filter 446 is used for a polarizer and an analyzer satisfying parallel Nicols, the configuration is simplified. However, instead of the single polarizing filter 446, a donut-shaped polarizer that covers the diffusion plate 444 and an analyzer that covers the opening of the upper housing 441-2 at an arbitrary position may be used.
  • FIG. 34 is a side view showing an eighth configuration example of the imaging adapter 412.
  • the imaging adapter 412 shown in FIG. 34 has a circular polarizing filter 446 attached to the side closer to the ink layer 411 than the diffusion plate 444 formed on the side surface of the cylindrical casing 441 so as to cover the opening of the casing 441.
  • This configuration is different from the imaging adapter shown in FIG. 31 that does not have such a polarizing filter 446, and the other configuration is the same as that of the imaging adapter shown in FIG.
  • the light projected from the light source 445 through the diffusion plate 444 passes through the polarization filter 446.
  • the linearly polarized light is projected onto the ink layer 411.
  • the camera 431 receives the light that has been specularly reflected from the surface of the ink layer 411 and passed through the polarizing filter 446. Accordingly, among the light projected from the light source 445 through the polarizing filter 446, the light component specularly reflected by the ink layer 411 passes through the polarizing filter 446 and is received by the camera 431, but the diffusely reflected light component is polarized. It can be blocked by the filter 446 so that it is not received by the camera 431.
  • the imaging adapter shown in FIG. 34 includes the polarization filter 446, so that it is possible to reduce diffuse reflection light input to the camera 431, and as a result, it is possible to relatively emphasize the specular reflection light from the ink layer 411. .
  • one polarizing filter 446 is used for a polarizer and an analyzer satisfying parallel Nicols, the configuration is simplified. However, instead of one polarizing filter 446, a donut-shaped polarizer disposed horizontally on the side closer to the ink layer 411 than the diffusion plate 444, and a housing 441 closer to the ink layer 411 than the diffusion plate 444. An analyzer covering the opening may be used.
  • a polarization filter 446 similar to that of the imaging adapter shown in FIG. 32 may be attached to the imaging adapter shown in FIG.
  • a polarization filter 446 similar to the imaging adapter shown in FIG. 33 may be attached to the imaging adapter shown in FIG.
  • FIG. 35 shows an example of the configuration of the image processing unit 433.
  • the image processing unit 433 in this example includes a screen memory 451, an ink layer extraction unit 452, an image memory 453, an exposure control unit 454, and an individual identifier extraction unit 455.
  • the screen memory 451 has a function of storing a frame image including an image of the ink layer 411 taken by the camera 431.
  • the ink layer extraction unit 452 has a function of extracting a partial image corresponding to the region of the ink layer 411 from the frame image stored in the screen memory 451.
  • the ink layer extraction unit 452 determines, for example, a threshold value based on a color or hue that divides the two based on the difference between the color or hue of the surface of the object 410 on which the ink layer 411 is formed and the color or hue of the ink layer 411.
  • the image portion of the ink layer 411 is extracted by processing (binarization processing).
  • the present invention is not limited to such a method, and clustering in a feature space, division / merging method, and the like, which are known as image region division methods, may be used.
  • the image memory 453 has a function of storing a partial image corresponding to the area of the ink layer 411 extracted by the ink layer extraction unit 452.
  • the exposure control unit 454 has a function of controlling the exposure of the camera 431 based on the brightness of the partial image corresponding to the area of the ink layer 411 stored in the image memory 453. For example, the exposure control unit 454 averages the pixel values in the region of the ink layer 411 and calculates the average luminance of the partial image. Next, if the average brightness is a predetermined value, the exposure control unit 454 maintains the exposure control amount as the current exposure control amount. If the average luminance is outside the predetermined value, the exposure control amount is set to match the predetermined value. Is calculated. The predetermined value can be set to 128 when the luminance value of the pixel is 0 to 256, for example.
  • the exposure control unit 454 sends an exposure control signal 456 corresponding to the calculated exposure control amount to the camera 431.
  • the exposure control signal 456 is used to adjust any one, two, three, or all of the aperture amount of the lens of the camera 431, the shutter speed, the frame rate, and the gain of the amplification unit that amplifies the video signal. It may be a signal.
  • the individual identifier extraction unit 455 has a function of acquiring a partial image corresponding to the region of the ink layer 411 after exposure control by the exposure control unit 454 from the image memory 453 and extracting the individual identifier of the object 410 from the acquired partial image. Have.
  • FIG. 36 shows an example of the configuration of the individual identifier extraction unit 455.
  • the individual identifier extraction unit 455 in this example includes a preprocessing unit 461, a feature point extraction unit 462, a local feature amount calculation unit 463, and a local feature amount output unit 464.
  • the pre-processing unit 461 reads a partial image corresponding to the area of the ink layer 411 from the image memory 453 and performs pre-processing. Specifically, first, the preprocessing unit 461 calculates the average color of the ink layer 411 by averaging the pixel values in the region of the ink layer 411. For example, in the case of a color image in which the color of one pixel is expressed by a combination of three color information of red, green, and blue, the pre-processing unit 461 has red, green, and red for all the pixels in the ink layer 411 area. The average value of the blue color information is calculated.
  • the preprocessing unit 461 subtracts the average value of the calculated red, green, and blue color information from the red, green, and blue color information of each pixel in the region of the ink layer 411. By doing so, the weight of the color channel different from the ink color is increased, and the light component specularly reflected by the surface of the ink layer 412 can be emphasized.
  • the feature point extraction unit 462, the local feature amount calculation unit 463, and the local feature amount output unit 464 have the same functions as the feature point extraction unit 192, the local feature amount calculation unit 193, and the local feature amount output unit 194 in FIG. Have. That is, the feature point extraction unit 462 extracts a characteristic point (feature point) at an edge or a corner from a partial image corresponding to the pre-processed ink layer 411 region. In addition, the local feature amount calculating unit 463 calculates a feature amount (local feature amount) related to the feature point from the extracted feature point and the pixel values of the neighboring pixels. The local feature quantity output unit 464 outputs the local feature quantity calculated by the local feature quantity calculation unit 463 to the recognition unit 402 as an individual identifier of the object 410.
  • the present embodiment it is possible to realize a simple object matching apparatus and method that can use individual differences of minute uneven patterns for authentication and matching.
  • the reason is that the fine uneven pattern on the surface of the ink layer is used for object recognition / collation.
  • an object management system 600 has a function of managing an individual identifier for identifying / collating an object 610.
  • the object 610 is an object to be managed with an individual identifier such as an industrial product or a product package.
  • an individual identifier such as an industrial product or a product package.
  • FIG. 37 only one object 610 to which an individual identifier is assigned for management is illustrated, but in general, a large number of objects 610 are to be managed.
  • the multiple objects 610 may be a collection of the same type of objects having the same outer shape (for example, specific electronic parts produced on a certain production line), or different having different outer shapes and sizes.
  • a set of different types of objects for example, different external shapes and electronic parts having functions produced in different production lines) may be mixed.
  • the object management system 600 includes an identifier generation device 601 and an object collation device 602.
  • the identifier generation device 601 has a function of forming the ink layer 611 on the object 610, a function of imaging the concave / convex pattern 612 on the surface of the ink layer 611, and a function of registering the individual identifier of the captured result in the storage device 620.
  • the identifier generation device 601 is, for example, the first of the present invention.
  • the identifier generating apparatus 100 according to the embodiment is configured.
  • the object matching device 602 has a function of imaging the uneven pattern 612 on the surface of the ink layer 611 formed on the object 610 and a function of recognizing the object 610 based on the image of the uneven pattern 612 obtained by imaging. .
  • the object matching device 602 is constituted by, for example, an object matching device 400 according to the fourth embodiment of the present invention.
  • FIG. 38 is a flowchart showing the procedure of the individual identifier management method executed using the object management system 600.
  • the object management method according to the present embodiment will be described with reference to FIGS. 37 and 38.
  • the identifier generating device 601 forms the ink layer 611 on the object 610 (S401).
  • the identifier generation device 601 captures an image of the uneven pattern 612 on the surface of the ink layer 611 formed on the object 610, and acquires an image of the uneven pattern 612 (S402).
  • the identifier generation device 601 extracts the individual identifier from the acquired uneven pattern image (S403).
  • the identifier generation device 601 registers the extracted individual identifier in the storage device 620 as the individual identifier of the object 610.
  • the object matching device 602 captures an image of the uneven pattern 612 on the surface of the ink layer 611 formed on the object 610, and acquires an image of the uneven pattern 612 (S405). Next, the object matching device 602 extracts an individual identifier from the acquired image of the uneven pattern 612 (S406). Next, the object collation device 602 compares the extracted individual identifier with the individual identifier of the object registered in the storage device 620, and recognizes / collates the object 610 based on the comparison result (S407). Next, the object collation apparatus 602 outputs the recognition / collation result (S408).
  • the processing of steps S405 to S408 by the object matching device 602 is executed following the processing of steps S401 to S404 by the identifier generation device 601.
  • the present invention is not limited to such a procedure, and the processing of steps S401 to S404 by the identifier generation device 601 may be repeated a plurality of times for different objects 610.
  • the processing of steps S405 to S408 by the object matching device 602 may be repeated a plurality of times for different objects 610.
  • the processing of steps S401 to S404 by the identifier generation device 601 and the processing of steps S405 to S408 by the object matching device 602 may be performed on different objects 610 in parallel.
  • a simple object management system and method that can use individual differences of minute uneven patterns for authentication and verification can be realized. This is because the fine uneven pattern on the surface of the ink layer is used for individual identification of an object.
  • an object matching apparatus 700 includes an imaging unit 701 and a recognition unit 702.
  • the imaging unit 701 has a function of capturing a concavo-convex pattern in order to acquire an image of the concavo-convex pattern on the surface of an ink layer formed on an object (not shown).
  • the imaging unit 701 has a function of extracting an individual identifier from an image of a concavo-convex pattern obtained by imaging.
  • the imaging unit 701 can be configured, for example, in the same manner as the imaging unit 401 in FIG. 20, but is not limited thereto.
  • the recognition unit 702 compares the individual identifier of the object extracted by the imaging unit 701 with the individual identifier of the registered object stored in a storage unit (not shown), and based on the comparison result, identifies and collates the object. It has a function to make a determination.
  • the recognition unit 402 can be configured in the same manner as the recognition unit 402 in FIG. 20, but is not limited thereto.
  • the object collation apparatus 700 operates as follows. That is, the imaging unit 701 of the object matching device 700 captures an image of the uneven pattern on the surface of the ink layer formed on the object (not shown) and acquires the image. Next, the imaging unit 701 extracts an individual identifier from the image of the concavo-convex pattern obtained by imaging. Next, the recognition unit 702 compares the individual identifier of the object extracted by the imaging unit 701 with the individual identifier of the registered object stored in the storage unit (not shown), and based on the comparison result, Check for matching.
  • the present invention can be used in the fields of object recognition, authentication, and collation, and in particular, can be applied to the field of forming a concavo-convex pattern on an object and performing object authentication / collation using the concavo-convex pattern.
  • Object collation device including [Appendix 2] The imaging unit A light source that projects light onto the surface of the ink layer from oblique directions of a predetermined angle from a normal direction facing the ink layer; A housing having a dark area in a direction other than the direction of the light source as viewed from the ink layer; A camera that receives light projected from the light source and specularly reflected from the surface of the ink layer, and acquires the uneven pattern as a bright and dark image;
  • the object matching device according to attachment 2.
  • a ring-shaped light source is used as the light source.
  • the object collating device according to appendix 2 or 3.
  • the housing has an opening for observing the ink layer from the camera and an opening for projecting light from the light source to the ink layer, and has a cylindrical shape whose inner surface is black.
  • the object matching device according to any one of appendices 2 to 4.
  • the housing has a truncated cone shape that narrows toward the lower end.
  • the object matching device according to any one of appendices 2 to 5.
  • the casing includes a polarizer that converts light projected from the light source into linearly polarized light and enters the ink layer, and an analyzer that passes light specularly reflected from the surface of the ink layer and enters the camera. And further having The object matching device according to any one of appendices 2 to 6.
  • the polarizer and the analyzer are constituted by a single polarizing filter.
  • As the light source a light source having a high radiation intensity with a spectral distribution in a wavelength band having a low spectral reflectance in the spectral reflectance characteristics of the ink layer is used.
  • the object matching device according to any one of appendices 2 to 8.
  • the imaging unit An image processing unit that performs a process of subtracting a value corresponding to an average color of the ink layer from the value of each pixel of the color image of the uneven pattern acquired by the camera;
  • the object collating device according to any one of appendices 2 to 9.
  • the imaging unit An image processing unit that detects a partial image corresponding to the region of the ink layer from an image acquired by the camera and controls exposure of the camera based on brightness of the partial image;
  • the object matching device according to any one of appendices 2 to 10.
  • the concavo-convex pattern includes crater-shaped concavo-convex having a diameter of 10 ⁇ m or more and 100 ⁇ m or less randomly formed on the surface of the ink layer by a cratering phenomenon.
  • the object matching device according to any one of appendices 1 to 11.
  • a generating unit for forming an ink layer on a target object An imaging unit for imaging the uneven pattern on the surface of the ink layer; A registration unit for registering the imaged result in a storage unit;
  • An identifier generation device including: [Appendix 14] The generating unit uses a quick-drying ink to form the ink layer.
  • the identifier generation device according to attachment 13.
  • the generation unit applies ink a plurality of times within a short time to the same location of the target object to form the ink layer, The identifier generation device according to attachment 13 or 14.
  • the generating unit rapidly heats the applied ink after applying ink to the target object;
  • the imaging unit acquires an image after stabilization of the uneven pattern,
  • the imaging unit includes a determination unit that determines whether the uneven pattern is stable.
  • the determination unit performs the determination based on a time-series image of the uneven pattern obtained by capturing the uneven pattern in time series after the ink layer is generated.
  • the determination unit compares the number of feature points extracted from a plurality of images constituting the time-series image of the concavo-convex pattern obtained by capturing the concavo-convex pattern in time series after the ink layer is generated with a reference value Making the determination based on The identifier generation device according to attachment 18.
  • the imaging unit acquires the image in which the number of feature points is larger than the reference value as an image after stabilization of the uneven pattern, The identifier generation device according to attachment 20.
  • the determination unit is a result of comparing information on a plurality of feature points extracted from a plurality of images constituting a time-series image of the concavo-convex pattern obtained by imaging the concavo-convex pattern in time series after the ink layer is generated. Making the determination based on The identifier generation device according to attachment 18.
  • the imaging unit acquires, as an image after stabilization of the concave-convex pattern, a temporally subsequent image obtained by extracting information on a plurality of feature points that is substantially equal to information on a plurality of feature points extracted from a temporally preceding image. To The identifier generation device according to attachment 22.
  • the determination unit performs the determination based on whether a predetermined time has elapsed since the generation of the ink layer.
  • the identifier generation device according to attachment 18.
  • An object management system having an identifier generation device and an object collation device, The identifier generation device includes: A generating unit for forming an ink layer on a target object; An imaging unit for imaging the uneven pattern on the surface of the ink layer; A registration unit for registering the imaged result in a storage unit; Including The object matching device An imaging unit that images a concavo-convex pattern on the surface of the ink layer formed on the target object; A recognition unit for recognizing the target object based on the image of the uneven pattern obtained by the imaging; Object management system including [Appendix 26] Image the uneven pattern on the surface of the ink layer formed on the target object, Recognizing the target object based on the image of the concavo-convex pattern obtained by the imaging; Object matching method.
  • [Appendix 27] Forming an ink layer on the target object, Imaging the uneven pattern on the surface of the ink layer, Register the imaged result in a storage unit; Identifier generation method.
  • An object management method comprising an identifier generation step and an object matching step, In the identifier generating step, Forming an ink layer on the target object, Imaging the uneven pattern on the surface of the ink layer, Register the imaged result in the storage unit, In the object matching step, Imaging the uneven pattern on the surface of the ink layer formed on the target object, Recognizing the target object based on the image of the concavo-convex pattern obtained by the imaging; Object management method.
  • [Appendix 29] Computer A recognition unit for recognizing the target object based on an image of the concavo-convex pattern obtained by imaging the concavo-convex pattern on the surface of the ink layer formed on the target object; Program to function as.
  • An imaging adapter that can be attached to a camera that captures an uneven pattern on the surface of an ink layer formed on an object, A light source that projects light onto the surface of the ink layer from oblique directions of a predetermined angle from a normal direction facing the ink layer; A housing having a dark area in a direction other than the direction of the light source as viewed from the ink layer, receiving light projected from the light source and specularly reflected on the surface of the ink layer, and displaying the uneven pattern as a light-dark image A housing having an opening for observing as An imaging adapter comprising:
  • Image processing unit 171 ... Image acquisition unit 172 ... Feature point extraction unit 173 ... Local feature amount calculation unit 174 ... Reference value storage unit 175 ... Feature point storage unit 176 ... Local feature amount storage unit 177 ... Comparison unit 178 ... Verification unit 179 ... Verification unit 180 ... Determination result Power unit 181 ... Timer 191 ... Image acquisition unit 192 ... Feature point extraction unit 193 ... Local feature amount calculation unit 194 ... Local feature amount output unit 200 ... Identifier generation device 201 ... Generator 202 ... Image sensor 203 ... Dryer 204 ... Control Device 205 ... Belt conveyor 206 ... Belt conveyor driver 207 ... Optical switch 208 ... Optical switch 209 ...
  • Storage device 210 ... Object 211 ... Ink layer 300 ... Identifier generating device 301 ... Leg 302 ... Exterior case 303 ... Plate 304 ... Ink application Unit 305 ... Imager 306 ... Dryer 307 ... Return spring 308 ... Rotating shaft 309 ... Stepping motor 310 ... Piston rod 311 ... Drive unit 312 ... Controller 313 ... Operation button 314 ... LED 315: Power supply 400 ... Object collation device 401 ... Imaging unit 402 ... Recognition unit 410 ... Object 411 ... Ink layer 412 ... Concavity / convex pattern 420 ... Storage unit 430 ... Recognition result 431 ... Camera 432 ... Imaging adapter 433 ...
  • Image processing unit 441 Housing Body 441-1 ... Lower housing 441-2 ... Upper housing 442 ... Opening 443 ... Opening 444 ... Diffuser 445 ... Light source 446 ... Polarizing filter 451 ... Screen memory 452 ... Ink layer extraction unit 453 ... Image memory 454 ... Exposure Control unit 455 ... individual identifier extraction unit 461 ... preprocessing unit 462 ... feature point extraction unit 463 ... local feature quantity calculation unit 464 ... local feature quantity output unit 500 ... computer 501 ... arithmetic processing unit 502 ... storage unit 503 ... program 600 ... Object management system 601 ... identifier generation device 602 ... object matching device 603 ... recognition result 610 ... object 611 The ink layer 612 ... the concavo-convex pattern 620 ... storage device 700 ... object matching system 701 ... imaging unit 702 ... recognition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

物体管理システムは、識別子生成装置と物体照合装置とを有する。識別子生成装置は、対象物体にインク層を形成する生成部と、インク層の表面の凹凸パターンを撮像する撮像部と、撮像された結果を記憶部に登録する登録部とを含む。物体照合装置は、対象物体に形成されたインク層の表面の凹凸パターンを撮像する撮像部と、撮像して得られた凹凸パターンの画像に基づいて対象物体を認識する認識部とを含む。

Description

物体照合装置
 本発明は、物体照合装置、識別子生成装置、物体管理システム、物体照合方法、識別子生成方法、物体管理方法、プログラム、および撮像アダプタに関する。
 物の微小な凹凸パターンの個体差を認証や照合に利用する試みがなされている。
 例えば特許文献1には、物体の表面に形成された梨地紋様による凹凸パターンを物体の認証や照合に利用することが記載されている。ここで、梨地紋様は、デザインとして形成されている場合のみならず、物体の識別又は照合のために、故意に照合領域に梨地紋様を形成した場合を含むとしている。さらに、梨地紋様は、金属や合成樹脂等への加工処理によって施された梨地紋様のみならず、皮革製品に表面処理(例えば、シボ加工)することにより得られたシワ紋様(シボ)等も含むとしている。そして特許文献1には、そのような微細な凹凸パターンをコントラスト良く撮影するための撮影補助具、撮影装置、撮影方法が記載されている。
 また、例えば特許文献2には、ブラスト加工やエッチングによるシボ加工によって鋳型の内表面に凹凸パターンを形成する方法が記載されている。また特許文献2には、凹凸パターンをコントラスト良く撮像するために、凹部に例えば黒色インクを充填して着色し、そのとき凸部に付着したインクをダミー鋳造によって除去する方法が記載されている。
WO2014/021449 特開2016-200446号公報
 しかしながら、金属や合成樹脂等への加工処理によって或いはブラスト加工やエッチングによるシボ加工によって、物体の表面に微細な凹凸パターンを形成するためには、大掛かりな加工装置が必要になる。そのため、物体の微小な凹凸パターンの個体差を認証や照合に手軽に利用するのが困難であった。
 本発明の目的は、上述した課題を解決する装置および方法を提供することにある。
 本発明の一形態に係る物体照合装置は、
 対象物体に形成されたインク層の表面の凹凸パターンを撮像する撮像部と、
 前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する認識部と、
を含む。
 本発明の他の形態に係る識別子生成装置は、
 対象物体にインク層を形成する生成部と、
 前記インク層の表面の凹凸パターンを撮像する撮像部と、
 前記撮像された結果を記憶部に登録する登録部と、
を含む。
 本発明の他の形態に係る物体管理システムは、
 識別子生成装置と物体照合装置とを有する物体管理システムであって、
 前記識別子生成装置は、
 対象物体にインク層を形成する生成部と、
 前記インク層の表面の凹凸パターンを撮像する撮像部と、
 前記撮像された結果を記憶部に登録する登録部と、
を含み、
 前記物体照合装置は、
 前記対象物体に形成された前記インク層の表面の凹凸パターンを撮像する撮像部と、
 前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する認識部と、
を含む。
 本発明の他の形態に係る物体照合方法は、
 対象物体に形成されたインク層の表面の凹凸パターンを撮像し、
 前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する。
 本発明の他の形態に係る識別子生成方法は、
 対象物体にインク層を形成し、
 前記インク層の表面の凹凸パターンを撮像し、
 前記撮像された結果を記憶部に登録する。
 本発明の他の形態に係る物体管理方法は、
 識別子生成工程と物体照合工程とを有する物体管理方法であって、
 前記識別子生成工程では、
 対象物体にインク層を形成し、
 前記インク層の表面の凹凸パターンを撮像し、
 前記撮像された結果を記憶部に登録し、
 前記物体照合工程では、
 前記対象物体に形成された前記インク層の表面の凹凸パターンを撮像し、
 前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する。
 本発明の他の形態に係るプログラムは、
 コンピュータを、
 対象物体に形成されたインク層の表面の凹凸パターンを撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する認識部、
として機能させる。
 本発明の他の形態に係る撮像アダプタは、
 物体上に形成されたインク層の表面の凹凸パターンを撮像するカメラに装着可能な撮像アダプタであって、
 前記インク層に正対する法線方向から所定の角度の斜め四方から前記インク層の表面に光を投射する光源と、
 前記インク層から見て前記光源の方向以外の方向を暗領域とした筐体であって、前記光源から投射され、前記インク層の表面で鏡面反射した光を受光し、前記凹凸パターンを明暗像として観測するための開口を有する筐体と、
を備える。
 本発明は、上述した構成を有することにより、微小な凹凸パターンの個体差を認証や照合に利用できる簡便な装置および方法を実現することができる。
本発明の第1の実施形態に係る識別子生成装置の構成例を示す図である。 本発明の第1の実施形態に係る識別子生成装置における生成部として使用可能なインク付与ユニットの一例を示す図である。 本発明の第1の実施形態に係る識別子生成装置における生成部として使用可能なインク付与ユニットの他の例を示す図である。 本発明の第1の実施形態に係る識別子生成装置における生成部の構成例を示す図である。 本発明の第1の実施形態に係る識別子生成装置における生成部のインク付与ユニットがインク層生成位置まで降下した状態を示す図である。 本発明の第1の実施形態に係る識別子生成装置における撮像部の一例を示す構成図である。 本発明を実現するためのコンピュータの一例を示す図である。 本発明の第1の実施形態に係る識別子生成装置における撮像部に備わる判定部の構成例を示す図である。 本発明の第1の実施形態に係る識別子生成装置における撮像部に備わる判定部に含まれる比較部の動作を説明するグラフの一例である。 本発明の第1の実施形態に係る識別子生成装置における撮像部に備わる判定部に含まれる照合部の動作を説明するグラフの一例である。 本発明の第1の実施形態に係る識別子生成装置における撮像部に備わる判定部に含まれる照合部の動作を説明するグラフの他の例である。 本発明の第1の実施形態に係る識別子生成装置における撮像部に備わる判定部の他の構成例を示す図である。 本発明の第1の実施形態に係る識別子生成装置における撮像部に備わる画像処理部の構成例を示す図である。 本発明の第1の実施形態に係る識別子生成装置を用いて実行する識別子生成方法の手順を示すフローチャートである。 本発明の第2の実施形態に係る識別子生成装置の構成例を示す図である。 本発明の第2の実施形態に係る識別子生成装置を用いて実行する識別子生成方法の手順を示すフローチャートである。 本発明の第3の実施形態に係る識別子生成装置を斜め下から見た外観斜視図である。 本発明の第3の実施形態に係る識別子生成装置を斜め上から見た外観斜視図である。 本発明の第3の実施形態に係る識別子生成装置を用いて実行する識別子生成方法の手順を示すフローチャートである。 本発明の第4の実施形態に係る物体照合装置の構成例を示す図である。 本発明の第4の実施形態に係る物体照合装置を用いて実行する物体照合方法の手順を示すフローチャートである。 本発明の第4の実施形態に係る物体照合装置における撮像部の構成例を示す図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる撮像アダプタの第1の構成例を示す側面図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる撮像アダプタの第1の構成例の筐体の平面図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる撮像アダプタの第1の構成例の作用を説明する図であって、インク層から撮像アダプタの内面を観測したときの明暗状態を示す模式図である。 インク層に上方斜め四方から投射する光による鏡面反射光を模式的に示す図である。 特許文献1に記載された撮影補助具の作用を説明する図であって、インク層から撮像補助具の内面を観測したときの明暗状態を示す模式図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる撮像アダプタの第2の構成例を示す側面図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる撮像アダプタの第3の構成例を示す側面図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる撮像アダプタの第4の構成例を示す側面図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる撮像アダプタの第5の構成例を示す側面図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる撮像アダプタの第6の構成例を示す側面図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる撮像アダプタの第7の構成例を示す側面図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる撮像アダプタの第8の構成例を示す側面図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる画像処理部の構成例を示す図である。 本発明の第4の実施形態に係る物体照合装置における撮像部に備わる画像処理部内の個体識別子抽出部の構成例を示す図である。 本発明の第5の実施形態に係る物体管理システムの構成例を示す図である。 本発明の第5の実施形態に係る物体管理システムを用いて実行する物体管理方法の手順を示すフローチャートである。 本発明の第6の実施形態に係る物体照合装置の構成例を示す図である。
 物体上に形成されたインク層の表面は、完全な平でなく、微細な凹凸が存在する。特に、速乾性インクによるインク層、或いは非速乾性インクであっても乾燥過程の初期段階で強く加熱されたインク層の表面には、クレータリング(cratering)と呼ばれる現象によって噴火口(クレーター)状の凹凸が発生する。クレータリングは、インク皮膜の表層だけに乾燥皮膜が形成し、下層に溶剤分が閉じ込められ、この溶剤分が表面皮膜を突き破って吹き出すためにクレーター状の紋様(クレータリング紋様)ができる現象である。クレーターの直径(インク層平面方向のサイズ)は、発明者による観察によれば、10μm以上、100μm以下であった。本発明は、このようにインク層の表面に形成される微細なクレータリング紋様を個体識別に用いる点を主たる特徴とする。以下、本発明を幾つかの実施の形態を挙げて説明する。なお、本明細書におけるインクは、狭義のインクを意味するだけでなく、塗料を含む。
[第1の実施形態]
 図1を参照すると、本発明の第1の実施形態に係る個体識別装置100は、物体110上にインク層111を生成する装置である。また個体識別装置100は、生成したインク層111の表面の凹凸パターン112の画像を取得するために凹凸パターン112を撮像する装置である。また個体識別装置100は、取得した凹凸パターン112の画像から物体110の個体識別に用いる個体識別子を生成する装置である。更に個体識別装置100は、生成した個体識別子を記憶部120に登録する装置である。
 物体110は、個体識別のための凹凸パターン112を生成する対象物である。物体110は、例えば工業製品や商品パッケージである。また物体110は、個人の持ち物(名刺や手帳など)あるいは個人の身体の一部(例えば指など)であってもよい。
 個体識別装置100は、主な機能部として、生成部101と撮像部102と登録部103とを有する。
 生成部101は、物体110上にインク層111を生成する機能を有する。生成部101は、例えば、物体110上にインクを一滴あるいは数滴だけ塗布することによってインク層111を生成する。生成部101は、例えば、市販のインクペンやインクジェットなどのインク付与ユニットを含むことができる。インク層111を形成するために使用するインクは、速乾性インクであることが好ましい。例えば、インクペンとして、寺西化学工業株式会社が製造販売している「速乾マーカー ドライエース」が使用できるが、それに限定されないことは言うまでもない。本発明のために専用に設計されたインクペンを使用してもよい。
 生成部101は、物体110が、インクを吸収する吸収面とインクを吸収しない非吸収面とを有する場合、物体110の複数の面のうち非吸収面を選択し、非吸収面上にインク層111を形成する。こうすることにより、インク層の表面にクレータリング現象による凹凸を確実かつ多数発生させることができる。
 また生成部101は、物体110上にインク層111を生成する際、好ましくは、物体110上の同一箇所或いは近傍の箇所に、限られた短い時間以内に、複数回にわたってインクを塗布あるいは滴下させる。換言すれば、生成部101は、インクペンのペン先を物体110の面に連打する。こうすることによって、物体110上に塗布されるインク層の厚みが増大するために、インク層の表面にクレータリング現象による凹凸を確実かつ多数発生させることができる。また、こうすることによって、物体110上の非吸収面上にインク層111を形成した場合であってもインク層の表面にクレータリング現象による凹凸の発生を促進することが可能になる。
 図2は、生成部101として使用可能なインク付与ユニットの一例を示す。この例のインク付与ユニット131は、ペン状のハウジング122の先端部分に設けられた貫通孔にフェルト材で構成されたペン先部123が装着されている。また、ハウジング122内にインク124が充填されている。インク124は、速乾性であることが望ましい。インク124の色は黒色、赤色など、任意でよい。ハウジング122内に充填してあるインク124は、毛細管現象によりペン先部123に染み込む。ペン先部123の先端を物体に当接すると、ペン先部123から染み出るインクが物体上に塗布される。ハウジング122の後端に取り付けられたキャップ127は、インク124を補充できるように着脱自在になっている。
 図3は、生成部101として使用可能なインク付与ユニットの他の例を示す。この例のインク付与ユニット141は、インクジェットノズル142と駆動部143とインクタンク144とを備える。インクタンク144には、好ましくは速乾性インクが充填されている。駆動部143は、図示しない信号線を通じて出力指令を受けると、インクタンク144から供給されるインクを所定の圧力で一定時間だけインクジェットノズル142の先端から外部に噴出させる。外部に噴出したインクは、物体の面に付着し、インク層を形成する。
 図4は、生成部101の一例を示す構成図である。この例の生成部101は、プレート151に設けられた貫通孔にインク付与ユニット152が着脱自在に装着されている。インク付与ユニット152は、例えばインクペンである。インク付与ユニット152は、インク付与ユニット152を常時上方へ弾性力を付与するリターンスプリング153を備えている。インク付与ユニット152の上方には、外部から所定のコマンドを受信すると、シリンダのピストンロッド154を上下動させる駆動部155が設けられている。駆動部155の筐体とプレート151とは連結部材157によって連結されている。図5に示すように、駆動部155によりピストンロッド154を下方にストロークさせてインク付与ユニット152を押圧すると、インク付与ユニット152がリターンスプリング153の弾性力に抗して、待機位置からインク付与位置まで降下する。これにより、インク付与ユニット152がインクペンの場合、ペン先が物体110の面に当接し、物体110の面にインクが一滴だけ付与される。また、インク付与ユニット152がインクジェットの場合、インクジェットノズルの先端部がインクを噴射するための適切な高さに位置決めされ、その位置からインクを噴射すると物体110の面にインクが付与される。他方、駆動部155によりピストンロッド154を上昇させると、インク付与ユニット152がリターンスプリング153の弾性力により待機位置まで上昇する。
 図4および図5に示した生成部101では、インク付与ユニット152を待機位置からインク付与位置まで移動させ、またインク付与位置から待機位置まで移動させるために、シリンダのピストンロッド154を使ったシリンダストローク機構を使用した。しかし、インク付与ユニット152を上下動させる機構は、シリンダストローク機構に限定されず、その他の機構、例えばリニアガイドとボールねじによる直動機構を使用してもよい。
 再び図1を参照すると、撮像部102は、生成部101によるインク層111の生成に連動して、インク層111の表面の凹凸パターン112を撮像する機能を有する。また、撮像部102は、凹凸パターン112の安定後、凹凸パターン112の画像を取得する機能を有する。更に、撮像部102は、取得した凹凸パターン112の画像から、凹凸パターン112に依存する特徴量を、物体110の個体識別子として抽出する機能を有する。
 図6は撮像部102の一例を示す構成図である。この例の撮像部102は、カメラ161と検出部162と判定部163と画像処理部164とを備える。検出部162と判定部163と画像処理部164は、専用のハードウェアで実現することができる以外に、図7に示すような演算処理部501と記憶部502とを有するコンピュータ500とプログラム503とで実現することができる。プログラム503は、コンピュータ500の立ち上げ時等にコンピュータ500に読み取られ、コンピュータ500の動作を制御することにより、コンピュータ500上に検出部162と判定部163と画像処理部164とを実現する。
 カメラ161は、例えば、CCD(Charge Coupled Devices)イメージセンサやCMOS(Complemetary Metal Oxide)イメージセンサを使用したカメラで構成することができる。
 検出部162は、生成部101によってインク層111の生成が行われたか否かを検出する機能を有する。判定部163は、インク層111の表面の凹凸パターン112が安定したか否かを判定する機能を有する。画像処理部164は、凹凸パターン112が安定したと判定された後の凹凸パターン112の画像を取得する機能を有する。また画像処理部164は、取得した画像から個体識別のための特徴量を抽出して登録部103に出力する機能を有する。以下、検出部162、判定部163、および画像取得部164の構成例について詳細に説明する。
 まず、検出部162の構成例について説明する。
 検出部162は、インク層111を生成する際の生成部101の動きをセンサによって検出することによって、インク層111の生成が行われたか否かを検出するように構成することができる。例えば、生成部101がインク層111を生成する際に所定の動き行う場合、検出部162は、生成部101の上記所定の動きを検出するように構成することができる。例えば、生成部101が図4および図5に示した構成を有する場合、インク付与ユニット152がインク付与位置まで降下したことをリミットスイッチ156によって検出するように構成することができる。
 また検出部162は、生成部101との間で信号を授受することによって、生成部101によってインク層111の生成が行われたか否かを検出するように構成することができる。例えば、生成部101が図4および図5に示した構成を有する場合、駆動部155に対して外部から与えられるコマンドを検出部162にも同時に与える。検出部162は、コマンドを受信したときに生成部101によるインク層111の生成が行われたことを検出する。
 また検出部162は、物体110上の所定の領域の視覚的な変化を画像認識によって検出することによって、インク層111の生成が行われたか否かを検出するように構成することができる。例えば、検出部162は、画像処理部164を通じてカメラ161によって物体110上の所定領域の画像を一定の時間間隔で取得する。所定領域としては、インク層111が生成される予定の箇所を含む領域が望ましい。次に、検出部162は、取得した1枚の画像から抽出した所定の特徴量と直前に取得した1枚の画像から抽出した所定の特徴量との差分を算出し、算出した差分の絶対値を閾値と比較する。ここで、特徴量としては、画像の輝度値の平均値を使用することができるが、それに限定されない。次に、検出部162は、差分の絶対値が閾値より大きければ、生成部101がインク層の生成を行ったと判断し、そうでなければ生成部101によるインク層の生成は行われていないと判断する。一般に、インク層111の生成前後でインク層T111が生成される予定の領域は、視覚的に大きく変化する。そのため、そのような視覚的な変化を検出することにより、生成部101がインク層111の生成を行ったか否かを検出することができる。
 次に、判定部163の構成例について説明する。
 図8は、判定部163の一例を示す構成図である。この例の判定部163は、物体110上に生成されたインク層111の表面の凹凸パターン112を時系列で撮像して得た時系列画像に基づいて、凹凸パターン112が安定したか否かを画像処理により判定する。この判定部163は、画像取得部171、特徴点抽出部172、局所特徴量算出部173、基準値記憶部174、特徴点記憶部175、局所特徴量記憶部176、比較部177、照合部178~179、および判定結果出力部180を備えている。
 画像取得部171は、物体110上に生成された凹凸パターン112の時系列画像をカメラ161から直接あるいは画像処理部164を介して間接的に取得する。取得された画像には画像番号のような画像識別子iが付与される。
 特徴点抽出部172は、画像取得部171によって取得された画像の2次元の輝度分布に対して微分フィルタ(sobel等)を作用させることにより、画像からエッジやコーナなどにある特徴的な点(特徴点)を抽出する。局所特徴量算出部173は、抽出された特徴点とその近傍の画素の画素値とから、その特徴点に関する特徴量(局所特徴量)を算出する。局所特徴量としては、例えば、2次元配列における画素値の分布の勾配や勾配方向に基づいて特徴点ごとにオリエンテーション(方向)を割当てる方法、例えばSIFT(Scale Invariant Feature Transform)特徴量、BRIEF(Binary Robust Independent Elementary Features)を使用することができるが、それに限定されない。
 基準値記憶部174は、時系列画像の各画像から抽出された特徴点の数と比較するための基準値を記憶する。この基準値は、所定の照合精度を得るために必要な特徴点の数に基づいて決定される。特徴点記憶部175は、時系列画像の各画像から抽出された特徴点の情報(特徴点の数や画像における位置など)を画像識別子iに関連付けて記憶する。局所特徴量記憶部176は、時系列画像の各画像の各特徴点から算出された局所特徴量を画像識別子iに関連付けて記憶する。
 比較部177は、特徴点抽出部172において画像識別子iを有する画像から特徴点が抽出される毎に、その画像から抽出された特徴点の数と基準値記憶部174に記憶された基準値とを比較し、抽出された特徴点の数が基準値を超えていれば、画像識別子iと値1との組を出力し、そうでなければ画像識別子iと値0との組を出力する。
 照合部178は、特徴点抽出部172において画像識別子iを有する画像から特徴点が抽出される毎に、その抽出された特徴点の情報と特徴点記憶部175に記憶されている時間的に1つ前の画像(画像識別子i-1)から抽出された特徴点の情報とを照合し、両者が類似している程度を表すスコアを算出する。例えば、照合部178は、双方の画像間で対応する特徴点の数を用いてスコアを算出する。或いは照合部178は、双方の画像間で対応する特徴点の数を照合画像の特徴点数で正規化してスコアを算出する。但し、スコアの算出方法はこれらに限定されない。照合部178は、算出したスコアを閾値と比較し、閾値に比べてより類似していれば、画像識別子iと値1との組を出力し、そうでなければ画像識別子iと値0との組を出力する。
 照合部179は、局所特徴量算出部173において画像識別子iを有する画像から局所特徴量が抽出される毎に、その抽出された局所特徴量と局所特徴量記憶部176に記憶されている時間的に1つ前の画像(画像識別子i-1)から抽出された局所特徴量とを照合し、両者が類似している程度を表すスコアを算出する。例えば、照合部179は、双方の画像間で対応する局所特徴量の数を用いてスコアを算出する。或いは照合部179は、双方の画像間で対応する局所特徴量の数を照合画像の局所特徴量の数で正規化してスコアを算出する。或いは照合部179は、双方の局所特徴量を表すコード間のハミング距離によりスコアを算出する。但し、スコアの算出方法はこれらに限定されない。照合部179は、算出したスコアを閾値と比較し、閾値に比べてより類似していれば、画像識別子iと値1との組を出力し、そうでなければ画像識別子iと値0との組を出力する。
 図9は、判定部163における比較部177の動作を説明するグラフであり、横軸はインク付与後の経過時間を示し、縦軸は特徴点の検出数を示し、黒丸は時系列画像を構成する個々の画像から取得した特徴点の数を示している。また、一点鎖線は基準値記憶部174に記憶された基準値である。図9に示されるように、一般に、インク付与後の時間が経過するに従って画像から抽出される特徴点の数が増加していく。その理由は、インクが乾燥するまでの間、クレータリング現象によって特徴点の数を増やす方向に変化するためである。そこで、或る基準値を定め、抽出される特徴点の数が基準値を超えた時点で、パターンが安定したと判定する。図9の例では、時刻t1と時刻t2に撮像された2枚の画像から抽出された特徴点の数は何れも基準値を下回っているが、時刻t3に撮像された画像から抽出された特徴点の数が基準値を超えている。そのため、比較部177は、時刻t1、t2で撮像された画像についてはその画像識別子と値0との組を出力し、時刻t3で撮像された画像についてはその画像識別子と値1との組を出力する。
 図10は、判定部163における照合部178、179の動作を説明するグラフであり、横軸はインク付与後の経過時間を示し、縦軸は照合スコアを示し、黒丸は時系列画像を構成する個々の画像とその直前画像との間の照合スコアを示している。また、一点鎖線は閾値である。図10に示す例は、照合スコアがより大きいほど、2つの画像の特徴点の情報、局所特徴量がより類似しているケースである。図10に示されるように、一般に、インク付与後の時間が経過するに従って直前画像との間の照合スコアはより高くなる。その理由は、インクの乾燥過程の初期の段階ではクレータリング現象が活発に発生するために凹凸パターンの時間的な変化が激しいが、インクがほぼ乾燥していってクレータリング現象の発生が徐々に減少するとそのような変化が起きないためである。そこで、或る閾値を定め、直前画像との間のスコアが閾値を超えた時点で、パターンが安定したと判定する。図10の例では、時刻t1と時刻t2に撮像された2枚の画像間の照合スコアは閾値を下回っているが、時刻t3に撮像された画像と時刻t2に撮像された画像間の照合スコアは閾値を超えている。そのため、照合部178、179は、時刻t2で撮像された画像についてはその画像識別子と値0との組を出力し、時刻t3で撮像された画像についてはその画像識別子と値1との組を出力する。また、照合部178、179は、インク付与後に最初に撮像された時刻t1の画像については無条件に値0を出力する。
 図11は、判定部163における照合部178、179の動作を説明するグラフであり、横軸はインク付与後の経過時間を示し、縦軸は照合スコアを示し、黒丸は時系列画像を構成する個々の画像と直前画像との間の照合スコアを示している。また、一点鎖線は閾値である。図11に示す例は、照合スコアがより小さいほど、2つの画像の特徴点の情報、局所特徴量がより類似しているケースである。図11の例では、時刻t1と時刻t2に撮像された2枚の画像間の照合スコアは閾値を上回っているが、時刻t3に撮像された画像と時刻t2に撮像された画像間の照合スコアは閾値を下回っている。そのため、照合部178、179は、時刻t2で撮像された画像についてはその画像識別子と値0との組を出力し、時刻t3で撮像された画像についてはその画像識別子と値1との組を出力する。また、照合部178、179は、インク付与後に最初に撮像された時刻t1の画像については無条件に値0を出力する。
 図12は、判定部163の別の例を示す構成図である。この例の判定部163は、タイマ181を備えている。
 タイマ181は、検出部162によってインク層111の生成が行われたことが検出された時点で起動され、その後の所定期間の経過後に、凹凸パターン112が安定した状態になった旨の信号を出力する。上記所定期間は、物体110にインクを付与してインク層111を生成してから凹凸パターン112が安定するまでに要した時間を実際に計測した結果に基づいて定められている。
 次に、画像処理部164について説明する。
 図13は、画像処理部164の一例を示す構成図である。この例の画像処理部164は、画像取得部191、特徴点抽出部192、局所特徴量算出部193、および局所特徴量出力部194を備えている。
 画像取得部191は、カメラ161を使用して物体110上に形成されたインク層111の表面の凹凸パターン112の画像を取得する機能を有する。画像取得部191は、例えば、シャッターを切るコマンドをカメラ161へ送信し、そのコマンドに従ってカメラ161が撮像して得た画像をカメラ161から読み取ることで、1枚の画像を取得する。画像取得部191は、取得した画像を後段の処理部に伝達し、或いは検出部162や判定部163に出力する。
 特徴点抽出部192と局所特徴量算出部193は、図8に示した特徴点抽出部172と局所特徴量算出部173と同様の機能を有する。即ち、特徴点抽出部192は、画像取得部191によって取得された画像からエッジやコーナなどにある特徴的な点(特徴点)を抽出する。また局所特徴量算出部193は、抽出された特徴点とその近傍の画素の画素値とから、その特徴点に関する特徴量(局所特徴量)を算出する。
 局所特徴量出力部194は、局所特徴量算出部193で算出された局所特徴量を物体110の個体識別子として登録部103に出力する。
 再び図1を参照すると、登録部103は、撮影部102から入力した物体110の個体識別子を、記憶部120に登録する機能を有する。登録部103は、好ましくは、物体110の個体識別子を物体110の属性情報(物体110の名前や番号など)と関連付けて、記憶部120に登録する。記憶部120は、識別子生成装置100を構成するコンピュータのローカルメモリであっても良いし、インターネット等のネットワークを介して接続されたリモートメモリであっても良い。
 図14は識別子生成装置100を用いて実行する識別子生成方法の手順を示すフローチャートである。以下、図14を参照して本実施形態に係る識別子生成方法について説明する。
 まず、識別子生成装置100の生成部101は、物体110上にインクを塗布することによってインク層111を生成する(ステップS101)。例えば、図4に示した生成部101の場合、駆動部155によりピストンロッド154を下方にストロークさせてインク付与ユニット152を待機位置からインク付与位置まで降下させる。これにより、インク付与ユニット152がインクペンの場合、ペン先が物体110の面に当接し、物体110の面にインクが1滴だけ付与される。また、インク付与ユニット152がインクジェット型の場合、インクジェットノズルの先端部がインクを噴射するための適切な高さに位置決めされ、その位置からインクを噴射すると物体110の面にインクが付与される。その後、駆動部155によりピストンロッド154を上昇させることにより、インク付与ユニット152を待機位置まで上昇させる。
 次に、識別子生成装置100の撮像部102は、生成部101によってインク層の生成が行われたか否かを検出する(ステップS102)。具体的には、撮像部102は、検出部162を使用して、生成部101の所定の動きを検出することにより、インク層の生成が行われたか否かを検出する。或いは、撮像部102は、検出部162を使用して、物体110上のインク層生成予定領域の視覚的な変化を画像認識によって検出することにより、インク層の生成が行われたか否かを検出する。或いは、撮像部102は、検出部162を使用して、生成部101との間で駆動部155へのコマンドを授受することにより、インク層の生成が行われたか否かを検出する。
 次に、撮像部102は、インク層の生成が行われたことを検出すると、生成されたインク層の表面の凹凸パターン112が安定した状態になったか否かを判定する(ステップS103)。具体的には、撮像部102は、判定部163を使用して、インク層生成後に凹凸パターンを時系列で撮像して得た凹凸パターンの時系列画像を構成する複数の画像から抽出した特徴点の数を基準値と比較し、基準値より特徴点の数が多くなった画像が得られた時点で、パターンが安定した状態になったと判定する。或いは、撮像部102は、判定部163を使用して、インク層の生成後に凹凸パターンを時系列で撮像して得た凹凸パターンの時系列画像を構成する複数の画像から抽出した複数の特徴点に関する情報を互いに比較し、時間的に先行する画像から抽出した複数の特徴点に関する情報とほぼ等しい複数の特徴点に関する情報を抽出した時間的に後続する画像が得られた時点で、凹凸パターンが安定した状態になったと判定する。或いは、撮像部102は、判定部163を使用して、インク層の生成から所定時間が経過した時点で、凹凸パターンが安定した状態になったと判定する。
 次に、撮像部102は、凹凸パターン111が安定した状態になったことを検出すると、パターン安定後の凹凸パターン111の画像を取得する(ステップS104)。具体的には、撮像部102は、画像処理部164を使用して、凹凸パターン111が安定した状態になったことが検出された後、カメラ161を使用して凹凸パターン111の画像を取得する。或いは、撮像部102は、判定部163が図8に示した構成を有する場合、安定化した後のパターンが画像取得部171により既に取得されているので、あらためて取得する動作を省略する。
 次に、撮像部102は、取得した凹凸パターンの画像から個体識別のための局所特徴量を抽出する(ステップS105)。具体的には、撮像部102は、画像処理部164を使用して、安定した状態の凹凸パターンの画像から個体識別のための局所特徴量を抽出する。或いは、撮像部102は、判定部163が図8に示した構成を有する場合、安定化した後のパターンの画像から画像取得部171により既に個体識別のための局所特徴量が抽出されているので、あらためて抽出する動作を省略する。
 次に、登録部103は、撮像部102が抽出した個体識別子を記憶部120へ登録する(ステップS106)。具体的には、登録部103は、物体110の局所特徴量を物体110の属性情報(物体110の名前や番号など)に関連付けて記憶部120に登録する。判定部163が図8に示した構成を有する場合、登録部103は、画像処理部164の局所特徴量記憶部176から安定した状態のパターンの画像から抽出した局所特徴量を読み出して、物体110の属性情報に関連付けて記憶部120に登録する。
 このように本実施形態によれば、微小な凹凸パターンの個体差を認証や照合に利用できる簡便な装置および方法を実現することができる。その理由は、インク層の表面の微細な凹凸パターンを物体の個体識別に利用するためである。これにより、対象物体にインクを塗布するといった極めて簡単な方法によって、対象物体の個体識別が可能になる。
 また、一般的に不安定な状態の凹凸パターンの画像は、その後の安定した状態の凹凸パターンの画像と完全に同一ではなく相違している。そのため、不安定な状態の凹凸パターンの画像を物体の個体識別に使用すると、個体識別の精度が劣化する。しかし、本実施形態によれば、撮像部102は、生成部101によって生成されたインク層表面の凹凸パターンが安定した状態になった後の凹凸パターンの画像を取得する。そのため、本実施形態によれば、不安定な状態の凹凸パターンの画像が取得されるのを防止することができ、それによって個体識別の精度を高めることができる。
 また、生成部101と撮像部102を対応付けておくことで、撮像時にパターンに対して適切な倍率、焦点合わせ、照明の点灯、撮影の距離、露出等の設定をあらかじめ最適に設定しておくことが可能であり、適時調整が不要で撮像ミスを防ぐことができる。
[第2の実施形態]
 図15を参照すると、本発明の第2の実施形態に係る識別子生成装置200は、ベルトコンベア205の上面で送りピッチ毎に物体210上へのインク層211の生成とインク層211表面の凹凸パターンの画像の取得とを実施する。物体210およびインク層211は、図1に示した物体110およびインク層111と同じである。ベルトコンベア205は、搬送路とも呼ばれる。
 識別子生成装置200は、生成器201と撮像器202と乾燥器203と制御器204とベルトコンベア駆動器206と光スイッチ207、208と記憶装置209とを備えている。生成器201と撮像器202は、ベルトコンベア205の上方に、ベルトコンベア205の長手方向に間隔を置いて配置されている。
 ベルトコンベア駆動器206は、ベルトコンベア205をピッチ送りするステッピングモータなどで構成されている。光スイッチ207は、生成器201直下のベルトコンベア205上に物体211が存在するか否かを検出するセンサである。光スイッチ208は、撮像器202直下のベルトコンベア205上に物体211が存在するか否かを検出するセンサである。
 生成器201は、生成器201直下に位置決めされたコンベアベルト205上の物体210に対してインク層211を生成するユニットである。生成器201は、例えば図4に示したような生成部101によって実現することができる。
 乾燥器203は、インク層211の乾燥を急激に促進するユニットである。乾燥器203は、撮像器202直下に位置決めされたコンベアベルト205上の物体210のインク層211に対して高温の温風を吹き付けることができるように取り付けられている。乾燥器203は、温風を吹き出すタイプでも良いし、ヒータのような加熱タイプであってもよい。
 撮像器202は、撮像器202直下に位置決めされたコンベアベルト205上の物体210のインク層表面の凹凸パターンが安定したか否かを判定し、安定した後の凹凸パターンの画像を取得するユニットである。また、撮像器202は、取得した凹凸パターンの画像から個体識別のための特徴量を抽出し、制御器204に出力するユニットである。
 制御器204は、識別子生成装置200全体の制御を司るユニットである。制御器204は、生成器201、撮像器202、乾燥機203、ベルトコンベア駆動器206、光センサ207、208、および記憶装置209に有線または無線により接続され、それらに対してコマンドを送信することによりそれらの動作を制御し、或いはそれらから信号を受信する。
 図16は、識別子生成装置200が実行する識別子生成方法の動作の一例を示すフローチャートである。以下、図16を参照して、本実施形態に係る識別子生成方法について説明する。
 ベルトコンベア205上には、生成器201と撮像器202との間隔に等しいピッチで複数の物体210が載せられる。制御器204は、ベルトコンベア駆動器206に対して指令を出すことによりベルトコンベア205を1ピッチだけ駆動し、生成器201の直下のベルトコンベア205上に一つの物体210を位置決めする(S201)。生成器201直下のベルトコンベア205上に物体210が位置決めされたことは、光スイッチ207によって検出される。このとき、それまで生成器201の直下に存在していた物体210は、インク層211の生成が行われた状態で撮像器202直下へ移動する。撮像器202直下のベルトコンベア205上に物体210が位置決めされたことは、光スイッチ208によって検出される。
 次に制御器204は、生成器201に指令を出すことにより生成器201直下のベルトコンベア205上の物体210に対してインク層211の生成を行う(S202)。具体的には、生成器201として図4に示した生成部101を使用する場合、駆動部155によりピストンロッド154を下方にストロークさせてインク付与ユニット152を待機位置からインク付与位置まで降下させる。これにより、インク付与ユニット152がインクペン型の場合、ペン先がベルトコンベア205上の物体210の面に当接し、物体210の面にインクが1滴だけ付与される。また、インク付与ユニット152がインクジェット型の場合、インクジェットノズルの先端部がインクを噴射するための適切な高さに位置決めされ、その位置からインクを噴射するとベルトコンベア205上の物体210の面にインクが付与される。その後、駆動部155によりピストンロッド154を上昇させることにより、インク付与ユニット152を待機位置まで上昇させる。
 次に制御器204は、その時点で撮像器202直下にインク層の生成が行われた物体210が存在しているか否かを検出する(S203)。例えば、制御器204は、光センサ208によって撮像器202直下に物体210が検出されており、1ピッチ移動前に光センサ207によって生成器201直下に物体210が検出されていて生成器201に対してインク層を生成する指令を送信していたのであれば、撮像器202直下にインク層の生成が行われた物体210が存在していると判断する。次に、制御部204は、その時点で撮像器202直下に物体210が存在していなければ(S203)、ステップS201の処理へ戻る。また、制御部204は、その時点で撮像器202直下に物体210が存在していれば(S203)、まず乾燥器203に指令を出すことにより撮像器202直下のベルトコンベア205上の物体210に生成されたインク層211に高温の温風を吹き付ける(ステップS204)。
 次に制御器204は、撮像器202に指令を出すことにより、まず撮像器202直下のベルトコンベア205上の物体210に生成されたインク層211表面の凹凸パターンが安定したか否かを判定する(S205)。次に制御器204は、凹凸パターンが安定したと判定すると(S206)、撮像器202に指令を出すことにより、撮像器202直下のベルトコンベア205上の物体210に生成された応答パターンの画像を取得する(S207)。次に制御器204は、撮像器202に指令を出すことにより、上記取得した凹凸パターン211の画像から個体識別のための特徴量を抽出する(S208)。次に制御器204は、撮像器202が抽出した個体識別のための特徴量を、物体210の個体識別子として、記憶装置209に登録する(S209)。そして、ステップS201の処理へ戻る。ステップS205における凹凸パターンが安定したか否かの判定、ステップS207における凹凸パターンの画像の取得、ステップS208における個体識別のための特徴量の抽出、ステップS209における個体識別子の登録は、第1の実施形態で説明した方法と同様の方法により実施される。
 このように本実施形態によれば、ベルトコンベア205の上面で送りピッチ毎に、パターンの生成、パターンの乾燥、パターンの画像の取得等の加工を行うことができる。
 また本実施形態によれば、乾燥器203によって物体210に生成されたインク層211を急激に加熱乾燥させるため、クレータリング現象が発現し易くなり、インク層210の表面にクレータリング現象による微細な凹凸パターンを十分に形成することができる。
[第3の実施形態]
 図17および図18を参照すると、本発明の第3の実施形態に係る識別子生成装置300は、小型で軽量な可搬型の識別子生成装置である。識別子生成装置300は、3本の脚部301を有する中空構造の外装ケース302と、この外装ケース302に対して回転自在に設けられた円盤状のプレート303と、このプレート303に装着されたインク付与ユニット304、撮像器305、および乾燥器306とを備えている。インク付与ユニット304は、例えばインクペンあるいはインクジェットを使用することができる。
 インク付与ユニット304と撮像器305と乾燥器306とは、プレート303の外周部において円周方向に所定間隔で装着されている。具体的には、プレート303の外周部において円周方向に所定間隔で複数設けられた貫通孔にインク付与ユニット304、撮像器305および乾燥器306が着脱自在に装着されている。乾燥器306は、撮像器305直下に存在する物体上のインク層に対して高温の温風を吹き付けることができるように取り付けられている。またインク付与ユニット304は、インク付与ユニット304を常時上方へ弾性力を付与するリターンスプリング307を備えている。3本の脚部301を使用して外装ケース302を平面に載置した状態では、インク付与ユニット304、撮像器305、および乾燥器306の下端は、平面から所定の距離だけ離れた位置に来るように、3本の脚部301の長さと取り付け角度とが調整されている。
 外装ケース302の内部には、プレート303の回転軸308に連結されたステッピングモータ309、シリンダのピストンロッド310を上下動させる駆動部311、識別子生成装置300全体の制御を司る制御器312、各部に電力を供給する電池315が設けられている。駆動部311のピストンロッド310は、インク付与ユニット304と回転軸308との間の距離と同じ距離だけ回転軸308から離れた箇所に装着されている。また外装ケース302の上面には、操作ボタン313とLED314とが設けられている。
 制御器204は、インク付与ユニット304、撮像器305、乾燥器306、ステッピングモータ309、駆動部311、操作ボタン313およびLED314に対して信号線により接続され、それらとの間で信号やコマンドを授受することによりそれらの動作を制御し、またそれらから信号を受信する。制御器204および電池315とインク付与ユニット304、撮像器305および乾燥器306とをつなぐ信号線および電力線は、例えば、回転軸308を中空構造とし、回転軸308の内部を経由して引き回すことができる。また、制御器204は、撮像器305によって抽出された物体の個体識別子を図示しない外部の記憶装置に登録するための無線インターフェイスを有している。
 図19は、識別子生成装置300が実行する識別子生成方法の動作の一例を示すフローチャートである。以下、図19を参照して、本実施形態に係る識別子生成方法について説明する。
 物体に凹凸パターンを生成し、その生成した凹凸パターンの画像を取得し、その取得した凹凸パターンの画像から個体識別子を抽出する場合、利用者は、凹凸パターンを生成したい物体の面に外装ケース302の脚部301を載せる。そして、利用者は操作ボタン313をオンにする。
 制御器312は、操作ボタン313がオンされると(図19のS301)、動作中である旨を利用者に知らせるためにLED314を点灯する(S302)。次に制御器312は、ステッピングモータ309に指令を出してプレート303をパターン生成位置に位置決めする(S303)。パターン生成位置とは、ピストンロッド310の真下にインク付与ユニット304が来る位置である。次に制御器312は、インク付与ユニット304によって物体上にインク層を生成する(S304)。具体的には、駆動部311に指令を出してピストンロッド310を所定量だけ降下させる。これによりピストンロッド310に押されてインク付与ユニット152がリターンスプリング307の弾性力に抗して、インク付与位置まで降下する。そのため、インク付与ユニット304がインクペンの場合、ペン先が物体の面に当接し、物体の面にインクが付与される。また、インク付与ユニット304がインクジェット型の場合、インクジェットノズルの先端部がインクを噴射するための適切な高さに位置決めされ、制御器312からの指令に応じてインクジェットノズルからインクが噴射されると、物体の面にインクが付与される。また制御器312は、インク層の生成を終えると、駆動部311に指令を出してピストンロッド310を元の位置まで上昇させる。ピストンロッド310が上昇すると、インク付与ユニット304がリターンスプリング307の弾性力により上昇する。
 次に制御器312は、ステッピングモータ309に指令を出してプレート303をパターン撮像位置に位置決めする(S305)。パターン撮像位置は、ピストンロッド310の真下に撮像器305が来る位置である。次に制御器312は、乾燥器306を駆動して生成されたパターンに高温の温風を吹き付ける(S306)。次に制御器312は、撮像器305に指令を出すことにより、生成された凹凸パターンが安定したか否かを判定する(S307)。次に制御器312は、凹凸パターンが安定したと判定すると(S308)、撮像器305に指令を出すことにより、生成された凹凸パターンの画像を取得する(S309)。次に制御器312は、撮像器305に指令を出すことにより、上記取得したパターンの画像から個体識別のための特徴量を抽出する(S310)。次に制御器312は、抽出した特徴量を物体の個体識別子として、図示しない記憶装置に登録する(S311)。ステップS307における凹凸パターンが安定したか否かの判定、ステップS309における凹凸パターンの画像の取得、ステップS310における個体識別のための特徴量の抽出、ステップS311における個体識別子の登録は、第1の実施形態で説明した方法と同様の方法により実施される。
 次に制御器312は、動作が終了したことを利用者に通知するためにLED314を消灯する(S312)。そして制御器312は、図19の処理を終える。なお、図19の処理を終える前に、制御器312は、ステッピングモータ309に指令を出してプレート303をパターン生成位置に位置決めするように構成してもよい。
 このように本実施形態によれば、時と場所を選ばす簡単な操作で物体上に凹凸パターンを生成し且つその凹凸パターンを撮像して得た画像から個体識別のための特徴量を抽出することができる携帯可能な個体識別装置300を提供することができる。
[第4の実施形態]
 図20を参照すると、本発明の第4の実施形態に係る物体照合装置400は、物体410の識別・照合を行う機能を有する。
 物体410は、工業製品や商品パッケージなど、識別・照合の対象となる物体である。図20では、識別・照合を行う物体410は、1個のみ図示しているが、一般には多数の物体410が識別・照合の対象となる。その場合、多数の物体410は、同じ外形を有する同じ種類の物体(例えば或る生産ラインで生産されている特定の電子部品など)の集合であってもよいし、異なる外形・サイズを有する異なる種類の物体(例えば異なる複数の生産ラインで生産されている異なる外形、機能を有する電子部品など)の集合が混在していてもよい。
 物体410の何れかの面上には、インク層411が形成されている。このようなインク層411は、例えば、本発明の第1乃至第3の実施形態に係る識別子生成装置100、200或いは300によって物体410上に形成されたものである。
 物体照合装置400は、主な機能部として、撮像部401と認識部402とを有する。
 撮像部401は、物体410上に形成されたインク層411の表面の凹凸パターン412の画像を取得するために凹凸パターン412を撮像する機能を有する。また撮像部401は、撮像して得られた凹凸パターン412の画像から個体識別子を抽出する機能を有する。
 認識部402は、撮像部401により抽出された物体410の個体識別子と記憶部420に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う機能を有する。記憶部420には、例えば、本発明の第1乃至第3の実施形態に係る個体識別子登録装置100、200或いは300を使用して、登録済みの物体の個体識別子が予め記憶されている。
 図21は物体照合装置400を用いて実行する物体照合方法の手順を示すフローチャートである。以下、図20及び図21を参照して本実施形態に係る物体照合方法について説明する。
 まず、物体照合装置400の撮像部401は、物体410上に形成されたインク層411の表面の凹凸パターン412を撮像して、凹凸パターン412の画像を取得する(ステップS301)。次に撮像部401は、取得した凹凸パターン412の画像から、凹凸パターン412に依存する特徴量を、物体410の個体識別子として抽出する(ステップS302)。
 次に、物体照合装置400の認識部402は、上記抽出された物体410の個体識別子と記憶部420に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合を行う(ステップS303)。認識部402は、例えば、個体識別子がN次元のベクトルである場合、物体410の個体識別子と登録済みの物体の個体識別子のベクトル間の類似度(あるいは距離)を算出し、類似度が閾値以上であれば(距離が閾値以下であれば)、2つの個体識別子は同一と判定し、それ以外は同一でないと判定する。認識部402は、物体410の個体識別子と同一の登録済みの物体の個体識別子が発見されるか、または、全ての登録済みの物体の個体識別子との比較を終えるか、何れか早く成立した方を条件として、物体の識別・照合処理の繰り返しを終了する。そして、認識部402は、認識結果430を出力する。認識結果430は、識別・照合の成功の有無を表すものであってよい。また認識結果430は、成功の場合、同一と判定した登録済みの物体の個体識別子に対応して記憶部320に記憶されている物体の属性値を有していてよい。また認識結果430は、図示しない表示装置に表示し、また図示しない記憶装置に保存してよい。
 図22は撮像部401の一例を示す構成図である。この例の撮像部401は、カメラ431と撮像アダプタ432と画像処理部433とを備える。画像処理部433は、専用のハードウェアで実現することができる以外に、図7に示すような演算処理部501と記憶部502とを有するコンピュータ500とプログラム503とで実現することができる。プログラム503は、コンピュータ500の立ち上げ時等にコンピュータ500に読み取られ、コンピュータ500の動作を制御することにより、コンピュータ500上に画像処理部433を実現する。
 撮像アダプタ432は、インク層411の表面の凹凸パターン412の局所的な傾きを陰影として強調し、凹凸パターン412を安定して撮像できるようにするためにカメラ431に装着して使用する撮影補助具である。撮像アダプタ432として、例えば特許文献1に記載された撮影補助具を使用することができる。撮像アダプタ432の他の好ましい構成例については後述する。
 カメラ431は、例えば、CCDイメージセンサやCMOSイメージセンサを使用したカメラで構成することができる。カメラ431は、装着された撮像アダプタ432を通じて、物体410上に形成されたインク層411の表面の凹凸パターン412をカラー画像あるいはモノクロ画像として撮像する。カメラ431は、撮像して得られた凹凸パターン412の画像を画像処理部433へ出力する。
 画像処理部433は、カメラ431を使用して物体410上のインク層411表面の凹凸パターン412の画像を取得し、その凹凸パターン412に依存する特徴量を、物体410の個体識別子として抽出する機能を有する。
 以下、撮像アダプタ432および画像処理部433について詳細に説明する。
<撮像アダプタの構成例1>
 図23は、撮像アダプタ412の第1の構成例を示す側面図である。この例の撮像アダプタ412は、下端に開口がある円筒状の黒色プラスチックで作られた筐体441を有する。筐体441の内径は略28mm、筐体441の下端から上面の内側までの距離は略25mmである。筐体441の上面には、筐体441の平面の一例を示す図24に示すように、中央部に開口442があり、また中心から半径8~12mmの部分を幅4mmのドーナツ状開口443としてくり抜かれている。そして、中央部の開口442から下方を撮像する向きにカメラ431が装着されている。また、ドーナツ状開口443を覆うように乳白色プラスチックで作られた拡散板444が筐体441の上面に貼り付けられている。さらに、拡散板444の上面に、拡散板444に向かって光を放射するリング状光源445が取り付けられている。これによって、図24に示すドーナツ状開口443の部分が明るく光る回転対称な光源が実現されている。
 カメラ431によって物体410上に形成されたインク層411を撮像する場合、インク層411が筐体441の下端中央部に位置するように筐体441を物体410に押し当てる。インク層411のサイズは、最大2mm程度である。このとき、リング状光源445によるドーナツ状開口443からの投射光によって、インク層411の中心部に対して天頂角arctan(8.0/25)~arctan(12.0/25)、即ち、17.7°~25.6°の角度範囲が明るくなり、それ以外は暗くなる。また、筐体441の上面の開口442はカメラ431で塞がれており、ドーナツ状開口443以外の筐体441の内面は黒色プラスチックによって黒色領域となっている。そのため、インク層411から筐体441の内面を観測すると、内面の明暗状態は図25の模式図に示すようになる。これによって、インク層411にローアングルから入射する光を遮断して、そのようなローアングル光に起因する拡散反射光を低減することができる。その結果、図26の模式図に示すように、インク層411に上方斜め四方から投射する光による鏡面反射光を相対的に強調することができる。
 これに対して、特許文献1に記載される撮影補助具は、物体表面の所定領域に正対する法線方向から所定の角度範囲内に該当する一部の面が黒地であり、その他の角度範囲に該当する面が光源部から照射された光を拡散して発する光源領域面からなる覆蓋部を使用している。そのため、特許文献1に記載される撮影補助部を使用すると、インク層411から観測した明暗状態は図27の模式図に示すようになり、インク層411にローアングルから入射する光を遮断することは困難になる。
 図23の構成例では、カメラ431は、略25mmの距離からインク層411を撮像する。例えば、撮像画像のサイズをVGA(640×480ピクセル)とし、撮像解像度を100~160ピクセル/mmとすると、1~1.6ピクセル/10μmとなる。従って、直径10μm以上のクレータリング模様は少なくとも1ピクセル以上の画素で捉えられる。即ち、クレータリング紋様を明暗パターンとして撮像できる。
 図23では、筐体441に黒色プラスチックを使用したが、光を透過および反射しない素材であれば黒色プラスチックに限定されず、紙等の他の素材であってもよい。また透明または半透明なプラスチック等の素材で筐体441を作り、図23の黒色プラスチックに相当する部分を黒く塗装することで、図23の筐体441と同等の機能を有する構造としてもよい。更に、筐体441の全面に乳白色プラスチックを用い、図23の黒色プラスチックに相当する部分を黒く塗装することで同様の構造を実現してもよく、その場合、乳白色プラスチック444を省略してよい。
 光源445としては、例えばLEDリングライトを使用することができるが、それに限定されない。また、光源445から放射する光の波長帯は、インク層411の反射率が低い波長帯であることが望ましい。即ち、光源445は、インク層411の分光反射率特性において分光反射率が相対的に低い波長帯に、相対的に分光分布の高い放射強度を有する光源が望ましい。具体的には、インク層411が青インクを使用して形成されている場合、赤色光源が望ましい。こうすることにより、インク層411で拡散反射された光成分の影響を抑えることができ、結果的に、インク層411の表面で鏡面反射した光成分を強調することができる。インク層411の反射率が低い波長帯の光源445と組み合わせるカメラ431は、モノクロカメラであることが望ましい。
<撮像アダプタの構成例2>
 図28は、撮像アダプタ412の第2の構成例を示す側面図である。図28に示す撮像アダプタ412は、筐体441を下端に向かって細くなる円錐台形状とした点で、下端と上端との幅が同じになっている図23に示した撮像アダプタと相違し、それ以外の構成は図23に示した撮像アダプタと同じである。
 図28に示す撮像アダプタ412は、撮像時、インク層411と撮像アダプタ412の先端(下端)の位置合わせが容易であり、また、物体410の面が曲面であっても押し当てて撮像できる利点がある。
<撮像アダプタの構成例3>
 図29は、撮像アダプタ412の第3の構成例を示す側面図である。図29に示す撮像アダプタ412は、カメラ431とインク層411との距離を保ったまま、光源445の位置をインク層411に近づけ、それに合わせて筐体441を外形および内径の異なる2つの下側筐体441-1と上側筐体441-2とによって構成した点で、1つの筐体で構成される図23に示した撮像アダプタと相違し、それ以外の構成は図23に示した撮像アダプタと同じである。
 下側筐体441-1は、下端と上端に開口を有する円筒状の形状を有し、その高さは略12.5mmである。下側筐体441-1の上端には、外形が下側筐体441-1の外形に等しいドーナツ形状の拡散板444が水平に取り付けられている。また、拡散板444の内側には、外形が拡散板444の内径に等しい上側筐体441-2が、下側筐体441-1内に突出しないように立設されている。そして、拡散板444の上にドーナツ形状の光源445が取り付けられている。拡散板444の下面のうち少なくとも幅2mmの部分が下側筐体441-1内に露出している。
 図29に示す撮像アダプタ412は、図23に示す撮像アダプタ412と比較してアダプタを小型化できる利点がある。
<撮像アダプタの構成例4>
 図30は、撮像アダプタ412の第4の構成例を示す側面図である。図30に示す撮像アダプタ412は、下側筐体441-1を下端に向かって細くなる円錐台形状とした点で、下端と上端との幅が同じになっている図29に示した撮像アダプタと相違し、それ以外の構成は図29に示した撮像アダプタと同じである。
 図30に示す撮像アダプタ412は、撮像時、インク層411と撮像アダプタ412の先端(下端)の位置合わせが容易であり、また、物体410の面が曲面であっても押し当てて撮像できる利点がある。
<撮像アダプタの構成例5>
 図31は、撮像アダプタ412の第5の構成例を示す側面図である。図31に示す撮像アダプタ412は、円筒状の筐体441の側面の一部を拡散板444で構成し、拡散板444の外周面にリング状の光源445を取り付けた構造を有する点で、円筒状の筐体441の上面の周辺部に拡散板444とリング状の光源445とを取り付けた図23に示した撮像アダプタと相違し、それ以外の構成は図23に示した撮像アダプタと同じである。
 図31に示す撮像アダプタ412は、外形を細くできる利点がある。なお、拡散板444が円筒状の筐体441の側面に取り付けるため、拡散板444からカメラ431に直接入射する光が増大するが、そのような直接入射光は常に一定量であるため、バイアスとして容易に取り除くことが可能である。
<撮像アダプタの構成例6>
 図32は、撮像アダプタ412の第6の構成例を示す側面図である。図32に示す撮像アダプタ412は、開口442、443を覆うように、筐体441の上面の内側に、円形の偏光フィルタ446を取り付けた構造を有する点で、そのような偏光フィルタ446がない図23に示した撮像アダプタと相違し、それ以外の構成は図23に示した撮像アダプタと同じである。
 偏光フィルタ446は、通過した光を或る1方向にだけ振動している光に変換する直線偏光板である。偏光フィルタ446を、開口442を覆うように筐体441に取り付けることにより、光源445から拡散板444を通じて投射された光は、偏光フィルタ446を通過して直線偏光となってインク層411に投射する。また偏光フィルタ446を、開口442を覆うように筐体441に取り付けることにより、カメラ431は、インク層411の表面で鏡面反射し、偏光フィルタ446を通過した光を受光する。このとき、偏光フィルタ446の開口443を覆う部分は偏光子として作用し、開口442を覆う部分は検光子として作用し、偏光子と検光子は平行ニコルの条件を満足する。従って、光源445から偏光フィルタ446を介して投射された光のうち、インク層411で鏡面反射した光成分は偏光フィルタ446を通過してカメラ431に受光されるが、拡散反射した光成分は偏光フィルタ446で遮断されてカメラ431で受光されないようにすることができる。
 図32に示す撮像アダプタは、偏光フィルタ446を有することにより、カメラ431に入力される拡散反射光を低減することができ、結果としてインク層411による鏡面反射光を相対的に強調することができる。
 また、1枚の偏光フィルタ446を、平行ニコルを満たす偏光子と検光子に利用しているため、構成が簡易になる。但し、1枚の偏光フィルタ446の代わりに、開口443を覆うドーナツ形状の偏光子と、開口442を覆う検光子とを使用してもよい。
<撮像アダプタの構成例7>
 図33は、撮像アダプタ412の第7の構成例を示す側面図である。図33に示す撮像アダプタ412は、拡散板444と上側筐体441-2の下端開口を覆うように、円形の偏光フィルタ446を取り付けた構造を有する点で、そのような偏光フィルタ446がない図30に示した撮像アダプタと相違し、それ以外の構成は図30に示した撮像アダプタと同じである。
 拡散板444を覆うように拡散板444の下面直下に平行に偏光フィルタ446を取り付けることにより、光源445から拡散板444を通じて投射された光は、偏光フィルタ446を通過して直線偏光となってインク層411に投射する。また偏光フィルタ446を、上側筐体441-2の下端開口を覆うように取り付けることにより、カメラ431は、インク層411の表面で鏡面反射し、偏光フィルタ446を通過した光を受光する。従って、光源445から偏光フィルタ446を介して投射された光のうち、インク層411で鏡面反射した光成分は偏光フィルタ446を通過してカメラ431に受光されるが、拡散反射した光成分は偏光フィルタ446で遮断されてカメラ431で受光されないようにすることができる。
 図33に示す撮像アダプタは、偏光フィルタ446を有することにより、カメラ431に入力される拡散反射光を低減することができ、結果としてインク層411による鏡面反射光を相対的に強調することができる。
 また、1枚の偏光フィルタ446を、平行ニコルを満たす偏光子と検光子に利用しているため、構成が簡易になる。但し、1枚の偏光フィルタ446の代わりに、拡散板444を覆うドーナツ形状の偏光子と、上側筐体441-2の開口を任意の位置で覆う検光子とを使用してもよい。
<撮像アダプタの構成例8>
 図34は、撮像アダプタ412の第8の構成例を示す側面図である。図34に示す撮像アダプタ412は、円筒状の筐体441の側面に形成された拡散板444よりインク層411に近い側に、筐体441の開口を覆うように、円形の偏光フィルタ446を取り付けた構造を有する点で、そのような偏光フィルタ446がない図31に示した撮像アダプタと相違し、それ以外の構成は図31に示した撮像アダプタと同じである。
 拡散板444よりインク層411に近い側に筐体441の開口を覆うように円形の偏光フィルタ446を取り付けることにより、光源445から拡散板444を通じて投射された光は、偏光フィルタ446を通過して直線偏光となってインク層411に投射する。またカメラ431は、インク層411の表面で鏡面反射し、偏光フィルタ446を通過した光を受光する。従って、光源445から偏光フィルタ446を介して投射された光のうち、インク層411で鏡面反射した光成分は偏光フィルタ446を通過してカメラ431に受光されるが、拡散反射した光成分は偏光フィルタ446で遮断されてカメラ431で受光されないようにすることができる。
 図34に示す撮像アダプタは、偏光フィルタ446を有することにより、カメラ431に入力される拡散反射光を低減することができ、結果としてインク層411による鏡面反射光を相対的に強調することができる。
 また、1枚の偏光フィルタ446を、平行ニコルを満たす偏光子と検光子に利用しているため、構成が簡易になる。但し、1枚の偏光フィルタ446の代わりに、拡散板444よりインク層411に近い側に水平に配置されたドーナツ形状の偏光子と、拡散板444よりインク層411に近い側に筐体441の開口を覆う検光子とを使用してもよい。
<その他の撮像アダプタの構成例>
 図28に示した撮像アダプタに、図32に示した撮像アダプタと同様な偏光フィルタ446を取り付けるようにしてもよい。また、図29に示した撮像アダプタに、図33に示した撮像アダプタと同様な偏光フィルタ446を取り付けるようにしてもよい。
 次に、図22の画像処理部433の構成例について説明する。
 図35は、画像処理部433の構成の一例を示す。この例の画像処理部433は、画面メモリ451、インク層抽出部452、画像メモリ453、露出制御部454、および個体識別子抽出部455を備えている。
 画面メモリ451は、カメラ431で撮像されたインク層411の画像を含むフレーム画像を記憶する機能を有する。
 インク層抽出部452は、画面メモリ451に記憶されたフレーム画像からインク層411の領域に対応する部分画像を抽出する機能を有する。インク層抽出部452は、例えば、インク層411が形成される物体410の面の色や色相とインク層411の色や色相との相違に基づいて、両者を分割する色や色相によるしきい値処理(2値化処理)によってインク層411の画像部分を抽出する。但し、そのような方法に限定されず、画像の領域分割手法として知られている、特徴空間におけるクラスタリング、分割併合法等を使用してよい。
 画像メモリ453は、インク層抽出部452によって抽出されたインク層411の領域に対応する部分画像を記憶する機能を有する。
 露出制御部454は、画像メモリ453に記憶されたインク層411の領域に対応する部分画像の明るさに基づいて、カメラ431の露出を制御する機能を有する。例えば、露出制御部454は、インク層411の領域内の画素値を平均化して、部分画像の平均輝度を算出する。次に露出制御部454は、上記平均輝度が所定値であれば、露出制御量を現状の露出制御量のまま保持し、所定値から外れる場合には、所定値に一致するための露出制御量を算出する。上記所定値としては、画素の輝度の値が0~256である場合、例えば128とすることができる。こうすることにより、インク層411の表面の凹凸パターンのコントラストを増大させることができる。次に露出制御部454は、上記算出した露出制御量に応じた露出制御信号456をカメラ431へ送出する。露出制御信号456は、カメラ431のレンズの絞り量、シャッタースピード、フレームレート、映像信号を増幅する増幅部のゲインの何れか1つ、または2つ、または3つ、あるいは全てを調整するための信号であってよい。
 個体識別子抽出部455は、露出制御部454による露出制御後のインク層411の領域に対応する部分画像を画像メモリ453から取得し、この取得した部分画像から物体410の個体識別子を抽出する機能を有する。
 図36は個体識別子抽出部455の構成の一例を示す。この例の個体識別子抽出部455は、前処理部461、特徴点抽出部462、局所特徴量算出部463、および局所特徴量出力部464を有する。
 前処理部461は、画像メモリ453からインク層411の領域に対応する部分画像を読み出し、前処理を行う。具体的には、先ず前処理部461は、インク層411の領域内の画素値を平均化して、インク層411の平均色を算出する。例えば、赤、緑、青の3つの色情報の組み合わせで1つの画素の色が表現されるカラー画像の場合、前処理部461は、インク層411の領域内の全ての画素の赤、緑、青の色情報の平均値を算出する。次に前処理部461は、インク層411の領域内の画素毎に、その画素の赤、緑、青の色情報から、上記算出した赤、緑、青の色情報の平均値を減算する。こうすることにより、インク色と異なるカラーチャネルの重みが増し、インク層412の表面で鏡面反射した光成分を強調することができる。
 特徴点抽出部462、局所特徴量算出部463、および局所特徴量出力部464は、図13の特徴点抽出部192、局所特徴量算出部193、および局所特徴量出力部194と同様の機能を有する。即ち、特徴点抽出部462は、前処理後のインク層411の領域に対応する部分画像からエッジやコーナなどにある特徴的な点(特徴点)を抽出する。また局所特徴量算出部463は、抽出された特徴点とその近傍の画素の画素値とから、その特徴点に関する特徴量(局所特徴量)を算出する。局所特徴量出力部464は、局所特徴量算出部463で算出された局所特徴量を物体410の個体識別子として認識部402に出力する。
 このように本実施形態によれば、微小な凹凸パターンの個体差を認証や照合に利用できる簡便な物体照合装置および方法を実現することができる。その理由は、インク層の表面の微細な凹凸パターンを物体の認識・照合に利用するためである。
[第5の実施形態]
 図37を参照すると、本発明の第5の実施形態に係る物体管理システム600は、物体610の識別・照合のための個体識別子を管理する機能を有する。
 物体610は、工業製品や商品パッケージなど、個体識別子を付与して管理する対象である。図37では、個体識別子を付与して管理する物体610は、1個のみ図示しているが、一般には多数の物体610が管理対象となる。その場合、多数の物体610は、同じ外形を有する同じ種類の物体(例えば或る生産ラインで生産されている特定の電子部品など)の集合であってもよいし、異なる外形・サイズを有する異なる種類の物体(例えば異なる複数の生産ラインで生産されている異なる外形、機能を有する電子部品など)の集合が混在していてもよい。
 物体管理システム600は、識別子生成装置601と物体照合装置602とから構成されている。
 識別子生成装置601は、物体610にインク層611を形成する機能と、インク層611の表面の凹凸パターン612を撮像する機能と、撮像された結果の個体識別子を記憶装置620に登録する機能とを有する。識別子生成装置601は、例えば、本発明の第1
の実施形態に係る識別子生成装置100により構成されている。
 物体照合装置602は、物体610に形成されたインク層611の表面の凹凸パターン612を撮像する機能と、撮像して得られた凹凸パターン612の画像に基づいて物体610を認識する機能とを有する。物体照合装置602は、例えば、本発明の第4の実施形態に係る物体照合装置400により構成されている。
 図38は物体管理システム600を用いて実行する個体識別子管理方法の手順を示すフローチャートである。以下、図37及び図38を参照して本実施形態に係る物体管理方法について説明する。
 まず、識別子生成装置601は、物体610上にインク層611を形成する(S401)。次に識別子生成装置601は、物体610上に形成したインク層611の表面の凹凸パターン612を撮像し、凹凸パターン612の画像を取得する(S402)。次に識別子生成装置601は、取得した凹凸パターンの画像から個体識別子を抽出する(S403)。次に識別子生成装置601は、抽出した個体識別子を物体610の個体識別子として記憶装置620に登録する。
 一方、物体照合装置602は、物体610に形成されたインク層611の表面の凹凸パターン612を撮像し、凹凸パターン612の画像を取得する(S405)。次に物体照合装置602は、取得した凹凸パターン612の画像から個体識別子を抽出する(S406)。次に物体照合装置602は、上記抽出した個体識別子と記憶装置620に登録済みの物体の個体識別子とを比較し、比較結果に基づいて物体610の認識・照合を行う(S407)。次に物体照合装置602は、認識・照合の結果を出力する(S408)。
 図38のフローチャートでは、識別子生成装置601によるステップS401~S404の処理に引き続いて、物体照合装置602によるステップS405~S408の処理を実行した。しかし、そのような手順に限定されず、識別子生成装置601によるステップS401~S404の処理を異なる物体610について複数回繰り返すようにしてよい。また、物体照合装置602によるステップS405~S408の処理を異なる物体610について複数回繰り返すようにしてよい。或いは、識別子生成装置601によるステップS401~S404の処理と物体照合装置602によるステップS405~S408の処理とを異なる物体610に対して並行して行うようにしてよい。
 このように本実施形態によれば、微小な凹凸パターンの個体差を認証や照合に利用できる簡便な物体管理システムおよび方法を実現することができる。その理由は、インク層の表面の微細な凹凸パターンを物体の個体識別に利用するためである。
[第6の実施形態]
 図39を参照すると、本発明の第6の実施形態に係る物体照合装置700は、撮像部701と認識部702とを有する。
 撮像部701は、図示しない物体上に形成されたインク層の表面の凹凸パターンの画像を取得するために凹凸パターンを撮像する機能を有する。また撮像部701は、撮像して得られた凹凸パターンの画像から個体識別子を抽出する機能を有する。撮像部701は、例えば図20の撮像部401と同様に構成することができるが、それに限定されない。
 認識部702は、撮像部701により抽出された物体の個体識別子と図示しない記憶部に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う機能を有する。認識部402は、例えば図20の認識部402と同様に構成することができるが、それに限定されない。
 このように構成された本実施形態に係る物体照合装置700は、以下のように動作する。即ち、物体照合装置700の撮像部701は、図示しない物体上に形成されたインク層の表面の凹凸パターンを撮像して、その画像を取得する。次に撮像部701は、撮像して得られた凹凸パターンの画像から個体識別子を抽出する。次に認識部702は、撮像部701により抽出された物体の個体識別子と図示しない記憶部に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う。
 このように本実施形態によれば、微小な凹凸パターンの個体差を認証や照合に利用できる簡便な個体識別装置および方法を実現することができる。その理由は、インク層の表面の微細な凹凸パターンを物体の個体識別に利用するためである。
 以上、上記各実施形態を参照して本発明を説明したが、本発明は、上述した実施形態に限定されるものではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 本発明は、物体の認識、認証、照合の分野に利用でき、特に、物体上に凹凸パターンを形成し、その凹凸パターンによって物体の認証・照合を行う分野に適用できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 対象物体に形成されたインク層の表面の凹凸パターンを撮像する撮像部と、
 前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する認識部と、
を含む物体照合装置。
[付記2]
 前記撮像部は、
 前記インク層に正対する法線方向から所定の角度の斜め四方から前記インク層の表面に光を投射する光源と、
 前記インク層から見て前記光源の方向以外の方向を暗領域とした筐体と、
 前記光源から投射され、前記インク層の表面で鏡面反射した光を受光し、前記凹凸パターンを明暗像として取得するカメラと、
を含む付記1に記載の物体照合装置。
[付記3]
 前記インク層から見た前記光源の方向は、前記法線方向から17.7°~25.6°の角度である、
付記2に記載の物体照合装置。
[付記4]
 前記光源として、リング状光源を使用する、
付記2または3に記載の物体照合装置。
[付記5]
 前記筐体は、前記カメラから前記インク層を観察するための開口と前記光源から前記インク層に光を投射するための開口とを有し、内面が黒色である筒状の形状を有する、
付記2乃至4の何れかに記載の物体照合装置。
[付記6]
 前記筐体は、下端に向かって細くなる円錐台形状を有する、
付記2乃至5の何れかに記載の物体照合装置。
[付記7]
 前記筐体は、前記光源から投射された光を直線偏光に変換して前記インク層に入射させる偏光子と、前記インク層の表面で鏡面反射した光を通過させて前記カメラに入射させる検光子とを、更に有する、
付記2乃至6の何れかに記載の物体照合装置。
[付記8]
 前記偏光子と前記検光子とは、1枚の偏光フィルタによって構成されている、
付記7に記載の物体照合装置。
[付記9]
 前記光源として、前記インク層の分光反射率特性において分光反射率の低い波長帯に分光分布の高い放射強度を有する光源を使用する、
付記2乃至8の何れかに記載の物体照合装置。
[付記10]
 前記撮像部は、
 前記カメラで取得された前記凹凸パターンのカラー画像の各画素の値から、前記インク層の平均色に相当する値を減じる処理を行う画像処理部を、更に有する、
付記2乃至9の何れかに記載の物体照合装置。
[付記11]
 前記撮像部は、
 前記カメラで取得された画像から前記インク層の領域に対応する部分画像を検出し、前記部分画像の明るさに基づいて前記カメラの露出制御を行う画像処理部を、更に有する、
付記2乃至10の何れかに記載の物体照合装置。
[付記12]
 前記凹凸パターンは、クレータリング現象によって前記インク層の表面にランダムに形成された直径10μm以上、100μm以下のクレーター状の凹凸を含む、
付記1乃至11の何れかに記載の物体照合装置。
[付記13]
 対象物体にインク層を形成する生成部と、
 前記インク層の表面の凹凸パターンを撮像する撮像部と、
 前記撮像された結果を記憶部に登録する登録部と、
を含む識別子生成装置。
[付記14]
 前記生成部は、前記インク層を形成するために速乾性インクを使用する、
付記13に記載の識別子生成装置。
[付記15]
 前記生成部は、前記インク層を形成するために前記対象物体の同一箇所に短時間以内にインクを複数回塗布する、
付記13または14に記載の識別子生成装置。
[付記16]
 前記生成部は、前記対象物体にインクを塗布した後、前記塗布した前記インクを急激に加熱する、
付記13乃至15の何れかに記載の識別子生成装置。
[付記17]
 前記撮像部は、前記凹凸パターンの安定後の画像を取得する、
付記13乃至16の何れかに記載の識別子生成装置。
[付記18]
 前記撮像部は、前記凹凸パターンが安定したか否かを判定する判定部を有する、
付記13乃至17の何れかに記載の識別子生成装置。
[付記19]
 前記判定部は、前記インク層の生成後に前記凹凸パターンを時系列で撮像して得た前記凹凸パターンの時系列画像に基づいて前記判定を行う、
付記18に記載の識別子生成装置。
[付記20]
 前記判定部は、前記インク層の生成後に前記凹凸パターンを時系列で撮像して得た前記凹凸パターンの時系列画像を構成する複数の画像から抽出した特徴点の数を基準値と比較した結果に基づいて前記判定を行う、
付記18に記載の識別子生成装置。
[付記21]
 前記撮像部は、前記基準値より前記特徴点の数が多くなった前記画像を、前記凹凸パターンの安定後の画像として取得する、
付記20に記載の識別子生成装置。
[付記22]
 前記判定部は、前記インク層の生成後に前記凹凸パターンを時系列で撮像して得た前記凹凸パターンの時系列画像を構成する複数の画像から抽出した複数の特徴点に関する情報を互いに比較した結果に基づいて前記判定を行う、
付記18に記載の識別子生成装置。
[付記23]
 前記撮像部は、時間的に先行する画像から抽出した複数の特徴点に関する情報とほぼ等しい複数の特徴点に関する情報を抽出した時間的に後続する画像を、前記凹凸パターンの安定後の画像として取得する、
付記22に記載の識別子生成装置。
[付記24]
 前記判定部は、前記インク層の生成から所定時間が経過したか否かに基づいて前記判定を行う、
付記18に記載の識別子生成装置。
[付記25]
 識別子生成装置と物体照合装置とを有する物体管理システムであって、
 前記識別子生成装置は、
 対象物体にインク層を形成する生成部と、
 前記インク層の表面の凹凸パターンを撮像する撮像部と、
 前記撮像された結果を記憶部に登録する登録部と、
を含み、
 前記物体照合装置は、
 前記対象物体に形成された前記インク層の表面の凹凸パターンを撮像する撮像部と、
 前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する認識部と、
を含む物体管理システム。
[付記26]
 対象物体に形成されたインク層の表面の凹凸パターンを撮像し、
 前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する、
物体照合方法。
[付記27]
 対象物体にインク層を形成し、
 前記インク層の表面の凹凸パターンを撮像し、
 前記撮像された結果を記憶部に登録する、
識別子生成方法。
[付記28]
 識別子生成工程と物体照合工程とを有する物体管理方法であって、
 前記識別子生成工程では、
 対象物体にインク層を形成し、
 前記インク層の表面の凹凸パターンを撮像し、
 前記撮像された結果を記憶部に登録し、
 前記物体照合工程では、
 前記対象物体に形成された前記インク層の表面の凹凸パターンを撮像し、
 前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する、
物体管理方法。
[付記29]
 コンピュータを、
 対象物体に形成されたインク層の表面の凹凸パターンを撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する認識部、
として機能させるためのプログラム。
[付記30]
 物体上に形成されたインク層の表面の凹凸パターンを撮像するカメラに装着可能な撮像アダプタであって、
 前記インク層に正対する法線方向から所定の角度の斜め四方から前記インク層の表面に光を投射する光源と、
 前記インク層から見て前記光源の方向以外の方向を暗領域とした筐体であって、前記光源から投射され、前記インク層の表面で鏡面反射した光を受光し、前記凹凸パターンを明暗像として観測するための開口を有する筐体と、
を備える撮像アダプタ。
100…識別子生成装置
101…生成部
102…撮像部
103…登録部
110…物体
111…インク層
112…凹凸パターン
120…記憶部
122…ハウジング
123…ペン先部
124…インク
127…キャップ
131…インク付与ユニット
142…インクジェットノズル
143…駆動部
144…インクタンク
151…プレート
152…インク付与ユニット
153…リターンスプリング
154…ピストンロッド
155…駆動部
156…リミットスイッチ
157…連結部材
161…カメラ
162…検出部
163…判定部
164…画像処理部
171…画像取得部
172…特徴点抽出部
173…局所特徴量算出部
174…基準値記憶部
175…特徴点記憶部
176…局所特徴量記憶部
177…比較部
178…照合部
179…照合部
180…判定結果出力部
181…タイマ
191…画像取得部
192…特徴点抽出部
193…局所特徴量算出部
194…局所特徴量出力部
200…識別子生成装置
201…生成器
202…撮像器
203…乾燥器
204…制御器
205…ベルトコンベア
206…ベルトコンベア駆動器
207…光スイッチ
208…光スイッチ
209…記憶装置
210…物体
211…インク層
300…識別子生成装置
301…脚部
302…外装ケース
303…プレート
304…インク付与ユニット
305…撮像器
306…乾燥器
307…リターンスプリング
308…回転軸
309…ステッピングモータ
310…ピストンロッド
311…駆動部
312…制御器
313…操作ボタン
314…LED
315…電源
400…物体照合装置
401…撮像部
402…認識部
410…物体
411…インク層
412…凹凸パターン
420…記憶部
430…認識結果
431…カメラ
432…撮像アダプタ
433…画像処理部
441…筐体
441-1…下側筐体
441-2…上側筐体
442…開口
443…開口
444…拡散板
445…光源
446…偏光フィルタ
451…画面メモリ
452…インク層抽出部
453…画像メモリ
454…露出制御部
455…個体識別子抽出部
461…前処理部
462…特徴点抽出部
463…局所特徴量算出部
464…局所特徴量出力部
500…コンピュータ
501…演算処理部
502…記憶部
503…プログラム
600…物体管理システム
601…識別子生成装置
602…物体照合装置
603…認識結果
610…物体
611…インク層
612…凹凸パターン
620…記憶装置
700…物体照合装置
701…撮像部
702…認識部

Claims (30)

  1.  対象物体に形成されたインク層の表面の凹凸パターンを撮像する撮像部と、
     前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する認識部と、
    を含む物体照合装置。
  2.  前記撮像部は、
     前記インク層に正対する法線方向から所定の角度の斜め四方から前記インク層の表面に光を投射する光源と、
     前記インク層から見て前記光源の方向以外の方向を暗領域とした筐体と、
     前記光源から投射され、前記インク層の表面で鏡面反射した光を受光し、前記凹凸パターンを明暗像として取得するカメラと、
    を含む請求項1に記載の物体照合装置。
  3.  前記インク層から見た前記光源の方向は、前記法線方向から17.7°~25.6°の角度である、
    請求項2に記載の物体照合装置。
  4.  前記光源として、リング状光源を使用する、
    請求項2または3に記載の物体照合装置。
  5.  前記筐体は、前記カメラから前記インク層を観察するための開口と前記光源から前記インク層に光を投射するための開口とを有し、内面が黒色である筒状の形状を有する、
    請求項2乃至4の何れかに記載の物体照合装置。
  6.  前記筐体は、下端に向かって細くなる円錐台形状を有する、
    請求項2乃至5の何れかに記載の物体照合装置。
  7.  前記筐体は、前記光源から投射された光を直線偏光に変換して前記インク層に入射させる偏光子と、前記インク層の表面で鏡面反射した光を通過させて前記カメラに入射させる検光子とを、更に有する、
    請求項2乃至6の何れかに記載の物体照合装置。
  8.  前記偏光子と前記検光子とは、1枚の偏光フィルタによって構成されている、
    請求項7に記載の物体照合装置。
  9.  前記光源として、前記インク層の分光反射率特性において分光反射率の低い波長帯に分光分布の高い放射強度を有する光源を使用する、
    請求項2乃至8の何れかに記載の物体照合装置。
  10.  前記撮像部は、
     前記カメラで取得された前記凹凸パターンのカラー画像の各画素の値から、前記インク層の平均色に相当する値を減じる処理を行う画像処理部を、更に有する、
    請求項2乃至9の何れかに記載の物体照合装置。
  11.  前記撮像部は、
     前記カメラで取得された画像から前記インク層の領域に対応する部分画像を検出し、前記部分画像の明るさに基づいて前記カメラの露出制御を行う画像処理部を、更に有する、
    請求項2乃至10の何れかに記載の物体照合装置。
  12.  前記凹凸パターンは、クレータリング現象によって前記インク層の表面にランダムに形成された直径10μm以上、100μm以下のクレーター状の凹凸を含む、
    請求項1乃至11の何れかに記載の物体照合装置。
  13.  対象物体にインク層を形成する生成部と、
     前記インク層の表面の凹凸パターンを撮像する撮像部と、
     前記撮像された結果を記憶部に登録する登録部と、
    を含む識別子生成装置。
  14.  前記生成部は、前記インク層を形成するために速乾性インクを使用する、
    請求項13に記載の識別子生成装置。
  15.  前記生成部は、前記インク層を形成するために前記対象物体の同一箇所に短時間以内にインクを複数回塗布する、
    請求項13または14に記載の識別子生成装置。
  16.  前記生成部は、前記対象物体にインクを塗布した後、前記塗布した前記インクを急激に加熱する、
    請求項13乃至15の何れかに記載の識別子生成装置。
  17.  前記撮像部は、前記凹凸パターンの安定後の画像を取得する、
    請求項13乃至16の何れかに記載の識別子生成装置。
  18.  前記撮像部は、前記凹凸パターンが安定したか否かを判定する判定部を有する、
    請求項13乃至17の何れかに記載の識別子生成装置。
  19.  前記判定部は、前記インク層の生成後に前記凹凸パターンを時系列で撮像して得た前記凹凸パターンの時系列画像に基づいて前記判定を行う、
    請求項18に記載の識別子生成装置。
  20.  前記判定部は、前記インク層の生成後に前記凹凸パターンを時系列で撮像して得た前記凹凸パターンの時系列画像を構成する複数の画像から抽出した特徴点の数を基準値と比較した結果に基づいて前記判定を行う、
    請求項18に記載の識別子生成装置。
  21.  前記撮像部は、前記基準値より前記特徴点の数が多くなった前記画像を、前記凹凸パターンの安定後の画像として取得する、
    請求項20に記載の識別子生成装置。
  22.  前記判定部は、前記インク層の生成後に前記凹凸パターンを時系列で撮像して得た前記凹凸パターンの時系列画像を構成する複数の画像から抽出した複数の特徴点に関する情報を互いに比較した結果に基づいて前記判定を行う、
    請求項18に記載の識別子生成装置。
  23.  前記撮像部は、時間的に先行する画像から抽出した複数の特徴点に関する情報とほぼ等しい複数の特徴点に関する情報を抽出した時間的に後続する画像を、前記凹凸パターンの安定後の画像として取得する、
    請求項22に記載の識別子生成装置。
  24.  前記判定部は、前記インク層の生成から所定時間が経過したか否かに基づいて前記判定を行う、
    請求項18に記載の識別子生成装置。
  25.  識別子生成装置と物体照合装置とを有する物体管理システムであって、
     前記識別子生成装置は、
     対象物体にインク層を形成する生成部と、
     前記インク層の表面の凹凸パターンを撮像する撮像部と、
     前記撮像された結果を記憶部に登録する登録部と、
    を含み、
     前記物体照合装置は、
     前記対象物体に形成された前記インク層の表面の凹凸パターンを撮像する撮像部と、
     前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する認識部と、
    を含む物体管理システム。
  26.  対象物体に形成されたインク層の表面の凹凸パターンを撮像し、
     前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する、
    物体照合方法。
  27.  対象物体にインク層を形成し、
     前記インク層の表面の凹凸パターンを撮像し、
     前記撮像された結果を記憶部に登録する、
    識別子生成方法。
  28.  識別子生成工程と物体照合工程とを有する物体管理方法であって、
     前記識別子生成工程では、
     対象物体にインク層を形成し、
     前記インク層の表面の凹凸パターンを撮像し、
     前記撮像された結果を記憶部に登録し、
     前記物体照合工程では、
     前記対象物体に形成された前記インク層の表面の凹凸パターンを撮像し、
     前記撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する、
    物体管理方法。
  29.  コンピュータを、
     対象物体に形成されたインク層の表面の凹凸パターンを撮像して得られた前記凹凸パターンの画像に基づいて前記対象物体を認識する認識部、
    として機能させるためのプログラム。
  30.  物体上に形成されたインク層の表面の凹凸パターンを撮像するカメラに装着可能な撮像アダプタであって、
     前記インク層に正対する法線方向から所定の角度の斜め四方から前記インク層の表面に光を投射する光源と、
     前記インク層から見て前記光源の方向以外の方向を暗領域とした筐体であって、前記光源から投射され、前記インク層の表面で鏡面反射した光を受光し、前記凹凸パターンを明暗像として観測するための開口を有する筐体と、
    を備える撮像アダプタ。
PCT/JP2017/005733 2017-02-16 2017-02-16 物体照合装置 Ceased WO2018150519A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/486,352 US11594067B2 (en) 2017-02-16 2017-02-16 Object collation device
JP2019500111A JP6730697B2 (ja) 2017-02-16 2017-02-16 物体照合装置
PCT/JP2017/005733 WO2018150519A1 (ja) 2017-02-16 2017-02-16 物体照合装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/005733 WO2018150519A1 (ja) 2017-02-16 2017-02-16 物体照合装置

Publications (1)

Publication Number Publication Date
WO2018150519A1 true WO2018150519A1 (ja) 2018-08-23

Family

ID=63169737

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/005733 Ceased WO2018150519A1 (ja) 2017-02-16 2017-02-16 物体照合装置

Country Status (3)

Country Link
US (1) US11594067B2 (ja)
JP (1) JP6730697B2 (ja)
WO (1) WO2018150519A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020157831A1 (ja) * 2019-01-29 2020-08-06 日本電気株式会社 物体とn次元シンボルとを関連付けるシステム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839505B2 (en) * 2016-10-20 2020-11-17 Nec Corporation Individual identifying device
US11694321B2 (en) * 2020-09-28 2023-07-04 Lennox Industries Inc. Component tracking in automated manufacturing using digital fingerprints

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102676A (ja) * 2006-10-18 2008-05-01 Fuji Xerox Co Ltd 樹脂層読取方法、樹脂層識別照合方法、樹脂層読取装置および樹脂層識別照合装置
WO2014003030A1 (ja) * 2012-06-27 2014-01-03 富士フイルム株式会社 真偽判定システムに用いられる装置
JP2015131483A (ja) * 2013-12-09 2015-07-23 株式会社リコー 画像形成装置、キャリブレーション方法および乾燥判定方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258618A (ja) * 2008-03-27 2009-11-05 Olympus Corp フィルタ切替装置、撮影レンズ、カメラ、および撮影システム
RU2642156C2 (ru) * 2012-08-03 2018-01-24 Нек Корпорейшн Средство формирования изображения, устройство формирования изображения и способ формирования изображения
FR3001064B1 (fr) * 2013-01-15 2015-02-13 Commissariat Energie Atomique Systeme et procede de detection de la position d'un organe d'actionnement sur un ecran d'affichage
JP2016200446A (ja) 2015-04-08 2016-12-01 トヨタ自動車株式会社 鋳型内部のひずみ測定方法
US10482361B2 (en) * 2015-07-05 2019-11-19 Thewhollysee Ltd. Optical identification and characterization system and tags
US11493454B2 (en) * 2015-11-13 2022-11-08 Cognex Corporation System and method for detecting defects on a specular surface with a vision system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102676A (ja) * 2006-10-18 2008-05-01 Fuji Xerox Co Ltd 樹脂層読取方法、樹脂層識別照合方法、樹脂層読取装置および樹脂層識別照合装置
WO2014003030A1 (ja) * 2012-06-27 2014-01-03 富士フイルム株式会社 真偽判定システムに用いられる装置
JP2015131483A (ja) * 2013-12-09 2015-07-23 株式会社リコー 画像形成装置、キャリブレーション方法および乾燥判定方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020157831A1 (ja) * 2019-01-29 2020-08-06 日本電気株式会社 物体とn次元シンボルとを関連付けるシステム
JPWO2020157831A1 (ja) * 2019-01-29 2021-11-11 日本電気株式会社 物体とn次元シンボルとを関連付けるシステム
JP7131637B2 (ja) 2019-01-29 2022-09-06 日本電気株式会社 物体とn次元シンボルとを関連付けるシステム
US11461606B2 (en) 2019-01-29 2022-10-04 Nec Corporation System that associates object with n-dimensional symbol

Also Published As

Publication number Publication date
JP6730697B2 (ja) 2020-07-29
US20190384961A1 (en) 2019-12-19
US11594067B2 (en) 2023-02-28
JPWO2018150519A1 (ja) 2019-11-14

Similar Documents

Publication Publication Date Title
CN108234874B (zh) 体感摄像头的成像精度的调节方法及调节装置
US7158659B2 (en) System and method for multiplexing illumination in combined finger recognition and finger navigation module
JP2899113B2 (ja) 携帯式非接触ラベルイメージャのための方法と装置
JP6730697B2 (ja) 物体照合装置
US20060279726A1 (en) Facial liveness assessment system
US9727774B2 (en) System and method for detecting an organic body for authentication
JP2014137641A (ja) 生体情報撮像装置及び生体認証装置ならびに生体情報撮像装置の製造方法
US11501517B2 (en) Individual identifying device
KR20190097706A (ko) 비접촉식 지문 인식 장치 및 비접촉식 지문 인식 방법
US11709919B2 (en) Method and apparatus of active identity verification based on gaze path analysis
CN110945521A (zh) 用于生物计量认证的激光斑点分析
JP5561361B2 (ja) 生体認証装置、生体認証プログラム及び方法
US8634961B2 (en) System and method for controlling fans and fan having the system
JP2021047448A (ja) 撮影システム、撮影方法及びプログラム
JPWO2010106657A1 (ja) 生体情報取得装置及び生体認証装置
JP2010218562A (ja) 認証用撮像装置、認証用撮像方法、および認証用撮像プログラム
CN104680113B (zh) 图像捕捉装置
CN213844156U (zh) 生物特征采集识别系统和终端设备
WO2014003030A1 (ja) 真偽判定システムに用いられる装置
JP6777895B2 (ja) 個体識別装置
US20180130230A1 (en) Recognition apparatus, determination method, and article manufacturing method
US11194403B2 (en) Reference position setting method and virtual image display device
JP6734572B2 (ja) 個体識別装置
JP4694352B2 (ja) 指紋照合装置
CN112684923A (zh) 笔迹生成方法、装置、终端设备及计算机存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17896533

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019500111

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17896533

Country of ref document: EP

Kind code of ref document: A1