WO2020115910A1 - 情報処理システム、情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理システム、情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- WO2020115910A1 WO2020115910A1 PCT/JP2018/045176 JP2018045176W WO2020115910A1 WO 2020115910 A1 WO2020115910 A1 WO 2020115910A1 JP 2018045176 W JP2018045176 W JP 2018045176W WO 2020115910 A1 WO2020115910 A1 WO 2020115910A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- person
- image
- face
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Definitions
- the present invention relates to an information processing system, an information processing apparatus, an information processing method, and a program, and particularly to an information processing system, an information processing apparatus, an information processing method, and a program that perform image recognition processing.
- Patent Document 1 person characteristic information is stored for each image included in a video, a person who meets a preset condition is searched for the stored information, and information corresponding to the search result is searched. It is described to extract. Further, it is also described that the above-mentioned person state is used when the person state is determined and the person is identified using various feature amounts.
- Patent Document 2 describes a system for identifying all the persons who meet the search condition from a group of images shot by a plurality of cameras. Further, in Patent Document 3, a walking state of a person is detected from a human image sequence obtained by a distant frame or a different camera, and whether or not the persons included in different image sequences are the same based on the walking state. Is described. In Patent Document 4, even when there are face images of a plurality of people in the video, the unique information of the matching face image is acquired by matching with the database for each face image, and the unique information is provided near the person in the video. It is described to display.
- an object of the present invention is to provide a new method for keeping track of a specific person with a plurality of cameras by using image processing.
- the first aspect relates to an information processing device.
- the information processing device of the first aspect is Extracting means for extracting first face feature information from the face area of the person included in the first image, and extracting first person region feature information from the area including the area other than the face of the person; Collating means for collating two or more characteristic information, If the extraction unit is unable to extract the second face feature information from the face area of the person included in the second image, the second person area feature is extracted from the area other than the face of the person included in the second image. Extract information, The collation unit collates the first human area characteristic information with the second human area characteristic information.
- the second aspect relates to an information processing method executed by at least one computer.
- the first information processing method according to the second aspect is The information processing device First facial feature information is extracted from the face area of the person included in the first image, and first human area feature information is extracted from the area other than the face of the person, Match two or more feature information, When the second face feature information cannot be extracted from the face area of the person included in the second image, the second person area feature information is extracted from the area other than the face of the person included in the second image, Collating the first person area characteristic information with the second person area characteristic information.
- the present invention may be a program that causes at least one computer to execute the method of the second aspect, or a computer-readable recording medium that records such a program. May be.
- the recording medium includes a non-transitory tangible medium.
- the computer program includes a computer program code that, when executed by a computer, causes the computer to execute the control method on the information processing device.
- the various constituent elements of the present invention do not necessarily have to exist independently, and a plurality of constituent elements are formed as one member, and one constituent element is formed by a plurality of members. May be present, a certain component may be a part of another component, a part of a certain component may overlap a part of another component, and the like.
- the order of description does not limit the order of executing the plurality of procedures. Therefore, when executing the method and computer program of the present invention, the order of the plurality of procedures can be changed within a range that does not hinder the contents.
- the plurality of procedures of the method and computer program of the present invention are not limited to being executed at different timings. For this reason, another procedure may occur during execution of a certain procedure, the execution timing of a certain procedure may partially or completely overlap the execution timing of another procedure, and the like.
- FIG. 1 is a diagram conceptually showing the configuration of an image processing system according to an embodiment of the present invention.
- the image processing system 1 includes an information processing device 100.
- the information processing apparatus 100 is connected via a communication network 3 to a plurality of cameras 5a, 5b,... (If there is no particular need to distinguish them, they will be referred to as “cameras 5”).
- the information processing apparatus 100 can continue to track a person who is a tracking target (hereinafter, referred to as a tracking target person) even if the face does not appear in the image.
- a tracking target person hereinafter, referred to as a tracking target person
- the camera 5 is a network camera such as an IP (Internet Protocol) camera, which includes an imaging element such as a lens and a CCD (Charge Coupled Device) image sensor.
- the network camera has, for example, a wireless LAN (Local Area Network) communication function, and is connected to the information processing apparatus 100 via a communication network, that is, a relay device (not shown) such as a router.
- These cameras 5 may be so-called surveillance cameras installed in the city or inside and outside the building.
- the camera 5 may include a mechanism that follows the movement of a specific person to control the orientation of the camera body or mens, zoom control, focus adjustment, and the like.
- the camera 5 and the information processing device 100 may be directly connected, or may be connected via the communication network 3 or the like as described above.
- the image data captured by the camera 5 may be directly transmitted to the information processing device 100, and the information processing device 100 may sequentially receive the image data.
- a storage device (not shown) that can be accessed by both the camera 5 and the information processing device 100 may be provided. In this case, the image data captured by the camera 5 is stored in the storage device. Then, the information processing apparatus 100 reads the image data from this storage device.
- the image data here may be at least one of a still image and a moving image.
- the data format, file format, file size, image size, image resolution, moving image frame rate, etc. are not particularly limited, and the specifications, standards, performance, etc. of the camera 5 and the information processing apparatus 100, or the image analysis processing capacity, Various types can be adopted depending on the precision and the like.
- at least one frame of this image data may be at least one of a first image and a second image described later.
- acquisition means that the device itself acquires data or information stored in another device or a storage medium (active acquisition), and outputs to the device itself from another device. Inputting data or information (passive acquisition) to be performed. Examples of active acquisition include requesting or inquiring another device to receive the reply, and accessing and reading the other device or a storage medium. Examples of passive acquisition include receiving information to be distributed (or transmitted, push notification, etc.). Furthermore, “acquisition” may mean selecting and acquiring from the received data or information, or selecting and receiving the distributed data or information.
- the timing of transmitting an image from the camera 5 to the information processing device 100 may be real-time distribution, for example, streaming distribution, or images for a predetermined period may be transmitted at predetermined intervals.
- the transmission timing may be appropriately selected based on the memory capacity, the communication capacity, the image processing capacity of the camera 5 or the information processing apparatus 100, the communication status between the camera 5 and the information processing apparatus 100, or the like. , May be changed according to changes in the situation.
- FIG. 2 is a functional block diagram showing a logical configuration of the information processing apparatus 100 of this embodiment.
- the information processing device 100 includes an extraction unit 102 and a matching unit 104.
- the extraction unit 102 extracts the first facial feature information from the facial region of the person included in the first image 10, and extracts the first human region characteristic information from the region other than the human face.
- the collation unit 104 collates two or more characteristic information. Then, when the extraction unit 102 cannot extract the second face feature information from the face area of the person included in the second image 20, the extraction unit 102 determines the second person area from the area other than the face of the person included in the second image 20. Extract feature information. Then, the matching unit 104 matches the first person area characteristic information with the second person area characteristic information.
- the first image 10 is a reference image showing the person to be tracked.
- the second image 20 is an image to be searched for the person to be tracked.
- the first image 10 and the second image 20 are captured at different timings.
- the first image 10 and the second image 20 may be captured by the same camera 5 or may be captured by different cameras 5.
- the extraction unit 102 receives the first image 10 from the camera 5 or reads it from another recording medium (not shown) to acquire it.
- the extraction unit 102 first identifies at least one person as a tracking target person from the acquired first image 10 and specifies the face area thereof, and extracts at least one first face characteristic information.
- the tracking target person may be at least one predetermined person included in the first image 10 or all persons included in the first image 10.
- the face feature information database The specific at least one person registered in.
- the tracking target person may be able to select at least one person from the persons included in the first image 10 or the persons registered in the facial feature information database by the operator. These settings may be determined in advance, or may be configured to accept the designation of the operator and change the settings.
- the extraction unit 102 identifies the person area connected to the first face area from the first image 10.
- the human area is an area showing a human body and personal belongings. Then, the extraction unit 102 extracts the first person area characteristic information from the person area.
- the extracted first person area characteristic information may be stored in a storage device (not shown).
- the first person area characteristic information is information generated from the person area connected to the face area of the person to be traced, which is extracted by the extraction unit 102, and indicates the appearance characteristics such as the person's profile or clothes. It is characteristic information.
- the first person area characteristic information is, for example, height, shoulder width, ratio of body parts, clothes (shape, color, material, etc.), hairstyle (including hair color), ornaments (hat, glasses, accessories, etc.), personal belongings. It includes information indicating characteristics of (bag, umbrella, cane, etc.).
- the human area feature information may include information such as the likelihood of the feature information.
- the extraction unit 102 determines the second person area from the area other than the face of the person included in the second image 20. Extract feature information. Then, the matching unit 104 matches the extracted first person area characteristic information and second person area characteristic information.
- the person area of the second image 20 from which the second person area characteristic information matching the first person area characteristic information is extracted is the person area of the person to be tracked. Thereby, it becomes possible to continue the tracking even if the face of the tracking target person in the second image 20 is not shown.
- the case where the second face feature information cannot be extracted includes the case where the degree of matching with the first face feature information is less than the threshold value. Furthermore, in the second image 20, a case where at least a part of the face of the tracking target person is occluded or the face is turned sideways, and a feature amount suitable for matching cannot be extracted is also included.
- the information processing apparatus 100 may be capable of displaying the face image data of the person on the display in order to show the face of the person to be tracked to the operator.
- FIG. 3 is a diagram showing an example of the data structure of the first image 10 and the second image 20.
- the first image 10 and the second image 20 include an image ID for identifying an image, a camera ID for identifying the camera 5 that has captured the image, and an image capture date/time (or a storage date/time or an update date/time).
- the information includes the body of the image data.
- the image ID may be a file name.
- the first image 10 and the second image 20 may include information indicating a frame number that can identify the frame.
- the second image 20 is an image captured after the first image 10, and the one received in real time from each camera 5 can be used.
- the second image 20 may be recorded data captured before the first image 10, that is, data stored in a non-volatile storage unit.
- the second image 20 is assumed to be a period in which clothes cannot be changed or a period in which the same clothes as those in the first image 10 are supposed to be worn from the time when the first image 10 was captured. It will be what was imaged.
- FIG. 4 is a flowchart showing an example of the operation of the information processing device 100.
- the extraction unit 102 acquires the first image 10 and extracts at least one first face characteristic information from the face area by using at least one person included in the first image 10 as a tracking target person (step). S101).
- the extraction unit 102 extracts the first person area characteristic information from the area including the person other than the person's face from the first image 10 (step S103).
- the extraction unit 102 specifies, for example, a human area from a portion located below the first face area in the area connected to the first face area.
- the extraction unit 102 may also include, in the human area, a portion located above the first face area in the area connected to the first face area.
- the extraction unit 102 acquires the second image 20 from the camera 5, and determines whether or not the second face characteristic information has been extracted from the face area of the person included in the second image 20 (step S105). When the second face characteristic information cannot be extracted (NO in step S105), the extraction unit 102 extracts the second person area characteristic information from the area including the face other than the person's face included in the second image 20 (step S107). ).
- the collation unit 104 collates the first person area characteristic information extracted in step S103 with the second person area characteristic information extracted in step S107 (step S109).
- the second person area characteristic information matches the first person area characteristic information
- the person area in the second image 20 from which the second person area characteristic information is extracted becomes the tracking target person.
- the process of extracting the second person area characteristic information from the second image 20 and collating the same is performed. The process ends without doing anything. That is, the face area in which the second face feature information is extracted in the second image 20 from the matching result of the face feature information is the tracking target person.
- the extraction unit 102 extracts the first face characteristic information and the first person area characteristic information of the person who is the tracking target from the first image 10. Then, even if the second face feature information is not extracted from the second image 20 and the face feature information cannot be tracked, the second person region feature information and the first person region feature information extracted from the second image 20 The person to be tracked can be tracked by the second image 20 by collating.
- FIG. 5 is a functional block diagram showing a logical configuration of the information processing apparatus 100 of this embodiment.
- the information processing apparatus 100 of this embodiment is the same as that of the first embodiment except that the facial feature information of the person to be tracked is registered in advance in a blacklist or the like.
- the information processing apparatus 100 further includes a face characteristic information database 110 (shown as “face characteristic information DB” in the figure).
- the face characteristic information database 110 may be included in a plurality of devices.
- the face characteristic information database 110 may be integrated with the main body of the information processing device 100 or may be a separate body.
- the facial feature information database 110 has a database structure, but may have another data structure.
- the feature information of the face of the person to be tracked is registered in the face feature information database 110.
- the matching unit 104 matches the face feature information extracted from the face area of the person included in the first image 10 with the first face information stored in the face feature information database 110.
- the matching result is a match
- the first person region characteristic information is extracted from the person included in the first image 10.
- FIG. 6 is a diagram showing an example of the data structure of the face feature information database 110.
- the first face information which is the feature information of the face of at least one person to be tracked.
- the face feature information database 110 associates a registrant ID for identifying a registered person, face feature information (corresponding to the first face information) of the person, a name, and face image data with each other.
- the face characteristic information does not necessarily have to be stored in the face characteristic information database 110.
- the information processing apparatus 100 extracts the face feature information from the face image data when performing the matching process.
- the file format of face image data is not particularly limited, but examples include JPEG (Joint Photographic Experts Group), BMP (Bit MaP), PNG (Portable Network Graphics), and TIFF (Tagged Image File Format).
- the entity of the image data may be registered in the face characteristic information database 110, or the path where the image data is stored and the file name may be registered.
- the extraction unit 102 identifies a face area from the first image 10 and collates with the first face information registered in the face feature information database 110 (hereinafter, also referred to as face authentication processing). I do.
- the target person to whom the matching process is performed may be all of the plurality of persons registered in the facial feature information database 110, or at least one person may be selected by the operator. These settings may be determined in advance, or may be configured to accept the designation of the operator and change the settings.
- the information processing apparatus 100 of the present embodiment is the same as the information processing apparatus 100 except that step S111 (not shown) is included instead of step S101 in the flowchart of FIG.
- step S111 first, the extraction unit 102 acquires the first image 10 and extracts the face characteristic information from the face area of the person included in the first image 10. Then, the matching unit 104 matches the extracted face feature information with the first face information in the face feature information database 110. Then, the extraction unit 102 sets the face feature information that matches the first face information stored in the face feature information database 110 as the first face feature information.
- the extraction unit 102 extracts the first person area feature information from the area of the first image 10 that includes the areas other than the person's face (step S103), and if the face feature information cannot be extracted from the second image 20 (step S103). (NO in S105), the second person region characteristic information is extracted from the second image 20 (step S107).
- the matching unit 104 matches the second person area characteristic information extracted in step S107 with the first person area characteristic information extracted in step S103 (step S109).
- the extraction unit 102 causes the extraction unit 102 to match the first face feature information that matches the first face information registered in the face feature information database 110 and the person in the face area. And the first person region characteristic information of are extracted. Then, as in the case of the above-described embodiment, the second image feature information that matches the first face feature information of the tracking target person is not extracted from the second image 20 and the second image feature information is not tracked. By collating the second person area characteristic information extracted from 20 and the first person area characteristic information, the tracking target person can be tracked by the second image 20.
- the same effects as the above embodiments can be obtained, and a person registered in advance in the facial feature information database 110 can be tracked as a tracking target person.
- the information processing apparatus 100 performs the face authentication processing on the second image 20 as well, and then performs the face authentication processing on the person region connected to the face region for which the face authentication cannot be performed, with the first person region characteristic information.
- the second embodiment is the same as the first embodiment except that the matching process is performed.
- the operation of the third embodiment is different from that of the first embodiment, but the configuration is the same as that of the information processing apparatus 100 of FIG. 2, and therefore the functional block diagram of FIG. 2 is used in the following description. It should be noted that this embodiment may have the same configuration as the information processing apparatus 100 according to the other embodiments, and can be combined within a consistent range.
- FIG. 7 is a flowchart showing an example of the operation of the information processing device 100 of this embodiment.
- the present embodiment has the same steps S101 to S109 as in FIG. 4, and further includes step S120.
- the collation unit 104 when the collation unit 104 can extract the second face feature information from the person included in the second image 20 (YES in step S105), the first face feature information and the second face feature information are collated. Yes (step S120).
- the second face characteristic information cannot be extracted from the person included in the second image 20 (NO in step S105)
- the first person area characteristic information extracted in step S103 and the second person extracted in step S107 The area characteristic information is collated (step S109).
- the person whose second face feature information can be extracted is ( If YES in step S105), the person is tracked by collating with the face feature information, and if the second face feature information could not be extracted (NO in step S105), collate with the human area feature information. May track the person. In other words, when the face is visible, it can be tracked by the face, and when the face is not visible, it can be tracked by clothes (human area).
- the information processing apparatus 100 performs the tracking process using the human area feature information when the face that matches the first face information is not found in the second image 20. Further, the information processing apparatus 100 can continue the tracking with the face of the person without performing the tracking process using the human area feature information when the face is found. As described above, according to the present embodiment, the same effects as those of the first and second embodiments are obtained, and further, the matching process using the human area feature information when face recognition is not possible, such as when a face is not captured. Therefore, it is efficient.
- FIG. 8 is a functional block diagram showing a logical configuration of the information processing device 100 of this embodiment.
- the information processing apparatus 100 according to the present embodiment has a configuration in which the extraction result by the extraction unit 102, the human region feature information extracted by the extraction unit 102, the person tracking information by the matching unit 104, and the like are output, and the embodiment described above. Is the same as.
- the information processing device 100 further includes a first registration unit 120 and an output processing unit 130 in addition to the configuration shown in FIG. It should be noted that this embodiment may have the same configuration as the information processing apparatus 100 according to the other embodiments, and can be combined within a consistent range.
- the first registration unit 120 stores the first face feature information and the first person area feature information extracted from the person included in the first image 10 in the person area information storage unit 112 in association with the person identification information. .. In other words, the first registration unit 120 associates the first face feature information and the first person area feature information extracted from the person included in the first image 10 with the person identification information, and the person area information storage unit 112. Register with.
- the output processing unit 130 causes the output unit to output the identification information of the person stored in the human area information storage unit 112 when the matching results of the matching unit 104 match.
- the first face characteristic information and the first person area characteristic information registered in the person area information storage unit 112 are also referred to as registered face characteristic information and registered person area characteristic information.
- the output means is, for example, a display device that displays a screen, a printing device that prints out, a communication device that sends an email, and the like.
- the output processing unit 130 causes the display device 132 such as a liquid crystal display or an organic EL (ElectroLuminescence) display connected to the information processing device 100 to display various information.
- FIG. 9 is a diagram showing an example of the data structure of the human area characteristic information storage unit 112.
- the human-region characteristic information storage unit 112 stores the human-region information ID identifying the human-region characteristic information and the human-region characteristic information extracted by the extraction unit 102 (first human-region characteristic information as Equivalent) is associated with.
- the first person area characteristic information extracted from the person area other than the area is stored in the person area characteristic information storage unit 112 as the registered person area characteristic information.
- the person area information ID, the first person area characteristic information, and the registrant ID of the first face information that matches the first face characteristic information extracted from the first image 10 are: It is associated.
- the name and face image of the person corresponding to the registrant ID can be read from the face feature information database 110 of FIG.
- the extraction unit 102 acquires the second image 20 from the plurality of cameras 5 and performs extraction processing on the acquired second image 20.
- FIG. 10 is a diagram showing an example of a screen displayed on the display device 132 by the output processing unit 130.
- FIG. 10A is a multi-screen 200 that displays images captured by a plurality of cameras 5 side by side on one screen.
- FIG. 10B is a view screen 210 for browsing an operation image of one camera 5 in FIG. 10A.
- the human area of the tracking target person extracted by the extraction unit 102 is surrounded by a rectangular frame 212. Further, the name 214 of the person identified by the collation unit 104 is displayed.
- the multi-screen 200 and the view screen 210 may be a moving image captured by the camera 5 in real time, or may be at least one frame in which the moving image is stopped at a certain point. Also on the multi-screen 200, a frame 212 or a name 214 indicating the detected tracking target person may be displayed as in the view screen 210.
- the multi screen 200 and the view screen 210 may be displayed in different windows, or may be switched and displayed. Also, a plurality of view screens 210 may be displayed simultaneously.
- the multi-screen 200 and the view screen 210 may display information such as the date and time when the displayed image was taken, information about the shooting location, and the like.
- the property information of the images displayed on the multi screen 200 and the view screen 210 may be displayed in another window according to the operation of the operator.
- the frame 212 may be possible to receive an operator's operation on the area of the frame 212 and display information of the person, for example, information such as a face photograph and a profile.
- the output processing unit 130 can display the multi-screen 200 or the view screen 210, it is possible to obtain the same effect as in the above-described embodiment and further to grasp the tracking status in real time.
- FIG. 11 is a functional block diagram showing a logical configuration of the information processing device 100 of this embodiment.
- the information processing apparatus 100 of the present embodiment is the same as the above-described embodiment except that the information of the person who is not registered in the facial feature information database 110 is registered as the unregistered person information.
- the information processing device 100 further includes a second registration unit 140 in addition to the configuration shown in FIG. It should be noted that this embodiment may have the same configuration as the information processing apparatus 100 according to the other embodiments, and can be combined within a consistent range.
- the extraction unit 102 when the comparison result of the first face feature information extracted from the face area of the person included in the first image 10 and the first face information stored in the face feature information database 110 does not match, The third person area characteristic information corresponding to the person area connected to the face area is extracted.
- the second registration unit 140 stores the extracted third person region characteristic information and the first face characteristic information in the unregistered person information storage unit 142 in association with each other. In other words, the second registration unit 140 registers the extracted third person region characteristic information and the first face characteristic information in the unregistered person information storage unit 142 in association with each other.
- the unregistered person information storage unit 142 may have a database structure.
- the unregistered person information storage unit 142 may be included in the same device as at least one of the facial feature information database 110 and the human area feature information storage unit 112, or may be included in different devices. Further, the unregistered person information storage unit 142 may be integrated with the body of the information processing apparatus 100 or may be a separate body together with the face characteristic information database 110 and the human area characteristic information storage unit 112.
- FIG. 12 is a diagram showing an example of a data structure of the unregistered person information storage unit 142.
- the unregistered person ID for identifying the unregistered person is included in the first face feature information extracted from the face area of the person included in the first image 10 whose matching result with the first face information does not match. Has been granted.
- the first face characteristic information and the third person area characteristic information are registered in the unregistered person information storage unit 142 in association with the unregistered person ID.
- at least one of the image data of the face area of the person included in the first image 10 and the image data of the person area of the third person area characteristic information may be registered. ..
- the person area or face area of the person is surrounded by a rectangular frame 212, and Information indicating an unregistered person may be displayed on the image in the vicinity of the frame 212. Further, the unregistered person ID may be displayed.
- the frame 212 of the registrant and the unregistered person may be displayed separately by changing the color of the line and the type of the line (for example, a solid line, a broken line, etc.) so that they can be distinguished. Further, the frame 212 is not always necessary.
- FIG. 13 is a flowchart showing an example of the operation of the information processing device 100 of this embodiment.
- the second registration unit 140 identifies the human region connected to the second face region that the extraction unit 102 has determined not to match the first face information (step S141), and determines the second human region feature information corresponding to the human region. It is generated (step S143). Then, the second registration unit 140 registers the generated second person region characteristic information and the second face region in the unregistered person information storage unit 142 in association with each other (step S145).
- a person whose face cannot be authenticated in the second image 20 can be registered as an unregistered person in the unregistered person information storage unit 142 with the face image and the person area characteristic information.
- the non-member information can be acquired and registered.
- FIG. 14 is a diagram showing an example of the configuration of a computer 80 that realizes the information processing apparatus 100 of each of the above-described embodiments.
- the computer 80 stores a CPU (Central Processing Unit) 82, a memory 84, a program 90 that realizes the constituent elements of each of the information processing devices 100 of FIGS. 2, 9 and 11 loaded in the memory 84, and the program 90.
- a storage 85, an I/O (Input/Output) 86, and a network connection interface (communication I/F 87) are provided.
- the CPU 82, the memory 84, the storage 85, the I/O 86, and the communication I/F 87 are connected to each other via the bus 89, and the CPU 82 controls the entire information processing apparatus.
- the method of connecting the CPU 82 and the like to each other is not limited to bus connection.
- the memory 84 is a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory).
- the storage 85 is a storage device such as a hard disk, SSD (Solid State Drive), or memory card.
- the storage 85 may be a memory such as RAM or ROM.
- the storage 85 may be provided inside the computer 80, or may be provided outside the computer 80 and connected to the computer 80 by wire or wirelessly if the computer 80 is accessible. Alternatively, it may be detachably attached to the computer 80.
- each function of each unit of the information processing apparatus 100 of each embodiment can be realized.
- the I/O 86 controls input/output of data and control signals between the computer 80 and other input/output devices.
- the other input/output device includes, for example, an input device (not shown) such as a keyboard, a touch panel, a mouse, and a microphone connected to the computer 80, an output device (not shown) such as a display, a printer, and a speaker. These input/output devices and the interface of the computer 80 are included. Further, the I/O 86 may control the input/output of data to/from a reading/writing device (not shown) of another recording medium.
- the communication I/F 87 is a network connection interface for communicating between the computer 80 and an external device.
- the communication I/F 87 may be a network interface for connecting to a wired line or a network interface for connecting to a wireless line.
- the computer 80 that realizes the information processing apparatus 100 is connected to at least one camera 5 via the network by the communication I/F 87.
- Each component of the information processing apparatus 100 of each embodiment is realized by an arbitrary combination of hardware and software of the computer 80 in this figure. It will be understood by those skilled in the art that there are various modified examples of the method and device for realizing the same.
- the functional block diagram showing the information processing apparatus 100 according to each of the above-described embodiments does not show the configuration in hardware units but the blocks in logical function units.
- the information processing device 100 may be composed of a plurality of computers 80, or may be realized by a virtual server.
- the present invention can be implemented as an information processing system exemplified below as an example configured by a plurality of computers 80, but is not limited thereto.
- the extraction unit 102 and the matching unit 104 are implemented by different devices (computer 80).
- the information processing system may include a terminal device having the extraction unit 102 and a server device having the matching unit 104.
- the extraction processing of the extraction unit 102 the extraction processing of the characteristic information from the first image 10 and the extraction processing of the characteristic information from the second image 20 are performed by different devices (computer 80).
- the information processing system may include a plurality of terminal devices having the extraction unit 102 for analyzing a video and a server device that integrates information from the terminals and performs a matching process.
- a plurality of terminal devices may be separately provided for each area, and the extraction unit 102 may be realized by a plurality of physical devices. (3) It may be divided into different devices (computers 80) according to the type of feature information (face feature information and human region feature information) that is the target of image analysis (extracting unit 102 and collating unit 104).
- the extraction unit 102 performs the tracking person search process using one person area feature information registered in the person area feature information registration process, but in another example, the extraction unit 102 , A plurality of first person area characteristic information is generated from each of the plurality of first images 10, and these first person area characteristic information are associated with each other and registered in the person area characteristic information storage unit 112 as registered person area characteristic information. May be.
- the matching unit 104 can perform matching processing on at least one registered person area characteristic information or each of a plurality of registered person area characteristic information.
- the operator may specify which of the plurality of registered person area characteristic information is used, or may receive the specification of all registered person area characteristic information from the operator.
- FIG. 15 is a diagram showing an example of the data structure of the human area feature information storage unit 112.
- the person area information ID is registered in association with the registrant ID and a plurality of person area characteristic information n (n is a natural number).
- the human area characteristic information is mainly based on the characteristics of the person's clothes and the like, so that the tracking is premised on that the person has not changed his clothes. However, even if the user changes his/her clothes, it is possible to track the person by using different person area characteristic information corresponding to different clothes.
- the extraction unit 102 may store the image including the generated human area corresponding to the first human area characteristic information in the human area characteristic information storage unit 112 in association with the first human area characteristic information.
- FIG. 16 is a schematic diagram for explaining an example of the data structure of the human area characteristic information storage unit 112.
- the information processing apparatus 100 compares the matching process using the facial feature information in step S105 of FIG. 5 or 8 with the matching process using the human area feature information in step S109 of FIG. 5 or 8. Although priority is given to priority, either the facial feature information matching process or the human region feature information matching process may be prioritized. It may be possible to change which process is given priority by receiving an operator's instruction.
- the information processing apparatus 100 acts on the first person area characteristic information and the second image extracted from the person area of the person included in the first image 10.
- the matching process with the second person area feature information extracted from the person acquisition area included in 20 is performed first, and then the matching process using the face feature information is performed without depending on the result of the person area match. May be.
- the information processing apparatus 100 performs face authentication first, for example, in a situation where there are many people who wear similar clothes such as uniforms, and collation processing that uses the human area feature information only for persons who cannot be face authenticated. You may go.
- the information processing apparatus 100 may accept a designation of which process is to be prioritized and can change the processing order according to the designation.
- the information processing apparatus 100 may automatically switch to prioritize the face authentication processing when the similarity of the human area feature information in the second image 20 exceeds the reference value.
- the information processing apparatus 100 uses at least one of face area detection, human area characteristic information extraction, and human area characteristic information person tracking triggered by detecting a predetermined event.
- the predetermined event may be, for example, a predetermined action regarding a person, that is, an action that should be watched, such as leaving, stumbling, prowling, swinging around an object, or entering a predetermined area.
- the predetermined event may be detected by the image recognition processing of the information processing device 100 from the image captured by the surveillance camera, or may be detected by another information processing device or sensor.
- the extraction unit 102 may specify a person in which a predetermined event is detected, and may extract face area characteristic information and person area characteristic information with the person as a tracking target person.
- the collating unit collates the first facial characteristic information with the second facial characteristic information
- the information processing device In the information processing device according to any one of Extraction processing of the first face feature information, the second face feature information, the first person region feature information, and the second person region feature information by the extraction unit, and the person by the matching unit An information processing apparatus in which at least one of the collation processing of the area feature information is performed by using a detection of a predetermined event as a trigger. 6. 1. To 5. In the information processing device according to any one of Registration means for storing the extracted first person area characteristic information in the storage unit as registered person area characteristic information in association with the image including the person area corresponding to the first person area characteristic information, The collation unit is an information processing device that collates the registered person area characteristic information stored in the storage unit with the second person area characteristic information. 7. 1. To 6.
- the collation means is an information processing device for collating at least one of the registered person area characteristic information stored in the storage unit and the second person area characteristic information.
- the matching unit matches the first face feature information extracted from the face area of the person included in the first image with the first face information stored in the storage unit, and the matching result is a match. In the case of being, the information processing apparatus that extracts the first person region characteristic information from the person included in the first image. 9. 8.
- the extraction means does not match the matching result between the first face feature information extracted from the face area of the person included in the first image and the first face information stored in the storage unit.
- Extracting third human region characteristic information from a human region including a region other than the face region of the person The information processing apparatus further comprising a registration unit that associates the extracted third person region characteristic information and the first face characteristic information with each other and stores them in a second storage unit. 10.
- the registration unit associates the image of the face area, from which the first facial feature information is extracted, with the first facial feature information and the third human area feature information and stores the image in the second storage unit.
- Information processing device 11. 1. To 10.
- An information processing apparatus further comprising: an output processing unit that causes the output unit to output the identification information of the person stored in the storage unit when the matching results of the matching unit match. 12. 1. To 11. In the information processing device according to any one of Connected to multiple imaging units via a network, The said extraction means acquires the said 2nd image from a some imaging part, The information processing apparatus which performs the extraction process with respect to the acquired said 2nd image.
- the collating unit collates the first facial feature information with the second facial feature information
- any one of Extraction processing of the first face feature information, the second face feature information, the first person region feature information, and the second person region feature information by the extraction unit, and the person by the matching unit An information processing system in which at least one of the collation processings of the area feature information is executed with a trigger of detecting a predetermined event. 18. 13. To 17. In the information processing system described in any one of Registration means for storing the extracted first person area characteristic information in the storage unit as registered person area characteristic information in association with the image including the person area corresponding to the first person area characteristic information, The collation means is an information processing system for collating the registered person area characteristic information stored in the storage unit with the second person area characteristic information. 19. 13. To 18.
- the collation means is an information processing system for collating at least one of the registered person area characteristic information stored in the storage unit and the second person area characteristic information. 20. 13. To 19.
- the matching unit matches the first face feature information extracted from the face area of the person included in the first image with the first face information stored in the storage unit, and the matching result is a match. In this case, the information processing system extracts the first person region characteristic information from the person included in the first image. 21. 20.
- the extraction means does not match the matching result between the first face feature information extracted from the face area of the person included in the first image and the first face information stored in the storage unit.
- Extracting third person area feature information from a person area including a face area other than the person's face area The information processing system further comprising a registration unit that associates the extracted third person region characteristic information and the first face characteristic information with each other and stores them in a second storage unit. 22. 21.
- the registration means associates the image of the face area from which the first facial feature information is extracted with the first facial feature information and the third human area feature information, and stores the image in the second storage unit.
- An information processing system further comprising: an output processing unit that causes the output unit to output the identification information of the person stored in the storage unit when the matching results of the matching unit match. 24. 13. To 23. In the information processing system described in any one of Connected to multiple imaging units via a network, The information processing system, wherein the extraction unit acquires the second image from a plurality of image capturing units and performs an extraction process on the acquired second image.
- the information processing device First facial feature information is extracted from the face area of the person included in the first image, and first human area feature information is extracted from the area other than the person's face; Match two or more feature information, When the second face feature information cannot be extracted from the face area of the person included in the second image, the second person area feature information is extracted from the area other than the face of the person included in the second image, Collating the first human area characteristic information with the second human area characteristic information, Information processing method. 26. 25. In the information processing method described in An information processing method in which the second image is generated by an imaging unit different from the first image. 27. 25. Or 26. In the information processing method described in The information processing method, wherein the second image is an image captured after the first image. 28. 25. To 27.
- the information processing method described in any one of The information processing device is When the second facial feature information can be extracted from the person included in the second image, the first facial feature information and the second facial feature information are collated to determine the person included in the second image.
- the information processing method described in any one of The information processing device is Of the first face feature information, the second face feature information, the first human region feature information, and the second human region feature information extraction process, and the human region feature information matching process
- An information processing method, wherein at least one of the methods is executed by using a detection of a predetermined event as a trigger. 30. 25. To 29.
- the extracted first person area characteristic information is stored in the storage unit as registered person area characteristic information in association with the image including the person area corresponding to the first person area characteristic information, An information processing method for collating the registered person area characteristic information stored in the storage unit with the second person area characteristic information. 31. 25. To 30.
- a plurality of the first person area characteristic information is extracted using a plurality of the first images, and the plurality of first person area characteristic information items are stored in a storage unit in association with each other as registered person area characteristic information; An information processing method for collating at least one of the registered person area characteristic information stored in the storage unit and the second person area characteristic information. 32. 25. To 31.
- any one of The information processing device is When the first face feature information extracted from the face area of the person included in the first image and the first face information stored in the storage unit are collated, and the collation result is coincident, the first face information is compared.
- the information processing device is When the comparison result of the first face feature information extracted from the face area of the person included in the first image and the first face information stored in the storage unit does not match, the face of the person The third person area characteristic information is extracted from the person area including areas other than the area, Furthermore, the information processing method of storing the extracted third human region characteristic information and the first face characteristic information in a second storage unit in association with each other. 34. 33.
- the information processing method described in The information processing device is An information processing method, wherein the image of the face region from which the first face feature information is extracted is stored in the second storage unit in association with the first face feature information and the third person region feature information. 35. 25. To 34.
- the information processing device Storing the first face characteristic information and the first human region characteristic information extracted from the person included in the first image in the storage unit in association with the person identification information; An information processing method of causing the output unit to output the identification information of the person stored in the storage unit when the collation results match. 36. 25. To 35. In the information processing method described in any one of Connected to multiple imaging units via a network, The information processing device is An information processing method of acquiring the second image from a plurality of image capturing units and performing an extraction process on the acquired second image.
- a procedure for collating two or more characteristic information A procedure for extracting the second human region feature information from a region other than the face of the person included in the second image when the second face feature information cannot be extracted from the face region of the person included in the second image.
- the face of the person A procedure for extracting third human area feature information from a human area including areas other than the area;
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Coating Apparatus (AREA)
Abstract
Description
第一の側面の情報処理装置は、
第1画像に含まれる人物の顔領域から第1の顔特徴情報を抽出し、前記人物の顔以外を含む領域から第1の人領域特徴情報を抽出する抽出手段と、
2以上の特徴情報を照合する照合手段と、を有し、
前記抽出手段は、第2画像に含まれる人物の顔領域から第2の顔特徴情報を抽出できなかった場合、前記第2画像に含まれる人物の顔以外を含む領域から第2の人領域特徴情報を抽出し、
前記照合手段は、前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する。
第二の側面に係る第1の情報処理方法は、
情報処理装置が、
第1画像に含まれる人物の顔領域から第1の顔特徴情報を抽出し、前記人物の顔以外を含む領域から第1の人領域特徴情報を抽出し、
2以上の特徴情報を照合し、
第2画像に含まれる人物の顔領域から第2の顔特徴情報を抽出できなかった場合、前記第2画像に含まれる人物の顔以外を含む領域から第2の人領域特徴情報を抽出し、
前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、ことを含む。
このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、情報処理装置上で、その制御方法を実施させるコンピュータプログラムコードを含む。
また、本明細書の各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。
図1は、本発明の実施の形態に係る画像処理システムの構成を概念的に示す図である。画像処理システム1は、情報処理装置100を備える。情報処理装置100は、複数のカメラ5a,5b,・・・(特に区別する必要がない場合は「カメラ5」と呼ぶ。)に通信ネットワーク3を介して接続されている。情報処理装置100は、詳細を後述するように、画像に追跡対象の人物(以下、追跡対象人物と記載)の顔が写らない状況があったとしても、その人物の追跡を続けることができる。
第1人領域特徴情報は、抽出部102によって抽出された追跡対象の人物の顔領域に繋がっている人領域から生成される情報であり、当該人物の背格好又は服装等の見た目の特徴を示す特徴情報である。
図4は、情報処理装置100の動作の例を示すフローチャートである。
まず、抽出部102は、第1画像10を取得し、第1画像10に含まれる少なくとも1人の人物を追跡対象人物として、その顔領域から第1顔特徴情報を少なくとも1つ抽出する(ステップS101)。
図5は、本実施形態の情報処理装置100の論理的な構成を示す機能ブロック図である。本実施形態の情報処理装置100は、追跡対象となる人物の顔特徴情報が予めブラックリスト等に登録されている点以外は第1の実施形態と同様である。
照合部104は、第1画像10に含まれる人物の顔領域から抽出された顔特徴情報と顔特徴情報データベース110に記憶された第1顔情報とを照合する。当該照合結果が一致となった場合、第1画像10に含まれる人物から第1人領域特徴情報を抽出する。
第3の実施の形態の情報処理装置100は、第2画像20に対しても顔認証処理を行った後、顔認証できなかった顔領域に繋がる人領域について、第1人領域特徴情報との照合処理を行う点以外は第1の実施形態と同様である。第3実施形態は、第1実施形態とは動作が異なるが、構成は図2の情報処理装置100と同じであるので、以下の説明では図2の機能ブロック図を用いる。なお、本実施形態はその他の実施形態の情報処理装置100と同じ構成を有してもよく、矛盾のない範囲で組み合わせることができる。
図8は、本実施形態の情報処理装置100の論理的な構成を示す機能ブロック図である。本実施形態の情報処理装置100は、抽出部102による抽出結果、および抽出部102により抽出された人領域特徴情報、照合部104による人物の追跡情報等を出力する構成を有する以外は上記実施形態と同じである。
図9(a)の例では、人領域特徴情報記憶部112は、人領域特徴情報を識別する人領域情報IDと、抽出部102により抽出された人領域特徴情報(第1人領域特徴情報に相当)とが紐付けられている。
図9(b)の例では、人領域情報IDと、第1人領域特徴情報と、第1画像10から抽出された第1顔特徴情報と一致した第1顔情報の登録者IDと、が対応付けられている。登録者IDと紐付けておくことで、図6の顔特徴情報データベース110から登録者IDに対応する人物の氏名や顔画像を読み出すことができる。
図11は、本実施形態の情報処理装置100の論理的な構成を示す機能ブロック図である。本実施形態の情報処理装置100は、顔特徴情報データベース110に登録されていない人物の情報を未登録者情報として登録する構成を有する点以外は上記実施形態と同じである。
コンピュータ80は、CPU(Central Processing Unit)82、メモリ84、メモリ84にロードされた図2、図9および図11の各情報処理装置100の構成要素を実現するプログラム90、そのプログラム90を格納するストレージ85、I/O(Input/Output)86、およびネットワーク接続用インタフェース(通信I/F87)を備える。
(1)抽出部102と照合部104は別の装置(コンピュータ80)で実施する。例えば、情報処理システムは、抽出部102を有する端末装置と、照合部104を有するサーバ装置と備えてもよい。
(2)抽出部102の抽出処理のうち、第1画像10からの特徴情報の抽出処理と、第2画像20からの特徴情報の抽出処理を別の装置(コンピュータ80)で実施する。例えば、情報処理システムは、抽出部102を有する映像を解析する複数の端末装置と、それらからの情報を統合して照合処理を行うサーバ装置とを含んでもよい。複数の端末装置はエリア毎に分かれて配備され、抽出部102は、複数の物理的装置によって実現されてもよい。
(3)映像の解析(抽出部102と照合部104)の対象となる特徴情報の種別(顔特徴情報と人領域特徴情報)で別々の装置(コンピュータ80)に分けてもよい。
たとえば、上記実施形態において、抽出部102は、人領域特徴情報登録処理で登録された1つの人領域特徴情報を用いて追跡人物検索処理を行っていたが、他の例において、抽出部102は、複数の第1画像10のそれぞれから複数の第1人領域特徴情報を生成し、これらの第1人領域特徴情報を互いに関連付けて登録人領域特徴情報として人領域特徴情報記憶部112に登録してもよい。
なお、本発明において利用者に関する情報を取得、利用する場合は、これを適法に行うものとする。
1. 第1画像に含まれる人物の顔領域から第1の顔特徴情報を抽出し、前記人物の顔以外を含む領域から第1の人領域特徴情報を抽出する抽出手段と、
2以上の特徴情報を照合する照合手段と、を備え、
前記抽出手段は、第2画像に含まれる人物の顔領域から第2の顔特徴情報を抽出できなかった場合、前記第2画像に含まれる人物の顔以外を含む領域から第2の人領域特徴情報を抽出し、
前記照合手段は、前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、情報処理装置。
2. 1.に記載の情報処理装置において、
前記第2画像は、前記第1画像とは異なる撮像部により生成される情報処理装置。
3. 1.又は2.に記載の情報処理装置において、
前記第2画像は、前記第1画像より後に撮像された画像である情報処理装置。
4. 1.から3.のいずれか一つに記載の情報処理装置において、
前記照合手段は、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できた場合は前記第1の顔特徴情報と前記第2の顔特徴情報とを照合し、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できなかった場合は前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、情報処理装置。
5. 1.から4.のいずれか一つに記載の情報処理装置において、
前記抽出手段による前記第1の顔特徴情報、前記第2の顔特徴情報、前記第1の人領域特徴情報、および前記第2の人領域特徴情報の抽出処理、ならびに、前記照合手段による前記人領域特徴情報の照合処理のうち少なくともいずれか1つは、所定の事象を検知したことをトリガとして実施される、情報処理装置。
6. 1.から5.のいずれか一つに記載の情報処理装置において、
抽出した前記第1の人領域特徴情報を、当該第1の人領域特徴情報に対応する前記人領域を含む画像に関連付けて登録人領域特徴情報として記憶部に記憶させる登録手段をさらに備え、
前記照合手段は、前記記憶部に記憶された前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理装置。
7. 1.から6.のいずれか一つに記載の情報処理装置において、
複数の前記第1画像を用いて複数の前記第1の人領域特徴情報を抽出し、前記複数の第1の人領域特徴情報を登録人領域特徴情報として互いに関連付けて記憶部に記憶させる登録手段をさらに備え、
前記照合手段は、前記記憶部に記憶された少なくとも1つの前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理装置。
8. 1.から7.のいずれか一つに記載の情報処理装置において、
前記照合手段は、前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と記憶部に記憶された第1顔情報とを照合し、当該照合結果が一致となった場合、前記第1画像に含まれる前記人物から前記第1の人領域特徴情報を抽出する、情報処理装置。
9. 8.に記載の情報処理装置において、
前記抽出手段は、前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と前記記憶部に記憶された前記第1顔情報との照合結果が不一致となった場合、当該人物の顔領域以外を含む人領域から第3の人領域特徴情報を抽出し、
抽出された前記第3の人領域特徴情報及び当該第1の顔特徴情報を互いに関連付けて第2の記憶部に記憶させる登録手段をさらに備える情報処理装置。
10. 9.に記載の情報処理装置において、
前記登録手段は、前記第1の顔特徴情報が抽出された前記顔領域の画像を前記第1の顔特徴情報および前記第3の人領域特徴情報と関連付けて前記第2の記憶部に記憶させる、情報処理装置。
11. 1.から10.のいずれか一つに記載の情報処理装置において、
前記第1画像に含まれる人物から抽出された前記第1の顔特徴情報と前記第1の人領域特徴情報とを前記人物の識別情報に対応付けて記憶部に記憶させる登録手段と、
前記照合手段による照合結果が一致となった場合、前記記憶部が記憶する前記人物の識別情報を出力部に出力させる出力処理手段と、をさらに備える情報処理装置。
12. 1.から11.のいずれか一つに記載の情報処理装置において、
複数の撮像部とネットワークを介して接続され、
前記抽出手段は、複数の撮像部から前記第2画像を取得し、取得した前記第2画像に対して抽出処理を行う情報処理装置。
2以上の特徴情報を照合する照合手段と、を備え、
前記抽出手段は、第2画像に含まれる人物の顔領域から第2の顔特徴情報を抽出できなかった場合、前記第2画像に含まれる人物の顔以外を含む領域から第2の人領域特徴情報を抽出し、
前記照合手段は、前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、
情報処理システム。
14. 13.に記載の情報処理システムにおいて、
前記第2画像は、前記第1画像とは異なる撮像部により生成される情報処理システム。
15. 13.又は14.に記載の情報処理システムにおいて、
前記第2画像は、前記第1画像より後に撮像された画像である情報処理システム。
16. 13.から15.のいずれか一つに記載の情報処理システムにおいて、
前記照合手段は、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できた場合は前記第1の顔特徴情報と前記第2の顔特徴情報とを照合し、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できなかった場合は前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、情報処理システム。
17. 13.から16.のいずれか一つに記載の情報処理システムにおいて、
前記抽出手段による前記第1の顔特徴情報、前記第2の顔特徴情報、前記第1の人領域特徴情報、および前記第2の人領域特徴情報の抽出処理、ならびに、前記照合手段による前記人領域特徴情報の照合処理のうち少なくともいずれか1つは、所定の事象を検知したことをトリガとして実施される、情報処理システム。
18. 13.から17.のいずれか一つに記載の情報処理システムにおいて、
抽出した前記第1の人領域特徴情報を、当該第1の人領域特徴情報に対応する前記人領域を含む画像に関連付けて登録人領域特徴情報として記憶部に記憶させる登録手段をさらに備え、
前記照合手段は、前記記憶部に記憶された前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理システム。
19. 13.から18.のいずれか一つに記載の情報処理システムにおいて、
複数の前記第1画像を用いて複数の前記第1の人領域特徴情報を抽出し、前記複数の第1の人領域特徴情報を登録人領域特徴情報として互いに関連付けて記憶部に記憶させる登録手段をさらに備え、
前記照合手段は、前記記憶部に記憶された少なくとも1つの前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理システム。
20. 13.から19.のいずれか一つに記載の情報処理システムにおいて、
前記照合手段は、前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と記憶部に記憶された第1顔情報とを照合し、当該照合結果が一致となった場合、前記第1画像に含まれる前記人物から前記第1の人領域特徴情報を抽出する、情報処理システム。
21. 20.に記載の情報処理システムにおいて、
前記抽出手段は、前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と前記記憶部に記憶された前記第1顔情報との照合結果が不一致となった場合、当該人物の顔領域以外を含む人領域から第3の人領域特徴情報を抽出し、
抽出された前記第3の人領域特徴情報及び当該第1の顔特徴情報を互いに関連付けて第2の記憶部に記憶させる登録手段をさらに備える情報処理システム。
22. 21.に記載の情報処理システムにおいて、
前記登録手段は、前記第1の顔特徴情報が抽出された前記顔領域の画像を前記第1の顔特徴情報および前記第3の人領域特徴情報と関連付けて前記第2の記憶部に記憶させる、情報処理システム。
23. 13.から22.のいずれか一つに記載の情報処理システムにおいて、
前記第1画像に含まれる人物から抽出された前記第1の顔特徴情報と前記第1の人領域特徴情報とを前記人物の識別情報に対応付けて記憶部に記憶させる登録手段と、
前記照合手段による照合結果が一致となった場合、前記記憶部が記憶する前記人物の識別情報を出力部に出力させる出力処理手段と、をさらに備える情報処理システム。
24. 13.から23.のいずれか一つに記載の情報処理システムにおいて、
複数の撮像部とネットワークを介して接続され、
前記抽出手段は、複数の撮像部から前記第2画像を取得し、取得した前記第2画像に対して抽出処理を行う情報処理システム。
第1画像に含まれる人物の顔領域から第1の顔特徴情報を抽出し、前記人物の顔以外を含む領域から第1の人領域特徴情報を抽出し、
2以上の特徴情報を照合し、
第2画像に含まれる人物の顔領域から第2の顔特徴情報を抽出できなかった場合、前記第2画像に含まれる人物の顔以外を含む領域から第2の人領域特徴情報を抽出し、
前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、
情報処理方法。
26. 25.に記載の情報処理方法において、
前記第2画像は、前記第1画像とは異なる撮像部により生成される情報処理方法。
27. 25.又は26.に記載の情報処理方法において、
前記第2画像は、前記第1画像より後に撮像された画像である情報処理方法。
28. 25.から27.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、
前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できた場合は前記第1の顔特徴情報と前記第2の顔特徴情報とを照合し、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できなかった場合は前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、情報処理方法。
29. 25.から28.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、
前記第1の顔特徴情報、前記第2の顔特徴情報、前記第1の人領域特徴情報、および前記第2の人領域特徴情報の抽出処理、ならびに、前記人領域特徴情報の照合処理のうち少なくともいずれか1つを、所定の事象を検知したことをトリガとして実施する、情報処理方法。
30. 25.から29.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、さらに、
抽出した前記第1の人領域特徴情報を、当該第1の人領域特徴情報に対応する前記人領域を含む画像に関連付けて登録人領域特徴情報として記憶部に記憶させ、
前記記憶部に記憶された前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理方法。
31. 25.から30.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、さらに、
複数の前記第1画像を用いて複数の前記第1の人領域特徴情報を抽出し、前記複数の第1の人領域特徴情報を登録人領域特徴情報として互いに関連付けて記憶部に記憶させ、
前記記憶部に記憶された少なくとも1つの前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理方法。
32. 25.から31.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、
前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と記憶部に記憶された第1顔情報とを照合し、当該照合結果が一致となった場合、前記第1画像に含まれる前記人物から前記第1の人領域特徴情報を抽出する、情報処理方法。
33. 32.に記載の情報処理方法において、
前記情報処理装置が、
前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と前記記憶部に記憶された前記第1顔情報との照合結果が不一致となった場合、当該人物の顔領域以外を含む人領域から第3の人領域特徴情報を抽出し、
さらに、抽出された前記第3の人領域特徴情報及び当該第1の顔特徴情報を互いに関連付けて第2の記憶部に記憶させる情報処理方法。
34. 33.に記載の情報処理方法において、
前記情報処理装置が、
前記第1の顔特徴情報が抽出された前記顔領域の画像を前記第1の顔特徴情報および前記第3の人領域特徴情報と関連付けて前記第2の記憶部に記憶させる、情報処理方法。
35. 25.から34.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、さらに、
前記第1画像に含まれる人物から抽出された前記第1の顔特徴情報と前記第1の人領域特徴情報とを前記人物の識別情報に対応付けて記憶部に記憶させ、
照合結果が一致となった場合、前記記憶部が記憶する前記人物の識別情報を出力部に出力させる、情報処理方法。
36. 25.から35.のいずれか一つに記載の情報処理方法において、
複数の撮像部とネットワークを介して接続され、
前記情報処理装置が、
複数の撮像部から前記第2画像を取得し、取得した前記第2画像に対して抽出処理を行う情報処理方法。
第1画像に含まれる人物の顔領域から第1の顔特徴情報を抽出し、前記人物の顔以外を含む領域から第1の人領域特徴情報を抽出する手順、
2以上の特徴情報を照合する手順、
第2画像に含まれる人物の顔領域から第2の顔特徴情報を抽出できなかった場合、前記第2画像に含まれる人物の顔以外を含む領域から第2の人領域特徴情報を抽出する手順、
前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する手順、
を実行させるためのプログラム。
38. 37.に記載のプログラムにおいて、
前記第2画像は、前記第1画像とは異なる撮像部により生成されるプログラム。
39. 37.又は38.に記載のプログラムにおいて、
前記第2画像は、前記第1画像より後に撮像された画像であるプログラム。
40. 37.から39.のいずれか一つに記載のプログラムにおいて、
前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できた場合は前記第1の顔特徴情報と前記第2の顔特徴情報とを照合し、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できなかった場合は前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する手順をコンピュータに実行させるためのプログラム。
41. 37.から40.のいずれか一つに記載のプログラムにおいて、
前記第1の顔特徴情報、前記第2の顔特徴情報、前記第1の人領域特徴情報、および前記第2の人領域特徴情報の抽出処理、ならびに、前記人領域特徴情報の照合処理のうち少なくともいずれか1つを、所定の事象を検知したことをトリガとして実施する手順をコンピュータに実行させるためのプログラム。
42. 37.から41.のいずれか一つに記載のプログラムにおいて、
抽出した前記第1の人領域特徴情報を、当該第1の人領域特徴情報に対応する前記人領域を含む画像に関連付けて登録人領域特徴情報として記憶部に記憶させる手順、
前記記憶部に記憶された前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する手順をコンピュータに実行させるためのプログラム。
43. 37.から42.のいずれか一つに記載のプログラムにおいて、
複数の前記第1画像を用いて複数の前記第1の人領域特徴情報を抽出し、前記複数の第1の人領域特徴情報を登録人領域特徴情報として互いに関連付けて記憶部に記憶させる手順、
前記記憶部に記憶された少なくとも1つの前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する手順をコンピュータに実行させるためのプログラム。
44. 37.から43.のいずれか一つに記載のプログラムにおいて、
前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と記憶部に記憶された第1顔情報とを照合し、当該照合結果が一致となった場合、前記第1画像に含まれる前記人物から前記第1の人領域特徴情報を抽出する手順をコンピュータに実行させるためのプログラム。
45. 44.に記載のプログラムにおいて、
前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と前記記憶部に記憶された前記第1顔情報との照合結果が不一致となった場合、当該人物の顔領域以外を含む人領域から第3の人領域特徴情報を抽出する手順、
抽出された前記第3の人領域特徴情報及び当該第1の顔特徴情報を互いに関連付けて第2の記憶部に記憶させる手順をコンピュータに実行させるためのプログラム。
46. 45.に記載のプログラムにおいて、
前記第1の顔特徴情報が抽出された前記顔領域の画像を前記第1の顔特徴情報および前記第3の人領域特徴情報と関連付けて前記第2の記憶部に記憶させる手順をコンピュータに実行させるためのプログラム。
47. 37.から46.のいずれか一つに記載のプログラムにおいて、
前記第1画像に含まれる人物から抽出された前記第1の顔特徴情報と前記第1の人領域特徴情報とを前記人物の識別情報に対応付けて記憶部に記憶させる手順、
照合結果が一致となった場合、前記記憶部が記憶する前記人物の識別情報を出力部に出力させる手順をコンピュータに実行させるためのプログラム。
48. 37.から47.のいずれか一つに記載のプログラムにおいて、
複数の撮像部とネットワークを介して接続され、
複数の撮像部から前記第2画像を取得し、取得した前記第2画像に対して抽出処理を行う手順をコンピュータに実行させるためのプログラム。
Claims (48)
- 第1画像に含まれる人物の顔領域から第1の顔特徴情報を抽出し、前記人物の顔以外を含む領域から第1の人領域特徴情報を抽出する抽出手段と、
2以上の特徴情報を照合する照合手段と、を備え、
前記抽出手段は、第2画像に含まれる人物の顔領域から第2の顔特徴情報を抽出できなかった場合、前記第2画像に含まれる人物の顔以外を含む領域から第2の人領域特徴情報を抽出し、
前記照合手段は、前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、情報処理装置。 - 請求項1に記載の情報処理装置において、
前記第2画像は、前記第1画像とは異なる撮像部により生成される情報処理装置。 - 請求項1又は2に記載の情報処理装置において、
前記第2画像は、前記第1画像より後に撮像された画像である情報処理装置。 - 請求項1から3のいずれか一項に記載の情報処理装置において、
前記照合手段は、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できた場合は前記第1の顔特徴情報と前記第2の顔特徴情報とを照合し、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できなかった場合は前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、情報処理装置。 - 請求項1から4のいずれか一項に記載の情報処理装置において、
前記抽出手段による前記第1の顔特徴情報、前記第2の顔特徴情報、前記第1の人領域特徴情報、および前記第2の人領域特徴情報の抽出処理、ならびに、前記照合手段による前記人領域特徴情報の照合処理のうち少なくともいずれか1つは、所定の事象を検知したことをトリガとして実施される、情報処理装置。 - 請求項1から5のいずれか一項に記載の情報処理装置において、
抽出した前記第1の人領域特徴情報を、当該第1の人領域特徴情報に対応する前記人領域を含む画像に関連付けて登録人領域特徴情報として記憶部に記憶させる登録手段をさらに備え、
前記照合手段は、前記記憶部に記憶された前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理装置。 - 請求項1から6のいずれか一項に記載の情報処理装置において、
複数の前記第1画像を用いて複数の前記第1の人領域特徴情報を抽出し、前記複数の第1の人領域特徴情報を登録人領域特徴情報として互いに関連付けて記憶部に記憶させる登録手段をさらに備え、
前記照合手段は、前記記憶部に記憶された少なくとも1つの前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理装置。 - 請求項1から7のいずれか一項に記載の情報処理装置において、
前記照合手段は、前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と記憶部に記憶された第1顔情報とを照合し、当該照合結果が一致となった場合、前記第1画像に含まれる前記人物から前記第1の人領域特徴情報を抽出する、情報処理装置。 - 請求項8に記載の情報処理装置において、
前記抽出手段は、前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と前記記憶部に記憶された前記第1顔情報との照合結果が不一致となった場合、当該人物の顔領域以外を含む人領域から第3の人領域特徴情報を抽出し、
抽出された前記第3の人領域特徴情報及び当該第1の顔特徴情報を互いに関連付けて第2の記憶部に記憶させる登録手段をさらに備える情報処理装置。 - 請求項9に記載の情報処理装置において、
前記登録手段は、前記第1の顔特徴情報が抽出された前記顔領域の画像を前記第1の顔特徴情報および前記第3の人領域特徴情報と関連付けて前記第2の記憶部に記憶させる、情報処理装置。 - 請求項1から10のいずれか一項に記載の情報処理装置において、
前記第1画像に含まれる人物から抽出された前記第1の顔特徴情報と前記第1の人領域特徴情報とを前記人物の識別情報に対応付けて記憶部に記憶させる登録手段と、
前記照合手段による照合結果が一致となった場合、前記記憶部が記憶する前記人物の識別情報を出力部に出力させる出力処理手段と、をさらに備える情報処理装置。 - 請求項1から11のいずれか一項に記載の情報処理装置において、
複数の撮像部とネットワークを介して接続され、
前記抽出手段は、複数の撮像部から前記第2画像を取得し、取得した前記第2画像に対して抽出処理を行う情報処理装置。 - 第1画像に含まれる人物の顔領域から第1の顔特徴情報を抽出し、前記人物の顔以外を含む領域から第1の人領域特徴情報を抽出する抽出手段と、
2以上の特徴情報を照合する照合手段と、を備え、
前記抽出手段は、第2画像に含まれる人物の顔領域から第2の顔特徴情報を抽出できなかった場合、前記第2画像に含まれる人物の顔以外を含む領域から第2の人領域特徴情報を抽出し、
前記照合手段は、前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、
情報処理システム。 - 請求項13に記載の情報処理システムにおいて、
前記第2画像は、前記第1画像とは異なる撮像部により生成される情報処理システム。 - 請求項13又は14に記載の情報処理システムにおいて、
前記第2画像は、前記第1画像より後に撮像された画像である情報処理システム。 - 請求項13から15のいずれか一項に記載の情報処理システムにおいて、
前記照合手段は、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できた場合は前記第1の顔特徴情報と前記第2の顔特徴情報とを照合し、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できなかった場合は前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、情報処理システム。 - 請求項13から16のいずれか一項に記載の情報処理システムにおいて、
前記抽出手段による前記第1の顔特徴情報、前記第2の顔特徴情報、前記第1の人領域特徴情報、および前記第2の人領域特徴情報の抽出処理、ならびに、前記照合手段による前記人領域特徴情報の照合処理のうち少なくともいずれか1つは、所定の事象を検知したことをトリガとして実施される、情報処理システム。 - 請求項13から17のいずれか一項に記載の情報処理システムにおいて、
抽出した前記第1の人領域特徴情報を、当該第1の人領域特徴情報に対応する前記人領域を含む画像に関連付けて登録人領域特徴情報として記憶部に記憶させる登録手段をさらに備え、
前記照合手段は、前記記憶部に記憶された前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理システム。 - 請求項13から18のいずれか一項に記載の情報処理システムにおいて、
複数の前記第1画像を用いて複数の前記第1の人領域特徴情報を抽出し、前記複数の第1の人領域特徴情報を登録人領域特徴情報として互いに関連付けて記憶部に記憶させる登録手段をさらに備え、
前記照合手段は、前記記憶部に記憶された少なくとも1つの前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理システム。 - 請求項13から19のいずれか一項に記載の情報処理システムにおいて、
前記照合手段は、前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と記憶部に記憶された第1顔情報とを照合し、当該照合結果が一致となった場合、前記第1画像に含まれる前記人物から前記第1の人領域特徴情報を抽出する、情報処理システム。 - 請求項20に記載の情報処理システムにおいて、
前記抽出手段は、前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と前記記憶部に記憶された前記第1顔情報との照合結果が不一致となった場合、当該人物の顔領域以外を含む人領域から第3の人領域特徴情報を抽出し、
抽出された前記第3の人領域特徴情報及び当該第1の顔特徴情報を互いに関連付けて第2の記憶部に記憶させる登録手段をさらに備える情報処理システム。 - 請求項21に記載の情報処理システムにおいて、
前記登録手段は、前記第1の顔特徴情報が抽出された前記顔領域の画像を前記第1の顔特徴情報および前記第3の人領域特徴情報と関連付けて前記第2の記憶部に記憶させる、情報処理システム。 - 請求項13から22のいずれか一項に記載の情報処理システムにおいて、
前記第1画像に含まれる人物から抽出された前記第1の顔特徴情報と前記第1の人領域特徴情報とを前記人物の識別情報に対応付けて記憶部に記憶させる登録手段と、
前記照合手段による照合結果が一致となった場合、前記記憶部が記憶する前記人物の識別情報を出力部に出力させる出力処理手段と、をさらに備える情報処理システム。 - 請求項13から23のいずれか一項に記載の情報処理システムにおいて、
複数の撮像部とネットワークを介して接続され、
前記抽出手段は、複数の撮像部から前記第2画像を取得し、取得した前記第2画像に対して抽出処理を行う情報処理システム。 - 情報処理装置が、
第1画像に含まれる人物の顔領域から第1の顔特徴情報を抽出し、前記人物の顔以外を含む領域から第1の人領域特徴情報を抽出し、
2以上の特徴情報を照合し、
第2画像に含まれる人物の顔領域から第2の顔特徴情報を抽出できなかった場合、前記第2画像に含まれる人物の顔以外を含む領域から第2の人領域特徴情報を抽出し、
前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、
情報処理方法。 - 請求項25に記載の情報処理方法において、
前記第2画像は、前記第1画像とは異なる撮像部により生成される情報処理方法。 - 請求項25又は26に記載の情報処理方法において、
前記第2画像は、前記第1画像より後に撮像された画像である情報処理方法。 - 請求項25から27のいずれか一項に記載の情報処理方法において、
前記情報処理装置が、
前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できた場合は前記第1の顔特徴情報と前記第2の顔特徴情報とを照合し、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できなかった場合は前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する、情報処理方法。 - 請求項25から28のいずれか一項に記載の情報処理方法において、
前記情報処理装置が、
前記第1の顔特徴情報、前記第2の顔特徴情報、前記第1の人領域特徴情報、および前記第2の人領域特徴情報の抽出処理、ならびに、前記人領域特徴情報の照合処理のうち少なくともいずれか1つを、所定の事象を検知したことをトリガとして実施する、情報処理方法。 - 請求項25から29のいずれか一項に記載の情報処理方法において、
前記情報処理装置が、さらに、
抽出した前記第1の人領域特徴情報を、当該第1の人領域特徴情報に対応する前記人領域を含む画像に関連付けて登録人領域特徴情報として記憶部に記憶させ、
前記記憶部に記憶された前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理方法。 - 請求項25から30のいずれか一項に記載の情報処理方法において、
前記情報処理装置が、さらに、
複数の前記第1画像を用いて複数の前記第1の人領域特徴情報を抽出し、前記複数の第1の人領域特徴情報を登録人領域特徴情報として互いに関連付けて記憶部に記憶させ、
前記記憶部に記憶された少なくとも1つの前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する情報処理方法。 - 請求項25から31のいずれか一項に記載の情報処理方法において、
前記情報処理装置が、
前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と記憶部に記憶された第1顔情報とを照合し、当該照合結果が一致となった場合、前記第1画像に含まれる前記人物から前記第1の人領域特徴情報を抽出する、情報処理方法。 - 請求項32に記載の情報処理方法において、
前記情報処理装置が、
前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と前記記憶部に記憶された前記第1顔情報との照合結果が不一致となった場合、当該人物の顔領域以外を含む人領域から第3の人領域特徴情報を抽出し、
さらに、抽出された前記第3の人領域特徴情報及び当該第1の顔特徴情報を互いに関連付けて第2の記憶部に記憶させる情報処理方法。 - 請求項33に記載の情報処理方法において、
前記情報処理装置が、
前記第1の顔特徴情報が抽出された前記顔領域の画像を前記第1の顔特徴情報および前記第3の人領域特徴情報と関連付けて前記第2の記憶部に記憶させる、情報処理方法。 - 請求項25から34のいずれか一項に記載の情報処理方法において、
前記情報処理装置が、さらに、
前記第1画像に含まれる人物から抽出された前記第1の顔特徴情報と前記第1の人領域特徴情報とを前記人物の識別情報に対応付けて記憶部に記憶させ、
照合結果が一致となった場合、前記記憶部が記憶する前記人物の識別情報を出力部に出力させる、情報処理方法。 - 請求項25から35のいずれか一項に記載の情報処理方法において、
複数の撮像部とネットワークを介して接続され、
前記情報処理装置が、
複数の撮像部から前記第2画像を取得し、取得した前記第2画像に対して抽出処理を行う情報処理方法。 - コンピュータに、
第1画像に含まれる人物の顔領域から第1の顔特徴情報を抽出し、前記人物の顔以外を含む領域から第1の人領域特徴情報を抽出する手順、
2以上の特徴情報を照合する手順、
第2画像に含まれる人物の顔領域から第2の顔特徴情報を抽出できなかった場合、前記第2画像に含まれる人物の顔以外を含む領域から第2の人領域特徴情報を抽出する手順、
前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する手順、
を実行させるためのプログラム。 - 請求項37に記載のプログラムにおいて、
前記第2画像は、前記第1画像とは異なる撮像部により生成されるプログラム。 - 請求項37又は38に記載のプログラムにおいて、
前記第2画像は、前記第1画像より後に撮像された画像であるプログラム。 - 請求項37から39のいずれか一項に記載のプログラムにおいて、
前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できた場合は前記第1の顔特徴情報と前記第2の顔特徴情報とを照合し、前記第2画像に含まれる人物から前記第2の顔特徴情報を抽出できなかった場合は前記第1の人領域特徴情報と前記第2の人領域特徴情報とを照合する手順をコンピュータに実行させるためのプログラム。 - 請求項37から40のいずれか一項に記載のプログラムにおいて、
前記第1の顔特徴情報、前記第2の顔特徴情報、前記第1の人領域特徴情報、および前記第2の人領域特徴情報の抽出処理、ならびに、前記人領域特徴情報の照合処理のうち少なくともいずれか1つを、所定の事象を検知したことをトリガとして実施する手順をコンピュータに実行させるためのプログラム。 - 請求項37から41のいずれか一項に記載のプログラムにおいて、
抽出した前記第1の人領域特徴情報を、当該第1の人領域特徴情報に対応する前記人領域を含む画像に関連付けて登録人領域特徴情報として記憶部に記憶させる手順、
前記記憶部に記憶された前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する手順をコンピュータに実行させるためのプログラム。 - 請求項37から42のいずれか一項に記載のプログラムにおいて、
複数の前記第1画像を用いて複数の前記第1の人領域特徴情報を抽出し、前記複数の第1の人領域特徴情報を登録人領域特徴情報として互いに関連付けて記憶部に記憶させる手順、
前記記憶部に記憶された少なくとも1つの前記登録人領域特徴情報と前記第2の人領域特徴情報とを照合する手順をコンピュータに実行させるためのプログラム。 - 請求項37から43のいずれか一項に記載のプログラムにおいて、
前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と記憶部に記憶された第1顔情報とを照合し、当該照合結果が一致となった場合、前記第1画像に含まれる前記人物から前記第1の人領域特徴情報を抽出する手順をコンピュータに実行させるためのプログラム。 - 請求項44に記載のプログラムにおいて、
前記第1画像に含まれる人物の顔領域から抽出された前記第1の顔特徴情報と前記記憶部に記憶された前記第1顔情報との照合結果が不一致となった場合、当該人物の顔領域以外を含む人領域から第3の人領域特徴情報を抽出する手順、
抽出された前記第3の人領域特徴情報及び当該第1の顔特徴情報を互いに関連付けて第2の記憶部に記憶させる手順をコンピュータに実行させるためのプログラム。 - 請求項45に記載のプログラムにおいて、
前記第1の顔特徴情報が抽出された前記顔領域の画像を前記第1の顔特徴情報および前記第3の人領域特徴情報と関連付けて前記第2の記憶部に記憶させる手順をコンピュータに実行させるためのプログラム。 - 請求項37から46のいずれか一項に記載のプログラムにおいて、
前記第1画像に含まれる人物から抽出された前記第1の顔特徴情報と前記第1の人領域特徴情報とを前記人物の識別情報に対応付けて記憶部に記憶させる手順、
照合結果が一致となった場合、前記記憶部が記憶する前記人物の識別情報を出力部に出力させる手順をコンピュータに実行させるためのプログラム。 - 請求項37から47のいずれか一項に記載のプログラムにおいて、
複数の撮像部とネットワークを介して接続され、
複数の撮像部から前記第2画像を取得し、取得した前記第2画像に対して抽出処理を行う手順をコンピュータに実行させるためのプログラム。
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US17/298,064 US12046075B2 (en) | 2018-12-07 | 2018-12-07 | Information processing apparatus, information processing method, and program |
| EP18942553.1A EP3893193A4 (en) | 2018-12-07 | 2018-12-07 | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
| JP2020558792A JP7020567B2 (ja) | 2018-12-07 | 2018-12-07 | 情報処理システム、情報処理装置、情報処理方法、およびプログラム |
| PCT/JP2018/045176 WO2020115910A1 (ja) | 2018-12-07 | 2018-12-07 | 情報処理システム、情報処理装置、情報処理方法、およびプログラム |
| JP2022014709A JP7298729B2 (ja) | 2018-12-07 | 2022-02-02 | 情報処理システム、情報処理装置、情報処理方法、およびプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2018/045176 WO2020115910A1 (ja) | 2018-12-07 | 2018-12-07 | 情報処理システム、情報処理装置、情報処理方法、およびプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020115910A1 true WO2020115910A1 (ja) | 2020-06-11 |
Family
ID=70974224
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/045176 Ceased WO2020115910A1 (ja) | 2018-12-07 | 2018-12-07 | 情報処理システム、情報処理装置、情報処理方法、およびプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US12046075B2 (ja) |
| EP (1) | EP3893193A4 (ja) |
| JP (1) | JP7020567B2 (ja) |
| WO (1) | WO2020115910A1 (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023281559A1 (ja) * | 2021-07-05 | 2023-01-12 | 三菱電機株式会社 | 人物同定装置、及び人物同定方法 |
| JP2023024263A (ja) * | 2021-08-06 | 2023-02-16 | 株式会社オプティム | プログラム、方法、情報処理装置、およびシステム |
| JP2023026630A (ja) * | 2018-12-27 | 2023-02-24 | 日本電気株式会社 | 情報処理システム、情報処理装置、情報処理方法、およびプログラム |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP4277264A1 (en) * | 2022-05-11 | 2023-11-15 | Axis AB | A method and device for setting a value of an object property in a sequence of metadata frames corresponding to a sequence of video frames |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002279540A (ja) * | 2001-03-16 | 2002-09-27 | Victor Co Of Japan Ltd | 画像監視システム及びネットワークを用いた画像監視システム |
| JP2005086626A (ja) * | 2003-09-10 | 2005-03-31 | Matsushita Electric Ind Co Ltd | 広域監視装置 |
| WO2006013765A1 (ja) | 2004-08-03 | 2006-02-09 | Matsushita Electric Industrial Co., Ltd. | 人物判定装置及び人物検索追跡装置 |
| JP2006293912A (ja) | 2005-04-14 | 2006-10-26 | Toshiba Corp | 情報表示システム、情報表示方法および携帯端末装置 |
| JP2006301995A (ja) | 2005-04-21 | 2006-11-02 | Matsushita Electric Ind Co Ltd | 人物検索装置及び人物検索方法 |
| JP2009199322A (ja) * | 2008-02-21 | 2009-09-03 | Hitachi Kokusai Electric Inc | 監視システム、人物検索方法 |
| JP2010257451A (ja) | 2009-03-31 | 2010-11-11 | Sogo Keibi Hosho Co Ltd | 人物検索装置、人物検索方法、及び人物検索プログラム |
| JP2013196423A (ja) * | 2012-03-21 | 2013-09-30 | Glory Ltd | 監視システム、監視装置及び監視方法 |
| JP2014149620A (ja) * | 2013-01-31 | 2014-08-21 | Secom Co Ltd | 撮影システム |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5131131B2 (ja) | 2008-09-30 | 2013-01-30 | 富士通株式会社 | 表示システムおよび表示制御方法 |
| JP5894807B2 (ja) | 2012-01-25 | 2016-03-30 | 株式会社日立国際電気 | 監視装置及び監視カメラシステム並びに映像送信方法 |
| JP2015002553A (ja) | 2013-06-18 | 2015-01-05 | キヤノン株式会社 | 情報処理システムおよびその制御方法 |
| JP6470503B2 (ja) * | 2014-05-20 | 2019-02-13 | キヤノン株式会社 | 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム |
| JP6289308B2 (ja) | 2014-08-22 | 2018-03-07 | 東芝テック株式会社 | 情報処理装置およびプログラム |
| JP6128468B2 (ja) * | 2015-01-08 | 2017-05-17 | パナソニックIpマネジメント株式会社 | 人物追尾システム及び人物追尾方法 |
| EP3422291B1 (en) | 2016-02-26 | 2023-11-22 | Nec Corporation | Facial verification system, facial verification method, and recording medium |
| JP6828445B2 (ja) | 2017-01-11 | 2021-02-10 | 富士通株式会社 | 対象物追跡プログラム、対象物追跡方法及び対象物追跡装置 |
| JP6267380B1 (ja) | 2017-02-16 | 2018-01-24 | 株式会社リクルートホールディングス | 順番管理システム、順番管理装置、およびプログラム |
| TWI604332B (zh) * | 2017-03-24 | 2017-11-01 | 緯創資通股份有限公司 | 遠距離的身份辨識方法及其系統與電腦可讀取記錄媒體 |
| EP3618427B1 (en) | 2017-04-28 | 2022-04-13 | Hitachi Kokusai Electric Inc. | Video monitoring system |
| JP6977328B2 (ja) | 2017-06-21 | 2021-12-08 | 日本電気株式会社 | 顔認証装置、人物追跡システム、人物追跡方法、および、人物追跡プログラム |
-
2018
- 2018-12-07 JP JP2020558792A patent/JP7020567B2/ja active Active
- 2018-12-07 WO PCT/JP2018/045176 patent/WO2020115910A1/ja not_active Ceased
- 2018-12-07 EP EP18942553.1A patent/EP3893193A4/en not_active Withdrawn
- 2018-12-07 US US17/298,064 patent/US12046075B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002279540A (ja) * | 2001-03-16 | 2002-09-27 | Victor Co Of Japan Ltd | 画像監視システム及びネットワークを用いた画像監視システム |
| JP2005086626A (ja) * | 2003-09-10 | 2005-03-31 | Matsushita Electric Ind Co Ltd | 広域監視装置 |
| WO2006013765A1 (ja) | 2004-08-03 | 2006-02-09 | Matsushita Electric Industrial Co., Ltd. | 人物判定装置及び人物検索追跡装置 |
| JP2006293912A (ja) | 2005-04-14 | 2006-10-26 | Toshiba Corp | 情報表示システム、情報表示方法および携帯端末装置 |
| JP2006301995A (ja) | 2005-04-21 | 2006-11-02 | Matsushita Electric Ind Co Ltd | 人物検索装置及び人物検索方法 |
| JP2009199322A (ja) * | 2008-02-21 | 2009-09-03 | Hitachi Kokusai Electric Inc | 監視システム、人物検索方法 |
| JP2010257451A (ja) | 2009-03-31 | 2010-11-11 | Sogo Keibi Hosho Co Ltd | 人物検索装置、人物検索方法、及び人物検索プログラム |
| JP2013196423A (ja) * | 2012-03-21 | 2013-09-30 | Glory Ltd | 監視システム、監視装置及び監視方法 |
| JP2014149620A (ja) * | 2013-01-31 | 2014-08-21 | Secom Co Ltd | 撮影システム |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP3893193A4 |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023026630A (ja) * | 2018-12-27 | 2023-02-24 | 日本電気株式会社 | 情報処理システム、情報処理装置、情報処理方法、およびプログラム |
| JP7435837B2 (ja) | 2018-12-27 | 2024-02-21 | 日本電気株式会社 | 情報処理システム、情報処理装置、情報処理方法、およびプログラム |
| US11928181B2 (en) | 2018-12-27 | 2024-03-12 | Nec Corporation | Information processing apparatus, information processing method, and program |
| US11934483B2 (en) | 2018-12-27 | 2024-03-19 | Nec Corporation | Information processing apparatus, information processing method, and program |
| US11971952B2 (en) | 2018-12-27 | 2024-04-30 | Nec Corporation | Information processing apparatus, information processing method, and program |
| US12141232B2 (en) | 2018-12-27 | 2024-11-12 | Nec Corporation | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium |
| US12141231B2 (en) | 2018-12-27 | 2024-11-12 | Nec Corporation | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium |
| US12164596B2 (en) | 2018-12-27 | 2024-12-10 | Nec Corporation | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium |
| US12189713B2 (en) | 2018-12-27 | 2025-01-07 | Nec Corporation | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium |
| WO2023281559A1 (ja) * | 2021-07-05 | 2023-01-12 | 三菱電機株式会社 | 人物同定装置、及び人物同定方法 |
| JP2023024263A (ja) * | 2021-08-06 | 2023-02-16 | 株式会社オプティム | プログラム、方法、情報処理装置、およびシステム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20220122377A1 (en) | 2022-04-21 |
| EP3893193A4 (en) | 2021-12-22 |
| US12046075B2 (en) | 2024-07-23 |
| JPWO2020115910A1 (ja) | 2021-10-28 |
| JP7020567B2 (ja) | 2022-02-16 |
| EP3893193A1 (en) | 2021-10-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12087075B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
| JP7238902B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| JP7435837B2 (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
| JP7484985B2 (ja) | 認証システム、認証方法、及び、プログラム | |
| JP7020567B2 (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
| JP7298729B2 (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
| JP7371806B2 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18942553 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2020558792 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2018942553 Country of ref document: EP Effective date: 20210707 |
|
| WWW | Wipo information: withdrawn in national office |
Ref document number: 2018942553 Country of ref document: EP |