WO2022009254A1 - データ拡張装置、学習装置、データ拡張方法、及び、記録媒体 - Google Patents
データ拡張装置、学習装置、データ拡張方法、及び、記録媒体 Download PDFInfo
- Publication number
- WO2022009254A1 WO2022009254A1 PCT/JP2020/026348 JP2020026348W WO2022009254A1 WO 2022009254 A1 WO2022009254 A1 WO 2022009254A1 JP 2020026348 W JP2020026348 W JP 2020026348W WO 2022009254 A1 WO2022009254 A1 WO 2022009254A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- domain
- target domain
- class
- source domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
Definitions
- the present invention relates to the expansion of teacher data used for machine learning.
- Patent Documents 1 and 2 describe examples of data expansion methods. Further, Patent Document 3 describes a method of duplicating the learning data of a specific class to be recognized when the learning data of that class is smaller than that of other classes.
- the original image data is deformed within a limited range where the class label does not change by perturbing the hue and contrast of the image, and the number of data is increased.
- the object such as image recognition is a three-dimensional object
- One object of the present invention is to provide a data expansion device capable of improving the recognition performance of a model by increasing the amount of teacher data of a class having a small number of data to learn a model.
- the data expansion device A data acquisition means for acquiring two source domain data of a predetermined class from a data group of a source domain and acquiring one target domain data of the predetermined class from a data group of the target domain. Using the two source domain data, an estimation means for estimating the structure of the manifold showing the data distribution of the source domain, and A data generation means for generating new data of the target domain by using the one target domain data and the structure of the manifold is provided.
- the data extension method Two source domain data of a predetermined class are acquired from the data group of the source domain, and one target domain data of the predetermined class is acquired from the data group of the target domain. Using the two source domain data, the structure of the manifold showing the data distribution of the source domain is estimated. Using the one target domain data and the structure of the manifold, new data of the target domain is generated.
- the recording medium is: Two source domain data of a predetermined class are acquired from the data group of the source domain, and one target domain data of the predetermined class is acquired from the data group of the target domain. Using the two source domain data, the structure of the manifold showing the data distribution of the source domain is estimated. Using the one target domain data and the structure of the manifold, a program for causing a computer to execute a process of generating new data of the target domain is recorded.
- the present invention it is possible to increase the amount of teacher data in a class with a small number of data to learn a model and improve the recognition performance of the model.
- the data expansion method of the first embodiment is schematically shown.
- the overall configuration of the data expansion apparatus of the first embodiment is shown. It is a block diagram which shows the hardware composition of the data expansion apparatus. It is a block diagram which shows the functional structure of the data expansion apparatus. It is a flowchart of the data expansion process by 1st Embodiment. It is a block diagram which shows the functional structure of the learning apparatus which concerns on 2nd Embodiment. It is a block diagram which shows the structure of the data expansion part. It is a flowchart of the learning process by 2nd Embodiment. It is a block diagram which shows the functional structure of the learning apparatus which concerns on 3rd Embodiment.
- Domain adaptation is used as a method to improve the performance of a model when there is a shortage of teacher data used to train a machine learning model in a certain area.
- Domain adaptation is a method of learning a model in a target domain that lacks data by using the data of the source domain where abundant data can be obtained.
- the model used in the target domain is learned by using the data and label information of the source domain by making the feature data distributions of the target domain and the source domain as close as possible. As a result, even if the number of teacher data in the target domain is not sufficient, the performance of the model used in the target domain can be improved.
- the class label to be recognized is the vehicle type.
- a new vehicle model X has appeared in addition to the existing vehicle models A to C.
- FIG. 1 (A) schematically shows an example of simply performing domain adaptation when the target domain has an imbalance between classes.
- the feature space is a space showing the data distribution of the features.
- the source domain is a CG (Computer Graphics) image domain, and a large number of CG image Pc having different camera angles and the like are prepared for vehicle types A to C.
- a large number of CG image Pc can be prepared for the new vehicle model X as well. Therefore, in the source domain composed of CG images, if the feature amounts of the CG image Pc of each class are arranged in the feature amount space, the feature amount data distribution as shown on the right side of FIG. 1A can be obtained.
- the target domain is the domain of the live-action image
- a large number of live-action image Prs already exist for the existing vehicle models A to C, but the live-action image Pr is very small for the new vehicle model X. .. Therefore, even if a simple domain adaptation is performed, as shown on the left side of FIG. 1A, the feature amount data distribution in the source domain is small because the live-action image Pr is small for the new vehicle model X in the feature amount space of the target domain. Cannot be simulated. Therefore, even if domain adaptation is simply applied, the improvement in recognition performance is limited.
- FIG. 1B schematically shows an example of generating target domain data from source domain data by the domain adaptation of the present embodiment.
- the feature amount space of the source domain is the same as in FIG. 1 (A), and the feature amount data distribution of the CG image Pc is shown.
- the feature data distribution of the source domain reflects various fluctuations such as angular fluctuations of a three-dimensional object. Therefore, for the new vehicle type X, the feature amount data distribution of the target domain is generated by simulating the feature amount data distribution of the source domain. In other words, the feature data distribution of the source domain is transcribed into the target domain.
- new images P1 to P3 are generated from the live-action image Pr of the vehicle type X as shown on the left side of FIG. 1 (B).
- the feature data distribution of the source domain can be transcribed to the target domain.
- FIG. 2 schematically shows the data expansion method of the first embodiment.
- the data expansion device randomly picks up two arbitrary data (sample data) S1 and S2 from the data group of the vehicle type X in the source domain.
- the data expansion device calculates the difference vector D of the two data S1 and S2 picked up.
- the data expansion device randomly picks up one data T1 from the data group of the vehicle type X in the target domain. Then, the data expansion device adds the difference vector D to the picked up data T1 to create new data T2 of the vehicle type X in the target domain. In this way, new data can be added to the target domain.
- the data expansion device creates new data T2 in the target domain using the difference vectors of the two data S1 and S2 in the source domain, but in addition to the difference vector, the Euclidean distance and Mahalanobis A distance specified in the feature space, such as a distance, may be used.
- the distribution of the distance between two randomly picked sample data in the source domain reflects the structure of the source domain manifold, and when combined with domain adaptation, the structure of the source domain manifold is transcribed into the target domain. it seems to do. Therefore, by the above data expansion method, it is possible to transfer the feature amount data distribution of the source domain to the feature amount data distribution of the target domain and increase the amount of data in the target domain.
- FIG. 3 shows the overall configuration of the data expansion device of the first embodiment.
- the data expansion device 10 is connected to the source domain database (hereinafter, “database” is referred to as “DB”) 2 and the target domain DB 3.
- the source domain DB 2 stores a source domain data group which is teacher data of the source domain.
- the target domain DB 3 stores a target domain data group which is teacher data of the target domain.
- the teacher data is data used for learning a machine learning model that performs image recognition and the like, and includes learning image data and a correct answer label (teacher label) for the learning image data.
- the data expansion device 10 creates teacher data of a minor class of the target domain. Specifically, the data expansion device 10 acquires the source domain data from the source domain DB 2 and the target domain data from the target domain DB 3. Then, the data expansion device 10 creates new target domain data using the source domain data and the target domain data, and stores the new target domain data in the target domain DB 3. This will increase the target domain data for the minor class.
- FIG. 4 is a block diagram showing a hardware configuration of the data expansion device 10.
- the data expansion device 10 includes an interface (hereinafter referred to as “IF”) 11, a processor 12, a memory 13, a recording medium 14, and a database (DB) 15.
- IF interface
- DB database
- IF11 inputs and outputs data to and from an external device. Specifically, the data stored in the source domain DB 2 and the target domain DB 3 is input to the data expansion device 10 via the IF 11. Further, the new data generated by the data expansion device 10 is stored in the target domain DB 3 via the IF 11.
- the processor 12 is a computer such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), and controls the entire data expansion device 10 by executing a program prepared in advance. Specifically, the processor 12 executes the data expansion process described later.
- the memory 13 is composed of a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
- the memory 13 is also used as a working memory during execution of various processes by the processor 12.
- the recording medium 14 is a non-volatile, non-temporary recording medium such as a disk-shaped recording medium or a semiconductor memory, and is configured to be removable from the data expansion device 10.
- the recording medium 14 records various programs executed by the processor 12. When the data expansion device 10 executes various processes, the program recorded in the recording medium 14 is loaded into the memory 13 and executed by the processor 12.
- the database 15 temporarily stores the data input from the source domain DB2 and the target domain DB3 through IF11.
- the data expansion device 10 may include an input unit such as a keyboard and a mouse for the user to give instructions and inputs, and a display unit such as a liquid crystal display.
- FIG. 5 is a block diagram showing a functional configuration of the data expansion device 10.
- the data expansion device 10 includes a source domain data acquisition unit 21, a target domain data acquisition unit 22, a sample distance calculation unit 23, and a data generation unit 24.
- the source domain data acquisition unit 21 randomly acquires two arbitrary sample data from the source domain DB 2 for the minor class to be the target of data expansion, and outputs the data to the inter-sample distance calculation unit 23.
- the inter-sample distance calculation unit 23 calculates the distance between two sample data in the feature amount space (hereinafter, also referred to as “sample distance”) and outputs the data to the data generation unit 24.
- sample distance the distance between two sample data in the feature amount space
- a difference vector or a distance such as the Euclidean distance or the Mahalanobis distance can be used as the distance between the samples.
- the target domain data acquisition unit 22 randomly acquires any one sample data of the above minor class from the target domain DB 3 and outputs it to the data generation unit 24.
- the data generation unit 24 uses the sample data of one target domain input from the target domain data acquisition unit 22 and the sample distance input from the sample distance calculation unit 23 to generate new data of the target domain. Is generated and output to the target domain DB3. Specifically, as shown in FIG. 2, the data generation unit 24 generates new data T2 in the target domain based on one sample data T1 in the target domain and the distance between samples such as the difference vector D. Generate. In this way, new data of the target domain is generated by using the data of the source domain and the data of the target domain.
- the target domain data acquisition unit 22 acquires any one sample data of a specific minor class in the target domain, but instead, a plurality of data of the minor class in the target domain.
- the representative data of the above may be acquired.
- the representative data can be data corresponding to the average value, the median value, the center of gravity, and the like of a plurality of data of the minor class.
- the target domain data acquisition unit 22 acquires data that does not deviate significantly from the feature amount data distribution composed of a plurality of data of the minor class as one sample data. This makes it possible to properly transfer the structure of the manifold of the source domain to the target domain.
- the source domain data acquisition unit 21 and the target domain data acquisition unit 22 are examples of data acquisition means
- the sample distance calculation unit 23 is an example of estimation means
- the data generation unit 24 is an example of data generation means. This is just one example.
- FIG. 6 is a flowchart of the data expansion process according to the first embodiment. This process is realized by the processor 12 shown in FIG. 4 executing a program prepared in advance and operating as each element shown in FIG.
- the source domain data acquisition unit 21 acquires two arbitrary sample data from the source domain DB 2 (step S11).
- the inter-sample distance calculation unit 23 calculates the inter-sample distance between the two sample data (step S12).
- the target domain data acquisition unit 22 acquires one sample data from the target domain DB 3 (step S13).
- this one sample data may be any one data, or may be representative data of a plurality of data of the minor class to be the target of data expansion.
- the data generation unit 24 generates new data of the target domain by using the inter-sample distance calculated in step S12 and one sample data of the target domain acquired in step S13 (step S14). Then, the process ends.
- the data expansion device 10 repeats the above data expansion processing until a required number of data are obtained.
- the data of the target domain is transferred by transcribing the structure of the manifold of the source domain to the target domain. Can be increased. Therefore, even if there is an imbalance between the classes in the number of target domain data, it is possible to appropriately expand the data.
- the data expansion device is applied to a learning device of an image recognition model. That is, the learning device learns the image recognition model while increasing the teacher data of the minor class.
- FIG. 7 is a block diagram showing a functional configuration of the learning device according to the second embodiment.
- the hardware configuration of the learning device according to the second embodiment is basically the same as that of the first embodiment shown in FIG.
- the learning device 100 includes a target domain data acquisition unit 111, a minor class data extraction unit 112, a major class data extraction unit 113, a data expansion unit 114, a feature extraction unit 115, and a feature identification unit 116.
- a source domain data acquisition unit 121, a minor class data extraction unit 122, a major class data extraction unit 123, a feature extraction unit 125, and a domain adaptation unit 126 are provided.
- the data expansion unit 114 expands the data of the minor class using the target domain data and the source domain data by the same method as in the first embodiment.
- the target domain data acquisition unit 111 acquires target domain data from the target domain DB 3 and outputs the target domain data to the minor class data extraction unit 112 and the major class data extraction unit 113.
- the minor class data extraction unit 112 extracts the target domain data Dt of a predetermined minor class from the target domain data and outputs the target domain data Dt to the data extension unit 114.
- the major class data extraction unit 113 extracts major class data, that is, data of a class other than the minor class from the target domain data, and outputs the data to the feature extraction unit 115.
- the source domain data acquisition unit 121 acquires the source domain data from the source domain DB 2 and outputs the source domain data to the minor class data extraction unit 122 and the major class data extraction unit 123.
- the minor class data extraction unit 122 extracts the source domain data Ds of a predetermined minor class from the source domain data and outputs the data to the data extension unit 114 and the feature extraction unit 125.
- the minor class data extraction unit 112 and the minor class data extraction unit 122 extract data of the same minor class.
- the data expansion unit 114 expands the data for the minor class.
- FIG. 8 is a block diagram showing the configuration of the data expansion unit 114.
- the data expansion unit 114 includes a distance calculation unit 131 and a data generation unit 132. Two data samples of source domain data Ds randomly extracted by the minor class data extraction unit 122 are input to the distance calculation unit 131.
- the distance calculation unit 131 calculates the distance between the two input data samples and outputs the distance to the data generation unit 132.
- the distance here can be a difference vector, an Euclidean distance, or any other distance.
- One data sample of the target domain data Dt is input to the data generation unit 132 from the minor class data extraction unit 112.
- the data generation unit 132 generates new target domain data Dn by the method schematically shown in FIG. 2 using one data sample of the target domain data Dt and the distance calculated by the distance calculation unit 131. Output to the feature extraction unit 115.
- the target domain data can be increased for the minor class and used for training as teacher data.
- the new target domain data Dn becomes the image data for learning, and the class label of the above-mentioned predetermined minor class becomes the correct answer label.
- the feature extraction unit 115 performs feature extraction on each of the minor class target domain data input from the data expansion unit 114 and the major class target domain data input from the major class data extraction unit 113, and the extracted feature amount. Is output to the feature identification unit 116 and the domain adaptation unit 126.
- the feature extraction unit 115 is configured by a neural network such as, for example, a CNN (Convolutional Neural Network).
- the feature identification unit 116 class-identifies each target domain data based on the extracted feature amount, compares the identification result with the correct label corresponding to the data, and calculates an error. Then, the feature identification unit 116 updates the parameters of the neural network constituting the feature extraction unit 115 so as to minimize the calculated error.
- the feature extraction unit 125 performs feature extraction on each of the minor class source domain data input from the minor class data extraction unit 122 and the major class source domain data input from the major class data extraction unit 123.
- the extracted feature amount is output to the domain adaptation unit 126.
- the feature extraction unit 125 is configured by a neural network having the same configuration as the feature extraction unit 115, and the same parameters as the feature extraction unit 115 are set. That is, the feature extraction unit 115 and the feature extraction unit 125 share the same parameters.
- the domain adaptation unit 126 configures the feature extraction unit 125 so that the distance between the feature amount data distributions of the data derived from the two domains is reduced based on the feature amount of each domain data input from the feature extraction units 115 and 125.
- Optimize neural network parameters are shared with the feature extraction unit 115. Therefore, the parameters of the feature extraction units 115 and 125 are optimized so that the classification by the feature identification unit 116 is performed correctly and the feature amount data distributions of the data of the two domains are close to each other. Then, when the predetermined learning end condition is satisfied, the learning by the learning device 100 is completed, and the parameters of the feature extraction unit 115 at that time are obtained as the parameters of the trained image recognition model.
- new data is generated using the source domain data and the target domain data to generate an image recognition model.
- an image recognition model can be learned. For example, in the above example, if there is a shortage of live-action images of a new vehicle model, prepare the required number of CG images for that vehicle model, and use a small number of live-action images and CG images to eliminate the shortage of live-action images. You can learn the image recognition model while supplementing it. This makes it possible to learn an image recognition model so that the vehicle model can be recognized with the accuracy required for practical use even in a situation where it is difficult to obtain a live-action image of a new vehicle model.
- the data expansion unit 114 is arranged in front of the feature extraction unit 115, and new data is generated at the stage of image data. .. Therefore, it is possible to reduce the calculation load as compared with the case where the data expansion is performed at the stage after the feature amount is extracted from the image data, that is, at the stage of the feature amount data as in the third embodiment described later. can.
- the data expansion unit 114 is an example of a data expansion device
- the feature identification unit 116 is an example of identification means
- the feature identification unit 116 and the domain adaptation unit 126 are examples of learning means.
- FIG. 9 is a flowchart of the learning process according to the second embodiment. This process is realized by the processor 12 shown in FIG. 4 executing a program prepared in advance and operating as each element shown in FIG. 7.
- the target domain data acquisition unit 111 acquires the target domain data from the target domain DB3.
- the minor class data extraction unit 112 extracts the minor class data from the target domain data, and the major class data extraction unit 113 extracts the major class data from the target domain data (step S21).
- the source domain data acquisition unit 121 acquires the source domain data from the source domain DB2.
- the minor class data extraction unit 122 extracts the minor class data from the source domain data
- the major class data extraction unit 123 extracts the major class data from the source domain data (step S22).
- the data extension unit 114 generates new target domain data Dn using the minor class target domain data Dt and the minor class source domain data Ds (step S23).
- the feature extraction unit 115 performs feature extraction from the major class data of the target domain and the new data generated by the data expansion unit 114 (step S24). Further, the feature extraction unit 125 performs feature extraction from the minor class data and the major class data of the source domain (step S25).
- the feature identification unit 116 classifies the image data using the feature amount extracted by the feature extraction unit 115, and optimizes the parameters of the neural network constituting the feature extraction unit 115 using the classification result (the feature identification unit 116 classifies the image data. Step S26). Specifically, the feature identification unit 116 updates the parameters of the neural network constituting the feature extraction unit 115 based on the error between the classification result and the correct label.
- the domain adaptation unit 126 uses the feature amounts extracted by the feature extraction units 115 and 125 to form a neural network that constitutes the feature extraction unit 125 so that the feature amount data distributions of the image data derived from the two domains are approximated. (Step S27). Specifically, the domain adaptation unit 126 updates the parameters of the neural network constituting the feature extraction unit 125 so as to minimize the distance between the feature amount data distribution of the source domain data and the target domain data.
- the learning device 100 performs the above processing until a predetermined learning end condition is satisfied.
- a trained image recognition model is configured by the parameters set in the feature extraction units 115 and 125 when the learning is completed.
- the data generation unit 132 generates new target domain data Dn using one target domain data Dt and the distance output by the distance calculation unit 131.
- the data generation unit 132 may generate new target domain data Dn by multiplying the distance output by the distance calculation unit 131 by a predetermined weight.
- the weight value is set in the range of 0 to 1, and the data generation unit 132 trains the model by setting the weight value to a small value in the initial stage of learning by the learning device 100.
- the data generation unit 132 refers to the classification error calculated by the feature identification unit 116 and the distance between the feature amount data distributions derived from the two domains determined by the domain adaptation unit 126, and if they are in the convergence direction.
- the feature data distribution of the expanding data may be adjusted by gradually increasing the weight value and decreasing the weight value if it is not in the convergence direction.
- the learning device 100 performs data expansion at the stage of image data.
- the learning device expands the data at the stage of feature quantity data.
- FIG. 10 is a block diagram showing a functional configuration of the learning device according to the third embodiment.
- the hardware configuration of the learning device according to the third embodiment is basically the same as that of the first embodiment shown in FIG.
- the learning device 200 includes a target domain data acquisition unit 211, a minor class data extraction unit 212, a major class data extraction unit 213, a data expansion unit 214, a feature extraction unit 215, and a feature identification unit 216.
- a source domain data acquisition unit 221, a minor class data extraction unit 222, a major class data extraction unit 223, a feature extraction unit 225, and a domain adaptation unit 226 are provided.
- the feature extraction unit 215 is located in front of the minor class data extraction unit 212 and the major class data extraction unit 213, and the feature extraction unit 225 is a minor class. It is located in front of the data extraction unit 222 and the major class data extraction unit 223.
- the data expansion unit 214 expands the data using the feature amount data extracted by the feature extraction units 215 and 225.
- the processing of the learning device 200 of the third embodiment is basically the same as that of the second embodiment.
- the feature extraction unit 215 extracts the feature amount from the target domain data acquired by the target domain data acquisition unit 211 and outputs it to the minor class data extraction unit 212 and the major class data extraction unit 213.
- the minor class data extraction unit 212 extracts minor class data from the target domain data and outputs the minor class data to the data extension unit 214.
- the measure class data extraction unit 213 extracts the measure class data from the target domain data and outputs it to the feature identification unit 216 and the domain adaptation unit 226.
- the feature extraction unit 225 extracts the feature amount from the source domain data acquired by the source domain data acquisition unit 221 and outputs it to the minor class data extraction unit 222 and the major class data extraction unit 223.
- the minor class data extraction unit 222 extracts the minor class data Ds from the source domain data and outputs the minor class data Ds to the data extension unit 214 and the domain adaptation unit 226.
- the major class data extraction unit 223 extracts the major class data from the source domain data and outputs it to the domain adaptation unit 226.
- the data expansion unit 214 expands the data by using one data sample of the target domain data Dt as the feature amount data and two data samples of the source domain data Ds as the feature amount data.
- the configuration of the data expansion unit 214 is the same as that of the data expansion unit 114 of the second embodiment shown in FIG.
- the distance calculation unit 131 calculates the distance between the two data samples of the source domain data Ds as the feature amount
- the data generation unit 132 uses the distance to generate new target domain data Dn. To generate.
- the data expansion unit 214 outputs the generated new target domain data Dn to the feature identification unit 216.
- the feature identification unit 216 class-identifies each of the minor class target domain data Dn generated by the data extension unit 214 and the major class target domain data extracted by the major class data extraction unit 213, and obtains the identification result. The error is calculated by comparing with the correct label corresponding to the data. Then, the feature identification unit 216 updates the parameters of the feature extraction unit 215 so that the calculated error becomes small.
- the domain adaptation unit 226 features the target domain data input from the data expansion unit 214 or the major class data extraction unit 213 and the source domain data input from the minor class data extraction unit 222 or the major class data extraction unit 223.
- the parameters of the feature extraction unit 225 are optimized so that the distance of the quantity data distribution is reduced.
- the optimized parameters are shared with the feature extraction unit 215. Therefore, the parameters of the feature extraction units 215 and 225 are optimized so that the classification by the feature identification unit 216 is correctly performed and the feature amount data distributions of the data of the two domains are close to each other. Then, when the predetermined criterion is satisfied, the learning by the learning device 200 is completed, and the parameters of the feature extraction units 215 and 225 at that time are obtained as the parameters of the trained image recognition model.
- new data is generated using the source domain data and the target domain data for the minor class in which the number of data in the target domain is insufficient, and image recognition is performed. Models can be trained.
- the data expansion unit 214 is an example of a data expansion device
- the feature identification unit 216 is an example of identification means
- the feature identification unit 216 and the domain adaptation unit 226 are examples of learning means.
- FIG. 11 is a flowchart of the learning process according to the third embodiment. This process is realized by the processor 12 shown in FIG. 4 executing a program prepared in advance and operating as each element shown in FIG.
- the target domain data acquisition unit 211 acquires the target domain data from the target domain DB 3 (step S31). Further, the source domain data acquisition unit 221 acquires the source domain data from the source domain DB 2 (step S32).
- the feature extraction unit 215 extracts the feature from the target domain data and outputs the target domain data as the feature amount data to the minor class data extraction unit 212 and the major class data extraction unit 213 (step S33). Further, the feature extraction unit 225 extracts the feature from the source domain data and outputs the source domain data as the feature amount data to the minor class data extraction unit 222 and the major class data extraction unit 223 (step S34).
- the data extension unit 214 generates new target domain data Dn using the minor class target domain data Dt and the minor class source domain data Ds (step S35). At this time, the data expansion unit 214 generates new target domain data Dn as the feature amount data by using the target domain data and the source domain data which are the feature amount data.
- the feature identification unit 216 classifies the image data using the new target domain data Dn generated by the data expansion unit 214 and the target domain data as the feature amount data output from the measure class data extraction unit 213. And optimize the parameters of the neural network constituting the feature extraction unit 215 using the classification result (step S36).
- the domain adaptation unit 226 is output from the target domain data as feature amount data output from the data expansion unit 214 or the major class data extraction unit 213, and from the minor class data extraction unit 222 or the major class data extraction unit 223.
- the parameters of the neural network constituting the feature extraction unit 225 are optimized so that the feature amount data distributions of the image data derived from the two domains are approximated (step S37).
- the learning device 200 performs the above processing until a predetermined learning end condition is satisfied.
- a trained feature extraction model is configured by the parameters set in the feature extraction units 215 and 225 when the learning is completed.
- Modification 1 in the second embodiment can also be applied to the third embodiment. That is, also in the third embodiment, the data generation unit 132 of the data expansion unit 214 may generate new target domain data Dn by multiplying the distance output by the distance calculation unit 131 by a predetermined weight. ..
- FIG. 12 is a block diagram showing a functional configuration of the data expansion device 70 according to the fourth embodiment.
- the data expansion device 70 includes a data acquisition unit 71, an estimation unit 72, and a data generation unit 73.
- the data acquisition means 71 acquires two source domain data of a predetermined class from the data group of the source domain, and acquires one target domain data of a predetermined class from the data group of the target domain.
- the estimation means 72 uses two source domain data to estimate the structure of the manifold showing the data distribution of the source domain.
- the data generation means 73 uses one target domain data and the structure of the manifold to generate new data of the target domain.
- FIG. 13 is a flowchart of the data expansion process according to the fourth embodiment.
- This data expansion process is executed by the data expansion device 70 shown in FIG.
- the data acquisition means 71 acquires two source domain data of a predetermined class from the data group of the source domain, and acquires one target domain data of a predetermined class from the data group of the target domain (step S41). ).
- the estimation means 72 estimates the structure of the manifold showing the data distribution of the source domain using the two source domain data (step S42).
- the data generation means 73 generates new data of the target domain by using one target domain data and the structure of the manifold (step S43).
- the above embodiment can be suitably applied when a new class different from the conventional class appears in a system for performing image recognition or the like.
- a new vehicle model appears in a surveillance camera system such as an automobile, or when a new inspection object (that is, a new product) appears in a visual inspection system in a factory production line or the like. ..
- the above embodiment is not limited to the case where a new class that has not existed in the past appears, but also in the case where an object of the same class as the conventional one is viewed from a different direction and treated as another new class.
- the vehicle type was recognized using an image taken from the front of the vehicle (hereinafter referred to as "front image"), but an image taken from the rear of the vehicle (hereinafter referred to as "front image”).
- front image an image taken from the rear of the vehicle
- the method of the above embodiment is applied even when there is an imbalance in the number of data between the classes for the rear image, that is, when the number of data for the rear image is extremely insufficient for a certain vehicle model. can do.
- a data acquisition means for acquiring two source domain data of a predetermined class from a data group of a source domain and acquiring one target domain data of the predetermined class from a data group of the target domain.
- an estimation means for estimating the structure of the manifold showing the data distribution of the source domain
- a data generation means for generating new data of the target domain using the one target domain data and the structure of the manifold.
- a data expansion device equipped with.
- Appendix 2 The data expansion device according to Appendix 1, wherein the estimation means estimates the structure of the manifold based on the distance of the feature amount between the two source domain data.
- Appendix 3 The data expansion device according to Appendix 2, wherein the data generation means generates data having the distance from the one target domain data as the new data in the data distribution of the target domain.
- Appendix 4 The data expansion device according to Appendix 2 or 3, wherein the data generation means weights the distance and generates the new data.
- Two source domain data of a predetermined class are acquired from the data group of the source domain, and one target domain data of the predetermined class is acquired from the data group of the target domain.
- the structure of the manifold showing the data distribution of the source domain is estimated.
- Two source domain data of a predetermined class are acquired from the data group of the source domain, and one target domain data of the predetermined class is acquired from the data group of the target domain.
- the structure of the manifold showing the data distribution of the source domain is estimated.
- a recording medium recording a program that causes a computer to execute a process of generating new data of the target domain using the one target domain data and the structure of the manifold.
- Data expansion device 12 Processor 21, 121, 221 Source domain data acquisition unit 22, 111, 211 Target domain data acquisition unit 23 Sample distance calculation unit 24, 132 Data generation unit 112, 122, 212, 222 Minor class data extraction unit 113, 123, 213, 223 Major class data extraction unit 114, 214 Data expansion unit 115, 125, 215, 225 Feature extraction unit 116, 126, 216, 226 Domain adaptation unit 131 Distance calculation unit
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
データ拡張装置において、データ取得手段は、ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から所定のクラスの1つのターゲットドメインデータを取得する。推定手段は、2つのソースドメインデータを用いて、ソースドメインのデータ分布を示す多様体の構造を推定する。データ生成手段は、1つのターゲットドメインデータと、多様体の構造とを用いて、ターゲットドメインの新たなデータを生成する。
Description
本発明は、機械学習に用いる教師データの拡張に関する。
画像認識などに用いる機械学習のモデルを学習する際、十分な数の教師データが得られない場合、データ拡張により教師データを増量することが行われる。特許文献1、2は、データ拡張方法の例を記載している。また、特許文献3は、認識の対象となる特定のクラスの学習データが他のクラスと比べて少ない場合に、そのクラスの学習データを複製する手法を記載している。
一般的に、画像データのデータ拡張では、画像の色相やコントラストを摂動させるなどして、クラスラベルが変わってしまわない限定的な範囲で元の画像データを変形させてデータ数を増やす。ここで、画像認識などの対象が3次元物体である場合には、カメラの角度を変動させるなど、対象物の見た目をよりダイナミックに変形することが好ましいが、画像の色相やコントラストなどを摂動させる手法では、そのようなダイナミックな変形を模擬することが難しい。そのため、拡張したデータを用いてモデルの学習を行っても、画像認識の性能を向上させる効果が限定的となってしまう。
また、画像認識などの対象となる複数のクラスのうち、一部のクラスのデータ数が他のクラスに比べて少ない場合には、そのクラスについてデータ拡張が必要となる。
本発明の1つの目的は、データ数が少ないクラスの教師データを増量してモデルの学習を行い、モデルの認識性能を向上させることを可能とするデータ拡張装置を提供することにある。
本発明の一つの観点では、データ拡張装置は、
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得するデータ取得手段と、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定する推定手段と、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成するデータ生成手段と、を備える。
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得するデータ取得手段と、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定する推定手段と、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成するデータ生成手段と、を備える。
本発明の他の観点では、データ拡張方法は、
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得し、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定し、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成する。
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得し、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定し、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成する。
本発明のさらに他の観点では、記録媒体は、
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得し、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定し、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成する処理をコンピュータに実行させるプログラムを記録する。
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得し、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定し、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成する処理をコンピュータに実行させるプログラムを記録する。
本発明によれば、データ数が少ないクラスの教師データを増量してモデルの学習を行い、モデルの認識性能を向上させることが可能となる。
以下、図面を参照して、本発明の好適な実施形態について説明する。
<第1実施形態>
まず、第1実施形態のデータ拡張装置について説明する。
[基本原理]
ある領域において機械学習モデルの学習に使用する教師データが不足する場合にモデルの性能を向上させる手法としてドメイン適応が用いられる。ドメイン適応とは、豊富なデータが得られるソースドメインのデータを利用して、データが不足しているターゲットドメインにおけるモデルを学習する手法である。詳しくは、ドメイン適応では、ターゲットドメインとソースドメインの特徴量データ分布をなるべく一致させるように近づけることにより、ソースドメインのデータやラベル情報を利用して、ターゲットドメインで使用するモデルを学習する。これにより、ターゲットドメインの教師データ数が十分でない場合でも、ターゲットドメインで使用するモデルの性能を向上させることができる。
<第1実施形態>
まず、第1実施形態のデータ拡張装置について説明する。
[基本原理]
ある領域において機械学習モデルの学習に使用する教師データが不足する場合にモデルの性能を向上させる手法としてドメイン適応が用いられる。ドメイン適応とは、豊富なデータが得られるソースドメインのデータを利用して、データが不足しているターゲットドメインにおけるモデルを学習する手法である。詳しくは、ドメイン適応では、ターゲットドメインとソースドメインの特徴量データ分布をなるべく一致させるように近づけることにより、ソースドメインのデータやラベル情報を利用して、ターゲットドメインで使用するモデルを学習する。これにより、ターゲットドメインの教師データ数が十分でない場合でも、ターゲットドメインで使用するモデルの性能を向上させることができる。
しかし、ターゲットドメインのデータ数にクラス間のインバランスがあると、単純にドメイン適応を用いても、性能の向上は限定的となる。即ち、ターゲットドメインにおける複数のクラスのうち、一部のクラスのデータ数が他のクラスと比較して極端に少ない場合、ドメイン適応により生成するターゲットドメインの特徴量データ分布をソースドメインの特徴量データ分布に近づけることができず、モデルの性能を十分に向上させることは難しい。なお、以下の説明では、データ数にクラス間のインバランスがある場合、データ数が不足しているクラスを「マイナークラス」と呼び、データ数が不足していないクラス、即ち、マイナークラス以外のクラスを「メジャークラス」と呼ぶ。
一例として、車両の画像から車種を認識するモデルを考える。この場合、認識の対象となるクラスラベルは車種である。いま、既存の車種A~Cに加えて、新たな車種Xが登場したとする。
図1(A)は、ターゲットドメインにクラス間のインバランスがある場合に、単純にドメイン適応を行う例を模式的に示す。特徴量空間は、特徴量のデータ分布を示す空間である。図1(A)において、ソースドメインはCG(Computer Graphics)画像のドメインであり、車種A~Cについて、カメラの角度などが異なる多数のCG画像Pcが用意されている。また、新たな車種Xについても同様に多数のCG画像Pcを用意することができる。よって、CG画像により構成されるソースドメインでは、各クラスのCG画像Pcの特徴量を特徴量空間に配置すると、図1(A)の右側に示すような特徴量データ分布が得られる。
これに対し、ターゲットドメインを実写画像のドメインであるとすると、既存の車種A~Cについては既に多数の実写画像Prが存在しているが、新たな車種Xについては実写画像Prは非常に少ない。よって、単純なドメイン適応を行っても、図1(A)の左側に示すように、ターゲットドメインの特徴量空間では、新たな車種Xについて実写画像Prが少ないため、ソースドメインにおける特徴量データ分布を模擬することができない。このため、単純にドメイン適応を適用しても、認識性能の向上は限定的となる。
図1(B)は、本実施形態のドメイン適応により、ソースドメインデータからターゲットドメインデータを生成する例を模式的に示す。この場合、ソースドメインの特徴量空間は図1(A)と同様であり、CG画像Pcの特徴量データ分布を示す。ここで、ソースドメインの特徴量データ分布には、例えば3次元物体の角度変動などの多様な変動が反映されている。そこで、新たな車種Xについて、ソースドメインの特徴量データ分布を模擬してターゲットドメインの特徴量データ分布を生成する。言い換えると、ソースドメインの特徴量データ分布を、ターゲットドメインに転写する。具体的には、ソースドメインの特徴量データ分布に基づいて、図1(B)の左側に示すように車種Xの実写画像Prから新たな画像P1~P3を生成する。これにより、ソースドメインの特徴量データ分布をターゲットドメインに転写することができる。
図2は、第1実施形態のデータ拡張方法を模式的に示す。図2の右側に示すように、ソースドメインの特徴量空間においては、マイナークラスである車種Xについても十分なデータ数が存在している。そこで、データ拡張装置は、ソースドメインにおける車種Xのデータ群から、任意の2つのデータ(サンプルデータ)S1、S2をランダムにピックアップする。次に、データ拡張装置は、ピックアップした2つのデータS1、S2の差分ベクトルDを計算する。
次に、データ拡張装置は、ターゲットドメインにおける車種Xのデータ群の中から、1つのデータT1をランダムにピックアップする。そして、データ拡張装置は、ピックアップしたデータT1に差分ベクトルDを足し合わせて、ターゲットドメインにおける車種Xの新たなデータT2を作成する。こうして、ターゲットドメインに新たなデータを追加することができる。
なお、上記の例では、データ拡張装置は、ソースドメインの2つのデータS1、S2の差分ベクトルを用いてターゲットドメインに新たなデータT2を作成しているが、差分ベクトル以外に、ユークリッド距離やマハラノビス距離など、特徴量空間において規定される距離を用いてもよい。
ソースドメインにおいてランダムにピックアップした2つのサンプルデータ間の距離の分布は、ソースドメインの多様体の構造を反映しており、ドメイン適応と合わせることにより、ソースドメインの多様体の構造をターゲットドメインに転写していると考えられる。よって、上記のデータ拡張手法により、ソースドメインの特徴量データ分布をターゲットドメインの特徴量データ分布に転写して、ターゲットドメインにおけるデータを増量することが可能となる。
[データ拡張装置]
次に、第1実施形態のデータ拡張装置について説明する。
(全体構成)
図3は、第1実施形態のデータ拡張装置の全体構成を示す。データ拡張装置10は、ソースドメインデータベース(以下、「データベース」を「DB」と記す。)2と、ターゲットドメインDB3とに接続される。ソースドメインDB2は、ソースドメインの教師データであるソースドメインデータ群を記憶している。ターゲットドメインDB3は、ターゲットドメインの教師データであるターゲットドメインデータ群を記憶している。なお、教師データは、画像認識などを行う機械学習モデルの学習に使用されるデータであり、学習用画像データと、その学習用画像データに対する正解ラベル(教師ラベル)とを含む。
次に、第1実施形態のデータ拡張装置について説明する。
(全体構成)
図3は、第1実施形態のデータ拡張装置の全体構成を示す。データ拡張装置10は、ソースドメインデータベース(以下、「データベース」を「DB」と記す。)2と、ターゲットドメインDB3とに接続される。ソースドメインDB2は、ソースドメインの教師データであるソースドメインデータ群を記憶している。ターゲットドメインDB3は、ターゲットドメインの教師データであるターゲットドメインデータ群を記憶している。なお、教師データは、画像認識などを行う機械学習モデルの学習に使用されるデータであり、学習用画像データと、その学習用画像データに対する正解ラベル(教師ラベル)とを含む。
データ拡張装置10は、ターゲットドメインのマイナークラスの教師データを作成する。具体的に、データ拡張装置10は、ソースドメインDB2からソースドメインデータを取得するとともに、ターゲットドメインDB3からターゲットドメインデータを取得する。そして、データ拡張装置10は、ソースドメインデータとターゲットドメインデータを用いて新たなターゲットドメインデータを作成し、ターゲットドメインDB3に保存する。これにより、マイナークラスのターゲットドメインデータが増量される。
(ハードウェア構成)
図4は、データ拡張装置10のハードウェア構成を示すブロック図である。図示のように、データ拡張装置10は、インタフェース(以下、「IF」と記す。)11と、プロセッサ12と、メモリ13と、記録媒体14と、データベース(DB)15とを備える。
図4は、データ拡張装置10のハードウェア構成を示すブロック図である。図示のように、データ拡張装置10は、インタフェース(以下、「IF」と記す。)11と、プロセッサ12と、メモリ13と、記録媒体14と、データベース(DB)15とを備える。
IF11は、外部装置との間でデータの入出力を行う。具体的に、ソースドメインDB2及びターゲットドメインDB3に記憶されているデータは、IF11を介してデータ拡張装置10に入力される。また、データ拡張装置10が生成した新たなデータは、IF11を介してターゲットドメインDB3に保存される。
プロセッサ12は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などのコンピュータであり、予め用意されたプログラムを実行することにより、データ拡張装置10の全体を制御する。具体的に、プロセッサ12は、後述するデータ拡張処理を実行する。
メモリ13は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ13は、プロセッサ12による各種の処理の実行中に作業メモリとしても使用される。
記録媒体14は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、データ拡張装置10に対して着脱可能に構成される。記録媒体14は、プロセッサ12が実行する各種のプログラムを記録している。データ拡張装置10が各種の処理を実行する際には、記録媒体14に記録されているプログラムがメモリ13にロードされ、プロセッサ12により実行される。
データベース15は、IF11を通じてソースドメインDB2やターゲットドメインDB3から入力されたデータを一時的に記憶する。なお、データ拡張装置10は、使用者が指示や入力を行うためのキーボード、マウスなどの入力部、及び、液晶ディスプレイなどの表示部を備えていてもよい。
(機能構成)
図5は、データ拡張装置10の機能構成を示すブロック図である。図示のように、データ拡張装置10は、ソースドメインデータ取得部21と、ターゲットドメインデータ取得部22と、サンプル間距離演算部23と、データ生成部24とを備える。
図5は、データ拡張装置10の機能構成を示すブロック図である。図示のように、データ拡張装置10は、ソースドメインデータ取得部21と、ターゲットドメインデータ取得部22と、サンプル間距離演算部23と、データ生成部24とを備える。
ソースドメインデータ取得部21は、ソースドメインDB2から、データ拡張の対象となるマイナークラスについて、任意の2つのサンプルデータをランダムに取得し、サンプル間距離演算部23へ出力する。サンプル間距離演算部23は、特徴量空間における2つのサンプルデータの距離(以下、「サンプル間距離」とも呼ぶ。)を演算し、データ生成部24へ出力する。なお、前述のように、サンプル間距離としては、差分ベクトル、又は、ユークリッド距離やマハラノビス距離などの距離を用いることができる。
ターゲットドメインデータ取得部22は、ターゲットドメインDB3から、上記のマイナークラスの任意の1つのサンプルデータをランダムに取得し、データ生成部24に出力する。データ生成部24は、ターゲットドメインデータ取得部22から入力された、ターゲットドメインの1つのサンプルデータと、サンプル間距離演算部23から入力されたサンプル間距離とを用いて、ターゲットドメインの新たなデータを生成し、ターゲットドメインDB3に出力する。具体的には、図2に示したように、データ生成部24は、ターゲットドメインの1つのサンプルデータT1と、差分ベクトルDなどのサンプル間距離とに基づいて、ターゲットドメインにおける新たなデータT2を生成する。こうして、ソースドメインのデータと、ターゲットドメインのデータとを用いて、ターゲットドメインの新たなデータが生成される。
なお、上記の例では、ターゲットドメインデータ取得部22は、ターゲットドメインにおける特定のマイナークラスの任意の1つのサンプルデータを取得しているが、その代わりに、ターゲットドメインにおけるそのマイナークラスの複数のデータのうちの代表データを取得してもよい。この場合、代表データとは、そのマイナークラスの複数のデータの平均値、中央値、重心などに相当するデータとすることができる。言い換えると、ターゲットドメインデータ取得部22は、そのマイナークラスの複数のデータにより構成される特徴量データ分布から大きく外れていないデータを1つのサンプルデータとして取得する。これにより、ソースドメインの多様体の構造をターゲットドメインに適切に転写することが可能となる。
上記の構成において、ソースドメインデータ取得部21及びターゲットドメインデータ取得部22はデータ取得手段の一例であり、サンプル間距離演算部23は推定手段の一例であり、データ生成部24はデータ生成手段の一例である。
(データ拡張処理)
図6は、第1実施形態によるデータ拡張処理のフローチャートである。この処理は、図4に示すプロセッサ12が予め用意されたプログラムを実行し、図5に示す各要素として動作することにより実現される。
図6は、第1実施形態によるデータ拡張処理のフローチャートである。この処理は、図4に示すプロセッサ12が予め用意されたプログラムを実行し、図5に示す各要素として動作することにより実現される。
まず、ソースドメインデータ取得部21は、ソースドメインDB2から任意の2つのサンプルデータを取得する(ステップS11)。次に、サンプル間距離演算部23は、2つのサンプルデータのサンプル間距離を計算する(ステップS12)。次に、ターゲットドメインデータ取得部22は、ターゲットドメインDB3から、1つのサンプルデータを取得する(ステップS13)。なお、この1つのサンプルデータは、前述のように、任意の1つのデータとしてもよく、データ拡張の対象となるマイナークラスの複数のデータの代表データとしてもよい。
次に、データ生成部24は、ステップS12で計算されたサンプル間距離と、ステップS13で取得されたターゲットドメインの1つのサンプルデータとを用いて、ターゲットドメインの新たなデータを生成する(ステップS14)。そして、処理は終了する。なお、データ拡張装置10は、上記のデータ拡張処理を必要な数のデータが得られるまで繰り返し行う。
以上説明したように、第1実施形態のデータ拡張装置10によれば、データ数が不足しているマイナークラスについて、ソースドメインの多様体の構造をターゲットドメインに転写することにより、ターゲットドメインのデータを増量することができる。よって、ターゲットドメインデータ数にクラス間のインバランスがある場合でも、適切にデータ拡張が可能となる。
<第2実施形態>
第2実施形態は、第1実施形態に係るデータ拡張装置を画像認識モデルの学習装置に適用したものである。即ち、学習装置は、マイナークラスの教師データを増量しつつ、画像認識モデルの学習を行う。
第2実施形態は、第1実施形態に係るデータ拡張装置を画像認識モデルの学習装置に適用したものである。即ち、学習装置は、マイナークラスの教師データを増量しつつ、画像認識モデルの学習を行う。
[機能構成]
図7は、第2実施形態に係る学習装置の機能構成を示すブロック図である。なお、第2実施形態に係る学習装置のハードウェア構成は、基本的に図4に示す第1実施形態のものと同様である。図示のように、学習装置100は、ターゲットドメインデータ取得部111と、マイナークラスデータ抽出部112と、メジャークラスデータ抽出部113と、データ拡張部114と、特徴抽出部115と、特徴識別部116と、ソースドメインデータ取得部121と、マイナークラスデータ抽出部122と、メジャークラスデータ抽出部123と、特徴抽出部125と、ドメイン適応部126とを備える。この構成において、データ拡張部114は、第1実施形態と同様の手法で、マイナークラスについて、ターゲットドメインデータとソースドメインデータを用いてデータ拡張を行う。
図7は、第2実施形態に係る学習装置の機能構成を示すブロック図である。なお、第2実施形態に係る学習装置のハードウェア構成は、基本的に図4に示す第1実施形態のものと同様である。図示のように、学習装置100は、ターゲットドメインデータ取得部111と、マイナークラスデータ抽出部112と、メジャークラスデータ抽出部113と、データ拡張部114と、特徴抽出部115と、特徴識別部116と、ソースドメインデータ取得部121と、マイナークラスデータ抽出部122と、メジャークラスデータ抽出部123と、特徴抽出部125と、ドメイン適応部126とを備える。この構成において、データ拡張部114は、第1実施形態と同様の手法で、マイナークラスについて、ターゲットドメインデータとソースドメインデータを用いてデータ拡張を行う。
ターゲットドメインデータ取得部111は、ターゲットドメインDB3からターゲットドメインデータを取得し、マイナークラスデータ抽出部112及びメジャークラスデータ抽出部113へ出力する。マイナークラスデータ抽出部112は、ターゲットドメインデータから、所定のマイナークラスのターゲットドメインデータDtを抽出し、データ拡張部114へ出力する。メジャークラスデータ抽出部113は、ターゲットドメインデータからメジャークラスデータ、即ち、マイナークラス以外のクラスのデータを抽出し、特徴抽出部115へ出力する。
一方、ソースドメインデータ取得部121は、ソースドメインDB2からソースドメインデータを取得し、マイナークラスデータ抽出部122及びメジャークラスデータ抽出部123へ出力する。マイナークラスデータ抽出部122は、ソースドメインデータから所定のマイナークラスのソースドメインデータDsを抽出し、データ拡張部114及び特徴抽出部125へ出力する。なお、所定のマイナークラスが複数ある場合、マイナークラスデータ抽出部112とマイナークラスデータ抽出部122は同一のマイナークラスのデータを抽出する。
データ拡張部114は、マイナークラスについてデータ拡張を行う。図8は、データ拡張部114の構成を示すブロック図である。データ拡張部114は、距離演算部131と、データ生成部132とを備える。距離演算部131には、マイナークラスデータ抽出部122がランダムに抽出した、ソースドメインデータDsの2つのデータサンプルが入力される。距離演算部131は、入力された2つのデータサンプルの距離を計算し、データ生成部132へ出力する。ここでの距離は、前述のように、差分ベクトル、又は、ユークリッド距離その他の距離とすることができる。
データ生成部132には、マイナークラスデータ抽出部112からターゲットドメインデータDtの1つのデータサンプルが入力される。データ生成部132は、ターゲットドメインデータDtの1つのデータサンプルと、距離演算部131が計算した距離とを用いて、図2に模式的に示した手法で新たなターゲットドメインデータDnを生成し、特徴抽出部115へ出力する。こうして、マイナークラスについてターゲットドメインデータを増量し、教師データとして学習に使用することができる。この教師データでは、新たなターゲットドメインデータDnが学習用画像データとなり、上述の所定のマイナークラスのクラスラベルが正解ラベルとなる。
特徴抽出部115は、データ拡張部114から入力されたマイナークラスのターゲットドメインデータと、メジャークラスデータ抽出部113から入力されたメジャークラスのターゲットドメインデータのそれぞれについて特徴抽出を行い、抽出した特徴量を特徴識別部116及びドメイン適応部126へ出力する。特徴抽出部115は、例えばCNN(Convolutional Neural Network)などのニューラルネットワークにより構成される。特徴識別部116は、各ターゲットドメインデータについて、抽出された特徴量に基づいてクラス識別を行い、識別結果をそのデータに対応する正解ラベルと比較して誤差を算出する。そして、特徴識別部116は、算出された誤差を最小化するように、特徴抽出部115を構成するニューラルネットワークのパラメータを更新する。
一方、特徴抽出部125は、マイナークラスデータ抽出部122から入力されたマイナークラスのソースドメインデータと、メジャークラスデータ抽出部123から入力されたメジャークラスのソースドメインデータのそれぞれについて特徴抽出を行い、抽出した特徴量をドメイン適応部126へ出力する。特徴抽出部125は、特徴抽出部115と同一構成のニューラルネットワークにより構成され、特徴抽出部115と同一のパラメータが設定される。即ち、特徴抽出部115と特徴抽出部125は同一のパラメータを共有する。
ドメイン適応部126は、特徴抽出部115及び125から入力された各ドメインデータの特徴量に基づき、2つのドメイン由来のデータの特徴量データ分布の距離を近づけるように、特徴抽出部125を構成するニューラルネットワークのパラメータを最適化する。最適化されたパラメータは特徴抽出部115と共有される。従って、特徴抽出部115及び125のパラメータは、特徴識別部116によるクラス分類が正しく行われ、かつ、2つのドメインのデータの特徴量データ分布が近づくように最適化される。そして、所定の学習終了条件が満たされたときに学習装置100による学習が終了し、そのときの特徴抽出部115のパラメータが学習済みの画像認識モデルのパラメータとして得られる。
以上のように、第2実施形態の学習装置100では、ターゲットドメインのデータ数が不足しているマイナークラスについて、ソースドメインデータとターゲットドメインデータとを用いて新たなデータを生成して画像認識モデルの学習を行うことができる。例えば、前述の例では、新しい車種の実写画像が不足している場合に、その車種について必要な数のCG画像を用意し、少数の実写画像と、CG画像とを用いて実写画像の不足を補いつつ画像認識モデルを学習することができる。これにより、新しい車種の実写画像の入手が難しい状況においても、実用上要求される精度で車種を認識できるように画像認識モデルを学習することが可能となる。
なお、図7に示されるように、第2実施形態の学習装置100では、データ拡張部114は特徴抽出部115の前段に配置されており、画像データの段階で新たなデータを生成している。よって、後述する第3実施形態のように、画像データから特徴量を抽出した後の段階、即ち、特徴量データの段階でデータ拡張を行う場合と比較して、演算の負荷を小さくすることができる。
上記の構成において、データ拡張部114はデータ拡張装置の一例であり、特徴識別部116は識別手段の一例であり、特徴識別部116及びドメイン適応部126は学習手段の一例である。
[学習処理]
図9は、第2実施形態による学習処理のフローチャートである。この処理は、図4に示すプロセッサ12が、予め用意されたプログラムを実行し、図7に示す各要素として動作することにより実現される。
図9は、第2実施形態による学習処理のフローチャートである。この処理は、図4に示すプロセッサ12が、予め用意されたプログラムを実行し、図7に示す各要素として動作することにより実現される。
まず、ターゲットドメインデータ取得部111はターゲットドメインDB3からターゲットドメインデータを取得する。マイナークラスデータ抽出部112はターゲットドメインデータからマイナークラスデータを抽出し、メジャークラスデータ抽出部113はターゲットドメインデータからメジャークラスデータを抽出する(ステップS21)。
また、ソースドメインデータ取得部121はソースドメインDB2からソースドメインデータを取得する。マイナークラスデータ抽出部122はソースドメインデータからマイナークラスデータを抽出し、メジャークラスデータ抽出部123はソースドメインデータからメジャークラスデータを抽出する(ステップS22)。
次に、データ拡張部114は、マイナークラスのターゲットドメインデータDtと、マイナークラスのソースドメインデータDsとを用いて、新たなターゲットドメインデータDnを生成する(ステップS23)。
次に、特徴抽出部115は、ターゲットドメインのメジャークラスデータ、及び、データ拡張部114により生成された新たなデータから特徴抽出を行う(ステップS24)。また、特徴抽出部125は、ソースドメインのマイナークラスデータ及びメジャークラスデータから特徴抽出を行う(ステップS25)。
次に、特徴識別部116は、特徴抽出部115が抽出した特徴量を用いて画像データのクラス分類を行い、分類結果を用いて特徴抽出部115を構成するニューラルネットワークのパラメータを最適化する(ステップS26)。具体的には、特徴識別部116は、クラス分類結果と、正解ラベルとの誤差に基づいて特徴抽出部115を構成するニューラルネットワークのパラメータを更新する。
また、ドメイン適応部126は、特徴抽出部115及び125が抽出した特徴量を用いて、2つのドメイン由来の画像データの特徴量データ分布が近似するように、特徴抽出部125を構成するニューラルネットワークのパラメータを最適化する(ステップS27)。具体的には、ドメイン適応部126は、ソースドメインデータとターゲットドメインデータの特徴量データ分布の距離を最小化するように特徴抽出部125を構成するニューラルネットワークのパラメータを更新する。
学習装置100は、上記の処理を所定の学習終了条件が具備されるまで行う。学習が終了した時点で特徴抽出部115、125に設定されているパラメータにより、学習済みの画像認識モデルが構成される。
[変形例1]
上記の実施形態では、データ生成部132は、1つのターゲットドメインデータDtと、距離演算部131が出力した距離を用いて新たなターゲットドメインデータDnを生成している。この際、データ生成部132は、距離演算部131が出力した距離に対して、所定の重みを掛けて新たなターゲットドメインデータDnを生成してもよい。例えば、重みの値を0~1の範囲とし、データ生成部132は学習装置100による学習の初期段階では重みの値を小さめに設定してモデルの学習を行う。その後、データ生成部132は、特徴識別部116が算出するクラス分類の誤差や、ドメイン適応部126が判定する2つのドメイン由来の特徴量データ分布の距離を参照し、それらが収束方向であれば重みの値を徐々に増加させ、収束方向でなければ重みの値を減少するようにして、拡張するデータの特徴量データ分布を調整してもよい。
上記の実施形態では、データ生成部132は、1つのターゲットドメインデータDtと、距離演算部131が出力した距離を用いて新たなターゲットドメインデータDnを生成している。この際、データ生成部132は、距離演算部131が出力した距離に対して、所定の重みを掛けて新たなターゲットドメインデータDnを生成してもよい。例えば、重みの値を0~1の範囲とし、データ生成部132は学習装置100による学習の初期段階では重みの値を小さめに設定してモデルの学習を行う。その後、データ生成部132は、特徴識別部116が算出するクラス分類の誤差や、ドメイン適応部126が判定する2つのドメイン由来の特徴量データ分布の距離を参照し、それらが収束方向であれば重みの値を徐々に増加させ、収束方向でなければ重みの値を減少するようにして、拡張するデータの特徴量データ分布を調整してもよい。
<第3実施形態>
上記の第2実施形態では、学習装置100はデータ拡張を画像データの段階で行っている。これに対し、以下の第3実施形態では、学習装置はデータ拡張を特徴量データの段階で行う。
上記の第2実施形態では、学習装置100はデータ拡張を画像データの段階で行っている。これに対し、以下の第3実施形態では、学習装置はデータ拡張を特徴量データの段階で行う。
[機能構成]
図10は、第3実施形態に係る学習装置の機能構成を示すブロック図である。なお、第3実施形態に係る学習装置のハードウェア構成は、基本的に図4に示す第1実施形態のものと同様である。図示のように、学習装置200は、ターゲットドメインデータ取得部211と、マイナークラスデータ抽出部212と、メジャークラスデータ抽出部213と、データ拡張部214と、特徴抽出部215と、特徴識別部216と、ソースドメインデータ取得部221と、マイナークラスデータ抽出部222と、メジャークラスデータ抽出部223と、特徴抽出部225と、ドメイン適応部226とを備える。
図10は、第3実施形態に係る学習装置の機能構成を示すブロック図である。なお、第3実施形態に係る学習装置のハードウェア構成は、基本的に図4に示す第1実施形態のものと同様である。図示のように、学習装置200は、ターゲットドメインデータ取得部211と、マイナークラスデータ抽出部212と、メジャークラスデータ抽出部213と、データ拡張部214と、特徴抽出部215と、特徴識別部216と、ソースドメインデータ取得部221と、マイナークラスデータ抽出部222と、メジャークラスデータ抽出部223と、特徴抽出部225と、ドメイン適応部226とを備える。
図7と比較すると理解されるように、第3実施形態では、特徴抽出部215がマイナークラスデータ抽出部212及びメジャークラスデータ抽出部213の前段に位置しており、特徴抽出部225がマイナークラスデータ抽出部222及びメジャークラスデータ抽出部223の前段に位置している。これにより、データ拡張部214は、特徴抽出部215、225により抽出された特徴量データを用いてデータ拡張を行うことになる。この点以外は、第3実施形態の学習装置200の処理は、基本的に第2実施形態と同様である。
具体的に、特徴抽出部215は、ターゲットドメインデータ取得部211が取得したターゲットドメインデータから特徴量を抽出し、マイナークラスデータ抽出部212及びメジャークラスデータ抽出部213へ出力する。マイナークラスデータ抽出部212は、ターゲットドメインデータからマイナークラスデータを抽出し、データ拡張部214へ出力する。メジャークラスデータ抽出部213は、ターゲットドメインデータからメジャークラスデータを抽出し、特徴識別部216及びドメイン適応部226へ出力する。
特徴抽出部225は、ソースドメインデータ取得部221が取得したソースドメインデータから特徴量を抽出し、マイナークラスデータ抽出部222及びメジャークラスデータ抽出部223へ出力する。マイナークラスデータ抽出部222は、ソースドメインデータからマイナークラスデータDsを抽出し、データ拡張部214及びドメイン適応部226へ出力する。メジャークラスデータ抽出部223は、ソースドメインデータからメジャークラスデータを抽出し、ドメイン適応部226へ出力する。
データ拡張部214は、特徴量データとしてのターゲットドメインデータDtの1つのデータサンプルと、特徴量データとしてのソースドメインデータDsの2つのデータサンプルとを用いて、データ拡張を行う。データ拡張部214の構成は、図8に示す第2実施形態のデータ拡張部114と同様である。但し、第3実施形態では、距離演算部131は、特徴量としてのソースドメインデータDsの2つのデータサンプル間の距離を演算し、データ生成部132はその距離を用いて新たなターゲットドメインデータDnを生成する。データ拡張部214は、生成した新たなターゲットドメインデータDnを特徴識別部216へ出力する。
特徴識別部216は、データ拡張部214により生成されたマイナークラスのターゲットドメインデータDn、及び、メジャークラスデータ抽出部213が抽出したメジャークラスのターゲットドメインデータのそれぞれについてクラス識別を行い、識別結果をそのデータに対応する正解ラベルと比較して誤差を算出する。そして、特徴識別部216は、算出された誤差が小さくなるように、特徴抽出部215のパラメータを更新する。
一方、ドメイン適応部226は、データ拡張部214又はメジャークラスデータ抽出部213から入力されたターゲットドメインデータと、マイナークラスデータ抽出部222又はメジャークラスデータ抽出部223から入力されたソースドメインデータの特徴量データ分布の距離を近づけるように特徴抽出部225のパラメータを最適化する。最適化されたパラメータは特徴抽出部215と共有される。従って、特徴抽出部215及び225のパラメータは、特徴識別部216によるクラス分類が正しく行われ、かつ、2つのドメインのデータの特徴量データ分布が近づくように最適化される。そして、所定の基準が満たされたときに学習装置200による学習が終了し、そのときの特徴抽出部215、225のパラメータが学習済みの画像認識モデルのパラメータとして得られる。
以上のように、第3実施形態の学習装置200によっても、ターゲットドメインのデータ数が不足しているマイナークラスについて、ソースドメインデータとターゲットドメインデータとを用いて新たなデータを生成して画像認識モデルの学習を行うことができる。
上記の構成において、データ拡張部214はデータ拡張装置の一例であり、特徴識別部216は識別手段の一例であり、特徴識別部216及びドメイン適応部226は学習手段の一例である。
[学習処理]
図11は、第3実施形態による学習処理のフローチャートである。この処理は、図4に示すプロセッサ12が、予め用意されたプログラムを実行し、図10に示す各要素として動作することにより実現される。
図11は、第3実施形態による学習処理のフローチャートである。この処理は、図4に示すプロセッサ12が、予め用意されたプログラムを実行し、図10に示す各要素として動作することにより実現される。
まず、ターゲットドメインデータ取得部211はターゲットドメインDB3からターゲットドメインデータを取得する(ステップS31)。また、ソースドメインデータ取得部221はソースドメインDB2からソースドメインデータを取得する(ステップS32)。
次に、特徴抽出部215は、ターゲットドメインデータから特徴抽出を行い、特徴量データとしてのターゲットドメインデータをマイナークラスデータ抽出部212及びメジャークラスデータ抽出部213へ出力する(ステップS33)。また、特徴抽出部225は、ソースドメインデータから特徴抽出を行い、特徴量データとしてのソースドメインデータをマイナークラスデータ抽出部222及びメジャークラスデータ抽出部223へ出力する(ステップS34)。
次に、データ拡張部214は、マイナークラスのターゲットドメインデータDtと、マイナークラスのソースドメインデータDsとを用いて、新たなターゲットドメインデータDnを生成する(ステップS35)。この際、データ拡張部214は、特徴量データであるターゲットドメインデータ及びソースドメインデータを用いて、特徴量データとしての新たなターゲットドメインデータDnを生成する。
次に、特徴識別部216は、データ拡張部214が生成した新たなターゲットドメインデータDn及びメジャークラスデータ抽出部213から出力される特徴量データとしてのターゲットドメインデータを用いて、画像データのクラス分類を行い、分類結果を用いて特徴抽出部215を構成するニューラルネットワークのパラメータを最適化する(ステップS36)。
また、ドメイン適応部226は、データ拡張部214又はメジャークラスデータ抽出部213から出力される特徴量データとしてのターゲットドメインデータと、マイナークラスデータ抽出部222又はメジャークラスデータ抽出部223から出力される特徴量データとしてのソースドメインデータを用いて、2つのドメイン由来の画像データの特徴量データ分布が近似するように、特徴抽出部225を構成するニューラルネットワークのパラメータを最適化する(ステップS37)。
学習装置200は、上記の処理を所定の学習終了条件が具備されるまで行う。学習が終了した時点で特徴抽出部215、225に設定されているパラメータにより、学習済みの特徴抽出モデルが構成される。
[変形例]
第2実施形態における変形例1は、第3実施形態にも適用することができる。即ち、第3実施形態においても、データ拡張部214のデータ生成部132は、距離演算部131が出力した距離に対して、所定の重みを掛けて新たなターゲットドメインデータDnを生成してもよい。
第2実施形態における変形例1は、第3実施形態にも適用することができる。即ち、第3実施形態においても、データ拡張部214のデータ生成部132は、距離演算部131が出力した距離に対して、所定の重みを掛けて新たなターゲットドメインデータDnを生成してもよい。
<第4実施形態>
次に、本発明の第4実施形態について説明する。図12は、第4実施形態に係るデータ拡張装置70の機能構成を示すブロック図である。データ拡張装置70は、データ取得手段71と、推定手段72と、データ生成手段73とを備える。
次に、本発明の第4実施形態について説明する。図12は、第4実施形態に係るデータ拡張装置70の機能構成を示すブロック図である。データ拡張装置70は、データ取得手段71と、推定手段72と、データ生成手段73とを備える。
データ取得手段71は、ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から所定のクラスの1つのターゲットドメインデータを取得する。推定手段72は、2つのソースドメインデータを用いて、ソースドメインのデータ分布を示す多様体の構造を推定する。データ生成手段73は、1つのターゲットドメインデータと、多様体の構造とを用いて、ターゲットドメインの新たなデータを生成する。
図13は、第4実施形態によるデータ拡張処理のフローチャートである。このデータ拡張処理は、図12に示すデータ拡張装置70により実行される。具体的に、データ取得手段71は、ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から所定のクラスの1つのターゲットドメインデータを取得する(ステップS41)。推定手段72は、2つのソースドメインデータを用いて、ソースドメインのデータ分布を示す多様体の構造を推定する(ステップS42)。データ生成手段73は、1つのターゲットドメインデータと、多様体の構造とを用いて、ターゲットドメインの新たなデータを生成する(ステップS43)。
<適用例>
上記の実施形態は、画像認識などを行うシステムにおいて、従来のクラスとは異なる新たなクラスが出現した場合に好適に適用することができる。例えば、自動車等の監視カメラシステムにおいて新しい車種が登場した場合や、工場の製造ラインなどにおける外観検査システムにおいて新たな検査対象物(即ち、新たな製品)が登場した場合などに適用することができる。
上記の実施形態は、画像認識などを行うシステムにおいて、従来のクラスとは異なる新たなクラスが出現した場合に好適に適用することができる。例えば、自動車等の監視カメラシステムにおいて新しい車種が登場した場合や、工場の製造ラインなどにおける外観検査システムにおいて新たな検査対象物(即ち、新たな製品)が登場した場合などに適用することができる。
なお、従来無かった新たなクラスが登場した場合に限らず、従来と同一のクラスの対象物を異なる方向から見たものを、別の新たなクラスとして取り扱うような場合にも、上記の実施形態を適用することができる。例えば、自動車等の監視カメラシステムにおいて、従来は車両の前方から撮影した画像(以下、「前方画像」と呼ぶ。)を用いて車種の認識を行っていたが、車両の後方から撮影した画像(以下、「後方画像」と呼ぶ。)も用いて車種の認識も行うようにシステムを改良したとする。ここで、後方画像についてクラス間にデータ数のインバランスがある場合、即ち、ある車種については後方画像のデータ数が極端に不足しているような場合にも、上記の実施形態の手法を適用することができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得するデータ取得手段と、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定する推定手段と、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成するデータ生成手段と、
を備えるデータ拡張装置。
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得するデータ取得手段と、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定する推定手段と、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成するデータ生成手段と、
を備えるデータ拡張装置。
(付記2)
前記推定手段は、前記多様体の構造を、前記2つのソースドメインデータ間の特徴量の距離により推定する付記1に記載のデータ拡張装置。
前記推定手段は、前記多様体の構造を、前記2つのソースドメインデータ間の特徴量の距離により推定する付記1に記載のデータ拡張装置。
(付記3)
前記データ生成手段は、前記ターゲットドメインのデータ分布において、前記1つのターゲットドメインデータから前記距離を有するデータを前記新たなデータとして生成する付記2に記載のデータ拡張装置。
前記データ生成手段は、前記ターゲットドメインのデータ分布において、前記1つのターゲットドメインデータから前記距離を有するデータを前記新たなデータとして生成する付記2に記載のデータ拡張装置。
(付記4)
前記データ生成手段は、前記距離に重み付けを行って前記新たなデータを生成する付記2又は3に記載のデータ拡張装置。
前記データ生成手段は、前記距離に重み付けを行って前記新たなデータを生成する付記2又は3に記載のデータ拡張装置。
(付記5)
前記データ取得手段は、前記ターゲットドメインのデータ群から、前記1つのターゲットドメインデータをランダムに取得する付記1乃至4のいずれか一項に記載のデータ拡張装置。
前記データ取得手段は、前記ターゲットドメインのデータ群から、前記1つのターゲットドメインデータをランダムに取得する付記1乃至4のいずれか一項に記載のデータ拡張装置。
(付記6)
前記データ取得手段は、前記ターゲットドメインのデータ群の特徴量の代表値に相当するデータを前記1つのターゲットドメインデータとして取得する付記1乃至4のいずれか一項に記載のデータ拡張装置。
前記データ取得手段は、前記ターゲットドメインのデータ群の特徴量の代表値に相当するデータを前記1つのターゲットドメインデータとして取得する付記1乃至4のいずれか一項に記載のデータ拡張装置。
(付記7)
前記データ取得手段は、前記ソースドメインのデータ群から、前記2つのソースドメインデータをランダムに取得する付記1乃至6のいずれか一項に記載のデータ拡張装置。
前記データ取得手段は、前記ソースドメインのデータ群から、前記2つのソースドメインデータをランダムに取得する付記1乃至6のいずれか一項に記載のデータ拡張装置。
(付記8)
前記所定のクラスは、前記ターゲットドメインにおけるデータ数が所定数以下のクラスである付記1乃至7のいずれか一項に記載のデータ拡張装置。
前記所定のクラスは、前記ターゲットドメインにおけるデータ数が所定数以下のクラスである付記1乃至7のいずれか一項に記載のデータ拡張装置。
(付記9)
前記データ生成手段は、前記新たなデータと、前記所定のクラスのクラスラベルとを含む教師データを生成する付記1乃至8のいずれか一項に記載のデータ拡張装置。
前記データ生成手段は、前記新たなデータと、前記所定のクラスのクラスラベルとを含む教師データを生成する付記1乃至8のいずれか一項に記載のデータ拡張装置。
(付記10)
付記1乃至9のいずれか一項に記載のデータ拡張装置と、
モデルを用いて、前記ソースドメインのデータ群、及び、前記新たなデータを含む前記ターゲットドメインのデータ群から特徴量を抽出し、クラスを識別する識別手段と、
前記クラスの識別結果と正解ラベルとの誤差を最小化し、かつ、前記ソースドメインのデータから抽出した特徴量と前記ターゲットドメインのデータから抽出した特徴量との誤差を最小化するように前記モデルを学習する学習手段と、
を備える学習装置。
付記1乃至9のいずれか一項に記載のデータ拡張装置と、
モデルを用いて、前記ソースドメインのデータ群、及び、前記新たなデータを含む前記ターゲットドメインのデータ群から特徴量を抽出し、クラスを識別する識別手段と、
前記クラスの識別結果と正解ラベルとの誤差を最小化し、かつ、前記ソースドメインのデータから抽出した特徴量と前記ターゲットドメインのデータから抽出した特徴量との誤差を最小化するように前記モデルを学習する学習手段と、
を備える学習装置。
(付記11)
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得し、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定し、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成するデータ拡張方法。
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得し、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定し、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成するデータ拡張方法。
(付記12)
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得し、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定し、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成する処理をコンピュータに実行させるプログラムを記録した記録媒体。
ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得し、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定し、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成する処理をコンピュータに実行させるプログラムを記録した記録媒体。
以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
2 ソースドメインデータベース
3 ターゲットドメインデータベース
10 データ拡張装置
12 プロセッサ
21、121、221 ソースドメインデータ取得部
22、111、211 ターゲットドメインデータ取得部
23 サンプル間距離演算部
24、132 データ生成部
112、122、212、222 マイナークラスデータ抽出部
113、123、213、223 メジャークラスデータ抽出部
114、214 データ拡張部
115、125、215、225 特徴抽出部
116、126、216、226 ドメイン適応部
131 距離演算部
3 ターゲットドメインデータベース
10 データ拡張装置
12 プロセッサ
21、121、221 ソースドメインデータ取得部
22、111、211 ターゲットドメインデータ取得部
23 サンプル間距離演算部
24、132 データ生成部
112、122、212、222 マイナークラスデータ抽出部
113、123、213、223 メジャークラスデータ抽出部
114、214 データ拡張部
115、125、215、225 特徴抽出部
116、126、216、226 ドメイン適応部
131 距離演算部
Claims (12)
- ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得するデータ取得手段と、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定する推定手段と、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成するデータ生成手段と、
を備えるデータ拡張装置。 - 前記推定手段は、前記多様体の構造を、前記2つのソースドメインデータ間の特徴量の距離により推定する請求項1に記載のデータ拡張装置。
- 前記データ生成手段は、前記ターゲットドメインのデータ分布において、前記1つのターゲットドメインデータから前記距離を有するデータを前記新たなデータとして生成する請求項2に記載のデータ拡張装置。
- 前記データ生成手段は、前記距離に重み付けを行って前記新たなデータを生成する請求項2又は3に記載のデータ拡張装置。
- 前記データ取得手段は、前記ターゲットドメインのデータ群から、前記1つのターゲットドメインデータをランダムに取得する請求項1乃至4のいずれか一項に記載のデータ拡張装置。
- 前記データ取得手段は、前記ターゲットドメインのデータ群の特徴量の代表値に相当するデータを前記1つのターゲットドメインデータとして取得する請求項1乃至4のいずれか一項に記載のデータ拡張装置。
- 前記データ取得手段は、前記ソースドメインのデータ群から、前記2つのソースドメインデータをランダムに取得する請求項1乃至6のいずれか一項に記載のデータ拡張装置。
- 前記所定のクラスは、前記ターゲットドメインにおけるデータ数が所定数以下のクラスである請求項1乃至7のいずれか一項に記載のデータ拡張装置。
- 前記データ生成手段は、前記新たなデータと、前記所定のクラスのクラスラベルとを含む教師データを生成する請求項1乃至8のいずれか一項に記載のデータ拡張装置。
- 請求項1乃至9のいずれか一項に記載のデータ拡張装置と、
モデルを用いて、前記ソースドメインのデータ群、及び、前記新たなデータを含む前記ターゲットドメインのデータ群から特徴量を抽出し、クラスを識別する識別手段と、
前記クラスの識別結果と正解ラベルとの誤差を最小化し、かつ、前記ソースドメインのデータから抽出した特徴量と前記ターゲットドメインのデータから抽出した特徴量との誤差を最小化するように前記モデルを学習する学習手段と、
を備える学習装置。 - ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得し、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定し、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成するデータ拡張方法。 - ソースドメインのデータ群から所定のクラスの2つのソースドメインデータを取得し、ターゲットドメインのデータ群から前記所定のクラスの1つのターゲットドメインデータを取得し、
前記2つのソースドメインデータを用いて、前記ソースドメインのデータ分布を示す多様体の構造を推定し、
前記1つのターゲットドメインデータと、前記多様体の構造とを用いて、前記ターゲットドメインの新たなデータを生成する処理をコンピュータに実行させるプログラムを記録した記録媒体。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US18/014,293 US20230252765A1 (en) | 2020-07-06 | 2020-07-06 | Data augmentation device, learning device, data augmentation method, and recording medium |
| PCT/JP2020/026348 WO2022009254A1 (ja) | 2020-07-06 | 2020-07-06 | データ拡張装置、学習装置、データ拡張方法、及び、記録媒体 |
| JP2022534491A JP7472981B2 (ja) | 2020-07-06 | 2020-07-06 | データ拡張装置、学習装置、データ拡張方法、及び、プログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2020/026348 WO2022009254A1 (ja) | 2020-07-06 | 2020-07-06 | データ拡張装置、学習装置、データ拡張方法、及び、記録媒体 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2022009254A1 true WO2022009254A1 (ja) | 2022-01-13 |
Family
ID=79553067
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2020/026348 Ceased WO2022009254A1 (ja) | 2020-07-06 | 2020-07-06 | データ拡張装置、学習装置、データ拡張方法、及び、記録媒体 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20230252765A1 (ja) |
| JP (1) | JP7472981B2 (ja) |
| WO (1) | WO2022009254A1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022103190A (ja) * | 2020-12-25 | 2022-07-07 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
| JP2024060252A (ja) * | 2022-10-19 | 2024-05-02 | 株式会社ダイフク | データ作成装置 |
| JP2024110191A (ja) * | 2023-02-02 | 2024-08-15 | 株式会社日立製作所 | ドメイン適応システム、及び、その方法 |
| JP7790643B1 (ja) | 2025-07-01 | 2025-12-23 | コニカミノルタ株式会社 | データ生成システム、データ生成方法及びプログラム |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN118364299B (zh) * | 2024-06-19 | 2024-09-13 | 苏州元脑智能科技有限公司 | 样本扩充方法、电子设备、计算机可读介质及产品 |
| CN119975377A (zh) * | 2025-03-26 | 2025-05-13 | 武汉车凌智联科技有限公司 | 一种驾驶员异常行为下的车辆应急控制方法和系统 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170300783A1 (en) * | 2016-04-13 | 2017-10-19 | Xerox Corporation | Target domain characterization for data augmentation |
| US20190213039A1 (en) * | 2018-01-08 | 2019-07-11 | Accenture Global Solutions Limited | Utilizing an artificial intelligence model determined for a target domain based on a dataset associated with a source domain |
Family Cites Families (33)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8332334B2 (en) * | 2009-09-24 | 2012-12-11 | Yahoo! Inc. | System and method for cross domain learning for data augmentation |
| US10497257B2 (en) * | 2017-08-31 | 2019-12-03 | Nec Corporation | Parking lot surveillance with viewpoint invariant object recognition by synthesization and domain adaptation |
| US10482600B2 (en) * | 2018-01-16 | 2019-11-19 | Siemens Healthcare Gmbh | Cross-domain image analysis and cross-domain image synthesis using deep image-to-image networks and adversarial networks |
| US20190279075A1 (en) * | 2018-03-09 | 2019-09-12 | Nvidia Corporation | Multi-modal image translation using neural networks |
| WO2019215904A1 (ja) * | 2018-05-11 | 2019-11-14 | 日本電気株式会社 | 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム記録媒体 |
| KR102756358B1 (ko) * | 2018-12-18 | 2025-01-17 | 삼성전자주식회사 | 검출기, 객체 검출 방법, 학습기 및 도메인 변환을 위한 학습 방법 |
| US20200242736A1 (en) * | 2019-01-29 | 2020-07-30 | Nvidia Corporation | Method for few-shot unsupervised image-to-image translation |
| KR102039138B1 (ko) * | 2019-04-02 | 2019-10-31 | 주식회사 루닛 | 적대적 학습에 기반한 도메인 어댑테이션 방법 및 그 장치 |
| US20210012162A1 (en) * | 2019-07-09 | 2021-01-14 | Shenzhen Malong Technologies Co., Ltd. | 3d image synthesis system and methods |
| US11055888B2 (en) * | 2019-08-27 | 2021-07-06 | Shenzhen Malong Technologies Co., Ltd. | Appearance-flow-based image generation |
| JP7310904B2 (ja) * | 2019-09-25 | 2023-07-19 | 日本電気株式会社 | 学習装置、学習方法、及び、プログラム |
| US11508169B2 (en) * | 2020-01-08 | 2022-11-22 | Palo Alto Research Center Incorporated | System and method for synthetic image generation with localized editing |
| CN111223040B (zh) * | 2020-01-09 | 2023-04-25 | 北京市商汤科技开发有限公司 | 网络训练方法及装置、图像生成方法及装置 |
| US12050664B2 (en) * | 2020-10-09 | 2024-07-30 | Nec Corporation | Real-time cross-spectral object association and depth estimation |
| JP7452695B2 (ja) * | 2020-11-09 | 2024-03-19 | 富士通株式会社 | 生成プログラム、生成方法および情報処理装置 |
| US11494959B2 (en) * | 2020-11-12 | 2022-11-08 | Samsung Electronics Co., Ltd. | Method and apparatus with generation of transformed image |
| WO2022099425A1 (en) * | 2020-11-16 | 2022-05-19 | Huawei Cloud Computing Technologies Co., Ltd. | Method and system for adaptation of a trained object detection model to account for domain shift |
| WO2022137337A1 (ja) * | 2020-12-22 | 2022-06-30 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
| US20220198339A1 (en) * | 2020-12-23 | 2022-06-23 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for training machine learning model based on cross-domain data |
| JP7062747B1 (ja) * | 2020-12-25 | 2022-05-06 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
| US20220230066A1 (en) * | 2021-01-20 | 2022-07-21 | Qualcomm Incorporated | Cross-domain adaptive learning |
| EP4296911A4 (en) * | 2021-02-16 | 2025-01-15 | OMRON Corporation | METHOD FOR GENERATING MACHINE LEARNING DATA, METAL LEARNING METHOD, DEVICE FOR GENERATING MACHINE LEARNING DATA AND PROGRAM |
| JP2022175851A (ja) * | 2021-05-14 | 2022-11-25 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP7675562B2 (ja) * | 2021-05-31 | 2025-05-13 | 株式会社東芝 | 学習装置、方法およびプログラム |
| JP2023038060A (ja) * | 2021-09-06 | 2023-03-16 | オムロン株式会社 | ラベル生成方法、モデル生成方法、ラベル生成装置、ラベル生成プログラム、モデル生成装置、及びモデル生成プログラム |
| JP7739138B2 (ja) * | 2021-11-04 | 2025-09-16 | 株式会社東芝 | 学習装置、学習方法、学習プログラム、物体検出装置、物体検出方法、物体検出プログラム、学習支援システム、学習支援方法及び学習支援プログラム |
| JP2023144562A (ja) * | 2022-03-28 | 2023-10-11 | 富士通株式会社 | 機械学習プログラム,データ処理プログラム,情報処理装置,機械学習方法およびデータ処理方法 |
| JP2024030989A (ja) * | 2022-08-25 | 2024-03-07 | 株式会社日立製作所 | 学習装置、学習方法、および、学習プログラム |
| US20240078800A1 (en) * | 2022-09-07 | 2024-03-07 | Qualcomm Incorporated | Meta-pre-training with augmentations to generalize neural network processing for domain adaptation |
| KR20240035092A (ko) * | 2022-09-08 | 2024-03-15 | 삼성에스디에스 주식회사 | 도메인 어댑테이션 방법 및 그 시스템 |
| US20240161477A1 (en) * | 2022-11-11 | 2024-05-16 | Mineral Earth Sciences Llc | Object detection with cross-domain mixing |
| CN116958306A (zh) * | 2022-11-14 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 图像合成方法和装置、存储介质及电子设备 |
| US20240404174A1 (en) * | 2023-06-01 | 2024-12-05 | Nvidia Corporation | Neural head avatar construction from an image |
-
2020
- 2020-07-06 US US18/014,293 patent/US20230252765A1/en active Pending
- 2020-07-06 WO PCT/JP2020/026348 patent/WO2022009254A1/ja not_active Ceased
- 2020-07-06 JP JP2022534491A patent/JP7472981B2/ja active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170300783A1 (en) * | 2016-04-13 | 2017-10-19 | Xerox Corporation | Target domain characterization for data augmentation |
| US20190213039A1 (en) * | 2018-01-08 | 2019-07-11 | Accenture Global Solutions Limited | Utilizing an artificial intelligence model determined for a target domain based on a dataset associated with a source domain |
Non-Patent Citations (1)
| Title |
|---|
| SAWADA, AZUSA ET AL.: "Rough domain adaptation through model selection for neural networks", IEICE TECHNICAL REPORT, vol. 119, no. 193, 28 August 2019 (2019-08-28), pages 109 - 113, ISSN: 2432-6380 * |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022103190A (ja) * | 2020-12-25 | 2022-07-07 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
| JP7277645B2 (ja) | 2020-12-25 | 2023-05-19 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
| JP2024060252A (ja) * | 2022-10-19 | 2024-05-02 | 株式会社ダイフク | データ作成装置 |
| JP2024110191A (ja) * | 2023-02-02 | 2024-08-15 | 株式会社日立製作所 | ドメイン適応システム、及び、その方法 |
| JP7790643B1 (ja) | 2025-07-01 | 2025-12-23 | コニカミノルタ株式会社 | データ生成システム、データ生成方法及びプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20230252765A1 (en) | 2023-08-10 |
| JPWO2022009254A1 (ja) | 2022-01-13 |
| JP7472981B2 (ja) | 2024-04-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2022009254A1 (ja) | データ拡張装置、学習装置、データ拡張方法、及び、記録媒体 | |
| US11640518B2 (en) | Method and apparatus for training a neural network using modality signals of different domains | |
| CN113505797B (zh) | 模型训练方法、装置、计算机设备和存储介质 | |
| CN112381098A (zh) | 基于目标分割领域自学习的半监督学习方法和系统 | |
| CN110569886A (zh) | 一种双向通道注意力元学习的图像分类方法 | |
| CN114842343B (zh) | 一种基于ViT的航空图像识别方法 | |
| KR102370910B1 (ko) | 딥러닝 기반 소수 샷 이미지 분류 장치 및 방법 | |
| US20140310208A1 (en) | Facilitating Operation of a Machine Learning Environment | |
| JP7047498B2 (ja) | 学習プログラム、学習方法および学習装置 | |
| US20240135145A1 (en) | Generation of Realistic Data for Training Of Artificial Neural Networks | |
| CN114565810A (zh) | 一种基于数据保护场景下的模型压缩方法及系统 | |
| KR20220066554A (ko) | Qa 모델을 이용하여 지식 그래프를 구축하는 방법, 장치 및 컴퓨터 프로그램 | |
| CN114722892A (zh) | 基于机器学习的持续学习方法及装置 | |
| CN112380374B (zh) | 一种基于语义扩充的零样本图像分类方法 | |
| CN111340011A (zh) | 一种自适应时序移位神经网络时序行为识别方法及系统 | |
| KR102494659B1 (ko) | 6d 포즈 추정 장치 및 방법 | |
| CN107766895B (zh) | 一种诱导式非负投影半监督数据分类方法及系统 | |
| CN118097261A (zh) | 基于挤压激励的小样本图像分类方法及系统 | |
| Wang et al. | Bridging data gaps in diffusion models with adversarial noise-based transfer learning | |
| CN110414845B (zh) | 针对目标交易的风险评估方法及装置 | |
| WO2024185054A1 (ja) | 学習装置、訓練方法、及び、記録媒体 | |
| JP7122214B2 (ja) | 情報処理システム、情報処理方法、プログラム及び記憶媒体 | |
| CN114332502B (zh) | 一种基于生成式对抗网络的空间目标样本增广方法 | |
| CN112507940B (zh) | 一种基于差分指导表示学习网络的骨骼动作识别方法 | |
| CN116434339A (zh) | 基于骨架数据时空特征差异性和相关性的行为识别方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20944339 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2022534491 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 20944339 Country of ref document: EP Kind code of ref document: A1 |