[go: up one dir, main page]

WO2019049365A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2019049365A1
WO2019049365A1 PCT/JP2017/032672 JP2017032672W WO2019049365A1 WO 2019049365 A1 WO2019049365 A1 WO 2019049365A1 JP 2017032672 W JP2017032672 W JP 2017032672W WO 2019049365 A1 WO2019049365 A1 WO 2019049365A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
processing program
image
fitness
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2017/032672
Other languages
English (en)
French (fr)
Inventor
長門毅
岡本浩明
肥塚哲男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to CN201780094728.7A priority Critical patent/CN111066061A/zh
Priority to EP17924616.0A priority patent/EP3683763A4/en
Priority to PCT/JP2017/032672 priority patent/WO2019049365A1/ja
Priority to JP2019540284A priority patent/JP6729810B2/ja
Publication of WO2019049365A1 publication Critical patent/WO2019049365A1/ja
Priority to US16/810,908 priority patent/US11328176B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2111Selection of the most significant subset of features by using evolutionary computational techniques, e.g. genetic algorithms
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, and an information processing program.
  • the appearance of industrial products is photographed using an imaging device to determine the presence or absence of a defect.
  • FA Vectory Automation
  • noises, shadows, variations in brightness, etc. depending on the shooting environment of the site often affect the shot image, and an image processing program for extracting a defective portion It is desirable to realize processing that is robust to environmental changes.
  • an appearance inspection apparatus for inspecting the appearance of an industrial product it is necessary to reconstruct the image processing program when the inspection environment changes due to a change in inspection object or improvement of the appearance inspection apparatus. Sometimes. Therefore, in the appearance inspection apparatus, it is required that the image processing method can be easily constructed.
  • the image processing apparatus used in the appearance inspection apparatus obtains an output image by performing image processing on an image captured by a camera or the like using an image processing filter.
  • an image processing filter is automatically generated by performing evolutionary calculation based on Genetic Programming (GP).
  • GP Genetic Programming
  • an individual representing an image processing program is represented by a tree structure having one or more nodes each corresponding to a program element (image processing filter) of image processing, and a child based on a parent individual of a certain generation
  • An individual is generated, and image processing based on a child individual is performed using an input image provided as learning data.
  • the fitness of the child individual is calculated by comparing the processing result with the target processing result (for example, the target image) given as the learning data.
  • the image processing program is optimized by selecting an individual to be replaced at the time of generation change based on the fitness (see, for example, Non-Patent Document 1).
  • the present invention aims to provide an information processing apparatus, an information processing method, and an information processing program capable of shortening the time required for relearning an image processing program.
  • the information processing apparatus is an information processing apparatus that performs image processing on an image captured by an imaging apparatus using an image processing program having a tree structure, and determines a plurality of initial image processing programs A determination unit to be included in an image processing program group, an extraction unit extracting at least two image processing programs from the image processing program group, and a next generation image processing program from the image processing program extracted based on genetic programming. Based on the calculated fitness, the fitness of a candidate for the image processing program of the next generation is calculated using learning data including a generation unit that generates a candidate, an input image, and a target processing result.
  • the time required for relearning of the image processing program can be shortened.
  • FIG. 1 is a diagram showing an outline of a generation processing procedure of an image processing program.
  • the learning data 20 includes an input image 21 and a processing result (a target image 22 in the present embodiment) when image processing is performed on the input image 21.
  • the input image 21 is obtained, for example, by imaging a subject with a camera.
  • an individual In generation processing of an image processing program by genetic programming, an individual (indicated by a white circle in FIG. 1) is configured by combining one or more image processing filters.
  • an individual As shown in the upper left of FIG. 1, an individual is defined by a tree structure, and an image processing filter is incorporated in each node of the tree structure.
  • "F” indicates an image processing filter incorporated in a node
  • "I” indicates an input terminal
  • "O” indicates an output terminal.
  • a plurality of image processing filters that can be incorporated into an individual are also prepared in advance.
  • the generation process of the image processing program by genetic programming is performed, for example, as follows.
  • step S1 a plurality of initial individuals included in the population 11 are generated.
  • the node of each initial individual incorporates an image processing filter randomly selected from a plurality of image processing filters prepared in advance.
  • the fitness is calculated for each of the generated initial individuals. The details of the fitness calculation process will be described later.
  • the calculated maximum value of the fitness is equal to or greater than a predetermined threshold, the initial individual with the highest fitness is output as a final image processing program.
  • a fixed number for example, two in FIG. 1
  • the selected constant number (two) parent individuals are subjected to the process of the evolution process to generate two or more constant child individuals.
  • crossover and mutation treatments are performed on two parent individuals.
  • Three or more offspring individuals may be generated by performing different crossover and mutation treatments on two parent individuals. That is, the number of offspring individuals generated is equal to or more than the number of parent individuals selected from the population 11.
  • step S4 the fitness is calculated for each generated child individual.
  • the individual is output as a final image processing program, and the program generation processing is terminated.
  • step S5 the survival selection is made from the population 12 including each offspring individual generated and the original two parent individuals. Is done. In this survival selection, an individual with the highest calculated fitness is selected from the population 12. Further, from the remaining individuals in the population 12, one individual is selected by a predetermined method. For example, among the remaining individuals, individuals are selected with a probability according to the fitness (roulette selection).
  • Two individuals selected by such survival selection are replaced with two individuals selected as parent individuals among the individuals included in population 11 in step S6. Thereby, the individuals included in the population 11 are changed to next-generation individuals. Then, the same processing is repeated until an individual whose fitness is equal to or higher than a predetermined threshold appears.
  • an application of performing image processing on an image obtained by imaging a product to obtain a desired effect can be considered.
  • image processing it is possible to use image processing to an image obtained by capturing the appearance of a product to extract a location where a defect has occurred and to extract a location to be aligned.
  • an image processing program usable for such an application can be easily generated only by preparing the input image 21 and the target image 22 corresponding thereto in advance. Also, by preparing a plurality of pairs of input image 21 and target image 22 (learning data 20) each having a different imaging environment, an image processing program having high robustness to changes in the imaging environment can be automatically generated. it can.
  • the process of initially generating an image processing program is referred to as “initial learning process”, and the process of reconstructing an image processing program according to a change in imaging environment is referred to as “relearning process”.
  • FIG. 1 An example of the hardware configuration of the image processing apparatus 100 is schematically shown in FIG.
  • the image processing apparatus 100 according to the present embodiment is realized, for example, as a computer (information processing apparatus) as shown in FIG.
  • the image processing apparatus 100 is controlled by the processor 101 as a whole.
  • the processor 101 may be a multiprocessor.
  • the processor 101 is, for example, a central processing unit (CPU), a micro processing unit (MPU), a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), or the like.
  • the processor 101 may be a combination of two or more elements of a CPU, an MPU, a DSP, an ASIC, and a PLD.
  • the RAM 102 and a plurality of devices (peripheral devices) are connected to the processor 101 via the bus 109.
  • the RAM 102 is used as a main storage device of the image processing apparatus 100.
  • the RAM 102 temporarily stores at least a part of an OS (Operating System) program and application programs to be executed by the processor 101.
  • the RAM 102 also stores various data necessary for processing by the processor 101.
  • the devices connected to the bus 109 include an HDD (Hard Disk Drive) 103, a graphic processing device 104, an input interface 105, a reading device 106, a communication interface 107, a network interface 108, and the like.
  • HDD Hard Disk Drive
  • the HDD 103 is used as an auxiliary storage device of the image processing apparatus 100.
  • the HDD 103 stores an OS program, an application program, and various data.
  • the auxiliary storage device another type of non-volatile storage device such as a solid state drive (SSD) can also be used.
  • SSD solid state drive
  • a display device 104 a is connected to the graphic processing device 104.
  • the graphic processing device 104 displays an image on the screen of the display device 104 a in accordance with an instruction from the processor 101.
  • Examples of the display device 104 a include a liquid crystal display and an organic EL (ElectroLuminescence) display.
  • An input device 105 a is connected to the input interface 105.
  • the input interface 105 transmits the signal output from the input device 105 a to the processor 101.
  • the input device 105a includes a keyboard, a pointing device, and the like. Examples of pointing devices include a mouse, a touch panel, a tablet, a touch pad, and a trackball.
  • the portable recording medium 106 a is removable from the reading device 106.
  • the reading device 106 reads the data recorded on the portable recording medium 106 a and transmits the data to the processor 101.
  • the portable recording medium 106 a includes an optical disc, a magneto-optical disc, a semiconductor memory, and the like.
  • the communication interface 107 transmits and receives data to and from the connected external device.
  • a camera 107a as an imaging apparatus is connected to the communication interface 107, and the communication interface 107 transmits image data transmitted from the camera 107a to the processor 101.
  • the network interface 108 exchanges data with other devices via the network.
  • FIG. 3 is a block diagram (functional block diagram) showing an exemplary configuration of processing functions provided in the image processing apparatus.
  • the image processing apparatus 100 includes an image acquisition unit 111, an image processing unit 112, a program generation unit 120, a program storage unit 130, and a learning data storage unit 141.
  • the processes of the image acquisition unit 111, the image processing unit 112, and the program generation unit 120 are realized, for example, by the processor 101 of the image processing apparatus 100 executing a predetermined program. Further, part of the processing of the image processing unit 112 is realized by the processor 101 of the image processing apparatus 100 executing the image processing program stored in the program storage unit 130.
  • the program storage unit 130 and the learning data storage unit 141 are realized, for example, as storage areas of the HDD 103 of the image processing apparatus 100.
  • the image acquisition unit 111 acquires data of an image captured by the camera 107 a from the camera 107 a and outputs the data to the program generation unit 120 or the image processing unit 112.
  • the program generation unit 120 generates an image processing program by genetic programming, and stores the generated image processing program in the program storage unit 130. The details of the program generation unit 120 will be described later.
  • the image processing unit 112 acquires data of an image captured by the camera 107 a via the image acquisition unit 111.
  • the image processing unit 112 performs image processing on the acquired image in accordance with the final image processing program (program used for image processing) stored in the program storage unit 130.
  • the image after processing is displayed on the display device 104a, for example.
  • the program storage unit 130 is an image processing program that is included in the population 11 when the final image processing program generated at the time of learning or relearning and the final image processing program are generated by the program generation unit 120.
  • the learning data storage unit 141 stores one or more pieces of learning data including each data of the input image and the target image.
  • the input image included in the learning data may be, for example, an image captured by the camera 107 a connected to the image processing apparatus 100.
  • an image is output as a result of processing using the generated image processing program, but information other than the image may be output as a result of processing. Good.
  • information other than the image may be output as a result of processing. Good.
  • position information indicating a region in the input image, a classification result or an evaluation result of the input image, and the like can be considered.
  • the learning data may include information other than the image indicating the target processing result instead of the target image.
  • the program generation unit 120 includes a learning data setting unit 128, a determination unit 121, an extraction unit 122, a generation unit 123, and a processing unit 124.
  • the training data setting unit 128 sets training data. For example, from the learning data stored in the learning data storage unit 141, the learning data setting unit 128 designates the learning data to be used, or based on the image acquired by the image acquiring unit 111. , Generating learning data to be used, and registering the data in the learning data storage unit 141.
  • the determination unit 121 determines a plurality of initial individuals (initial image processing programs) and includes them in the population 11 (S1 in FIG. 1). In addition, although the determination method of the initial stage individual by the determination part 121 differs with the time of an initial stage learning process, and the time of a relearning process, it mentions a detail later.
  • the extraction unit 122 extracts a plurality (for example, two) parent individuals (image processing programs) from the population 11 (S2 in FIG. 1).
  • a plurality for example, two
  • parent individuals image processing programs
  • the extraction method of the parent individual by the extraction part 122 differs in the time of an initial stage learning process and the time of a relearning process, it mentions later for details.
  • the generation unit 123 generates offspring individuals from a plurality of (for example, two) parent individuals extracted based on genetic programming (S3 in FIG. 1).
  • the processing unit 124 uses the learning data including the input image and the target processing result to calculate the fitness for evaluating the individual (candidate of the image processing program of the next generation) (S4 in FIG. 1). . Specifically, the processing unit 124 uses the learning data stored in the learning data storage unit 141 to calculate the fitness of each image processing program. The processing unit 124 performs image processing on the input image included in the learning data according to the image processing program, and obtains the similarity between the obtained image and the target image corresponding to the input image subjected to the image processing. Calculated as a degree. Further, the processing unit 124 determines the image processing program of the next generation based on the calculated fitness, or updates the population 11 with the child individuals generated by the generation unit 123 (S5 and S6 in FIG. 1).
  • FIG. 4 is a flowchart showing details of the initial learning process performed by the image processing apparatus 100.
  • the learning data setting unit 128 sets learning data. For example, among the learning data stored in the learning data storage unit 141, the learning data to be used in the present process is specified, or the learning data used in the present process is acquired by the image acquisition unit 111. It is generated from the image and registered in the learning data storage unit 141.
  • step S12 the determination unit 121 generates a predetermined number (P) of initial individuals included in the population 11 (see step S1 in FIG. 1).
  • P a predetermined number
  • Each initial individual is generated by randomly selecting and combining an image processing filter for each node of the tree structure.
  • the tree structure of each initial individual is, for example, randomly selected from among a plurality of predetermined tree structures. Alternatively, the tree structure itself may be determined randomly.
  • step S14 the processing unit 124 executes fitness calculation using learning data for the individuals included in the population 11.
  • step S16 the processing unit 124 determines whether the maximum value of the fitness of each individual calculated in step S14 is larger than a predetermined threshold value. If the determination in step S16 is affirmed, the process proceeds to step S26, and the individual with the highest fitness is used as the final image processing program, and the final image processing program and the individual included in the population 11 are It is stored in the program storage unit 130. After that, the process of FIG. 4 (initial learning process) is ended.
  • step S16 determines whether the individual that can be the final image processing program in the population 11 at this time. If the determination in step S16 is negative (when there is no individual that can be the final image processing program in the population 11 at this time), the process proceeds to step S18, and the extraction unit 122 performs the population From the individuals included in 11, two parent individuals are randomly selected (see step S2 in FIG. 1).
  • step S20 the generation unit 123 generates a child individual by the process of the evolution process (see step S3 in FIG. 1).
  • the generation unit 123 generates two or more predetermined number of child individuals by performing crossover between the selected two parent individuals. Further, the generation unit 123 generates a mutation at any node of the generated child individual, and replaces the image processing filter incorporated in the node of the original child individual with another image processing filter.
  • step S22 the processing unit 124 calculates the fitness of each child individual using the learning data.
  • the process here is the same as the process of step S14 described above.
  • step S24 the processing unit 124 specifies the maximum fitness from among the fitnesses of the respective offspring calculated in step S22, and determines whether the maximum fitness is greater than a predetermined threshold.
  • the processing unit 124 proceeds to the process of step S26 when the maximum fitness is larger than the threshold, and proceeds to the process of step S28 when the maximum fitness is equal to or less than the threshold.
  • the processing unit 124 selects an individual with the highest fitness from each parent individual selected in step S18 and each child individual generated in step S20 as an individual to be made to survive ( See step S5 in FIG. 1). Furthermore, the processing unit 124 selects one surviving individual from among the remaining individuals. In this selection, individuals are selected which survive with a probability according to the fitness of each remaining individual (roulette selection).
  • step S30 the processing unit 124 replaces the parent individual selected in step S18 among the individuals included in the population 11 with the two individuals selected in step S28 (see step S6 in FIG. 1). Thus, the generation of the population 11 is updated. After that, the process returns to step S18, and the processes after step S18 are executed as described above.
  • step S24 the determination in step S24 is affirmed, and when the process proceeds to step S26, the processing unit 124 stores in the program storage unit 130 the individual (image processing program) whose fitness is determined to be larger than the threshold in step S24.
  • the individual (image processing program) included in the population 11 is stored in the program storage unit 130, and the processing of FIG. 4 (initial learning processing) is ended.
  • the final image processing program stored in the program storage unit 130 and the individual included in the population 11 are used in the relearning process to be executed next.
  • step S110 the learning data setting unit 128 sets new learning data.
  • the learning data setting unit 128 generates new learning data using the image captured by the camera 107a after a change in the imaging environment or the like, and registers the new learning data in the learning data storage unit 141.
  • step S112A using the data for new learning generated in step S110, the processing unit 124 uses the data stored in the program DB 130 in the last learning process (final image processing program in last learning) And the fitness of the individual contained in the population 11 (see step S201 in FIG. 6).
  • step S112B the processing unit 124 inserts the top N 0 individuals with the degree of fitness into the population 11 (see step S202 in FIG. 6).
  • step S112C the processing unit 124 randomly generates P ⁇ N 0 individuals and inserts them into the population 11 (see step S203 in FIG. 6).
  • the process of step S112C is the same as the process of step S12 of FIG.
  • step S114 the fitness of each of the individuals randomly generated in step S112C is calculated.
  • step S116 the processing unit 124 determines whether the maximum value of the fitness of each individual calculated in steps S112A and S114 is larger than a predetermined threshold value. If the determination in step S116 is affirmed, the process proceeds to step S126, in which the individual with the highest fitness is taken as the final image processing program, and the final image processing program and the individual included in the population 11 are It is stored in the program storage unit 130. After that, the process (relearning process) of FIG. 5 is ended.
  • step S116 determines that N i / P is It is determined whether it is larger than K or not.
  • K is, for example, 0.1.
  • step S118A Is denied. If the determination in step S118A is affirmative, the process proceeds to step S118B, and if the determination is negative, the process proceeds to step S118C.
  • the extraction unit 122 selects an individual obtained by learning immediately before being included in the population 11 as one of the parent individuals, and a newly generated individual included in the population 11 as the other. It selects (refer step S204 of FIG. 6).
  • step S118C the extraction unit 122 randomly selects both parent individuals from the population 11 (see step S204 in FIG. 6).
  • step S120 as in step S20 of FIG. 4, the generation unit 123 generates a child individual by the process of the evolution process (see step S205 of FIG. 6).
  • step S122 the processing unit 124 calculates the fitness of each child individual using the new learning data (see step S206 in FIG. 6).
  • step S124 as in step S24, the processing unit 124 identifies the maximum fitness from among the fitness of each offspring calculated in step S122, and the maximum fitness is greater than a predetermined threshold value. Determine if The processing unit 124 proceeds to the process of step S126 when the maximum fitness is greater than the threshold, and proceeds to the process of step S128 when the maximum fitness is equal to or less than the threshold.
  • step S1208 the processing unit 124 selects an individual with the highest fitness from each parent individual selected in step S118B or 118C and each child individual generated in step S120 as an individual to be alive. Do. Furthermore, the processing unit 124 selects one roulette surviving individual from the remaining individuals (see step S207 in FIG. 6).
  • step S130 processing unit 124 replaces the parent individual selected in step S118B or S118C among the individuals included in population 11 with the two individuals selected in step S128 (see step S208 in FIG. 6). ). Thus, the generation of the population 11 is updated. Thereafter, in step S132, the processing unit 124 updates the number N i of individuals obtained by learning immediately before included in the population 11.
  • i is a value indicating the number of times the loop (S2104 to S208) shown in FIG. 6 has been executed. For example, if one of the parent individuals selected in step S118B or S118C is an individual obtained in the immediately preceding learning, N i + 1 decreases by one more than N i .
  • N i + 1 is reduced by two more than N i . Furthermore, when both parents were not individuals obtained in learning the immediately preceding, N i + 1 is adapted not changed from N i. After step S132, the process proceeds to step S118A.
  • step S124 determines whether the processing unit 124 is affirmed and the process proceeds to step S126.
  • the processing unit 124 stores in the program storage unit 130 the individual (image processing program) of which the fitness is determined to be larger than the threshold in step S124. Further, the processing unit 124 stores the individual (image processing program) included in the population 11 in the program storage unit 130, and ends the process (relearning process) of FIG. 5.
  • the image processing program stored in the program storage unit 130 in step S126 is used in step S112A in the next relearning.
  • the image processing program obtained by the immediately preceding learning is used as a part of the initial individuals of the population 11 at the time of relearning, individuals with high fitness can be searched early. .
  • the image processing program obtained in the immediately preceding learning is not used as all of the initial individuals in the relearning process, it is possible to prevent the overlearning state in the immediately preceding learning.
  • the relearning time can be shortened by the early convergence of learning when relearning is performed by the method of FIG. 5 as compared with the comparative example. More specifically, in the example of FIG. 7, it has been found that the learning speed is approximately four times.
  • the determination unit 121 determines a plurality of initial individuals and includes them in the population 11, and the extraction unit 122 extracts two parent individuals from the population 11. . Further, the generation unit 123 generates a offspring individual from the extracted parent individual based on genetic programming, and the processing unit 124 calculates the fitness of the offspring individual using the data for learning, and the calculated fitness is Based on the image processing program to be used for image processing is determined or the population 11 is updated. In this case, the determination unit 121 determines at least a part of the individuals included in the population 11 when the image processing program used for image processing is determined immediately before as a part of the initial individuals in the relearning process. .
  • the image processing program obtained by the immediately preceding learning is used as a part of the initial individuals of the population 11 at the time of relearning, it is possible to generate early as compared to randomly generating all initial individuals. Individuals with high fitness can be searched.
  • the individual obtained in the immediately preceding learning is not used as a whole of the initial individual at the time of relearning, it is possible to prevent the overlearning state in the immediately preceding learning.
  • the determination unit 121 calculates the fitness of the image processing program obtained in the immediately preceding learning using new learning data, and includes it in the population 11 based on the calculated fitness. Determine the image processing program. Thereby, in re-learning, since the image processing program which shows high fitness from the beginning can be included in the population 11, it becomes possible to determine the final image processing program in a short time.
  • the extraction unit 122 determines, as one of the parent individuals, the individual of the immediately preceding learning based on the proportion of the image processing program obtained by the immediately preceding learning included in the population 11 at the time of relearning. It is determined whether to select and select a newly generated individual as the other (S118B) or to randomly select both parent individuals (S118C). Thereby, when many image processing programs obtained by the immediately preceding learning are included in the population 11, the image processing program with high fitness obtained by the immediately preceding learning is positively selected as a parent individual. The time required for relearning can be shortened. Further, when the image processing program obtained by the immediately preceding learning is not included in the population 11 so much, parent individuals are randomly selected from the population 11 including the image processing program obtained by repetition of the evolution process. This can reduce the time required for relearning.
  • the said embodiment demonstrated the case where two parent individuals were extracted from the population 11, it is not restricted to this.
  • the number of parent individuals to be extracted may be three or more.
  • one of the pair of parent individuals used for crossover in the evolution process is selected as an individual selected from the individual obtained in the previous learning, and the other is a new one.
  • the values N i and K used in the flowchart of FIG. 5 may be appropriately adjusted so as to satisfy the required accuracy and the required processing time.
  • step S118A the determination is made based on the proportion of the image processing program obtained by the immediately preceding learning included in the population 11.
  • the determination may be made based on the number of image processing programs obtained by the immediately preceding learning.
  • step S118A of FIG. 5 which one of steps S118B and S118B is to be executed may be determined based on the number of repetitions of the loop (S204 to S208 of FIG. 6).
  • the above processing functions can be realized by a computer.
  • a program is provided which describes the processing content of the function that the processing device should have.
  • the above processing functions are realized on the computer by executing the program on the computer.
  • the program in which the processing content is described can be recorded on a computer readable recording medium (except for the carrier wave).
  • the program is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) in which the program is recorded.
  • the program may be stored in the storage device of the server computer, and the program may be transferred from the server computer to another computer via a network.
  • the computer executing the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing in accordance with the program. The computer can also execute processing in accordance with the received program each time the program is transferred from the server computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Physiology (AREA)
  • Genetics & Genomics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

画像処理プログラムの再学習に要する時間を短縮するため、決定部121は、複数の初期個体を決定して母集団11に含め、抽出部122は、母集団11から少なくとも2つの親個体を抽出する。また、生成部123は、遺伝的プログラミングに基づき、抽出した親個体から子個体を生成し、処理部124は、学習用データを用いて、子個体の適応度を算出し、算出した適応度に基づいて、画像処理に用いる画像処理プログラムを決定する、又は母集団11を更新する。そして、決定部121は、直前に画像処理に用いる画像処理プログラムを決定したときに母集団11に含まれていた個体の少なくとも一部を、再学習処理における初期個体の一部として決定する。

Description

情報処理装置、情報処理方法及び情報処理プログラム
 本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
 工業製品の外観検査などでは、撮像装置を用いて工業製品の外観を撮影し、欠陥の有無を判定している。ここで、FA(Factory Automation)分野においては、現場の撮影環境に応じたノイズや、影、明るさの変動などが撮影画像に影響を与えることが多く、欠陥部を抽出する画像処理プログラムには、環境変化にロバストな処理の実現が望まれている。また、工業製品の外観を検査する外観検査装置を運用する場合、検査対象の変更や、外観検査装置の改良に起因して検査環境が変化したときに、画像処理プログラムの再構築が必要になることがある。そのため、外観検査装置においては、画像処理方法を容易に構築できることが求められている。
 外観検査装置に使用される画像処理装置では、カメラなどで撮影した画像を画像処理フィルタで画像処理することで出力画像を得ている。ここで、従来の画像処理装置では、画像処理フィルタを遺伝的プログラミング(Genetic Programming:GP)に基づいた進化的計算を行って自動生成する技術が知られている。この技術では、画像処理プログラムを示す個体は、それぞれが画像処理のプログラム要素(画像処理フィルタ)に対応する1以上のノードを有する木構造で表現されており、ある世代の親個体に基づいて子個体が生成され、学習用データとして与えられた入力画像を用いて、子個体に基づく画像処理が実行される。そして、その処理結果と、学習用データとして与えられた目標となる処理結果(例えば、目標画像)との比較によって、子個体の適応度が算出される。また、適応度に基づいて世代交代の際に入れ替える個体が選択されることで、画像処理プログラムが最適化されていく(例えば、非特許文献1等参照)。
特開2008-204102号公報 特開2008-204103号公報
青木紳也、長尾智晴、「木構造画像変換の自動構築法ACTIT」、情報メディア学会誌Vol.53,No.6、1999年6月20日、p.890-892
 撮影環境の変化により画像処理プログラムの修正が必要になると、画像処理プログラムを遺伝的プログラミングに基づいて再度自動生成(再学習)する必要がある。この場合、環境変化後の撮影画像から新たに作成した学習データ(入力画像や目標画像)を用いることとなるが、基本的な学習の流れは環境変化前に行った自動生成と同様である。
 しかしながら、画像処理プログラムを再学習する場合、初期段階で行われる学習よりも迅速性が要求されることが多いことから、再学習に要する時間を短縮するための工夫が必要となる。
 1つの側面では、本発明は、画像処理プログラムの再学習に要する時間を短縮することが可能な情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。
 一つの態様では、情報処理装置は、撮像装置により撮像された画像に対し、木構造を有する画像処理プログラムを用いて画像処理する情報処理装置であって、複数の初期の画像処理プログラムを決定し、画像処理プログラム群に含める決定部と、前記画像処理プログラム群から少なくとも2つの画像処理プログラムを抽出する抽出部と、遺伝的プログラミングに基づき、抽出した前記画像処理プログラムから次世代の画像処理プログラムの候補を生成する生成部と、入力画像と目標となる処理結果とを含む学習用データを用いて、前記次世代の画像処理プログラムの候補の適応度を算出し、算出した適応度に基づいて、次世代の画像処理プログラムを決定する、又は前記画像処理プログラム群を更新する処理部と、を備え、前記決定部は、前記処理部が過去に次世代の画像処理プログラムを決定した際に前記画像処理プログラム群に含まれていた第1の画像処理プログラムの少なくとも一部を、前記初期の画像処理プログラムの一部として決定する情報処理装置である。
 画像処理プログラムの再学習に要する時間を短縮することができる。
一実施形態に係る画像処理プログラム生成処理の概要を示す図である。 画像処理装置のハードウェア構成を示す図である。 画像処理装置の機能ブロック図である。 初期学習処理を示すフローチャートである。 再学習処理を示すフローチャートである。 画像処理プログラムの再学習処理の概要を示す図である。 一実施形態の作用効果について説明するための図である。
 以下、情報処理装置の一実施形態について、図1~図7に基づいて詳細に説明する。
 まず、図1に基づいて、遺伝的プログラミングによる画像処理プログラムの生成処理の概要について説明する。
(画像処理プログラム生成処理の概要)
 図1は、画像処理プログラムの生成処理手順の概要を示す図である。前提として、画像処理プログラムの生成処理の前に、1つ以上の学習用データ20が用意される。学習用データ20には、入力画像21と、入力画像21に対して画像処理を施したときの処理結果(本実施形態では目標画像22)とが含まれる。入力画像21は、例えば、カメラによって被写体を撮像することによって得られる。
 遺伝的プログラミングによる画像処理プログラムの生成処理では、個体(図1において白丸で表記)は、1つ以上の画像処理フィルタを組み合わせて構成される。例えば、図1の左上に示すように、個体は木構造で定義され、木構造の各ノードに画像処理フィルタが組み込まれる。なお、図1の左上において、“F”はノードに組み込まれた画像処理フィルタを示し、“I”は入力端子を示し、“O”は出力端子を示す。また、個体に組み込むことが可能な複数の画像処理フィルタも、あらかじめ用意される。
 遺伝的プログラミングによる画像処理プログラムの生成処理は、例えば、以下のように実行される。
 まず、ステップS1において、母集団11に含められる複数の初期個体が生成される。各初期個体のノードには、あらかじめ用意された複数の画像処理フィルタの中からランダムに選択された画像処理フィルタが組み込まれる。また、生成された各初期個体について、適応度が算出される。なお、適応度の算出処理の詳細については後述する。なお、算出された適応度の最大値が所定の閾値以上である場合には、適応度が最大の初期個体が最終的な画像処理プログラムとして出力される。
 適応度の最大値が所定の閾値未満である場合、ステップS2において、母集団11の中から、一定数(図1では、例えば2つ)の親個体がランダムに選択される。次いで、ステップS3では、選択された一定数(2つ)の親個体に対して進化過程の処理が施されることで、2以上の一定数の子個体が生成される。進化過程では、2つの親個体に対して交叉処理および突然変異処理が行われる。2つの親個体に対して、それぞれ異なる交叉処理や突然変異処理が行われることで、3つ以上の子個体が生成されてもよい。すなわち、生成される子個体の数は、母集団11から選択される親個体の数以上となる。
 次いで、ステップS4では、生成された各子個体について、適応度が算出される。
 ここで、生成された子個体のいずれかの適応度が所定の閾値以上であった場合には、その個体が最終的な画像処理プログラムとして出力され、プログラム生成処理が終了する。
 一方、これらすべての子個体の適応度が所定の閾値未満であった場合には、ステップS5において、生成された各子個体および元の2つの親個体を含む個体群12の中から、生存選択が行われる。この生存選択では、個体群12の中から、算出された適応度が最大の個体が選択される。また、個体群12内の残りの個体の中から、所定の方法で個体が1つ選択される。例えば、残りの個体の中から、適応度に応じた確率で個体が選択される(ルーレット選択)。
 このような生存選択によって選択された2つの個体は、ステップS6において、母集団11に含まれる個体のうち、親個体として選択された2つの個体と入れ替えられる。これにより、母集団11に含まれる個体が次世代の個体へ変更される。そして、適応度が所定の閾値以上となる個体が出現するまで、同様の処理が繰り返される。
 以上のような手順によって生成される画像処理プログラムの用途としては、例えば、FA(Factory Automation)分野において、製品を撮像した画像に画像処理を施して所望の効果を得るという用途が考えられる。例えば、製品の外観を撮像した画像に画像処理を施して、欠陥が生じた箇所を抽出する、位置合わせを行う箇所を抽出するといった用途が考えられる。
 このような用途では、被写体となる製品の変更や改良、それに伴う撮像環境の変化などに応じて、画像処理プログラムの再構築の必要が生じる場合がある。このため、画像処理プログラムの構築の容易性が求められている。また、照明条件の変化や被写体の形状、位置姿勢のバラツキなどの撮像環境の変化に対するロバスト性が高い画像処理プログラムを構築することが求められている。
 遺伝的プログラミングを利用することで、入力画像21とこれに対応する目標画像22とをあらかじめ用意しておくだけで、このような用途で使用可能な画像処理プログラムを容易に生成することができる。また、それぞれ撮像環境が異なる入力画像21と目標画像22とのペア(学習用データ20)を複数用意しておくことで、撮像環境の変化に対するロバスト性が高い画像処理プログラムを自動生成することもできる。なお、以下においては、画像処理プログラムを最初に生成する処理を「初期学習処理」と呼び、撮像環境の変化などに伴って画像処理プログラムを再構築する処理を「再学習処理」と呼ぶものとする。
(画像処理装置の構成)
 次に、上述した画像処理プログラムの生成処理(初期学習処理、再学習処理)を実施する情報処理装置としての画像処理装置100の構成等について、図2に基づいて説明する。図2には、画像処理装置100のハードウェア構成の一例が概略的に示されている。本実施形態に係る画像処理装置100は、例えば、図2に示すようなコンピュータ(情報処理装置)として実現される。
 画像処理装置100は、プロセッサ101によって装置全体が制御されている。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)等である。また、プロセッサ101は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。プロセッサ101には、バス109を介して、RAM102と複数の機器(周辺機器)が接続されている。
 RAM102は、画像処理装置100の主記憶装置として使用される。RAM102には、プロセッサ101に実行させるOS(Operating System)プログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、プロセッサ101による処理に必要な各種データが格納される。
 バス109に接続される機器には、HDD(Hard Disk Drive)103、グラフィック処理装置104、入力インタフェース105、読み取り装置106、通信インタフェース107、及びネットワークインタフェース108等が含まれる。
 HDD103は、画像処理装置100の補助記憶装置として使用される。HDD103には、OSプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、SSD(Solid State Drive)などの他の種類の不揮発性記憶装置を使用することもできる。
 グラフィック処理装置104には、表示装置104aが接続されている。グラフィック処理装置104は、プロセッサ101からの命令にしたがって、表示装置104aの画面に画像を表示させる。表示装置104aとしては、液晶ディスプレイや有機EL(ElectroLuminescence)ディスプレイなどがある。
 入力インタフェース105には、入力装置105aが接続されている。入力インタフェース105は、入力装置105aから出力される信号をプロセッサ101に送信する。入力装置105aとしては、キーボードやポインティングデバイスなどがある。ポインティングデバイスとしては、マウス、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
 読み取り装置106には、可搬型記録媒体106aが脱着可能となっている。読み取り装置106は、可搬型記録媒体106aに記録されたデータを読み取ってプロセッサ101に送信する。可搬型記録媒体106aには、光ディスク、光磁気ディスク、半導体メモリなどが含まれる。
 通信インタフェース107は、接続された外部デバイスとの間でデータの送受信を行う。本実施形態では、通信インタフェース107に撮像装置としてのカメラ107aが接続されており、通信インタフェース107は、カメラ107aから送信された画像データをプロセッサ101に送信する。
 ネットワークインタフェース108は、ネットワークを介して他の装置との間でデータの送受信を行う。
(画像処理装置100が備える処理機能)
 図3は、画像処理装置が備える処理機能の構成例を示すブロック図(機能ブロック図)である。画像処理装置100は、画像取得部111、画像処理部112、プログラム生成部120、プログラム記憶部130、学習用データ記憶部141、を有する。画像取得部111、画像処理部112及びプログラム生成部120の処理は、例えば、画像処理装置100のプロセッサ101が所定のプログラムを実行することで実現される。また、画像処理部112の処理の一部は、プログラム記憶部130に保存された画像処理プログラムを、画像処理装置100のプロセッサ101が実行することで実現される。プログラム記憶部130、学習用データ記憶部141は、例えば、画像処理装置100のHDD103の記憶領域として実現される。
 画像取得部111は、カメラ107aによって撮像された画像のデータをカメラ107aから取得し、プログラム生成部120または画像処理部112に出力する。
 プログラム生成部120は、遺伝的プログラミングにより画像処理プログラムを生成し、生成された画像処理プログラムをプログラム記憶部130に保存する。なお、プログラム生成部120の詳細については、後述する。
 画像処理部112は、カメラ107aによって撮像された画像のデータを画像取得部111を介して取得する。画像処理部112は、プログラム記憶部130に保存された最終的な画像処理プログラム(画像処理に用いるプログラム)にしたがって、取得した画像に画像処理を施す。処理後の画像は、例えば、表示装置104aに表示される。
 プログラム記憶部130は、プログラム生成部120によって学習時又は再学習時に生成された最終的な画像処理プログラム及び最終的な画像処理プログラムが生成されたときに母集団11に含まれていた画像処理プログラムを記憶する。
 学習用データ記憶部141は、それぞれ入力画像および目標画像の各データを含む学習用データを、1つ以上記憶する。学習用データに含まれる入力画像は、例えば、画像処理装置100に接続されたカメラ107aによって撮像された画像であってもよい。
 なお、本実施形態では、一例として、生成される画像処理プログラムを用いた処理の結果として、画像が出力されるものとするが、処理の結果として画像以外の情報が出力されるようにしてもよい。そのような処理の結果としては、例えば、入力画像における領域を示す位置情報、入力画像の分類結果や評価結果などが考えられる。このように処理の結果が画像でない場合、学習用データには、目標となる処理結果を示す、画像以外の情報が、目標画像の代わりに含まれていてもよい。
 プログラム生成部120は、図3に示すように、学習用データ設定部128、決定部121、抽出部122、生成部123、処理部124、を有する。
 学習用データ設定部128は、学習用データの設定を行う。例えば、学習用データ設定部128は、学習用データ記憶部141に記憶された学習用データの中から、使用する学習用データを指定したり、あるいは、画像取得部111が取得した画像に基づいて、使用する学習用データを生成し、学習用データ記憶部141に登録したりする。
 決定部121は、複数の初期個体(初期の画像処理プログラム)を決定し、母集団11に含める(図1のS1)。なお、決定部121による初期個体の決定方法は、初期学習処理のときと、再学習処理のときとで異なるが、詳細については後述する。
 抽出部122は、母集団11から複数(例えば2つ)の親個体(画像処理プログラム)を抽出する(図1のS2)。なお、抽出部122による親個体の抽出方法は、初期学習処理のときと、再学習処理のときとで異なるが、詳細については後述する。
 生成部123は、遺伝的プログラミングに基づき、抽出した複数(例えば2つ)の親個体から子個体を生成する(図1のS3)。
 処理部124は、入力画像と目標となる処理結果とを含む学習用データを用いて、個体(次世代の画像処理プログラムの候補)を評価するための適応度を計算する(図1のS4)。具体的には、処理部124は、学習用データ記憶部141に記憶された学習用データを用いて、各画像処理プログラムの適応度を算出する。処理部124は、画像処理プログラムに従って、学習用データに含まれる入力画像に画像処理を施し、得られた画像と、画像処理された入力画像に対応する目標画像との類似度を、個体の適応度として算出する。また、処理部124は、計算した適応度に基づいて、次世代の画像処理プログラムを決定する、又は生成部123が生成した子個体により母集団11を更新する(図1のS5、S6)。
(画像処理装置100による初期学習処理)
 図4は、画像処理装置100により実行される、初期学習処理の詳細を示すフローチャートである。
 図4のステップS10において、学習用データ設定部128は、学習用データを設定する。例えば、学習用データ記憶部141に記憶された学習用データの中から、本処理で使用する学習用データを指定したり、あるいは、本処理で使用する学習用データを画像取得部111が取得した画像から生成して、学習用データ記憶部141に登録する。
 次いで、ステップS12では、決定部121が、母集団11に含める所定個数(P個)の初期個体を生成する(図1のステップS1参照)。各初期個体は、木構造の各ノードに対して、画像処理フィルタをランダムに選択して組み合わせることで生成される。また、各初期個体の木構造は、例えば、あらかじめ決められた複数の木構造の中からランダムに選択される。あるいは、木構造自体がランダムに決定されてもよい。
 次いで、ステップS14では、処理部124が、母集団11に含まれる個体についての、学習用データを用いた適応度の算出を実行する。
 次いで、ステップS16では、処理部124が、ステップS14で算出した各個体の適応度の最大値が、予め定められている閾値よりも大きいか否かを判断する。このステップS16の判断が肯定された場合には、ステップS26に移行し、適応度が最大の個体を最終的な画像処理プログラムとし、最終的な画像処理プログラムと母集団11に含まれる個体とをプログラム記憶部130に格納する。その後は、図4の処理(初期学習処理)を終了する。
 一方、ステップS16の判断が否定された場合(現時点で、母集団11に最終的な画像処理プログラムになりうる個体が存在しない場合)には、ステップS18に移行し、抽出部122は、母集団11に含まれる個体の中から、2つの親個体をランダムに選択する(図1のステップS2参照)。
 次いで、ステップS20では、生成部123が、進化過程の処理により子個体を生成する(図1のステップS3参照)。この場合、生成部123は、選択された2つの親個体の間で交叉を行うことで、2つ以上の所定数の子個体を生成する。また、生成部123は、生成された子個体のいずれかのノードに突然変異を発生させ、元の子個体のノードに組み込まれていた画像処理フィルタを他の画像処理フィルタに置き換える。
 次いで、ステップS22では、処理部124が、学習用データを用いて、各子個体の適応度を算出する。ここでの処理は、上述したステップS14の処理と同様である。
 次いで、ステップS24では、処理部124は、ステップS22で算出された各子個体の適応度の中から、最大適応度を特定し、最大適応度が所定の閾値より大きいか否かを判定する。処理部124は、最大適応度が閾値より大きい場合、ステップS26の処理に移行し、最大適応度が閾値以下の場合、ステップS28の処理に移行する。
 ステップS28に移行すると、処理部124は、生存させる個体として、ステップS18で選択された各親個体と、ステップS20で生成された各子個体の中から、適応度が最大の個体を選択する(図1のステップS5参照)。さらに、処理部124は、残りの個体の中から生存させる個体を1つ選択する。この選択では、残りの個体それぞれの適応度に応じた確率で生存させる個体が選択される(ルーレット選択)。
 次いで、ステップS30では、処理部124が、母集団11に含まれる個体のうちステップS18で選択された親個体を、ステップS28で選択された2つの個体に入れ替える(図1のステップS6参照)。これによって、母集団11の世代が更新される。その後は、ステップS18に戻り、上述したようにステップS18以降の処理が実行されることになる。
 一方、ステップS24の判断が肯定され、ステップS26に移行すると、処理部124は、ステップS24で適応度が閾値より大きいと判定された個体(画像処理プログラム)をプログラム記憶部130に格納するとともに、母集団11に含まれる個体(画像処理プログラム)をプログラム記憶部130に格納して、図4の処理(初期学習処理)を終了する。なお、プログラム記憶部130に格納された最終的な画像処理プログラムと母集団11に含まれる個体は、次に実行される再学習処理において利用される。
(画像処理装置100による再学習処理)
 次に、図5のフローチャート及び再学習処理の概要を示す図6に基づいて、画像処理装置100により実行される再学習処理の詳細について説明する。この再学習処理は、図4に示すような方法で決定された画像処理プログラムを用いて画像処理が繰り返し実行されている間に、撮影環境の変化等が生じて、画像処理プログラムの修正が必要になった段階で実行される処理である。
 図5の処理では、まず、ステップS110において、学習用データ設定部128が、新規学習用データを設定する。この場合、学習用データ設定部128は、撮影環境の変化等が生じた後にカメラ107aで撮影された画像を用いて、新規学習用データを生成して、学習用データ記憶部141に登録する。
 次いで、ステップS112Aでは、処理部124が、ステップS110において生成された新規学習用データを用いて、直前の学習処理の際にプログラムDB130に格納された個体(直前の学習における最終的な画像処理プログラムと母集団11に含まれていた個体)の適応度を算出する(図6のステップS201参照)。
 次いで、ステップS112Bでは、処理部124は、適応度が上位N0個の個体を母集団11に挿入する(図6のステップS202参照)。ここで、N0は、母集団11の総個体数Pの50%(N0=0.5×P)などとすることができる。
 次いで、ステップS112Cでは、処理部124が、P-N0個の個体をランダムに生成し、母集団11に挿入する(図6のステップS203参照)。このステップS112Cの処理は、図4のステップS12の処理と同様である。
 次いで、ステップS114では、ステップS112Cにおいてランダムに生成された個体それぞれの適応度を算出する。
 次いで、ステップS116では、処理部124が、ステップS112A、S114で算出した各個体の適応度の最大値が、予め定められている閾値よりも大きいか否かを判断する。このステップS116の判断が肯定された場合には、ステップS126に移行し、適応度が最大の個体を最終的な画像処理プログラムとし、最終的な画像処理プログラムと母集団11に含まれる個体とをプログラム記憶部130に格納する。その後は、図5の処理(再学習処理)を終了する。
 一方、ステップS116の判断が否定された場合(母集団11に最終的な画像処理プログラムになりうる個体が存在しない場合)には、ステップS118Aに移行し、抽出部122は、Ni/PがKよりも大きいか否かを判断する。ここで、Kは例えば0.1であるとする。Niは、母集団に含まれる直前の学習で得られた個体の個数である。例えば、母集団に20個の個体が含まれ、そのうちの10個が直前の学習で得られた個体であるとすると、Ni/P=1/2であるため、K(=0.1)よりも大きいと判断され、ステップS118Aの判断が肯定される。一方、直前の学習で得られた個体が後述するように親個体として選択されることで、母集団11から減少し、Ni/PがKよりも小さくなった場合には、ステップS118Aの判断が否定される。ステップS118Aの判断が肯定された場合には、ステップS118Bに移行し、否定された場合には、ステップS118Cに移行する。
 ステップS118Bに移行した場合、抽出部122は、親個体の一方として母集団11に含まれる直前の学習で得られた個体を選択し、他方として母集団11に含まれる新規に生成された個体を選択する(図6のステップS204参照)。
 一方、ステップS118Cに移行した場合には、抽出部122は、親個体の両方を母集団11の中からランダムに選択する(図6のステップS204参照)。
 次いで、ステップS120では、図4のステップS20と同様、生成部123が、進化過程の処理により子個体を生成する(図6のステップS205参照)。次いで、ステップS122では、処理部124が、新規学習用データを用いて、各子個体の適応度を算出する(図6のステップS206参照)。
 次いで、ステップS124では、ステップS24と同様、処理部124は、ステップS122で算出された各子個体の適応度の中から、最大適応度を特定し、最大適応度が所定の閾値より大きいか否かを判定する。処理部124は、最大適応度が閾値より大きい場合、ステップS126の処理に移行し、最大適応度が閾値以下の場合、ステップS128の処理に移行する。
 ステップS128に移行すると、処理部124は、生存させる個体として、ステップS118B又は118Cで選択された各親個体と、ステップS120で生成された各子個体の中から、適応度が最大の個体を選択する。さらに、処理部124は、残りの個体の中から生存させる個体を1つルーレット選択する(図6のステップS207参照)。
 次いで、ステップS130では、処理部124が、母集団11に含まれる個体のうちステップS118B又はS118Cで選択された親個体を、ステップS128で選択された2つの個体に入れ替える(図6のステップS208参照)。これによって、母集団11の世代が更新される。その後は、ステップS132において、処理部124は、母集団11に含まれる直前の学習で得られた個体の数Niを更新する。なお、iは、図6に示すループ(S2104~S208)を実行した回数を示す値である。例えば、ステップS118B又はS118Cにおいて選択された親個体の1つが直前の学習で得られた個体であった場合には、Ni+1はNiよりも1減少する。また、親個体の両方が直前の学習で得られた個体であった場合には、Ni+1はNiよりも2減少する。さらに親個体の両方が直前の学習で得られた個体でなかった場合には、Ni+1はNiから変化しないようになっている。ステップS132の後は、ステップS118Aに移行する。
 一方、ステップS124の判断が肯定され、ステップS126に移行すると、処理部124は、ステップS124で適応度が閾値より大きいと判定された個体(画像処理プログラム)をプログラム記憶部130に格納する。また、処理部124は、母集団11に含まれる個体(画像処理プログラム)をプログラム記憶部130に格納して、図5の処理(再学習処理)を終了する。なお、ステップS126においてプログラム記憶部130に格納された画像処理プログラムは、次の再学習の際に、ステップS112Aにおいて利用される。
 以上のように再学習処理では、直前の学習で得られた画像処理プログラムを再学習時の母集団11の初期個体の一部として用いるので、早期に適応度の高い個体を探索することができる。また、直前の学習で得られた画像処理プログラムを再学習処理における初期個体の全部としては用いないため、直前の学習における過学習状態を防ぐこともできる。
 図7は、再学習を図5と同様の方法により行った場合(比較例)と、図5の方法で行った場合(N0=0.5×P、K=0.1)における、世代数に対する適応度の変化を示すグラフである。なお、世代数は、母集団の入れ替えを行った回数を意味する。また、適応度はプログラム性能と同義であり、適応度の値が1に近いほどプログラム性能が高いことを意味する。すなわち、適応度の値が所定値(例えば1)になるまでの世代数が学習速度を意味する。
 図7に示すように、比較例と比べると、図5の方法で再学習を行った場合には、学習の早期収束により再学習時間の短縮を図ることができることが分かった。より具体的には、図7の例では、学習速度がおよそ4倍程度になることが分かった。
 以上、詳細に説明したように、本実施形態によると、決定部121は、複数の初期個体を決定して母集団11に含め、抽出部122は、母集団11から2つの親個体を抽出する。また、生成部123は、遺伝的プログラミングに基づき、抽出した親個体から子個体を生成し、処理部124は、学習用データを用いて、子個体の適応度を算出し、算出した適応度に基づいて、画像処理に用いる画像処理プログラムを決定する、又は母集団11を更新する。この場合に、決定部121は、直前に画像処理に用いる画像処理プログラムを決定したときに母集団11に含まれていた個体の少なくとも一部を、再学習処理における初期個体の一部として決定する。これにより、本実施形態では、直前の学習で得られた画像処理プログラムを再学習時の母集団11の初期個体の一部として用いるので、すべての初期個体をランダムに生成する場合に比べ、早期に適応度の高い個体を探索することができる。また、直前の学習で得られた個体を再学習時の初期個体の全部としては用いないため、直前の学習における過学習状態を防ぐこともできる。
 また、本実施形態では、決定部121は、新たな学習用データを用いて直前の学習で得られた画像処理プログラムの適応度を算出し、算出した適応度に基づいて、母集団11に含める画像処理プログラムを決定する。これにより、再学習において、最初から高い適応度を示す画像処理プログラムを母集団11に含めることができるため、最終的な画像処理プログラムを短時間で決定することが可能となる。
 また、本実施形態では、抽出部122は、再学習時に母集団11に含まれている直前の学習により得られた画像処理プログラムの割合に基づいて、親個体の一方として直前の学習の個体を選択し、他方として新規に生成された個体を選択する(S118B)か、親個体の両方をランダムに選択する(S118C)か、を決定する。これにより、母集団11に直前の学習により得られた画像処理プログラムが多く含まれる場合には、直前の学習により得られた適応度の高い画像処理プログラムを積極的に親個体として選択することで、再学習に要する時間を短縮することができる。また、母集団11に直前の学習により得られた画像処理プログラムが然程含まれない場合には、進化過程の繰り返しにより得られた画像処理プログラムを含む母集団11からランダムに親個体を選択することで、再学習に要する時間を短縮することができる。
 なお、上記実施形態では、直前の学習で得られた個体を再学習の初期個体の一部として用いる場合について説明したが、これに限られるものではない。すなわち、再学習の前に得られた個体であれば、直前の学習で得られた個体でなくてもよい。
 なお、上記実施形態では、母集団11から親個体を2つ抽出する場合について説明したが、これに限られるものではない。例えば抽出する親個体の数は3つ以上であってもよい。なお、3つ以上の親個体を抽出する場合には、ステップS118Bにおいて、進化過程の交叉に用いる一対の親個体の一方を直前の学習で得られた個体から選択された個体とし、他方を新規に生成された個体から選択された個体とすればよい。
 なお、上記実施形態では、要求精度や要求処理時間を満足するように、図5のフローチャートで用いる値NiやKを適宜調整してもよい。
 なお、上記実施形態では、ステップS118Aにおいて、母集団11に含まれる直前の学習により得られた画像処理プログラムの割合に基づく判断を行ったが、これに限らず、例えば、母集団11に含まれる直前の学習により得られた画像処理プログラムの数に基づく判断を行うこととしてもよい。また、図5のステップS118Aでは、ループ(図6のS204~S208)の繰り返し回数に基づいて、ステップS118B,S118Bのいずれを実行するかを判断してもよい。
 なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。
 プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD-ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
 プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
 上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。
  100 画像処理装置(情報処理装置)
  107a カメラ(撮像装置)
  121 決定部
  122 抽出部
  123 生成部
  124 処理部

Claims (9)

  1.  撮像装置により撮像された画像に対し、木構造を有する画像処理プログラムを用いて画像処理する情報処理装置であって、
     複数の初期の画像処理プログラムを決定し、画像処理プログラム群に含める決定部と、
     前記画像処理プログラム群から少なくとも2つの画像処理プログラムを抽出する抽出部と、
     遺伝的プログラミングに基づき、抽出した前記画像処理プログラムから次世代の画像処理プログラムの候補を生成する生成部と、
     入力画像と目標となる処理結果とを含む学習用データを用いて、前記次世代の画像処理プログラムの候補の適応度を算出し、算出した適応度に基づいて、次世代の画像処理プログラムを決定する、又は前記画像処理プログラム群を更新する処理部と、を備え、
     前記決定部は、前記処理部が過去に次世代の画像処理プログラムを決定した際に前記画像処理プログラム群に含まれていた第1の画像処理プログラムの少なくとも一部を、前記初期の画像処理プログラムの一部として決定することを特徴とする情報処理装置。
  2.  前記決定部は、
     前記第1の画像処理プログラムの適応度を、前記撮像装置により新たに撮像された画像に基づく学習用データを用いて算出し、
     算出した前記適応度に基づいて、前記第1の画像処理プログラムの中から選択した画像処理プログラムを、前記初期の画像処理プログラムの一部として決定する、ことを特徴とする請求項1に記載の情報処理装置。
  3.  前記抽出部は、前記画像処理プログラム群に含まれる前記第1の画像処理プログラムの割合又は数に基づいて、抽出する画像処理プログラムの全部を、前記画像処理プログラム群の中からランダムに選択するか、抽出する画像処理プログラムの一部を前記第1の画像処理プログラムの中からランダムに選択し、その他の画像処理プログラムを前記画像処理プログラム群に含まれる前記第1の画像処理プログラム以外の画像処理プログラムの中からランダムに選択するか、を決定する処理を実行する、ことを特徴とする請求項1又は2に記載の情報処理装置。
  4.  前記抽出部は、前記画像処理プログラム群に含まれる前記第1の画像処理プログラムの割合又は数が所定値より小さい場合に、抽出する画像処理プログラムの全部を、前記画像処理プログラム群の中からランダムに選択する、と決定することを特徴とする請求項3に記載の情報処理装置。
  5.  撮像装置により撮像された画像に対し、木構造を有する画像処理プログラムを用いて画像処理する情報処理方法であって、
     複数の初期の画像処理プログラムを決定し、画像処理プログラム群に含め、
     前記画像処理プログラム群から少なくとも2つの画像処理プログラムを抽出し、
     遺伝的プログラミングに基づき、抽出した前記画像処理プログラムから次世代の画像処理プログラムの候補を生成し、
     入力画像と目標となる処理結果とを含む学習用データを用いて、前記次世代の画像処理プログラムの候補の適応度を算出し、算出した適応度に基づいて、次世代の画像処理プログラムを決定する、又は前記画像処理プログラム群を更新する、処理をコンピュータが実行し、
     前記決定する処理では、過去に次世代の画像処理プログラムを決定した際に前記画像処理プログラム群に含まれていた第1の画像処理プログラムの少なくとも一部を、前記初期の画像処理プログラムの一部として決定することを特徴とする情報処理方法。
  6.  前記初期の画像処理プログラムを決定する処理では、
     前記第1の画像処理プログラムの適応度を、前記撮像装置により新たに撮像された画像に基づく学習用データを用いて算出し、
     算出した前記適応度に基づいて、前記第1の画像処理プログラムの中から選択した画像処理プログラムを、前記初期の画像処理プログラムの一部として決定する、ことを特徴とする請求項5に記載の情報処理方法。
  7.  前記抽出する処理では、前記画像処理プログラム群に含まれる前記第1の画像処理プログラムの割合又は数に基づいて、抽出する画像処理プログラムの全部を、前記画像処理プログラム群の中からランダムに選択するか、抽出する画像処理プログラムの一部を前記第1の画像処理プログラムの中からランダムに選択し、その他の画像処理プログラムを前記画像処理プログラム群に含まれる前記第1の画像処理プログラム以外の画像処理プログラムの中からランダムに選択するか、を決定する処理を実行する、ことを特徴とする請求項5又は6に記載の情報処理方法。
  8.  前記抽出する処理では、前記画像処理プログラム群に含まれる前記第1の画像処理プログラムの割合又は数が所定値より小さい場合に、抽出する画像処理プログラムの全部を、前記画像処理プログラム群の中からランダムに選択する、と決定することを特徴とする請求項7に記載の情報処理方法。
  9.  撮像装置により撮像された画像に対し、木構造を有する画像処理プログラムを用いて画像処理する情報処理プログラムであって、
     複数の初期の画像処理プログラムを決定し、画像処理プログラム群に含め、
     前記画像処理プログラム群から少なくとも2つの画像処理プログラムを抽出し、
     遺伝的プログラミングに基づき、抽出した前記画像処理プログラムから次世代の画像処理プログラムの候補を生成し、
     入力画像と目標となる処理結果とを含む学習用データを用いて、前記次世代の画像処理プログラムの候補の適応度を算出し、算出した適応度に基づいて、次世代の画像処理プログラムを決定する、又は前記画像処理プログラム群を更新する、処理をコンピュータに実行させ、
     前記決定する処理では、過去に次世代の画像処理プログラムを決定した際に前記画像処理プログラム群に含まれていた第1の画像処理プログラムの少なくとも一部を、前記初期の画像処理プログラムの一部として決定することを特徴とする情報処理プログラム。
PCT/JP2017/032672 2017-09-11 2017-09-11 情報処理装置、情報処理方法及び情報処理プログラム Ceased WO2019049365A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201780094728.7A CN111066061A (zh) 2017-09-11 2017-09-11 信息处理装置、信息处理方法和信息处理程序
EP17924616.0A EP3683763A4 (en) 2017-09-11 2017-09-11 INFORMATION PROCESSING DEVICE, PROCESS AND PROGRAM
PCT/JP2017/032672 WO2019049365A1 (ja) 2017-09-11 2017-09-11 情報処理装置、情報処理方法及び情報処理プログラム
JP2019540284A JP6729810B2 (ja) 2017-09-11 2017-09-11 情報処理装置、情報処理方法及び情報処理プログラム
US16/810,908 US11328176B2 (en) 2017-09-11 2020-03-06 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/032672 WO2019049365A1 (ja) 2017-09-11 2017-09-11 情報処理装置、情報処理方法及び情報処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/810,908 Continuation US11328176B2 (en) 2017-09-11 2020-03-06 Information processing apparatus, information processing method, and storage medium

Publications (1)

Publication Number Publication Date
WO2019049365A1 true WO2019049365A1 (ja) 2019-03-14

Family

ID=65633774

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/032672 Ceased WO2019049365A1 (ja) 2017-09-11 2017-09-11 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (5)

Country Link
US (1) US11328176B2 (ja)
EP (1) EP3683763A4 (ja)
JP (1) JP6729810B2 (ja)
CN (1) CN111066061A (ja)
WO (1) WO2019049365A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11104828B1 (en) 2018-06-29 2021-08-31 Dow Silicones Corporation Solventless silicone pressure sensitive adhesive and methods for making and using same
US11578172B2 (en) 2018-06-29 2023-02-14 Dow Silicones Corportation Anchorage additive and methods for its preparation and use
JP2023509583A (ja) * 2019-12-06 2023-03-09 ナチュラル コンピューテイション エルエルシー 遺伝的プログラミングを使用した汎用ビルディングブロックの作成

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204103A (ja) 2007-02-19 2008-09-04 Yokohama National Univ 画像認識システム
JP2008204102A (ja) 2007-02-19 2008-09-04 Yokohama National Univ 画像処理システム
JP2017010475A (ja) * 2015-06-26 2017-01-12 富士通株式会社 プログラム生成装置、プログラム生成方法および生成プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7149262B1 (en) * 2000-07-06 2006-12-12 The Trustees Of Columbia University In The City Of New York Method and apparatus for enhancing data resolution
CN100565556C (zh) * 2004-05-14 2009-12-02 欧姆龙株式会社 特定被摄体检测装置
US7603000B2 (en) * 2005-08-31 2009-10-13 Siemens Medical Solutions Usa, Inc. System and method for learning relative distance in a shape space using image based features
CN101517602A (zh) * 2006-09-22 2009-08-26 皇家飞利浦电子股份有限公司 使用基于分类器集成的遗传算法进行特征选择的方法
WO2008133237A1 (ja) * 2007-04-23 2008-11-06 Sharp Kabushiki Kaisha 撮像装置、その制御プログラムを記録したコンピュータ読取り可能な記録媒体、ならびに制御方法
US8401332B2 (en) * 2008-04-24 2013-03-19 Old Dominion University Research Foundation Optical pattern recognition technique
US8111923B2 (en) * 2008-08-14 2012-02-07 Xerox Corporation System and method for object class localization and semantic class based image segmentation
US9014449B2 (en) * 2011-10-04 2015-04-21 Siemens Aktiengesellschaft Method and system for segmentation and removal of pulmonary arteries, veins, left atrial appendage
WO2014104151A1 (ja) * 2012-12-28 2014-07-03 富士通株式会社 画像処理装置及び特徴検出方法
CN103942571B (zh) * 2014-03-04 2017-02-08 西安电子科技大学 一种基于遗传规划算法的图形图像分类方法
CN106462401B (zh) * 2014-06-19 2019-09-10 富士通株式会社 程序生成装置和程序生成方法
CN104504719A (zh) * 2015-01-05 2015-04-08 浪潮(北京)电子信息产业有限公司 一种图像边缘检测方法及设备
US10255681B2 (en) * 2017-03-02 2019-04-09 Adobe Inc. Image matting using deep learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204103A (ja) 2007-02-19 2008-09-04 Yokohama National Univ 画像認識システム
JP2008204102A (ja) 2007-02-19 2008-09-04 Yokohama National Univ 画像処理システム
JP2017010475A (ja) * 2015-06-26 2017-01-12 富士通株式会社 プログラム生成装置、プログラム生成方法および生成プログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KAZUHIRO MIYAJIMA: "Kotaigun Tansaku Bunkigata no Identeki Programming ni Tsuite", October 2000 (2000-10-01), JAPAN, pages 335 - 336, XP009519286, Retrieved from the Internet <URL:http://hdl.handle.net/10191/25463> *
See also references of EP3683763A4
SHINYA AOKITOMOHARU NAGAO: "Automatic Construction Method of Tree Structure Image Conversion ACTIT", JOURNAL OF THE INSTITUTE OF INFORMATION AND MEDIA ENGINEERS, vol. 53, no. 6, 20 June 1999 (1999-06-20), pages 890 - 892
TAKAYOSHI NAEMURA ET AL.: "Hierarchical Module Generation in Genetic Programming and Its Incremental Evolution", TRANSACTIONS OF THE SOCIETY OF INSTRUMENT AND CONTROL ENGINEERS, vol. 35, no. 10, 27 October 1999 (1999-10-27), pages 1292 - 1299, XP055582439 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11104828B1 (en) 2018-06-29 2021-08-31 Dow Silicones Corporation Solventless silicone pressure sensitive adhesive and methods for making and using same
US11578172B2 (en) 2018-06-29 2023-02-14 Dow Silicones Corportation Anchorage additive and methods for its preparation and use
JP2023509583A (ja) * 2019-12-06 2023-03-09 ナチュラル コンピューテイション エルエルシー 遺伝的プログラミングを使用した汎用ビルディングブロックの作成
JP7358645B2 (ja) 2019-12-06 2023-10-10 ナチュラル コンピューテイション エルエルシー 遺伝的プログラミングを使用した汎用ビルディングブロックの作成

Also Published As

Publication number Publication date
EP3683763A1 (en) 2020-07-22
US11328176B2 (en) 2022-05-10
JPWO2019049365A1 (ja) 2020-03-26
EP3683763A4 (en) 2020-09-16
CN111066061A (zh) 2020-04-24
US20200202169A1 (en) 2020-06-25
JP6729810B2 (ja) 2020-07-22

Similar Documents

Publication Publication Date Title
JP6511986B2 (ja) プログラム生成装置、プログラム生成方法および生成プログラム
US11468261B2 (en) Information processing apparatus, image processing method, and computer-readable recording medium recording image processing program
US10489710B2 (en) Program generation apparatus and program generation method
CN108765340B (zh) 模糊图像处理方法、装置及终端设备
US11328176B2 (en) Information processing apparatus, information processing method, and storage medium
WO2013089263A1 (ja) 画像処理装置及び画像処理方法
US10540592B2 (en) Program generation apparatus and program generation method
JP6607261B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN112307976B (zh) 目标检测方法、装置、电子设备以及存储介质
US20170083295A1 (en) Program generating apparatus and method therefor
JPWO2016170618A1 (ja) 自動試験装置
JPWO2018078735A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US11182650B2 (en) Information processing apparatus to generate a next generation image processing program in genetic programming, control method, and non-transitory computer-readable storage medium for storage program
CN113205530B (zh) 阴影区域处理方法及装置、计算机可读介质和电子设备
US20220198220A1 (en) Information management apparatus, information processing apparatus, and control method thereof
JP2018005506A (ja) 画像認識手法評価装置、画像認識手法評価方法、及びプログラム
WO2019220608A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2016062269A (ja) アルゴリズム生成装置、アルゴリズム生成方法及びアルゴリズム生成用コンピュータプログラム
JP6544435B2 (ja) プログラム生成装置、プログラム生成方法および生成プログラム
CN109684143B (zh) 一种基于深度学习的测试gpu性能的方法及装置
JP7294031B2 (ja) 情報処理装置、情報処理方法、プログラム、予測装置および予測方法
US20220067487A1 (en) Electronic device for generating data and improving task performance by using only very small amount of data without prior knowledge of associative domain and operating method thereof
JP2019537090A (ja) ハイブリッド命令アーキテクチャのテスト
JP2016053751A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17924616

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019540284

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017924616

Country of ref document: EP

Effective date: 20200414