[go: up one dir, main page]

WO2001048693A1 - Signal processing device and method, and recording medium - Google Patents

Signal processing device and method, and recording medium Download PDF

Info

Publication number
WO2001048693A1
WO2001048693A1 PCT/JP2000/009421 JP0009421W WO0148693A1 WO 2001048693 A1 WO2001048693 A1 WO 2001048693A1 JP 0009421 W JP0009421 W JP 0009421W WO 0148693 A1 WO0148693 A1 WO 0148693A1
Authority
WO
WIPO (PCT)
Prior art keywords
foreground
background
signal processing
area
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2000/009421
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Junichi Ishibashi
Takashi Sawao
Seiji Wada
Tohru Miyake
Takahiro Nagano
Naoki Fujiwara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to CA2365233A priority Critical patent/CA2365233C/en
Priority to EP00985993A priority patent/EP1164545B1/en
Priority to DE60042588T priority patent/DE60042588D1/de
Priority to US09/830,858 priority patent/US7583292B2/en
Publication of WO2001048693A1 publication Critical patent/WO2001048693A1/ja
Anticipated expiration legal-status Critical
Priority to US11/446,905 priority patent/US7525574B2/en
Priority to US11/446,764 priority patent/US7538796B2/en
Priority to US11/446,886 priority patent/US7576780B2/en
Priority to US11/446,632 priority patent/US7206018B2/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Definitions

  • the present invention relates to a signal processing device and method, and a recording medium, in particular, a signal processing device and method in which a difference between a signal detected by a sensor and a real world is considered, And a recording medium.
  • a technology that detects events in the real world with sensors and processes sampling data output from the sensors such as data corresponding to images, sounds, temperatures, pressures, accelerations, or odors, is widely used.
  • motion blur occurs when the moving speed of the object is relatively high.
  • motion blur occurs when the moving speed of the object is relatively high.
  • the CCD which is a sensor
  • distortion occurs in the image that is the sampling data.
  • real-world information having space and time axis is acquired by the sensor, and is deconstructed.
  • the data acquired by the sensor is information obtained by projecting real-world information onto a spatio-temporal dimension lower than the real world. Therefore, the information obtained by the projection has distortion caused by the projection. In other words, the data output by the sensor is distorted with respect to real-world information.
  • the image has distortion due to projection, it contains significant information for correcting the distortion.
  • the sampling data acquired by the sensor is considered to be the most reliable data, and the subsequent signal processing in transmission, recording, and reproduction, etc. The only thought was to approach the original data.
  • An object of the present invention is to make it possible to adjust the amount of motion blur included in a detection signal of a blurred image or the like.
  • Another object of the present invention is to be able to detect a mixture ratio indicating a mixed state of a plurality of objects such as a background image and an image of a moving object.
  • Another object of the present invention is to provide a signal processing device capable of removing distortion from sampling data output from a sensor and extracting significant information. For example, in the case of an image, the object is to be able to adjust the amount of motion blur included in the detection signal.
  • the present invention relates to an image sensor having a predetermined number of pixels each having a time integration effect. Therefore, in an image processing apparatus for processing image data consisting of a predetermined number of pixel data obtained, a foreground area consisting only of foreground object components constituting a foreground object in the image data, and a background object in the image data.
  • a background region consisting only of a background object component constituting the object, and a region where the foreground object component and the background object component are mixed in the image data in the evening, and Area information indicating a mixed background area including a covered background area formed on the front end side in the movement direction and an uncovered background area formed on the rear end side in the movement direction of the foreground object; Based on the data, the cover background area centered on the foreground area From the outer edge of the object to the outer edge of the anchored background area, the processing unit comprising at least one pixel on a straight line that coincides with the direction of movement of the foreground object.
  • a calculating means for generating a normal equation by generating a normal equation, and a calculating means for generating a foreground object component having an adjusted amount of motion blur by solving the normal equation by the least square method It is characterized by.
  • the present invention also provides an image processing method for processing an image consisting of a predetermined number of pixel data obtained by an image sensor having a predetermined number of pixels each having a time integration effect.
  • a foreground area consisting only of the foreground object component constituting the foreground object
  • a background area consisting only of the background object component constituting the background object in the image data
  • the foreground object component and the background in the image data An area where object components are mixed, and a cover background area formed on the front end side of the foreground object in the movement direction and a rear end side of the foreground object in the movement direction of the foreground object.
  • the recording medium is an image processing program for processing an image data composed of a predetermined number of pixel data obtained by an image sensor having a predetermined number of pixels each having a time integration effect.
  • a foreground area consisting of only foreground object components constituting a foreground object in the image data; a background area consisting of only background object components constituting a background object in the image data;
  • a processing unit determination step for determining a processing unit consisting of at least one pixel on a straight line that coincides with the movement direction of the pixel; and a pixel value of a pixel in the processing unit determined based on the processing unit.
  • a normal value generation step of generating a normal equation by setting an unknown division value obtained by dividing the foreground object component in the mixed region by the set division number, and minimizing the regular equation.
  • a readable program is recorded.
  • the present invention also provides a sensor comprising a predetermined number of detection elements having a time integration effect.
  • the signal processing apparatus for processing the detection data for each predetermined period composed of a predetermined number of sample data acquired for each predetermined period, the detection data in which the sample data of interest exists, which is the sample data of interest.
  • Foreground sample data extraction means for extracting the sample data present in the detection data before or after the foreground as foreground sample data corresponding to an object serving as a foreground in the real world; and after or before the attention detection data
  • Background sample data extraction means for extracting the sample data existing in the detected data as background sample data corresponding to an object serving as a background in the real world
  • the note sample data and the foreground sample Based on the background sample data and the background sample data, Characterized in that it comprises a detection means for detecting a slip ratio.
  • the present invention relates to a signal processing method for processing detection data for a predetermined period composed of a predetermined number of sample data acquired for a predetermined period by a sensor composed of a predetermined number of detection elements having a time integration effect. Then, the sample data present before or after the detection detection data in which the sample data of interest being the sample data of interest is present is converted into an object serving as a foreground in the real world.
  • the recording medium includes a detection data for each predetermined period, which is made up of a predetermined number of sample data obtained every predetermined period by a sensor having a predetermined number of detection elements having a time integration effect.
  • a signal processing program for processing evenings wherein the sample data which is the sample data of interest is present, and the sample data present before or after the detection data of interest is present in the foreground in the real world. Sample foreground corresponding to the object And extracting the foreground sample data extraction step and the sample data existing in the detection data after or before the target detection data as a background sample corresponding to an object serving as a background in the real world. And extracting a background sample from the target sample data, the foreground sample data, and the background sample.
  • a computer readable program characterized by including is recorded.
  • the present invention provides a signal processing for processing a detection data every predetermined period composed of a predetermined number of sample data acquired every predetermined period by a sensor including a predetermined number of detection elements having a time integration effect.
  • a static / movement determining means for performing static / dynamic determination based on the detection data, and detecting a mixed area including sample data in which a plurality of objects in the real world are mixed based on a result of the static / dynamic determination.
  • detecting means for performing the detection is
  • the present invention provides a signal processing for processing a detection data every predetermined period composed of a predetermined number of sample data acquired every predetermined period by a sensor including a predetermined number of detection elements having a time integration effect.
  • the recording medium includes a detection data for a predetermined period, which is composed of a predetermined number of sample data acquired every predetermined period by a sensor having a predetermined number of detection elements having a time integration effect.
  • a static / dynamic determination step of performing a static / dynamic determination based on the detection data, and a plurality of objects in the real world mixed based on a result of the static / dynamic determination.
  • the first signal which is a real-world signal having the first dimension
  • the first signal is projected onto a sensor, and the first signal is less than the first dimension obtained by detection by the sensor.
  • Acquiring means for acquiring a second signal in a second dimension;
  • Signal processing means for extracting significant information buried by projection from the second signal by performing signal processing based on the second signal.
  • the first signal which is a real-world signal having a first dimension
  • the first signal is projected onto a sensor, and is less than the first dimension obtained by detecting with the sensor.
  • a program readable by a computer characterized by the inclusion is recorded.
  • the signal processing device further comprises a second signal having a smaller dimension than the first dimension, obtained by detecting a first signal, which is a real-world signal having the first dimension, by a sensor.
  • Acquiring means for acquiring a second signal having a distortion of the first signal, and performing signal processing based on the second signal.
  • Signal processing means for generating a third signal with reduced distortion.
  • the signal processing device is a signal processing device for processing a predetermined number of detection signals acquired by a sensor including a predetermined number of detection elements having a time integration effect.
  • the foreground region consisting of only the foreground object component constituting the object, the background region consisting of only the background object component constituting the background object, and the foreground object component and the background object component are included.
  • the foreground object and the background object are separated based on the result of the determination and the mixture ratio. Characterized in that it comprises a means.
  • the present invention also provides a signal processing method for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, wherein a foreground object is included in the detection signals.
  • Foreground region consisting of only foreground object components and only background object components that make up the background object
  • the recording medium is a signal processing program for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, Among the signals, a foreground region consisting only of foreground object components constituting a foreground object, a background region consisting solely of a background object component constituting a background object, the foreground object component and the background A region specifying step of specifying a mixed region formed by mixing object components; and a mixing ratio detecting step of detecting a mixing ratio of the foreground object component and the background object component in at least the mixed region.
  • the foreground object and the background object are determined based on the result of the processing of the area specifying step and the mixture ratio.
  • the signal processing device is a signal processing device for processing a predetermined number of detection signals acquired by a sensor including a predetermined number of detection elements having a time integration effect.
  • the foreground region consisting of only the foreground object component constituting the object, the background region consisting of only the background object component constituting the background object, and the foreground object component and the background object component are included.
  • a mixture ratio detecting means for detecting.
  • the present invention provides a signal processing method for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, wherein a foreground object is included in the detection signals.
  • a mixing ratio detecting step of detecting at least a mixing ratio of the foreground object component and the background object component in the mixed region based on the specification result of the processing of the region specifying step. .
  • the recording medium is a signal processing program for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect.
  • a foreground region consisting of only foreground object components constituting a foreground object, a background region consisting of only background object components constituting a background object, the foreground object component and the background object component A region specifying step for specifying a mixed region obtained by mixing the foreground object component and the background object component in at least the mixed region based on a specified result of the processing of the region specifying step.
  • a mixture ratio detecting step of detecting a ratio. Lamb has been recorded.
  • the present invention provides a signal processing apparatus for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, wherein the foreground object component constituting the foreground object is A mixing ratio detecting unit configured to detect a mixing ratio of the foreground object component and the background object component in the mixing region formed by mixing a background object component forming a background object; And separating means for separating the foreground object and the background object based on the foreground object and the background object.
  • the present invention also provides a signal processing method for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, wherein a foreground object component constituting a foreground object is A mixing ratio detecting step of detecting a mixing ratio of the foreground object component and the background object component in the mixing region formed by mixing a background object component forming a background object; and Based on the foreground object and the background Separating the object from the object.
  • a recording medium is a signal processing program for processing a predetermined number of detection signals acquired by a sensor including a predetermined number of detection elements having a time integration effect.
  • a mixing ratio for detecting a mixing ratio of the foreground object component and the background object component in the mixed region formed by mixing the foreground object component and the background object component forming the background object.
  • a computer readable program is recorded, comprising: a detection step; and a separation step of separating the foreground object and the background object based on the mixture ratio.
  • FIG. 2 is a block diagram showing a configuration example of a system to which the present invention is applied.
  • FIG. 3 is a block diagram showing a configuration example of the signal processing unit of FIG.
  • FIG. 4 is a flowchart explaining the operation of the system of FIG.
  • FIG. 5 is a diagram showing an example of an image acquired in step S1 of FIG.
  • FIG. 6 is a diagram illustrating the pixel values of the mixed area.
  • FIG. 7 is a diagram illustrating a result obtained by subtracting a background image component in the sections D1 to D3 in FIG.
  • FIG. 8 is a diagram illustrating the structure of motion blur.
  • FIG. 9 is a flowchart illustrating another processing example of the system in FIG.
  • FIG. 10 is a block diagram showing the signal processing unit 12.
  • FIG. 11 is a diagram illustrating imaging by a sensor.
  • FIG. 12 is a diagram illustrating the arrangement of pixels.
  • FIG. 13 is a diagram illustrating the operation of the detection element.
  • FIGS. 14A and 14B are diagrams illustrating images obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 15 is a diagram illustrating a background area, a foreground area, a mixed area, a covered background area, and an uncovered background area.
  • Fig. 16 shows the pixel values of pixels that are adjacent to each other in a row in the image obtained by capturing an object corresponding to a stationary foreground and an object corresponding to a stationary background.
  • FIG. 17 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
  • Figure 18 is a model diagram in which pixel values are expanded in the time direction and the period corresponding to the shutdown time is divided.
  • Figure 19 is a model diagram in which pixel values are expanded in the time direction and the period corresponding to the shutdown time is divided.
  • FIG. 20 is a diagram illustrating an example in which pixels in a foreground area, a background area, and a mixed area are extracted.
  • FIG. 21 is a diagram showing the correspondence between pixels and models in which pixel values are developed in the time direction.
  • Fig. 22 is a model diagram in which pixel values are developed in the time direction and the period corresponding to the shutdown time is divided.
  • FIG. 23 is a model diagram in which pixel values are projected in the time direction and a period corresponding to the shutdown time is divided.
  • FIG. 24 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 25 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutter time is divided.
  • FIG. 26 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
  • FIG. 27 is a flowchart illustrating the process of adjusting the amount of motion blur.
  • FIG. 28 is a block diagram showing an example of the configuration of the area specifying unit 103. As shown in FIG.
  • FIG. 29 is a diagram illustrating an image when an object corresponding to the foreground is moving.
  • FIG. 30 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
  • Figure 31 is a model diagram in which pixel values are expanded in the time direction and the period corresponding to the shutdown time is divided.
  • FIG. 32 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
  • FIG. 33 is a diagram illustrating conditions for region determination.
  • FIGS. 34A, B, C, and D are diagrams showing examples of the result of specifying the area by the area specifying unit 103.
  • FIG. 34A, B, C, and D are diagrams showing examples of the result of specifying the area by the area specifying unit 103.
  • FIG. 35 is a diagram illustrating an example of a result of specifying an area by the area specifying unit 103. As illustrated in FIG. FIG. 36 is a flowchart for explaining the area specifying process.
  • FIG. 37 is a block diagram illustrating an example of the configuration of the mixture ratio calculation unit 104.
  • FIG. 38 is a diagram showing an example of an ideal mixing ratio.
  • Figure 39 is a model diagram in which the pixel values are expanded in the time direction and the period corresponding to the shutdown time is divided.
  • FIG. 40 is a model diagram in which pixel values are developed in the time direction and a period corresponding to the shutdown time is divided.
  • FIG. 41 is a diagram for explaining approximation using correlation of foreground components.
  • FIG. 42 is a diagram illustrating the relationship between C, N, and P.
  • FIG. 43 is a block diagram illustrating a configuration of the estimated mixture ratio processing unit 201.
  • FIG. 44 is a diagram illustrating an example of the estimated mixture ratio.
  • FIG. 45 is a block diagram showing another configuration of the mixture ratio calculating section 104. As shown in FIG.
  • FIG. 46 is a flowchart explaining the process of calculating the mixture ratio.
  • FIG. 47 is a flowchart for explaining the process of calculating the estimated mixture ratio.
  • FIG. 48 is a block diagram illustrating an example of the configuration of the foreground / background separation unit 105.
  • FIGS. 49A and 49B are diagrams showing an input image, a foreground component image, and a background component image.
  • FIG. 50 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
  • Figure 51 is a model diagram in which pixel values are expanded in the time direction and the period corresponding to the shutdown time is divided.
  • Figure 52 is a model diagram in which pixel values are expanded in the time direction and the period corresponding to the shutdown time is divided.
  • FIG. 53 is a block diagram illustrating an example of the configuration of the separation unit 251.
  • FIGS. 54A and 54B show examples of the separated foreground component image and the background component image.
  • FIG. 55 is a flowchart illustrating the process of separating the foreground and the background.
  • FIG. 56 is a block diagram illustrating an example of the configuration of the motion-blur adjusting unit 106.
  • FIG. 57 is a diagram for explaining the processing unit.
  • Fig. 58 is a model diagram in which the pixel values of the foreground component image are expanded in the time direction and the period corresponding to the shutdown time is divided.
  • Fig. 59 is a model diagram in which the pixel values of the foreground component image are expanded in the time direction, and the period corresponding to the shutdown time is divided.
  • FIG. 60 is a model diagram in which the pixel values of the foreground component image are developed in the time direction, and the period corresponding to the shutdown time is divided.
  • FIG. 61 is a model diagram in which the pixel values of the foreground component image are developed in the time direction, and the period corresponding to the shutter time is divided.
  • FIG. 62 is a diagram illustrating another configuration of the motion-blur adjusting unit 106.
  • FIG. 63 is a flowchart illustrating a process of adjusting the amount of motion blur included in the foreground component image by the motion blur adjustment unit 106.
  • FIG. 64 is a block diagram illustrating another configuration of the function of the signal processing unit 12.
  • FIG. 65 is a diagram illustrating a configuration of the combining unit 371.
  • FIG. 66 is a block diagram showing still another configuration of the function of the signal processing unit 12.
  • FIG. 67 is a block diagram showing a configuration of the mixture ratio calculation unit 401.
  • FIG. 68 is a block diagram showing the configuration of the foreground / background separation unit 402. As shown in FIG.
  • FIG. 69 is a block diagram illustrating another configuration of the function of the signal processing unit 12.
  • FIG. 70 is a diagram illustrating a configuration of the combining unit 431.
  • FIG. 71 is a diagram illustrating a configuration example of a signal processing device according to the present invention.
  • FIG. 72 is a flowchart illustrating the process of adjusting the amount of motion blur by the signal processing unit 452.
  • FIG. 73 is a diagram illustrating a configuration example of a signal processing device according to the present invention.
  • FIG. 74 is a diagram showing a configuration of the pressure area sensor 501.
  • FIG. 75 is a diagram illustrating the load applied to the pressure area sensor 501.
  • FIG. 76 is a view for explaining an example of the weight data output from the pressure area sensor 501.
  • FIG. 77 is a flowchart illustrating a process of calculating a load performed by the signal processing unit 502.
  • FIG. 78 is a block diagram showing a configuration for generating an image in which the number of pixels per frame is added as another function of the signal processing unit 12.
  • FIG. 79 is a view for explaining the arrangement of pixels and the area corresponding to the pixels of the horizontal double-density image.
  • FIG. 80 is a diagram illustrating components of an image corresponding to light input to regions A to r.
  • FIGS. 8A, B, C, and D are diagrams illustrating the calculation of image components corresponding to two regions of one pixel.
  • FIG. 82 is a diagram illustrating an example of an input image.
  • FIG. 83 is a diagram showing an example of a horizontal double-density image.
  • FIG. 84 is a diagram illustrating an example of a vertically doubled image.
  • FIG. 85 is a diagram illustrating an example of a double-density image.
  • FIG. 86 is a flowchart illustrating a process of generating a double-density image by the signal processing unit 12 having the configuration illustrated in FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 shows the principle of the present invention.
  • a first signal which is information of the real world 1 having a space and a time axis
  • the detection signal which is the data 3 obtained by the sensor 2
  • This is information obtained by projecting onto a lower spatial and temporal dimension than in the real world. Therefore, the information obtained by the projection has distortion caused by the projection.
  • the data 3 output by the sensor 2 has a distortion with respect to the information of the real world 1.
  • Data 3 has distortion due to projection, but contains significant information for correcting this.
  • the signal output from the sensor 2 is signal-processed in the signal processing unit 4 to remove, reduce, or adjust the distortion.
  • the signal output from the sensor 2 is signal-processed in the signal processing unit 4 to extract significant information.
  • FIG. 2 shows a configuration example of a signal processing device to which the present invention is applied.
  • the sensor 11 is configured by, for example, a video camera, captures a real-world image, and outputs the obtained image data to the signal processing unit 12.
  • the signal processing unit 12 is composed of, for example, a personal computer, and processes the data input from the sensor 11 to adjust the amount of distortion generated by the projection or to remove the significant amount embedded by the projection. It specifies the area containing the information, extracts significant information from the specified area, and processes the input data based on the extracted significant information.
  • the significant information referred to here is, for example, a mixing ratio described later.
  • the signal processing unit 12 is configured, for example, as shown in FIG.
  • the CPU (CentrA 1 Processing Unit) 21 executes various processes according to a program stored in a ROM (Read Only Memory) 22 or a storage unit 28.
  • RAM (Random Access Memory) 23 a program to be executed by the CPU 21 is stored as appropriate.
  • An input / output interface 25 is also connected to the CPU 21 via a bus 24.
  • the input / output interface 25 has an input section 26 composed of a keyboard, mouse, microphone, etc., and an output section 27 composed of a display, speakers, etc. Is connected.
  • the CPU 21 executes various processes in response to a command input from the input unit 26. Then, the CPU 21 outputs an image, a sound, or the like obtained as a result of the processing to the output unit 27.
  • the storage unit 28 connected to the input / output interface 25 is composed of, for example, a hard disk, and stores programs executed by the CPU 21 and various data.
  • the communication unit 29 communicates with an external device via the Internet or another network. In this example, the communication unit 29 functions as an acquisition unit that captures the output of the sensor 11.
  • a program may be acquired via the communication unit 29 and stored in the storage unit 28.
  • the drive 30 connected to the input / output interface 25 drives the magnetic disk 51, optical disk 52, magneto-optical disk 53, or semiconductor memory 54 when they are mounted. Get the programs and data recorded there. The acquired program data is transferred to and stored in the storage unit 28 as necessary.
  • step S1 an image of a subject acquired by the sensor 11 is acquired via the communication unit 29 or the like.
  • the CPU 21 of the signal processing unit 12 supplies the acquired image data to the storage unit 28 and stores it.
  • FIG. 5 shows an image corresponding to the image data obtained in this manner.
  • the image has the foreground 62 arranged in front of the background 61.
  • the foreground 62 is a toy airplane, and moves to the right in the figure at a predetermined speed in front of the stationary background 61.
  • the image of the foreground 62 is an image with so-called motion blur.
  • the mixed area 63 is an image in which an object called background 61 and an object called foreground 62 are mixed.
  • step S2 the CPU 21 detects the mixed area of the object. Put out.
  • the mixed area 63 is detected as an area where the object is mixed.
  • step S3 the CPU 21 determines whether or not the objects are mixed. If the objects are not mixed, that is, if there is no mixed area 63, the processing is terminated because it is not a processing target in this information processing apparatus.
  • step S3 when it is determined in step S3 that the objects are mixed, the process proceeds to step S4, and the CPU 21 obtains the mixture ratio of the objects in the detected mixed region.
  • the mixture ratio is calculated by, for example, obtaining a motion vector of the foreground 62 with respect to the background 61 and applying the mixture so that the mixture ratio changes from 0 to 1 in the mixed region 63 from the motion vector. You can ask. Further, in step S5, the CPU 21 executes a process of separating the objects in the mixed area 63 where a plurality of objects are mixed, from the obtained mixing ratio.
  • FIG. 6 shows the change of the pixel value on the corresponding line of four consecutive timings.
  • the curve L1 represents the first timing in time, and in this state, the foreground 62 has not been imaged yet. Therefore, curve 1 represents the pixel of background 61.
  • the pixel value is about 75 near the X coordinate 140, but at the X coordinate 144, the pixel value increases to about 130. Thereafter, the pixel value decreases, and the pixel value becomes approximately 120 near the X coordinate 149.
  • X coordinate increases As the pixel value increases, the pixel value thereafter increases again, and near the X coordinate 154, the pixel value is approximately 160. Thereafter, the pixel value decreases, and becomes about 130 near the X coordinate 162. Thereafter, the pixel value becomes about 180 near the X coordinate 165, and the pixel value drops again to about 125 near the X coordinate 170. Thereafter, the pixel value increases to about 175 near the X coordinate 1 ⁇ 2, and thereafter, decreases to about 60 near the X coordinate 178. Thereafter, in the section from the X coordinate 1178 to 1905, the pixel value slightly changes between 60 and 80. At the coordinates further to the right of the vicinity of the X coordinate 195, the pixel value increases again to around 160.
  • the pixel value is constant at about 200 until around X coordinate 144, but the pixel value gradually decreases from X coordinate 144 to X coordinate 160, At the X coordinate 160, the pixel value is about 125. Subsequent changes are similar to curve 1.
  • the pixel value of the curve L3 is almost constant at a pixel value of 200 up to around the X coordinate 158, but after that, it decreases to about 180 around the X coordinate 162, and then the X coordinate 16 In the vicinity of 4, the pixel value increases again to about 190. After that, it changes almost like the curve L1.
  • the pixel value of curve L4 is a constant pixel value of about 200 from around X coordinate 140 to around X coordinate 1 ⁇ 0, but from around X coordinate 170 to X coordinate 180. The pixel value sharply drops to the vicinity, and it is about 70 near X coordinate 170. Subsequent changes are similar to curve L1.
  • the pixel values of the curves L2 to L4 change in the state of the curve L1 where the image of the background 61 is replaced by the image of the foreground 62. This is due to the gradual increase over time (over time).
  • the values of the curves L2 to L4 are almost the same up to around the X coordinate 147.
  • the value of the curve L2 is different from the values of the curves L3 and L4 from around the X coordinate 147, and is substantially the same as the value of the curve 1 near the X coordinate 159. Subsequent pixel values of the curve L2 in the X coordinate are almost the same as those in the curve L1. You.
  • the value of the curve L 2 in the area R 1 corresponding to the section D 1 from the X coordinate 1 46 to the X coordinate 1 59 is calculated from the left end of the section D 1 in a period in which the foreground 6 2 has a tip of 1 unit. It indicates that it has moved to the right end.
  • the pixel value of the curve L 3 at the next timing indicates that the tip of the foreground 62 moves between them.
  • the pixel value of the curve L4 in the area R3 corresponding to the section D3 from the X coordinate 1 ⁇ 2 to the X coordinate 18 4 indicates that the tip of the foreground 62 has moved between them. I have.
  • the value obtained by weighting the pixel value of the curve L1 based on the mixture ratio of the foreground 62 to the background 61 is as shown in FIG.
  • the curve LI 1 as shown is obtained. Since the curve LI 1 is obtained by subtracting the value corresponding to the background 61 from the pixel of the foreground 62 in the mixed area 63, the image becomes the foreground on the background of the pixel value 0. .
  • the horizontal axis in FIG. 7 represents the position (the left end corresponds to the left end of section D1 in FIG. 6, and the right end corresponds to the right end in section D1 in FIG. 6), and the vertical axis is the extracted foreground Represents the pixel value of.
  • the curve L12 in FIG. 7 is obtained.
  • the curve L13 in FIG. 7 is obtained.
  • the curved line L12 and the curved line L13 are curves that almost coincide with the curved line L11. This means that the foreground 62 moves at a substantially constant speed over the period of the three units, and the weighted subtraction causes the foreground pixel value on a black background, that is, a background with a pixel value of 0. Indicates that was correctly sought.
  • the horizontal axis represents the X coordinate of the portion 63A
  • the vertical axis represents the time axis from the top to the bottom.
  • b 1 to bf represent pixel values of each pixel of the background 61. Eighth to eight are the foreground images Represents the prime value.
  • the pixels A1 to A6 of the foreground 62 appear at the positions of the pixels b3 to b8 of the background 61, and at the timing t2, the pixels A1 of the foreground 62 appear.
  • a 6 move to the right by one pixel, that is, to the positions of the pixels b 4 to b 9 of the background 61.
  • the pixels A1 to A6 of the foreground 62 are sequentially moved to the right by one pixel at a time.
  • the pixel values y1 to yf obtained by averaging the pixels of each line at the timings t1 to t5 are the pixels (pixels with motion blur) obtained as a result of the imaging. It is expressed by an equation.
  • y l, y 2, y d, y e, and y f are respectively equal to the background pixels bl, b 2, b d, be, and b f.
  • the background 6 1 and the foreground 62 in the mixed area 63 can be separated. That is, a plurality of objects can be separated.
  • the background pixels b 1 to bf are assumed to be known by using the pixel values of the front and rear shutter times (frames), and the pixels A 1 of the foreground 62 are determined.
  • 1 to A6 can be obtained by solving the above equations using, for example, the least square method. This makes it possible to obtain a foreground image excluding the motion blur. That is, distortion in the projected real-world information can be reduced.
  • clear images can be created by processing such as resolution creation.
  • FIG. 4 described above deterministic processing is performed.In other words, based on the previous processing, the next processing is performed assuming that the result of the previous processing is correct. It is also possible to perform the processing in a specific manner.
  • FIG. 9 shows a processing example in this case.
  • step S21 the CPU 21 acquires an image data. This process is similar to the process in step S1 of FIG.
  • step S22 the CPU 21 performs a process of obtaining a mixture ratio of the foreground and the background from the image data acquired in step S21. Then, in step S23, the CPU 21 executes a process of separating the background and the foreground based on the mixture ratio obtained in step S22.
  • a clear foreground 62 image can be separated and extracted from an image with motion blurring obtained when an image of the foreground 62 moving in front of the background 61 is captured. .
  • the CCD line sensor or CCD area sensor corresponds to the sensor
  • the area information and the mixture ratio correspond to the significant information
  • the mixed foreground and background and the motion blur correspond to the distortion in the mixed area. I do.
  • FIG. 10 is a block diagram showing the signal processing unit 12. It does not matter whether each function of the signal processing unit 12 is realized by hardware or by software. In other words, each block diagram in this specification may be considered as a block diagram of hardware or a functional block diagram of software.
  • motion blur refers to an object to be imaged in the real world. The distortion included in the image corresponding to the moving object, which is caused by the movement of the object and the characteristics of the image captured by the sensor 11.
  • an image to be imaged that corresponds to an object in the real world is referred to as an image object.
  • the input image supplied to the signal processing unit 12 is supplied to an object extraction unit 101, a region identification unit 103, a mixture ratio calculation unit 104, and a foreground / background separation unit 105.
  • the object extraction unit 101 roughly extracts an image object corresponding to the foreground object included in the input image, and supplies the extracted image object to the motion detection unit 102.
  • the object extracting unit 101 roughly extracts the image object corresponding to the foreground object, for example, by detecting the contour of the image object corresponding to the foreground object included in the input image. .
  • the object extraction unit 101 roughly extracts an image object corresponding to a background object included in the input image, and supplies the extracted image object to the motion detection unit 102.
  • the object extracting unit 101 roughly extracts, for example, an image object corresponding to the background object from the difference between the input image and the extracted image object corresponding to the extracted foreground object.
  • the object extracting unit 101 determines the image object corresponding to the foreground object from the difference between the background image stored in the background memory provided therein and the input image.
  • the image object corresponding to the background object may be roughly extracted.
  • the motion detection unit 102 detects the motion vector of the image object corresponding to the coarsely extracted foreground object by using a method such as a block matching method, a gradient method, a phase correlation method, or a pel recursive method. After calculating, the calculated motion vector and the position information of the motion vector (specify the position of the pixel corresponding to the motion vector) Is supplied to the motion-blur extraction unit 106.
  • a method such as a block matching method, a gradient method, a phase correlation method, or a pel recursive method.
  • the motion vector output by the motion detection unit 102 includes information corresponding to the motion amount V.
  • the motion detection unit 102 may output the motion vector for each image object to the motion blur adjustment unit 106 together with the pixel position information for specifying the pixel in the image object. Good.
  • the motion amount V is a value representing a change in the position of the image corresponding to the moving object in units of pixel intervals. For example, when the image of the object corresponding to the foreground is moving so that it is displayed at a position separated by four pixels in the next frame with respect to a certain frame, the image of the object corresponding to the foreground is The movement amount V is set to 4.
  • the object extracting unit 101 and the motion detecting unit 102 are used when the motion blur adjusting unit 106 adjusts the amount of motion blur corresponding to the moving object.
  • the region specifying unit 103 specifies each of the pixels of the input image as a foreground region, a background region, or a mixed region, and for each pixel, the foreground region, the background region, or the mixed region.
  • Information indicating which one belongs to (hereinafter, referred to as area information) is supplied to the mixture ratio calculation unit 104, the foreground / background separation unit 105, and the motion blur adjustment unit 106.
  • the mixture ratio calculation unit 104 calculates a mixture ratio (hereinafter, referred to as a mixture ratio ⁇ ) corresponding to the pixels included in the mixture region 63 based on the input image and the region information supplied from the region identification unit 103. ) Is calculated, and the calculated mixture ratio is supplied to the foreground / background separation unit 105.
  • a mixture ratio ⁇ a mixture ratio corresponding to the pixels included in the mixture region 63 based on the input image and the region information supplied from the region identification unit 103.
  • the mixture ratio is a value indicating a ratio of a component of an image corresponding to a background object (hereinafter, also referred to as a background component) in a pixel value, as shown in Expression (13) described later.
  • the foreground / background separation unit 105 corresponds to the foreground object based on the region information supplied from the region identification unit 103 and the mixture ratio supplied from the mixture ratio calculation unit 104.
  • Foreground component image consisting only of image components (hereinafter also referred to as foreground components)
  • the input image is separated into an image and a background component image including only background components, and the foreground component image is supplied to the motion blur adjustment unit 106 and the selection unit 107. It is also conceivable to use the separated foreground component image as the final output. It is possible to specify only the foreground and background without considering the conventional mixed area, and obtain more accurate foreground and background compared to the separated method.
  • the motion-blur adjusting unit 106 determines a processing unit indicating one or more pixels included in the foreground component image based on the motion amount V and the area information known from the motion vector.
  • the processing unit is a process for specifying a group of pixels to be processed for adjusting the amount of motion blur.
  • the motion blur adjustment unit 106 includes a motion blur adjustment amount input to the signal processing unit 12, a foreground component image supplied from the foreground / background separation unit 105, and a motion supplied from the motion detection unit 102. Based on the vector and its position information, and the processing unit, remove the motion blur included in the foreground component image, reduce the amount of motion blur, or increase the amount of motion poke, etc. The amount of motion blur included is adjusted, and the foreground component image in which the amount of motion blur has been adjusted is output to the selector 107.
  • the motion vector and its position information may not be used.
  • the selection unit 107 includes, for example, a foreground component image supplied from the foreground / background separation unit 105 and a motion blur supplied from the motion blur adjustment unit 106 based on a selection signal corresponding to the user's selection.
  • a foreground component image supplied from the foreground / background separation unit 105 and a motion blur supplied from the motion blur adjustment unit 106 based on a selection signal corresponding to the user's selection.
  • One of the foreground component images whose amount has been adjusted is selected, and the selected foreground component image is output.
  • FIG. 11 is a diagram illustrating imaging by a sensor.
  • the sensor 11 includes, for example, a CCD video camera provided with a CCD (Charge-Coupled Device) area sensor, which is a solid-state image sensor.
  • CCD Charge-Coupled Device
  • the object corresponding to the foreground in the real world moves horizontally between the object corresponding to the background and the sensor 11 in the real world, for example, from left to right in the figure.
  • the sensor 11 captures an image of the object corresponding to the foreground together with an object corresponding to the background.
  • the sensor 11 outputs the captured image in units of one frame.
  • the exposure time of the sensor 11 can be 1/30 second.
  • the exposure time is a period from the time when the sensor 11 starts to convert the input light into the electric charge to the time when the conversion of the input light into the electric charge ends.
  • the exposure time is also referred to as shirt time.
  • FIG. 12 is a diagram illustrating the arrangement of pixels.
  • a to I indicate individual pixels.
  • the pixels are arranged on a plane corresponding to the image.
  • One detection element corresponding to one pixel is arranged on the sensor 11.
  • one detection element When the sensor 11 captures an image, one detection element outputs a pixel value corresponding to one pixel forming the image.
  • the position of the detection element in the X direction corresponds to the horizontal position on the image
  • the position of the detection element in the Y direction corresponds to the vertical position on the image.
  • a detection element such as a CCD converts input light into electric charges and accumulates the converted electric charges during a period corresponding to the evening time of a shirt.
  • the amount of charge is approximately proportional to the intensity of the input light and the time the light is input.
  • the detection element adds the charge converted from the input light to the charge already stored during the period corresponding to the shutdown time. That is, the detection element integrates the input light for a period corresponding to the shirt evening time, and accumulates an amount of charge corresponding to the integrated light. It can be said that the detection element has an integration effect with respect to time.
  • each pixel value output from the sensor 11 is a one-dimensional result that is the result of integrating a spatially wide part of the object corresponding to the foreground or background with respect to the shirt evening time. It has a value projected into space.
  • the signal processing unit 12 extracts significant information buried in the output signal, for example, the mixing ratio by the accumulation operation of the sensor 11 as described above.
  • the signal processing unit 12 adjusts the amount of distortion caused by mixing the foreground image objects themselves, for example, the amount of motion poke.
  • the signal processing unit 12 performs distortion caused by mixing of the foreground image object and the background image object. Adjust the amount of
  • FIG. 14 is a diagram illustrating an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • FIG. 14A shows an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
  • the object corresponding to the foreground moves horizontally from left to right with respect to the screen.
  • FIG. 14B is a model diagram in which pixel values corresponding to one line of the image shown in FIG. 14A are developed in the time direction.
  • the horizontal direction in FIG. 14B corresponds to the spatial direction X in FIG. 14A.
  • the pixels in the background region have their pixel values composed only of the background components, that is, the image components corresponding to the background objects.
  • the pixels in the foreground area are composed of only the foreground components, that is, the components of the image corresponding to the foreground object.
  • the pixel value of the pixel in the mixed area is composed of the background component and the foreground component. Since the pixel value is composed of the background component and the foreground component, the mixed region can be said to be a distorted region.
  • the mixed area is further classified into a cover background area and an anchor background area.
  • the covered background area is a mixed area at a position corresponding to the front end of the foreground object in the traveling direction of the foreground area, and is an area where the background component is covered by the foreground with the passage of time. .
  • the uncovered background area is a mixed area at a position corresponding to the rear end of the foreground object in the traveling direction with respect to the foreground area. The area that appears.
  • the image including the foreground area, the background area, or the covered background area or the uncovered background area includes the area specifying unit 103, the mixture ratio calculating unit 104, and the foreground / background separating unit 100. 5 is input as an input image.
  • FIG. 3 is a diagram illustrating a ground area and an uncovered background area.
  • the background area is a stationary part
  • the foreground area is a moving part
  • the covered background area of the mixed area is a part that changes from the background to the foreground.
  • the uncovered background area of the mixed area is the part where the foreground changes to the background.
  • Figure 16 shows the pixel values of adjacent pixels in a row in the image of the object corresponding to the stationary foreground and the object corresponding to the stationary background. It is the model figure developed in the direction. For example, pixels arranged on one line of the screen can be selected as adjacently arranged pixels.
  • the pixel values of F01 to F04 shown in FIG. 16 are the pixel values of the pixels corresponding to the stationary foreground object.
  • the pixel values B01 to B04 shown in FIG. 16 are the pixel values of the pixels corresponding to the stationary background object.
  • the horizontal direction in FIG. 16 corresponds to the spatial direction X described in FIG. More specifically, in the example shown in FIG. 16, the distance from the left side of the rectangle described as “F01” in FIG. 16 to the right side of the rectangle described as “B04” is 8 times the pixel pitch. Double, ie, the interval of eight consecutive pixels.
  • the light input to the sensor 11 does not change during the period corresponding to the shutter time.
  • the period corresponding to the evening time of the shirt is divided into two or more periods of the same length.
  • the model diagram shown in FIG. 16 can be represented as the model shown in FIG.
  • the number of virtual partitions is the object corresponding to the foreground. It is set according to the amount of movement v within the time of the shirt. For example, the number of virtual divisions is set to 4 corresponding to the motion amount V of 4, and the period corresponding to the shutter time is divided into four.
  • the top row in the figure corresponds to the first divided period after the opening of the shirt.
  • the second row from the top in the figure corresponds to the second, divided period when the shutter is open.
  • the third line from the top in the figure corresponds to the third, divided period when the shirt is open.
  • the fourth row from the top in the figure corresponds to the fourth, divided period since the opening of the shirt.
  • shutter time / V the shutter time divided according to the motion amount V is also referred to as shutter time / V.
  • the foreground component FOl / v is equal to the pixel value F01 divided by the number of virtual divisions.
  • the foreground component F02 / V is equal to the pixel value F02 divided by the number of virtual divisions
  • the foreground component F03 / v is the pixel value.
  • F03 is equal to the number of virtual divisions
  • the foreground component F04 / v is equal to the pixel value F04 divided by the number of virtual divisions.
  • the background component BOl / v is equal to the pixel value B01 divided by the number of virtual divisions.
  • the background component B02 / V is equal to the value obtained by dividing the pixel value B02 by the number of virtual divisions
  • B03 / V is the pixel value B03 obtained by virtually dividing the pixel value B03.
  • B04 / V is equal to the pixel value B04 divided by the number of virtual divisions.
  • the background component ⁇ 01 / ⁇ corresponding to the shirt evening time / V has the same value as the background component ⁇ 01 / ⁇ corresponding to the shirt evening time / V, which is the fourth after the shading has opened.
  • B02 / v to B04 / v also have the same relationship.
  • Figure 18 is a model diagram in which the pixel values of pixels on one line, including the covered background area, are expanded in the time direction when the object corresponding to the foreground moves toward the right side of the figure. It is.
  • the foreground motion amount V is 4. Since one frame is short, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed.
  • the image of the object corresponding to the foreground moves so as to be displayed four pixels to the right in the next frame with reference to one frame.
  • the leftmost pixel to the fourth pixel from the left belong to the foreground area.
  • the fifth to seventh pixels from the left belong to the mixed area that is the covered background area.
  • the rightmost pixel belongs to the background area.
  • the components included in the pixel values of the pixels belonging to the covered background area are determined by the shutdown time.
  • the background component changes to the foreground component.
  • a pixel value M with a thick line frame in FIG. 18 is represented by Expression (11).
  • the fifth pixel from the left is the background for one shirt evening / V
  • the mixture ratio of the fifth pixel from the left is 1/4, since it contains the components and the foreground components corresponding to the three shirt times / v.
  • the sixth pixel from the left contains the background component corresponding to the two shutter times / V and the foreground component corresponding to the two shutter times / V, so the mixing ratio of the sixth pixel from the left Hi is 1/2.
  • the seventh pixel from the left contains the background component corresponding to three shirt time / V and the foreground component corresponding to one shirt time / V, so the mixture ratio of the seventh pixel from the left ⁇ is 3/4.
  • the foreground component F07 / v of the fourth pixel which is the first pixel that is open and the foreground of the shirt time / V, is the fifth pixel from the left in Figure 18. Equal to the foreground component corresponding to time / V.
  • the foreground component F07 / v is the foreground component of the sixth pixel from the left in Fig. 18 corresponding to the third sunset time / V when the shutter is open and Fig. 1 In the seventh pixel from the left in 8, the shutter is open and the foreground component corresponding to the fourth shutter time / V is equal to that.
  • the foreground component F06 / v of the third pixel which is the first shirt evening time / ⁇ with respect to the shirt evening, is the fourth shirt pixel from the left in Fig. 18 where the shirt evening is open and the second shirt evening Equal to the foreground component corresponding to time / V.
  • the foreground component F06 / v is the foreground component of the fifth pixel from the left in Fig. 18 corresponding to the third shirt evening time / V when the shutter is open, and in Fig. 18
  • the sixth pixel from the left of the foreground component which corresponds to the fourth shading time / V when the shirt is open, is equal to the sixth pixel from the left.
  • the foreground component F05 / v of the second pixel which is the first shirt time / ⁇ when the shirt is open, is the third pixel from the left in Figure 18 And is equal to the foreground component corresponding to the second time / v.
  • the foreground component F05 / v is the foreground component of the fourth pixel from the left in FIG. 18 corresponding to the third shading time / V, which is the third pixel in FIG.
  • the shirt is open and the fourth shirt is equal to the foreground component corresponding to evening time / V.
  • the object corresponding to the foreground is rigid and the foreground image moves at a constant speed so that it is displayed four pixels to the right in the next frame, for example, the leftmost object in Fig. 18
  • the first pixel of the pixel is open and the first pixel in the evening time / V
  • the foreground component of F04 / v is the second pixel from the left in Figure 18. Equal to the foreground component corresponding to / V.
  • the foreground component F04 / v is the foreground component of the third pixel from the left in Fig. 18 corresponding to the third shutter time / V when the shirt is open, and Fig. 18 In the fourth pixel from the left, the shirt is open and the foreground component corresponding to the fourth shirt evening time / V is equal to that.
  • the foreground area corresponding to the moving object includes the motion blur as described above, it can be said that the area is a distortion area.
  • FIG. 19 is a model diagram in which pixel values of pixels on one line, including the anchored background area, are developed in the time direction when the foreground moves toward the right side in the figure.
  • the foreground motion amount V is 4. Since one frame is short, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed.
  • the image of the object corresponding to the foreground moves to the right by four pixels in the next frame with respect to a certain frame.
  • the leftmost pixel to the fourth pixel from the left belong to the background area.
  • the fifth to seventh pixels from the left belong to the mixed area which is the anchor background.
  • the rightmost pixel belongs to the foreground area.
  • the object corresponding to the foreground, which covered the object corresponding to the background, is now removed from the front of the object corresponding to the background over time. Because of the movement, the components included in the pixel values of the pixels belonging to the uncovered background area change from the foreground components to the background components at some point during the period corresponding to the shirt evening time.
  • the pixel value M ′ with a thick frame in FIG. 19 is represented by Expression (12).
  • the fifth pixel from the left contains the background component corresponding to three shirt evening times / V, and the foreground component corresponding to one shirt evening time / V. Is 3/4.
  • the sixth pixel from the left contains the background component corresponding to the two shading time / V and the foreground component corresponding to the two shirting time / V, so the sixth pixel from the left
  • the mixing ratio is 1/2.
  • the seventh pixel from the left contains the background component corresponding to one shirt evening time / V, and the foreground component corresponding to the three shirt evening time / V, so the seventh pixel from the left is mixed.
  • the ratio is 1/4.
  • the pixel value M is expressed by formula (13). Where h is the mixing ratio. B is the pixel value of the background, and Fi / v is the component of the foreground.
  • the object corresponding to the foreground is a rigid body and moves at a constant speed, and the amount of movement V is 4, for example, when the fifth pixel from the left in Fig.
  • the first foreground component FOl / v of shirt evening time / V is the foreground of the sixth pixel from the left in Fig. 19, which corresponds to the second shirt evening time / V when shirt evening is open. Is equal to the component of
  • FOl / v is the foreground component of the seventh pixel from the left in Fig. 19 corresponding to the third shutter time / V for shutter, and 8 from the left in Fig.
  • the foreground component of the fourth pixel, corresponding to the fourth shirt evening time / V, when the shirt evening is open, is equal to that. Since it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the number of virtual divisions is 4, for example, the shutter of the sixth pixel from the left in Fig. 19 opens.
  • the first, foreground component of shirt evening time / V, F02 / v is the seventh pixel from the left in Fig. 19, the foreground component corresponding to the second shirt evening time / V when shirt evening is open be equivalent to.
  • the foreground component F02 / v is equal to the foreground component of the eighth pixel from the left in Fig. 19 corresponding to the third shirt evening time / V when the shirt is open.
  • the object corresponding to the foreground is a rigid body and moves at a constant speed, and the amount of movement V is 4, for example, when the shirt at the seventh pixel from the left in Fig.
  • the foreground component F03 / v of the first shirt evening time / V is the foreground corresponding to the second shirt evening time / V of the 8th pixel from the left in Fig. Is equal to the component of
  • the number of virtual divisions has been described as being four, but the number of virtual divisions corresponds to the motion amount V.
  • the motion amount V generally corresponds to the moving speed of the object corresponding to the foreground. For example, when the object corresponding to the foreground is moving so as to be displayed four pixels to the right in the next frame with respect to a certain frame, the motion amount V is set to 4. Corresponding to the motion amount V, the number of virtual divisions is set to four. Similarly, for example, if the object corresponding to the foreground is moving so that it is displayed 6 pixels to the left in the next frame with respect to a certain frame, the motion amount V is set to 6, and the virtual division is performed. The number is six.
  • Figures 20 and 21 show the mixed area consisting of the foreground area, background area, covered ground area or uncovered background area, and the foreground corresponding to the divided shutdown time described above. The relationship between the component and the background component is shown.
  • FIG. 20 shows an example in which pixels of a foreground area, a background area, and a mixed area are extracted from an image including a foreground corresponding to an object moving in front of a stationary background.
  • the object corresponding to the foreground is moving horizontally with respect to the screen.
  • Frame # n + l is the next frame after frame #n, and frame # n + 2 is This is the next frame after frame # n + l.
  • FIG. 21 shows the model developed in the above.
  • the pixel value of the foreground area is composed of four different foreground components corresponding to the period of the shirt evening / V since the object corresponding to the foreground moves.
  • the leftmost pixel of the pixels in the foreground area shown in FIG. 21 is composed of F01 / v, F02 / v, F03 / v, and F04 / v. That is, pixels in the foreground area include motion blur.
  • the pixel value of the background area does not include motion blur.
  • the pixel value of a pixel belonging to a mixed area composed of a covered background area or an uncovered background area is composed of a foreground component and a background component.
  • the pixel values of pixels that are adjacent to each other in a plurality of frames and are arranged in one row and that are located at the same position on the frame are calculated based on time.
  • the model developed in the direction will be described. For example, when the image corresponding to the object is moving horizontally with respect to the screen, the pixels that are arranged on one line of the screen can be selected as the pixels that are adjacently arranged in one row. .
  • FIG. 22 shows the pixels that are adjacent to each other and are arranged in one row in the three frames of the image of the object corresponding to the stationary background, and are the pixels at the same position on the frame.
  • FIG. 4 is a model diagram in which values are developed in a time direction. Frame #n is the next frame after frame # n-l, and frame # n + l is the next frame after frame #n. Other frames are similarly referred to.
  • the pixel values B01 to B12 shown in FIG. 22 are the pixel values of the pixels corresponding to the stationary background object. Since the object corresponding to the background is stationary, the pixel value of the corresponding pixel from frame # ⁇ ⁇ 1 to frame n + 1 is It does not change. For example, the pixel in frame #n and the pixel in frame # n + 1 corresponding to the position of the pixel having the pixel value of B05 in frame # n-l each have the pixel value of B05.
  • FIG. 23 shows three adjacent pixels of three frames of an image of an object corresponding to the foreground moving to the right in the figure together with an object corresponding to the stationary background.
  • FIG. 5 is a model diagram in which pixel values of pixels at the same position on a frame are developed in the time direction.
  • the model shown in FIG. 23 includes a covered background area.
  • the object corresponding to the foreground is a rigid body and moves at a constant speed, and the foreground image moves so that it is displayed four pixels to the right in the next frame.
  • V is 4 and the number of virtual divisions is 4.
  • the foreground component of the first shutter time / V of the leftmost pixel of frame # n-l in Fig. 23 when the shirt is opened is F12 / v
  • the leftmost pixel in Fig. 23 is 2
  • the foreground component of the second pixel at the second shutter time / V after the shutdown is also F12 / v.
  • the foreground component of the fourth shading time / V is F12 / v.
  • the foreground component of the fourth shirt evening time / V with respect to the shirt evening is also FlO / v.
  • the foreground component of the fourth shirt evening time / V for the shirt at the leftmost pixel of frame # ⁇ ⁇ 1 in Fig. 23 is F09 / v.
  • the component is BO l / v.
  • the background components of the third pixel from the left of frame # n-l in Fig. 23 from the left, the first and second shirt evening time / V after the shutter is opened, are B02 / v.
  • the background components of the fourth pixel from the left of frame # n-l in Fig. 23 corresponding to the first to third shutter time / V from when the shirt is opened are B03 / V.
  • the leftmost pixel belongs to the foreground area, and the second to fourth pixels from the left belong to the mixed area which is the covered background area.
  • the fifth to 12th pixels from the left of frame # n-l in FIG. 23 belong to the background area, and their pixel values are B04 to B11, respectively.
  • the first to fifth pixels from the left of frame #n in FIG. 23 belong to the foreground area.
  • the foreground component of shirt evening time / V in the foreground area of frame #n is one of F05 / V to F12 / v.
  • the object corresponding to the foreground is rigid and moves at a constant speed, and the foreground image moves so that it is displayed four pixels to the right in the next frame.
  • the foreground component of the second shutter time / V is also F12 / v.
  • the foreground component of the third pixel from the left in Fig. 23, the third pixel from the left of the shirt, and the shutter of the eighth pixel from the left in Fig. 23 are considered.
  • the foreground component of the fourth shading time / V is F12 / v.
  • the foreground component of the fifth pixel from the left of frame #n in Fig. 23 corresponding to the second shutter time / V after the shutter is opened is F ll / v
  • the fifth pixel from the left in Fig. 23 The foreground component of the third pixel, the third shutter time / V after the shirt is opened, also becomes F ll / v.
  • the foreground component of the third shirt evening time / V for the shirt is F10 / v, which is 6 from the left in Fig. 23.
  • the foreground component of the fourth pixel at the fourth shutter time / V with respect to the shirt is also FLO / v.
  • Figure 5 shows the fifth pixel from the left of frame #n in Figure 3.
  • the foreground component of the second shutoff time / v is F09 / V.
  • the background component of the sixth pixel from the left of frame #n in Fig. 23, which is the first shutter time / V, is B05. / v
  • the background components of the first and second shirt evening time / V for the seventh pixel from the left of frame #n in Fig. 23 are B06 / v.
  • the background component of the 8th pixel from the left of the frame #n in Fig. 23 from the left to the 1st to 3rd, and the background of the shirt time / V after opening the shirt is B07 / v.
  • the ninth to 12th pixels from the left of frame #n in FIG. 23 belong to the background area, and the pixel values are B08 to B11, respectively.
  • the first to ninth pixels from the left of frame # n + 1 in FIG. 23 belong to the foreground area.
  • the foreground component of the shirt evening time / V in the foreground area of frame # n + l is any of FO l / v to F 12 / v.
  • the object corresponding to the foreground is a rigid body and moves at a constant speed, and the image of the foreground moves so that it is displayed four pixels to the right in the next frame, so frame # n + l in Fig. 23
  • the ninth pixel from the left of the shirt is open, the foreground component of the first shutter time / V is F12 / V, and the 10th pixel from the left in Fig. 23, the shirt is open
  • the foreground component of the second shirt evening time / V is also F12 / v.
  • the shirt evening is Open the 4th time / V foreground component, F12 / v.
  • the foreground component of the ninth pixel from the left of frame # n + l in Fig. 23 in the period from the second shutter time / V when the shutter is open is F ll / v.
  • the foreground component of the 3rd shirt evening time / V of the 10th pixel from the left in 23, which is the 10th pixel from the left, is also F ll / v.
  • the foreground component of the shirt pixel time / V, which is the fourth pixel of the first pixel from the left in FIG. 23, is F ll / v.
  • the foreground component of the ninth pixel from the left of the frame # n + l in Fig. 23 from the left, the third time after the shirt is opened, and the evening time / V is FlO / v, as shown in Fig. 23. From the left of 1 0
  • the foreground component of the fourth pixel, shirt open time and fourth shirt evening time / v, is also FLO / v.
  • the foreground component of the fourth shutter time / V after the shirt evening dashes is F09 / v.
  • the background component of the first and second shutter time / V from the first pixel of the frame # ⁇ + 1 from the left in Fig. 23 when the shirt is opened is BIO / v.
  • the background components of the first through third pixels from the left of the pixel # n + l in the frame # n + 1, the first through the third pixels of the shutter time / V, and Bll / v become Bll / v.
  • the 10th to 12th pixels from the left correspond to the mixed area which is the covered background area.
  • FIG. 24 is a model diagram of an image in which foreground components are extracted from the pixel values shown in FIG.
  • Figure 25 shows the three adjacent frames of the three frames of the foreground image corresponding to the object moving to the right in the figure with the stationary background.
  • FIG. 9 is a model diagram in which pixel values of pixels at the same position on a frame are developed in the time direction. In FIG. 25, the anchor background area is included.
  • Fig. 25 it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed.
  • the motion amount V is 4 because the object corresponding to the foreground is moved so as to be displayed four pixels to the right in the next frame.
  • the first foreground component of the shirt evening time / V when the shirt evening is open is F13 / v
  • the foreground component of the second shirt evening time / V when the shirt evening is open is also F13 / v.
  • the foreground component of the fourth shirt evening time / V is F13 / v.
  • the first shirt evening time / V when the shirt is open is F14 / v, which is 3 from the left in Fig. 25.
  • the foreground component of the second pixel, the second shutter time / V after the shirt is opened is also F14 / v.
  • the foreground component of the third pixel from the left in Fig. 25, which is the first pixel after the shirt opens, is F15 / v.
  • the leftmost pixel in frame # ⁇ 1 in Fig. 25 the second to fourth frames after the shirt, and the background of the shirt evening time / V
  • the component is B25 / v.
  • the background component of the third pixel from the left of frame # n-l in Fig. 25 at the fourth shutter time / V after the shutter is opened is B27 / v.
  • the leftmost pixel to the third pixel belong to the mixed area which is the uncovered background area.
  • the fourth to 12th pixels from the left of frame # ⁇ ⁇ 1 in FIG. 25 belong to the foreground area.
  • the foreground component of the frame is one of F13 / V to F24 / v.
  • the leftmost pixel to the fourth pixel from the left of frame #n in FIG. 25 belong to the background area, and the pixel values are B25 to B28, respectively.
  • the object corresponding to the foreground is rigid and moves at a constant speed, and the image of the foreground moves so that it is displayed four pixels to the right in the next frame, so that frame #n in Fig. 25
  • the foreground component of the first shading time / V when the shirt is open is F13 / v
  • the shirt in the sixth pixel from the left in Fig. 25 is a dragon And the second shirt evening time / V foreground component is also F13 / v.
  • Figure 7 shows the seventh pixel from the left, the shirt is open, the third shirt is evening, and the foreground component of V / V
  • Figure 8 is the eighth pixel from the left, which is the pixel.
  • the foreground component of the fourth shutter time / V is F13 / v.
  • the foreground component of the sixth pixel from the left of frame #n in Fig. 5 at the beginning of the shirt / shutter time / V for the shirt is F14 / v
  • the foreground component of the 8th pixel from the left in Fig. 25 at the first shadow time / v when the shadow is open is F15 / v.
  • the background component of the fifth pixel from the left of frame #n in Fig. 25, the second to fourth shirt evening time / v, when the shirt evening is open, is the fifth pixel from the left. Is B29 / v.
  • the background component of the third and fourth shirt evening time / V for the shirt is B30 / v.
  • the eighth through 12th pixels from the left of frame #n in FIG. 25 belong to the foreground area.
  • the value corresponding to the shirt evening time / V period in the foreground area of frame #n is one of F13 / v to F20 / v.
  • the leftmost pixel to the eighth pixel from the left of frame # n + 1 in FIG. 25 belong to the background area, and the pixel values are B25 to B32, respectively.
  • the object corresponding to the foreground is rigid and moves at a constant speed, and the image of the foreground moves so that it is displayed four pixels to the right in the next frame, so frame # n + l in Fig. 25
  • the shirt evening is open
  • the first foreground component of the first evening time / V is F13 / v
  • the shirt in the tenth pixel from the left in Figure 25 is
  • the foreground component of the second Zeta time / V after opening is also F13 / v.
  • the foreground component will be F13 / v.
  • the foreground component of the 10th pixel from the left of frame # n + l in Fig. 25 from the left, the first shutter time / V from when the shirt is opened, is F14 / v, and from the left in Fig. 25 1
  • the foreground component of the first pixel, at the second shutter time / V after the shirt is opened, is also F14 / v.
  • the foreground component of the 12th pixel from the left in FIG. 25 at the first shading time / V for the shirt is F15 / v.
  • the background component of the ninth pixel from the left of # n + l, the second to fourth shutter-opening hours / V from the opening of the shirt is B33 / V.
  • the background component of the 10th pixel from the left of frame # n + l in Fig. 25 at the 3rd and 4th shutter evening time / V when the shirt is opened is B34 / v.
  • the background component of the 4th shirt evening time / V of the 11th pixel from the left of frame # n + l in Fig. 25, from the left, is B35 / v.
  • the 12th pixel from the left of frame # n + l in Fig. 25 belongs to the foreground area.
  • the foreground component of the shutter time / V in the foreground area of frame # n + 1 is one of F13 / V to F16 / v.
  • FIG. 26 is a model diagram of an image in which foreground components are extracted from the pixel values shown in FIG.
  • the area specifying unit 103 uses the pixel values of a plurality of frames to set a flag indicating that the area belongs to the foreground area, background area, covered background area, or uncovered background area.
  • the information is supplied to the mixture ratio calculation unit 104 and the motion blur adjustment unit 106 as area information in association with each pixel.
  • the mixture ratio calculation unit 104 calculates a mixture ratio for each pixel of the pixels included in the mixed region based on the pixel values of the plurality of frames and the region information, and calculates the calculated mixture ratio foreground / background separation unit. Feed to 105.
  • the foreground / background separation unit 105 extracts a foreground component image consisting of only foreground components based on the pixel values of multiple frames, area information, and the mixture ratio, and supplies the extracted foreground component image to the motion poke adjustment unit 106. I do.
  • the motion blur adjustment unit 106 is supplied from the foreground component image supplied from the foreground / background separation unit 105, the motion vector supplied from the motion detection unit 102, and the region identification unit 103.
  • the amount of motion blur included in the foreground component image is adjusted based on the area information, and the foreground component image in which the amount of motion blur is adjusted is output.
  • step S101 the area specifying unit 103 sets the input Based on the force image, an area specifying process for generating area information indicating whether the pixel belongs to a foreground area, a background area, a covered background area, or an anchored background area for each pixel of the input image is executed.
  • an area specifying process for generating area information indicating whether the pixel belongs to a foreground area, a background area, a covered background area, or an anchored background area for each pixel of the input image is executed.
  • the details of the area specifying process will be described later with reference to the flowchart in FIG.
  • the region specifying unit 103 supplies the generated region information to the mixture ratio calculating unit 104.
  • the area specifying unit 103 sets the foreground area, background area, or mixed area (covered background area or uncovered background area) for each pixel of the input image based on the input image.
  • Region information indicating whether the region belongs to any of the regions may be generated.
  • the foreground / background separation unit 105 and the motion blur adjustment unit 106 determine whether the mixed area is the cover background area or the cover background area. It is determined whether it is an area. For example, when the foreground area, the mixed area, and the background area are arranged in order in accordance with the direction of the motion vector, the mixed area is determined to be a covered background area, and the mixed area is determined in the direction of the motion vector.
  • the mixture ratio calculation unit 104 calculates a mixture ratio for each pixel included in the mixed region based on the input image and the region information. Details of the mixture ratio calculation process will be described later with reference to the flowchart in FIG.
  • the mixture ratio calculation unit 104 supplies the calculated mixture ratio to the foreground / background separation unit 105.
  • step S103 the foreground / background separation unit 105 extracts a foreground component from the input image based on the region information and the mixture ratio, and as a foreground component image, the motion blur adjustment unit 106 To supply.
  • step S104 the motion-blur adjusting unit 106 determines, based on the motion vector and the area information, continuous pixels arranged in the motion direction, such as an anchor background area, a foreground area, and a cover area. A processing unit indicating the position of an image belonging to one of the background areas on the image is generated, and the amount of motion blur included in the foreground component corresponding to the processing unit is adjusted. Details of the process of adjusting the amount of motion blur will be described later with reference to the flowchart in FIG.
  • step S105 the signal processing unit 12 determines whether or not processing has been completed for the entire screen. If it is determined that processing has not been completed for the entire screen, the signal processing unit 12 proceeds to step S104. Then, the process of adjusting the amount of motion blur for the foreground component corresponding to the processing unit is repeated.
  • step S106 If it is determined in step S106 that the processing has been completed for the entire screen, the processing ends.
  • the signal processing unit 12 can separate the foreground from the background and adjust the amount of motion blur included in the foreground. That is, the signal processing unit 12 can adjust the amount of motion blur included in the sample data that is the pixel value of the foreground pixel.
  • FIG. 28 is a block diagram showing an example of the configuration of the area specifying unit 103.
  • the frame memory 1 2 1 stores an input image in frame units.
  • frame memory 1 2 1 is frame # n-2, which is the frame immediately before frame #n
  • frame # which is the frame immediately before frame #n
  • n-l frame #n
  • frame # n + l which is the frame after frame #n
  • frame # n + 2 which is the frame after frame # ⁇ .
  • Moving determining portion 1 2 2 1 frame # frame # n + 2 of the pixel values of the pixels located at the same image position as the pixel is an area specific target n, and area of the frame #n
  • the pixel value of the pixel of frame # n + l located at the same position as the position of the specific target pixel on the image is read from the frame memory 121, and the absolute value of the difference between the read pixel values is calculated.
  • the static / motion judging unit 1 2 2 — 1 determines whether the absolute value of the difference between the pixel value of frame # n + 2 and the pixel value of frame # n + l is greater than a preset threshold Th.
  • a static / moving determination indicating a motion is supplied to the area determination unit 123-1. If it is determined that the absolute value of the difference between the pixel value of the pixel of frame # n + 2 and the pixel value of the pixel of frame # n + l is equal to or smaller than the threshold Th, the static / moving determination unit 1 2 2 — 1 The stationary / moving judgment indicating the stationary state is supplied to the area judging unit 1 2 3—1.
  • the static / motion judging unit 1 2 2 — 2 calculates the pixel value of the pixel of frame # n + l located at the same position as the position of the pixel to be specified in the area of frame #n on the image, and the frame #n
  • the pixel value of the target pixel is read from the frame memory 122 and the absolute value of the pixel value difference is calculated.
  • the static / movement determining unit 1 2 2 — 2 determines whether or not the absolute value of the difference between the pixel value of frame # n + l and the pixel value of frame #n is greater than a preset threshold Th.
  • a still / moving determination indicating a motion is supplied to the region determination unit 1 2 3-1 and the region determination unit 1 2 3-2. If it is determined that the absolute value of the difference between the pixel value of the pixel of frame # n + l and the pixel value of the pixel of frame #n is equal to or smaller than the threshold Th, the static / moving determination unit 1 2 2 — 2 Is supplied to the area determination section 1 2 3-1 and the area determination section 1 2 3-2.
  • the static / motion judging section 1 2 2 — 3 is located at the same position as the pixel value of the pixel that is the target of the region identification of frame #n and the position of the pixel that is the target of the region identification of frame #n on the image
  • the pixel value of the pixel in frame # ⁇ ⁇ 1 is read from the frame memory 122, and the absolute value of the difference between the pixel values is calculated.
  • the static / movement determining unit 1 2 2 — 3 determines whether the absolute value of the difference between the pixel value of frame #n and the pixel value of frame # n-l is greater than a preset threshold Th, When it is determined that the absolute value of the difference between the pixel values is larger than the threshold value Th, a still / moving determination indicating a motion is supplied to the region determining unit 1 2 3-2 and the region determining unit 1 2 3-3.
  • the static / movement determining unit 1 2 2 — 3 When it is determined that the absolute value of the difference between the pixel value of the pixel of frame #n and the pixel value of the pixel of frame # n-l is equal to or smaller than the threshold Th, the static / movement determining unit 1 2 2 — 3 Then, the stationary / moving judgment indicating the stationary state is supplied to the area judging section 1 2 3-2 and the area judging section 1 2 3-3.
  • the static / motion judging unit 1 2 2 — 4 is the pixel value of the pixel of frame # n-l at the same position as the position of the pixel to be specified in the region of frame #n on the image, and the region of frame #n
  • the pixel value of the pixel of frame # n-2 at the same position as the position of the pixel of the specific target in the image is read out from the frame memory 121, and the absolute value of the difference between the pixel values is calculated.
  • the static / movement determination unit 1 2 2 — 4 determines whether the absolute value of the difference between the pixel value of frame # ⁇ ⁇ 1 and the pixel value of frame # 2 is greater than a preset threshold Th.
  • the motion determination indicating motion is supplied to the area determination unit 1 2 3 — 3. If it is determined that the absolute value of the difference between the pixel value of the pixel in frame # ⁇ ⁇ 1 and the pixel value of the pixel in frame # n-2 is equal to or smaller than the threshold Th, the static / movement determination unit 1 2 2 — 4 Supplies a static / movement determination indicating stationary to the area determination unit 123--3.
  • the area determination unit 1 2 3—1 indicates that the static / movement determination supplied from the static / movement determination unit 1 2 2—1 indicates stationary, and that the static / dynamic determination supplied from the static / movement determination unit 1 2 2—2 When motion is indicated, it is determined that the pixel that is the target of the region identification in frame #n belongs to the uncovered background region, and the background background region determination flag corresponding to the pixel for which the region is determined is set as: Set "1" to indicate that it belongs to the anchor background area.
  • the area judging unit 1 2 3-1 is used to determine whether the static motion judgment supplied from the static motion judging unit 1 2 2-1 indicates a motion or the static motion judgment supplied from the static motion judging unit 1 2 2-2 Indicates that the pixel for which the area is specified in frame #n does not belong to the anchored background area, and sets the anchored background area determination flag corresponding to the pixel whose area is determined in frame #n. , Set to "0" to indicate that it does not belong to the uncovered background area.
  • the area determination unit 123-1-1 supplies the uncovered background area determination flag set to "1" or "0" to the determination flag storage frame memory 124.
  • the area determination unit 1 2 3-2 indicates that the static / movement determination supplied from the static / dynamic determination unit 1 2 2-2 indicates stationary, and that the static / dynamic determination supplied from the static / dynamic determination unit 1 2 2-3 When indicating stillness, it is determined that the pixel for which the area is specified in frame #n belongs to the still area, and the still area determination flag corresponding to the pixel whose area is determined indicates that the pixel belongs to the still area. Set "1" to indicate.
  • the area determination unit 1 2 3-2 determines whether the static / movement determination supplied from the static / movement determination unit 1 2 2-2 indicates movement or the static / dynamic determination supplied from the static / movement determination unit 1 2 2-3 When indicates motion, it is determined that the pixel for which the region is specified in frame #n does not belong to the static region, and the pixel does not belong to the static region in the static region determination flag corresponding to the pixel whose region is determined. Set to "0" to indicate that The area determination unit 1 2 3-2 supplies the still area determination flag set to “1” or “0” to the determination flag storage frame memory 124.
  • the area determination unit 1 2 3-2 is configured such that the static / movement determination supplied from the static / movement determination unit 1 2 2-2 indicates a movement, and the static / dynamic determination supplied from the static / movement determination unit 1 2 2-3 is When motion is indicated, it is determined that the pixel for which the region is specified in frame #n belongs to the motion region, and the motion region determination flag corresponding to the pixel whose region is determined indicates that the pixel belongs to the motion region. Set "1" as shown.
  • the area determination unit 1 2 3-2 is used to determine whether the static / dynamic determination supplied from the static / dynamic determination unit 1 2 2-2 indicates stationary or to determine the static / dynamic determination supplied from the static / dynamic determination unit 1 2 2-3 When indicates that the pixel is stationary, it is determined that the pixel for which the region is specified in frame #n does not belong to the motion region, and the pixel does not belong to the motion region in the motion region determination flag corresponding to the pixel whose region is determined. Set to "0" to indicate that
  • the area determination unit 1 2 3-2 supplies the motion area determination flag set to “1” or “0” to the determination flag storage frame memory 124.
  • the region determination section 1 2 3—3 is configured such that the static / movement determination supplied from the static / movement determination section 1 2 2—3 indicates a movement, and the static / dynamic determination supplied from the static / movement determination section 1 2 2 _4 is When the stationary state is indicated, it is determined that the pixel which is the target of the area identification in the frame #n belongs to the covered ground area, and the cover-background area determination flag corresponding to the pixel determined to be the area is determined. Set to "1" to indicate that it belongs to the cover background area.
  • the area determination unit 1 2 3—3 determines whether the static / dynamic determination supplied from the static / dynamic determination unit 1 2 2—3 indicates stationary, or the static / dynamic determination supplied from the static / dynamic determination unit 1 2 2—4. When indicates motion, it is determined that the pixel for which the area is specified in frame #n does not belong to the covered background area, and the covered background area determination flag corresponding to the pixel whose area is determined is determined. Set to "0" to indicate that it does not belong to the covered background area.
  • the area determination section 123-3 supplies the coverback ground area determination flag in which "1" or "0" is set to the determination flag storage frame memory 124 as described above.
  • the judgment flag storage frame memory 124 includes an anchor pad background area judgment flag supplied from the area judgment section 123, a stationary area judgment flag supplied from the area judgment section 122, and The motion area determination flag supplied from the area determination unit 1 2 3-2 and the cover background area determination flag supplied from the area determination unit 1 2 3-3 are stored.
  • the determination flag storage frame memory 124 stores the stored uncovered background area determination flag, stationary area determination flag, moving area determination flag, and covered background area determination flag. To supply.
  • the synthesizing unit 125 stores the en-covered background region determination flag, the stationary region determination flag, the motion region determination flag, and the covered background region determination flag supplied from the determination flag storage frame memory 124. On the basis of this, it generates area information indicating that each pixel belongs to any of the background area, the stationary area, the moving area, and the background area. Supply to 6.
  • the judgment flag storage frame memory 126 stores the area information supplied from the synthesizing unit 125 and outputs the stored area information.
  • FIG. 30 shows a model diagram in which the pixel values of pixels arranged in one row adjacent to the motion direction of the image corresponding to the foreground object are developed in the time direction. For example, when the motion direction of the image corresponding to the foreground object is horizontal to the screen, the model diagram in Fig. 30 shows the pixel values of adjacent pixels on one line in the time direction. The expanded model is shown.
  • the line in frame #n is the same as the line in frame # n + l.
  • the pixels belonging to the covered background area are the 11th to 13th pixels from the left, and the pixels belonging to the anchored background area are the 2nd to 4th pixels from the left. It is.
  • the pixels belonging to the covered background area are the 15th to 17th pixels from the left, and the pixels belonging to the anchored background area are the 6th to 8th pixels from the left. Pixel.
  • the foreground component included in frame #n has moved by four pixels in frame # n + 1, so the motion amount V is 4.
  • the number of virtual divisions is 4, corresponding to the motion amount V.
  • the pixels belonging to the covered background area are the 15th to 17th pixels from the left . Since the motion amount V is 4, the fifteenth through seventeenth pixels from the left in the previous frame # n-l contain only background components and belong to the background area. In the previous frame # n-2, the 15th to 17th pixels from the left include only background components and belong to the background area.
  • the pixel value of the 15th pixel from the left of frame # n-l is the pixel value of the 15th pixel from the left of frame # n-2. Does not change from the value.
  • the pixel value of the 16th pixel from the left of frame # n-l does not change from the pixel value of the 16th pixel from the left of frame # ⁇
  • the pixel value of the 17th pixel from the left of the frame does not change from the pixel value of the 17th pixel from the left of frame # ⁇ -2.
  • the pixels belonging to the covered background area in frame # ⁇ include the foreground components, the pixel values are different from the case where only the background components in frame # ⁇ -1 are used. Therefore, the still / moving judgment of the pixel belonging to the mixed area in frame # ⁇ and the corresponding pixel of frame # ⁇ -1 is judged to be a motion by the still / moving judging section 122-2-3.
  • the area determination unit 1 2 3-3 is supplied with the result of the static / moving determination indicating the motion from the static / moving determination unit 1 2 2-3, and indicates the stationary state from the static / moving determination unit 1 2 2-4.
  • the result of the static motion determination is supplied, it is determined that the corresponding pixel belongs to the covered background area.
  • the pixels included in the uncovered background area are the second to fourth pixels from the left. . Since the motion amount V is 4, in the next frame # ⁇ + 1, the second to fourth pixels from the left include only the background component and belong to the background region. In the next frame # ⁇ + 2, the second to fourth pixels from the left include only the background component and belong to the background area.
  • the pixel value of the second pixel from the left of frame # ⁇ + 2 is the pixel value of the second pixel from the left of frame # ⁇ + 1. Does not change from.
  • the pixel value of the third pixel from the left of frame # ⁇ + 2 does not change from the pixel value of the third pixel from the left of frame # ⁇ + 1, and the pixel value of the third pixel from the left of frame # ⁇ + 2 does not change.
  • the pixel value of the fourth pixel from the left does not change from the pixel value of the fourth pixel from the left of frame # ⁇ + 1.
  • the pixels of frames # ⁇ + 1 and # ⁇ + 2 corresponding to the pixels belonging to the anchored background area in frame # ⁇ are composed of only the background component, and the pixel values do not change. The absolute value of the difference is almost zero. Therefore, the still / moving judgment for the pixels of frame # ⁇ + 1 and frame # ⁇ + 2 corresponding to the pixels belonging to the mixed area in frame # ⁇ is performed by the Is determined. Since the pixels belonging to the uncovered background area in frame #n include the foreground components, the pixel values are different from those in the case where only the background components in frame # n + 1 are included. Therefore, the still / movement determination for the pixels belonging to the mixed area in frame #n and the corresponding pixels in frame # n + 1 is determined to be motion by the still / movement determination section 122-2-2.
  • the area determination unit 1 2 3-1 is supplied with the result of the static / motion determination indicating the motion from the static / movement determination unit 1 2 2-2, and indicates the stillness from the static / movement determination unit 1 2 2-1.
  • the result of the static motion determination is supplied, it is determined that the corresponding pixel belongs to the uncovered background area.
  • FIG. 33 is a diagram showing a determination condition of the area identifying unit 103 in the frame #n.
  • the pixel of frame #n -2 at the same position as the position of the pixel to be judged in frame #n and the pixel at the same position as the position of the pixel to be judged of frame #n in the image
  • the pixel of frame # n-l is determined to be stationary, and the pixel of frame # n-l located at the same position on the image as the pixel to be determined of frame #n, and frame #n
  • the area specifying unit 103 determines that the pixel to be determined in frame #n belongs to the covered background area.
  • the pixel of frame # ⁇ 1 and the pixel of frame # ⁇ at the same position on the image as the pixel to be judged for frame #n are judged to be stationary, and the pixel of frame # ⁇
  • the region specifying unit 103 sets the frame # ⁇ Are determined to belong to the still area.
  • the pixel of frame # ⁇ 1 and the pixel of frame # ⁇ at the same position as the position of the pixel to be judged in frame # ⁇ and the pixel of frame # ⁇ are judged to be moving, and the pixel of frame # ⁇
  • the region identifying unit 103 sets the frame # ⁇ Is determined to belong to the motion area.
  • the pixel of frame # ⁇ and the pixel of frame # ⁇ + 1 at the same position as the position of the pixel to be determined for frame # ⁇ on the image are determined to be motion, and the The pixel of frame # n + l at the same position as the position of the pixel to be judged on the image, and the frame at the same position as the position of the pixel to be judged of frame #n on the image #
  • the region specifying unit 103 determines that the pixel to be determined of the frame #n belongs to the uncovered background region.
  • FIG. 34 is a diagram illustrating an example of a result of specifying an area by the area specifying unit 103. As illustrated in FIG. 34A, the pixels determined to belong to the covered background area are displayed in white. In FIG. 34B, the pixels determined to belong to the uncovered background area are displayed in white.
  • FIG. 34C the pixels determined to belong to the motion area are displayed in white.
  • FIG. 34D the pixels determined to belong to the still area are displayed in white.
  • FIG. 35 is a diagram showing, as an image, area information indicating a mixed area among the area information output from the frame memory for determination flag storage 126.
  • the pixels determined to belong to the covered background area or the uncovered background area that is, the pixels determined to belong to the mixed area, are displayed in white.
  • the area information indicating the mixed area output from the determination flag storage frame memory 126 indicates the mixed area and the textured part surrounded by the textureless part in the foreground area.
  • step S122 the frame memory 1221 obtains images of frames # n-2 to # n + 2 including the frame #n to be determined.
  • step S122 the still / moving determination section 1 2 2 — 3 determines whether the pixel of frame # n-l and the pixel at the same position of frame #n are stationary or not, and determines that the pixel is stationary. In this case, the flow proceeds to step S123, and the still / movement determination unit 122-2-2 determines whether or not the pixel of frame #n and the pixel at the same position of frame # n + 1 are stationary.
  • step S123 If it is determined in step S123 that the pixel of frame #n and the pixel at the same position of frame # n + l are still, the process proceeds to step S124 and the area determination unit 1 2 3 — 2 sets “1”, which indicates that the pixel belongs to the still area, to the still area determination flag corresponding to the pixel whose area is to be determined.
  • the area determination unit 1 2 3-2 supplies the still area determination flag to the determination flag storage frame memory 124, and the procedure proceeds to step S 125.
  • step S122 If it is determined in step S122 that the pixel of frame # n-l and the pixel at the same position in frame #n are moving, or in step S123, the pixel and frame of frame #n If the pixel at the same position of # n + l is determined to be a motion, the pixel of frame #n does not belong to the still area, so the processing of step S124 is skipped, and the procedure proceeds to step S Go to 1 2 5
  • step S125 the still / movement determination section 1 2 2 — 3 determines whether or not the pixel of the frame # n-l and the pixel at the same position of the frame #n are a motion, and determines that the motion is a motion. In this case, the flow proceeds to step S126, and the static / movement determining unit 122-2-2 determines whether or not there is a motion using the pixel of frame #n and the pixel at the same position of frame # n + 1.
  • step S 1 26 If it is determined in step S 1 26 that the pixel of frame #n and the pixel at the same position of frame # n + l are determined to be moving, the process proceeds to step S 127, and the area determination unit 1 2 3—2
  • the motion area determination flag corresponding to the pixel whose area is to be determined is set to "1" indicating that the pixel belongs to the motion area.
  • the area determination section 1 23-3-2 supplies the motion area determination flag to the determination flag storage frame memory 124, and the procedure proceeds to step S 128.
  • step S125 If it is determined in step S125 that the pixel of frame # n-l and the pixel at the same position of frame #n are stationary, or in step S126, the pixel of frame #n and the frame If the pixel at the same position of # n + l is determined to be stationary, the pixel of frame #n does not belong to the motion area, so the processing of step S127 is skipped, and the procedure proceeds to step S Go to 1 2 8
  • step S128 the still / movement determination section 1 2 2 — 4 determines whether or not the pixel of frame # ⁇ ⁇ 2 and the pixel at the same position of frame # n ⁇ l are stationary, and determines whether the pixel is stationary. If it is determined, the process proceeds to step S 12 9, where the static / movement determining unit 1 2 2-3 determines whether or not the pixel of frame # n-l and the pixel at the same position of frame #n are moving. .
  • step S12 the pixel of frame # n-l and the same position of frame #n If it is determined that the pixel is a motion, the process proceeds to step S130, and the area determination unit 123-3-3 sets the covered background area determination flag corresponding to the pixel whose area is determined to be covered. Set "1" to indicate that it belongs to the background area.
  • the area determination unit 1 2 3 — 3 supplies the cover background area determination flag to the determination flag storage frame memory 124, and the procedure proceeds to step S 13 1.
  • step S128 If it is determined in step S128 that the pixel of frame # ⁇ 2 and the pixel at the same position of frame # ⁇ -1 are motion, or in step S129, frame # ⁇ - If it is determined that the pixel # 1 and the pixel at the same position in the frame # ⁇ are still, the pixel in the frame #n does not belong to the covered background area, and the processing in step S130 is skipped. Then, the procedure proceeds to step S131.
  • step S 13 1 the still / movement determining unit 1 2 2 — 2 determines whether or not the pixel of frame # ⁇ and the pixel at the same position of frame # ⁇ + 1 are moving, and determines that the pixel is moving.
  • step S1322 the static / movement determining unit 1 2 2—1 determines whether the pixel of frame # ⁇ + 1 and the pixel at the same position of frame # ⁇ + 2 are stationary. I do.
  • step S1332 If it is determined in step S1332 that the pixel at frame # ⁇ + 1 and the pixel at the same position in frame # ⁇ + 2 are stationary, the process proceeds to step S133, and the area determination unit 1 2 3 -1 sets "1" to the anchor background area determination flag corresponding to the pixel whose area is determined, indicating that the pixel belongs to the anchor background area.
  • the area determination unit 1 2 3-1 supplies the uncovered background area determination flag to the determination flag storage frame memory 12 4, and the procedure proceeds to step S 13 4.
  • step S131 if it is determined that the pixel of frame # ⁇ and the pixel at the same position of frame # ⁇ + 1 are stationary, or in step S132, the pixel of frame # ⁇ + 1 If it is determined that there is a motion between the pixel of the frame # ⁇ + 2 and the pixel at the same position, the pixel of the frame # ⁇ does not belong to the anchor background area, and the process of step S133 is skipped. The procedure proceeds to step S 1 3 4.
  • step S134 the region identifying unit 103 selects all the images of the frame # ⁇ . It is determined whether or not an area has been specified for the element, and if it is determined that the area has not been specified for all the pixels of frame #n, the procedure returns to step S122, and the procedure returns to step S122. Repeat the area specific processing.
  • step S1 34 If it is determined in step S1 34 that the area has been specified for all the pixels in frame #n, the process proceeds to step S135, where the synthesizing unit 125 determines the determination flag storage frame memory 1 2 4 Area information indicating the mixed area is generated based on the uncovered background area determination flag and the covered background area determination flag stored in the storage area, and each pixel further includes an uncovered background area, Region information indicating that the region belongs to any of the still region, the moving region, and the covered background region is generated, and the generated region information is set in the determination flag storage frame memory 126, and the process ends.
  • the synthesizing unit 125 determines the determination flag storage frame memory 1 2 4 Area information indicating the mixed area is generated based on the uncovered background area determination flag and the covered background area determination flag stored in the storage area, and each pixel further includes an uncovered background area, Region information indicating that the region belongs to any of the still region, the moving region, and the covered background region is generated, and the generated region information is set in the determination flag storage frame
  • the region specifying unit 103 determines, for each of the pixels included in the frame, the region information indicating that the pixel belongs to the moving region, the still region, the covered background region, or the covered background region. Can be generated.
  • the region specifying unit 103 generates region information corresponding to the mixed region by applying a logical sum to the region information corresponding to the uncovered background region and the covered background region.
  • region information including a flag indicating that each of the pixels included in the frame belongs to a moving region, a still region, or a mixed region may be generated.
  • the region specifying unit 103 can more accurately specify the moving region.
  • the area specifying unit 103 can output area information indicating a motion area as area information indicating a foreground area, and output area information indicating a still area as area information indicating a background area.
  • the above-described processing for specifying the area can be applied even if the image corresponding to the background area includes motion.
  • the region specifying unit 103 shifts the entire image in response to this movement, and The same processing is performed as when the corresponding object is stationary.
  • the region specifying unit 103 selects a pixel corresponding to the motion and executes the above-described processing.
  • FIG. 37 is a block diagram showing an example of the configuration of the mixture ratio calculating section 104.
  • the estimated mixture ratio processing unit 201 calculates the estimated mixture ratio for each pixel by an operation corresponding to the model of the covered background area based on the input image, and determines the calculated estimated mixture ratio. Supply to part 203.
  • the estimated mixture ratio processing unit 202 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the uncovered background area based on the input image, and determines the calculated estimated mixture ratio. Supply to part 203.
  • the mixing ratio of the pixels belonging to the mixed region has the following properties. That is, the mixture ratio changes linearly in accordance with the change in the pixel position. If the change in the pixel position is one-dimensional, the change in the mixture ratio can be represented by a straight line. If the change in the pixel position is two-dimensional, the change in the mixture ratio can be represented by a plane. be able to.
  • the slope of the mixture ratio is the inverse ratio of the amount of movement V in the foreground shirt evening time.
  • Figure 38 shows an example of an ideal mixing ratio.
  • the slope 1 in the mixing region of the ideal mixing ratio can be expressed as the reciprocal of the motion amount V.
  • the ideal mixture ratio has a value of 1 in the background region, a value of 0 in the foreground region, and a value exceeding 0 and less than 1 in the mixture region.
  • the pixel value C06 of the seventh pixel from the left of frame #n is calculated using the pixel value P06 of the seventh pixel from the left of frame # n-l using the equation (14).
  • C06 B06 / v + B06 / v + F01 / v + F02 / v
  • Equation (14) 2 / vP06 + ⁇ Fi / v (14)
  • the pixel value C06 is expressed as the pixel value M of the pixel in the mixed area
  • the pixel value P06 is expressed as the pixel value B of the pixel in the background area. That is, the pixel value M of the pixel in the mixed area and the pixel value B of the pixel in the background area can be expressed as in Equations (15) and (16), respectively.
  • Equation (14) corresponds to the mixture ratio. Since the motion amount V is 4, the mixture ratio of the seventh pixel from the left of frame #n is 0.5.
  • Equation (13) showing the mixing ratio is rewritten as equation (17).
  • F in equation (17) is the sum ⁇ ⁇ / ⁇ of the foreground components included in the pixel of interest.
  • the two variables included in equation (17) are the mixture ratio and the sum f of the foreground components.
  • FIG. 40 shows a model in which pixel values are expanded in the time direction in which the motion amount V is 4 and the number of virtual divisions in the time direction is 4 in the anchored background area.
  • the pixel value C of the frame # ⁇ of interest is regarded as the pixel value of the mixed area, and the frame # ⁇ +
  • the expression (13) indicating the mixture ratio can be expressed as the expression (18).
  • Equation (14) to (18) can be applied.
  • the equation ( The pixel value B of the pixel in the background area in 16) is a pixel value P04.
  • Equations (17) and (18) each contain two variables, so the mixture ratio cannot be determined as it is.
  • an image generally has a strong spatial correlation, adjacent pixels have substantially the same pixel value.
  • the equation is modified so that the sum f of the foreground components can be derived from the previous or subsequent frame, and the mixture ratio H is obtained.
  • the pixel value Mc of the seventh pixel from the left of frame #n in FIG. 41 can be expressed by equation (19).
  • Mc ⁇ 06 + ⁇ Fi / v (19)
  • Equation (2 1) is established using the spatial correlation of the foreground components.
  • the equation (24) is established from the relationship of the internal division ratio for all the pixels in the mixed area.
  • equation (17) can be expressed as shown in equation (25).
  • equation (18) can be expanded as shown in equation (26).
  • Equations (25) and (26) C, N, and P are known pixel values, so the only variable included in Equations (25) and (26) is the mixture ratio. .
  • FIG. 42 shows the relationship between C, N, and P in the equations (25) and (26).
  • C is the pixel value of the pixel of interest in frame #n for calculating the mixture ratio.
  • N is the frame # n + l where the pixel of interest corresponds to the spatial position Is the pixel value of the pixel.
  • P is the pixel value of the pixel in frame #nl, whose position in the spatial direction corresponds to the pixel of interest.
  • Equation (25) and (26) since one variable is included in each of the equations (25) and (26), it is possible to calculate the mixture ratio using the pixel values of the pixels of the three frames. it can.
  • the condition for calculating the correct mixture ratio is that the foreground components related to the mixed area are equal, that is, the foreground object is stationary. Pixels in the foreground image object taken at the time of motion, corresponding to the direction of movement of the foreground object and located at the boundary of the image object, and a number twice the amount of motion V That is, the pixel value of the continuous pixel of is constant.
  • Equation (27) the mixture ratio of the pixels belonging to the covered background region is calculated by Equation (27), and the mixture ratio of the pixels belonging to the unpacked background region is calculated by Equation (28) ).
  • FIG. 43 is a block diagram illustrating a configuration of the estimated mixture ratio processing unit 201.
  • the frame memory 222 stores the input image in frame units, and stores the next frame after the frame input as the input image in the frame memory 222 and the mixture ratio calculation unit 222. Supply to 3.
  • the frame memory 222 stores the input image in frame units, and supplies the next frame from the frame supplied from the frame memory 221 to the mixture ratio calculation unit 222.
  • the frame memory 221 supplies the frame #n to the mixture ratio calculation unit 223, and 22.sub.2 supplies the frame #nl to the mixture ratio calculating section 22.sub.3.
  • the mixture ratio calculator 2 23 calculates the pixel value C of the pixel of interest in frame #n and the frame corresponding to the pixel of interest and the spatial position by the calculation shown in equation (27).
  • the pixel value N of the pixel of interest and the spatial position corresponding to the pixel of interest correspond to Calculate the estimated mixture ratio of the pixel of interest based on the pixel value P of the pixel in frame # n-l, and output the calculated estimated mixture ratio.
  • the mixture ratio calculation unit 2 23 sets the pixel value C of the pixel of interest in frame #n, the position of the pixel in interest in the frame equal to the pixel of interest, and frame # n + l
  • the estimated mixture ratio of the pixel of interest is calculated based on the pixel value N of the pixel of interest and the pixel value P of the pixel of frame # ⁇ 1 at the same position in the frame as the pixel of interest. And outputs the calculated estimated mixture ratio.
  • the estimated mixture ratio processing unit 201 can calculate the estimated mixture ratio based on the input image and supply it to the mixture ratio determination unit 203.
  • FIG. 44 is a diagram illustrating an example of the estimated mixture ratio calculated by the estimated mixture ratio processing unit 201.
  • the estimated mixture ratio shown in FIG. 44 shows the result when the amount of motion V of the foreground corresponding to the object moving at a constant speed is 11 for one line.
  • the mixture ratio determination unit 203 determines that the pixels for which the mixture ratio is to be calculated supplied from the region identification unit 103 are the foreground region, the background region, the covered pack ground region, Alternatively, the mixing ratio is set based on the area information indicating whether the area belongs to the anchor background area. If the target pixel belongs to the foreground region, the mixture ratio determination unit 203 sets 0 to the mixture ratio, and if the target pixel belongs to the background region, sets 1 to the mixture ratio ⁇ . If the target pixel belongs to the covered background area, the estimated mixing ratio supplied from the estimated mixing ratio processing unit 201 is set to the mixing ratio, and the target pixel belongs to the uncovered background area. In this case, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 202 is set as the mixture ratio. The mixing ratio determination unit 203 sets the mixing ratio set based on the area information. Outputs a string.
  • FIG. 45 is a block diagram showing another configuration of the mixture ratio calculating section 104.
  • the selection unit 231 Based on the region information supplied from the region identification unit 103, the selection unit 231 extracts the pixels belonging to the covered background region and the pixels of the previous and subsequent frames corresponding to the covered background region based on the estimated mixture ratio processing unit 2 3 Feed to 2. Based on the area information supplied from the area specifying unit 103, the selection unit 231 estimates the pixels belonging to the uncovered background area and the corresponding pixels of the previous and subsequent frames based on the estimated mixture ratio. It is supplied to the processing section 2 3 3.
  • the estimated mixture ratio processing unit 2 32 Based on the pixel value input from the selection unit 2 3 1, the estimated mixture ratio processing unit 2 32
  • the estimated mixture ratio of the pixel of interest belonging to the covered background area is calculated, and the calculated estimated mixture ratio is supplied to the selection unit 234.
  • the estimated mixture ratio processing unit 2 3 3 Based on the pixel values input from the selection unit 2 3 1, the estimated mixture ratio processing unit 2 3 3
  • the estimated mixture ratio of the pixel of interest belonging to the uncovered background area is calculated, and the calculated estimated mixture ratio is supplied to the selection unit 234.
  • the selection unit 234 selects the estimated mixture ratio of 0 based on the region information supplied from the region identification unit 103 and sets the mixture ratio to 0. However, if the target pixel belongs to the background area, select the estimated mixture ratio of 1 and set it to the mixture ratio. When the target pixel belongs to the covered background area, the selection unit 234 selects the estimated mixture ratio supplied from the estimated mixture ratio processing unit 232 and sets the estimated mixture ratio as the mixture ratio. If a different pixel belongs to the uncovered background area, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 233 is selected and set as the mixture ratio. The selection unit 234 outputs a mixture ratio selected and set based on the area information.
  • the mixture ratio calculation unit 104 having another configuration shown in FIG. 45 can calculate the mixture ratio for each pixel included in the image, and can output the calculated mixture ratio. .
  • step S151 the mixture ratio calculating unit 104 obtains the area information supplied from the area specifying unit 103.
  • step S152 the estimated mixture ratio processing unit 201 executes a process of calculating the estimated mixture ratio using a model corresponding to the covered background region, and calculates the calculated estimated mixture ratio. It is supplied to the decision unit 203. Details of the calculation process of the mixture ratio estimation will be described later with reference to the flowchart in FIG.
  • step S153 the estimated mixture ratio processing unit 202 executes a process of calculating the estimated mixture ratio by using a model corresponding to the uncovered background ground region, and calculates the calculated estimated mixture ratio into the mixture ratio determination unit 2 0 to 3
  • step S154 the mixture ratio calculation unit 104 determines whether or not the mixture ratio has been estimated for the entire frame, and when it is determined that the mixture ratio has not been estimated for the entire frame. Then, the process returns to step S152, and the process of estimating the mixture ratio for the next pixel is executed.
  • step S154 determines whether the mixture ratio has been estimated for the entire frame.
  • the mixing ratio is set based on the area information supplied from the area specifying unit 103 indicating whether the area belongs to the background area or the uncovered background area. If the target pixel belongs to the foreground area, the mixture ratio determination unit 203 sets 0 to the mixture ratio, and if the target pixel belongs to the background area, sets 1 to the mixture ratio. If the target pixel belongs to the covered background area, the estimated mixing ratio supplied from the estimated mixing ratio processing unit 201 is set as the mixing ratio, and the target pixel belongs to the uncovered background area. Then, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 202 is set as the mixture ratio, and the process ends.
  • the mixture ratio calculation unit 104 can calculate the mixture ratio H, which is a feature amount corresponding to each pixel, based on the region information supplied from the region identification unit 103 and the input image. it can.
  • the process of calculating the mixture ratio by the mixture ratio calculator 104 having the configuration shown in FIG. 45 is the same as the process described with reference to the flowchart of FIG. 46, and a description thereof will be omitted.
  • the process of estimating the mixture ratio using a model corresponding to the covered background region, which corresponds to step S152 of FIG. 46, will be described with reference to the flowchart of FIG.
  • step S 171 the mixture ratio calculation unit 223 acquires the pixel value C of the target pixel of the frame #n from the frame memory 221.
  • step S 172 the mixture ratio calculation unit 223 acquires the pixel value P of the pixel of frame # n ⁇ 1 corresponding to the pixel of interest from the frame memory 222.
  • step S173 the mixture ratio calculation unit 223 acquires the pixel value N of the pixel of frame # n + 1 corresponding to the pixel of interest included in the input image.
  • step S 174 the mixture ratio calculation unit 222 calculates the pixel value C of the pixel of interest in frame #n, the pixel value P of pixel in frame # n-l, and the pixel value of frame # n + l. Calculate the estimated mixture ratio based on the pixel value N.
  • step S175 the mixture ratio calculation unit 222 determines whether or not the process of calculating the estimated mixture ratio has been completed for the entire frame, and ends the process of calculating the estimated mixture ratio for the entire frame. If not, the process returns to step S171 to repeat the process of calculating the estimated mixture ratio for the next pixel.
  • step S175 If it is determined in step S175 that the process of calculating the estimated mixture ratio has been completed for the entire frame, the process ends.
  • the estimated mixture ratio processing unit 201 can calculate the estimated mixture ratio based on the input image.
  • step S153 in FIG. 46 The process of estimating the mixture ratio in the model corresponding to the uncovered background region in step S153 in FIG. 46 is performed by using the equation corresponding to the model in the uncovered background region, as shown in the flowchart of FIG. Since the processing is the same as that shown, its description is omitted.
  • estimated mixture ratio processing section 2 32 and the estimated mixture ratio processing section 2 33 shown in FIG. 45 execute the same processing as the flowchart shown in FIG. 47 to calculate the estimated mixture ratio. Description is omitted.
  • the above-described processing for obtaining the mixture ratio is performed even when the image corresponding to the background area includes motion. Can be applied.
  • the estimated mixture ratio processing unit 201 shifts the entire image in accordance with the movement of the background, and the object corresponding to the background is stationary. Processing is performed in the same manner as in the case where Also, when the image corresponding to the background region includes a different background motion for each local area, the estimated mixture ratio processing unit 201 determines, as a pixel corresponding to a pixel belonging to the mixed region, a pixel corresponding to the background motion. To execute the above-described processing.
  • the configuration of the mixture ratio calculator 104 shown in FIG. 37 or FIG. 45 is an example.
  • the mixture ratio calculation unit 104 executes only the mixture ratio estimation process using the model corresponding to the covered background region for all the pixels, and outputs the calculated estimated mixture ratio as the mixture ratio. You may do so.
  • the mixing ratio indicates the ratio of the background component for the pixels belonging to the covered background region, and indicates the ratio of the foreground components for the pixels belonging to the uncovered background region.
  • the signal processing unit 1 2 can obtain a mixing ratio H indicating the ratio of the background component for the pixels belonging to the uncovered background area.
  • FIG. 48 is a block diagram illustrating an example of the configuration of the foreground / background separation unit 105.
  • the input image supplied to the foreground / background separator 105 is supplied to the separator 251, switch 252, and switch 254.
  • the information indicating the force pad background area and the area information supplied from the area specifying unit 103 indicating the uncovered background area are supplied to the separation unit 251.
  • the area information indicating the foreground area is supplied to the switch 25.
  • the area information indicating the background area is supplied to the switch 254.
  • the mixing ratio supplied from the mixing ratio calculation unit 104 is equal to the c separation unit 251, which is supplied to the separation unit 251, and includes area information indicating the cover background area,
  • the foreground component is separated from the input image based on the region information indicating the background region and the mixture ratio, and the separated foreground component is supplied to the synthesis unit 253.
  • the separated background component is supplied to the synthesizing unit 255.
  • the switch 252 is closed when a pixel corresponding to the foreground is input based on the area information indicating the foreground area, and supplies only the pixel corresponding to the foreground included in the input image to the synthesis unit 253. I do.
  • the switch 2554 When a pixel corresponding to the background is input based on the area information indicating the background area, the switch 2554 is closed and only the pixel corresponding to the background included in the input image is output to the combining unit 255. Supply.
  • the synthesizing unit 253 synthesizes the foreground component image based on the foreground component supplied from the separation unit 251, and the pixel corresponding to the foreground supplied from the switch 252, and synthesizes the foreground. Output the component image. Since the foreground region and the mixed region do not overlap, the combining unit 2553 combines the foreground component image by applying a logical OR operation to the component corresponding to the foreground and the pixel corresponding to the foreground, for example. .
  • the synthesizing unit 253 stores an image in which all pixel values are 0 in a built-in frame memory in an initialization process executed at the beginning of the foreground component image synthesizing process. Stores (overwrites) the foreground component image in the component image synthesis process. Therefore, in the foreground component image output by the synthesis unit 25, 0 is stored as a pixel value in a pixel corresponding to the background region.
  • the synthesizing unit 255 synthesizes a background component image based on the component corresponding to the background supplied from the separating unit 251, and the pixel corresponding to the background supplied from the switch 254, and synthesizes them. Outputs a background component image. Since the background region and the mixed region do not overlap, the combining unit 255 combines the background component image, for example, by applying a logical OR operation to the component corresponding to the background and the pixel corresponding to the background. .
  • the synthesizing unit 255 stores an image in which all the pixel values are 0 in a built-in frame memory in the initialization processing executed at the beginning of the processing of synthesizing the background component image. Stores (overwrites) the background component image in the component image synthesis process. Therefore, among the background component images output by the synthesizing unit 255, it corresponds to the foreground area.
  • the pixel stores 0 as a pixel value.
  • FIG. 49 is a diagram illustrating an input image input to the foreground / background separation unit 105, and a foreground component image and a background component image output from the foreground / background separation unit 105.
  • FIG. 49A is a schematic diagram of a displayed image
  • FIG. 49B is a diagram including pixels belonging to the foreground area, pixels belonging to the background area, and pixels belonging to the mixed area corresponding to FIG. The model figure which expanded the pixel of the line in the time direction is shown.
  • the background component image output from the foreground / background separation unit 105 is composed of pixels belonging to the background region and background components included in the pixels of the mixed region. You.
  • the foreground component image output from the foreground / background separator 105 is composed of pixels belonging to the foreground area and foreground components included in the pixels of the mixed area. You.
  • the pixel values of the pixels in the mixed area are separated into a background component and a foreground component by the foreground / background separation unit 105.
  • the separated background component constitutes a background component image together with the pixels belonging to the background region.
  • the separated foreground component forms a foreground component image together with the pixels belonging to the foreground area.
  • the pixel value of the pixel corresponding to the background area is set to 0, and a significant pixel value is set to the pixel corresponding to the foreground area and the pixel corresponding to the mixed area.
  • the pixel value of the pixel corresponding to the foreground area is set to 0, and a significant pixel value is set to the pixel corresponding to the background area and the pixel corresponding to the mixed area.
  • FIG. 50 is an image model showing foreground components and background components of two frames including a foreground corresponding to an object moving from left to right in the figure.
  • the motion amount V of the foreground is 4, and the number of virtual divisions is 4.
  • frame #n the leftmost pixel and the 14th to 18th pixels from the left consist only of background components and belong to the background area.
  • the 11th to 13th pixels from the left include the background component and the foreground component, and belong to the covered background area.
  • frame #n the fifth through tenth pixels from the left consist only of foreground components and belong to the foreground area.
  • FIG. 51 is a diagram illustrating a process of separating a foreground component from pixels belonging to a covered background area.
  • FIG. 51 is a diagram illustrating a process of separating a foreground component from pixels belonging to a covered background area.
  • hi 1 to hi 18 are the mixing ratios of the pixels in frame #n corresponding to those.
  • the fifteenth through seventeenth pixels from the left belong to the covered background area (the pixel value C15 of the fifteenth pixel from the left of frame #n is expressed by equation (29)).
  • h15 is the mixture ratio of the 15th pixel from the left of frame # ⁇ .
  • P15 is the pixel value of the 15th pixel from the left of frame # ⁇ ⁇ 1.
  • equation (30) the sum fl5 of the foreground components of the 15th pixel from the left of frame # ⁇ is represented by equation (30).
  • the foreground component fc included in the pixel value C of the pixel belonging to the covered background area is calculated by Expression (33).
  • is the pixel value of the corresponding pixel in the previous frame.
  • FIG. 52 is a diagram for explaining a process of separating a foreground component from pixels belonging to an anchored background area.
  • hi 1 through hi 18 are the mixing ratios of the pixels in frame # ⁇ that correspond to them.
  • the second to fourth pixels from the left belong to the uncovered background area.
  • hi 2 is the mixture ratio of the second pixel from the left of frame #n.
  • N02 is the pixel value of the second pixel from the left of frame # n + l.
  • equation (35) the sum f02 of the foreground components of the second pixel from the left of frame #n is expressed by equation (35).
  • N is the pixel value of the corresponding pixel in the next frame.
  • the separating unit 25 1 is configured based on the information indicating the covered background area, the information indicating the uncovered background area, and the mixture ratio for each pixel included in the area information. Foreground components and background components can be separated from pixels belonging to the mixed area.
  • FIG. 53 is a block diagram illustrating an example of the configuration of the separation unit 251 that executes the above-described processing.
  • the image input to the separation unit 25 1 is supplied to the frame memory 301, and the area information indicating the cover background area and the anchor background area supplied from the mixture ratio calculation unit 104. , And the mixing ratio H are input to the separation processing block 302.
  • the frame memory 301 stores the input image in frame units.
  • frame memory 301 contains frames # n-l, frame #n, which is the frame immediately before frame #n, frame #n, and the frame after frame #n.
  • frame # n + l is the frame # n + l.
  • the frame memory 301 supplies the pixels corresponding to the frame # n-l, the frame #n, and the frame # ⁇ + 1 to the separation processing block 302.
  • the separation processing block 302 stores the frame # ⁇ -1 and the frame # supplied from the frame memory 301 based on the area information indicating the covered background area and the anchored background area, and the mixing ratio. Applying the operations described with reference to FIGS. 51 and 52 to ⁇ and the pixel value of the corresponding pixel in frame # ⁇ + 1, foreground components and pixels belonging to the mixed area of frame # ⁇ The background component is separated and supplied to the frame memory 303.
  • the separation processing block 302 includes an uncovered area processing section 311, a covered area processing section 312, a synthesis section 3113, and a synthesis section 314.
  • the multiplier 3 2 1 of the anchored area processing unit 3 1 1 multiplies the mixture ratio by the pixel value of the pixel of frame # ⁇ + 1 supplied from the frame memory 3 0 1, and switches 3 2 2 Output to 2.
  • the pixel of the frame # ⁇ (corresponding to the pixel of the frame # ⁇ + 1) supplied from the frame memory 301 is an anchor pad.
  • the pixel value multiplied by the mixture ratio supplied from the multiplier 321 is supplied to the arithmetic unit 322 and the synthesizing unit 314.
  • the value obtained by multiplying the pixel value of the pixel of frame # n + 1 output from the switch 3 222 by the mixture ratio is equal to the background component of the pixel value of the corresponding pixel of frame #n.
  • the arithmetic unit 322 subtracts the background component supplied from the switch 322 from the pixel value of the pixel of frame #n supplied from the frame memory 301 to obtain the foreground component.
  • the arithmetic unit 3 2 3 supplies the foreground component of the pixel of frame #n belonging to the uncovered background area to the combining unit 3 13.
  • the multiplier 3 3 1 of the cover area processing unit 3 1 2 multiplies the mixture ratio by the pixel value of the pixel of frame # n-l supplied from the frame memory 301 and switches 3 3 Output to 2.
  • Switch 3332 is closed when the pixel of frame #n (corresponding to the pixel of frame # n-l) supplied from frame memory 301 is the covered background area,
  • the pixel value multiplied by the mixture ratio supplied from the multiplier 331 is supplied to the arithmetic unit 333 and the combining unit 314.
  • the value obtained by multiplying the pixel value of the pixel of frame # n-l output from the switch 3332 by the mixture ratio is equal to the background component of the pixel value of the corresponding pixel of frame #n.
  • the arithmetic unit 33 33 subtracts the background component supplied from the switch 3332 from the pixel value of the pixel of frame #n supplied from the frame memory 301 to obtain the foreground component. Ask.
  • the arithmetic unit 333 supplies the foreground component of the pixel of frame #n belonging to the covered background area to the synthesizing unit 313.
  • the synthesizing unit 313 is configured to output the foreground components of the pixels belonging to the anchored background area supplied from the arithmetic unit 3 23 of the frame #n, and the covered components supplied from the arithmetic unit 3 33.
  • the foreground components of the pixels belonging to the background area are combined and supplied to the frame memory 303.
  • the synthesizing unit 314 includes the background component of the pixel belonging to the anchor bird background area supplied from the switch 3 22 of the frame #n and the cover supplied from the switch 3 32.
  • the background components of the pixels belonging to the background background area are synthesized and supplied to the frame memory 303.
  • the frame memory 303 stores the frame supplied from the separation processing process 302.
  • the foreground component and the background component of the pixel in the mixed area of the system #n are stored therein.
  • the frame memory 303 outputs the stored foreground component of the pixel in the mixed area of frame #n and the stored background component of the pixel in the mixed area of frame #n.
  • the mixture ratio which is a feature quantity, it is possible to completely separate the foreground component and the background component included in the pixel value.
  • the combining unit 2553 combines the foreground components of the pixels in the mixed area of the frame #n, output from the separating unit 251, with the pixels belonging to the foreground area to generate a foreground component image.
  • the combining unit 255 combines the background component of the pixel in the mixed area of the frame #n and the pixel belonging to the background area, which is output from the separating unit 251, to generate a background component image.
  • FIG. 54 is a diagram illustrating an example of a foreground component image and an example of a background component image corresponding to frame #n in FIG. 50.
  • FIG. 54A shows an example of a foreground component image corresponding to frame #n in FIG. Since the leftmost pixel and the 14th pixel from the left consist only of the background component before the foreground and background are separated, the pixel value is set to 0.
  • the second to fourth pixels from the left belong to the anchored background area before the foreground and background are separated, the background component is set to 0, and the foreground component is left as it is.
  • the 11th to 13th pixels from the left belong to the covered background area before the foreground and background are separated, the background component is set to 0, and the foreground component is left as it is.
  • the 5th to 10th pixels from the left are left as they are because they consist only of foreground components.
  • FIG. 54B shows an example of a background component image corresponding to frame #n in FIG.
  • the leftmost pixel and the 14th pixel from the left are left alone because they consisted only of the background component before the foreground and background were separated.
  • the second to fourth pixels from the left belong to the anchored background area
  • the foreground component is set to 0, and the background component is left as it is.
  • the first to thirteenth pixels from the left belong to the covered background area before the foreground and background are separated, and The component is set to 0, and the background component is left as it is. Since the fifth through tenth pixels from the left consist only of the foreground components before the foreground and background are separated, the pixel value is set to 0.
  • step S 201 the frame memory 310 of the separation unit 251 acquires the input image, and sets the frame #n to be separated from the foreground and the background into the frame # n-l And the subsequent frame # n + l.
  • step S202 the separation processing block 302 of the separation unit 251 acquires the area information supplied from the mixture ratio calculation unit 104.
  • step S203 the separation processing block 302 of the separation unit 251 obtains the supplied mixing ratio from the mixing ratio calculation unit 104.
  • step S204 the uncovered area processing unit 311 determines the pixel value of the pixel belonging to the uncovered background area supplied from the frame memory 301 based on the area information and the mixture ratio. , The background components are extracted.
  • step S205 the uncovered area processing unit 311 determines the pixel value of the pixel belonging to the uncovered background area supplied from the frame memory 301 based on the area information and the mixture ratio. From the foreground components.
  • step S206 the covered area processing unit 312 determines the pixel value of the pixel belonging to the covered background area supplied from the frame memory 301 based on the area information and the mixture ratio. , The background components are extracted.
  • step S207 the cover area processing unit 312 uses the pixel value of the pixel belonging to the cover background area supplied from the frame memory 301 based on the area information and the mixture ratio ⁇ . Extract the foreground components.
  • step S208 the synthesizing unit 313 extracts the foreground components of the pixels belonging to the uncovered background area extracted in the processing in step S205 and the processing in step S207.
  • the foreground components of the pixels belonging to the obtained cover background area are synthesized.
  • the synthesized foreground component is supplied to the synthesis unit 253. Further, the synthesizing unit 25 3 detects the foreground area supplied through the switch 25 2.
  • the foreground component image is generated by synthesizing the pixels belonging to the area and the foreground component supplied from the separation unit 25 1.
  • step S209 the combining unit 314 extracts the background components of the pixels belonging to the uncovered background area extracted in the processing in step S204 and the processing in step S206.
  • the background component of the pixel belonging to the covered background ground area thus synthesized is synthesized.
  • the synthesized background component is supplied to the synthesis unit 255. Further, the synthesizing unit 255 combines the pixels belonging to the background area supplied via the switch 255 with the background component supplied from the separating unit 251, and forms the background component image. Generate.
  • step S210 the synthesizing section 253 outputs a foreground component image.
  • step S 211 the synthesizing section 255 outputs the background component image, and the processing ends.
  • the foreground / background separating unit 105 separates the foreground component and the background component from the input image based on the area information and the mixture ratio, and outputs the foreground component image including only the foreground component. , And a background component image consisting of only background components can be output.
  • FIG. 56 is a block diagram illustrating an example of the configuration of the motion-blur adjusting unit 106.
  • the motion vector and its position information supplied from the motion detection unit 102 and the region information supplied from the region identification unit 103 are sent to the processing unit decision unit 351 and the modeling unit 352. Supplied.
  • the foreground component image supplied from the foreground / background separating unit 105 is supplied to the adding unit 354.
  • the processing unit determination unit 351 supplies the generated processing unit to the modeling unit 352 along with the motion vector based on the motion vector, its position information, and area information.
  • the processing unit determination unit 351 supplies the generated processing unit to the adding unit 354.
  • the processing unit generated by the processing unit determination unit 351 starts from a pixel corresponding to a covered background area of a foreground component image and corresponds to an uncovered background area, as shown in an example in FIG. Starting from consecutive pixels in the direction of motion up to the pixel or pixels corresponding to the uncovered background area, It shows consecutive pixels arranged in the motion direction up to the pixel corresponding to the covered background area.
  • the processing unit is composed of, for example, two data: an upper left point (the pixel specified by the processing unit and the position of the leftmost or uppermost pixel on the image) and a lower right point.
  • the modeling unit 352 performs modeling based on the motion vector and the input processing unit. More specifically, for example, the modeling unit 352 includes a plurality of pixels corresponding to the number of pixels included in the processing unit, the number of virtual divisions of pixel values in the time direction, and the number of foreground components for each pixel.
  • the model is stored in advance, and a model that specifies the correspondence between pixel values and foreground components as shown in Fig. 58 is selected based on the processing unit and the number of virtual divisions of pixel values in the time direction. You may do it.
  • the modeling unit 35 2 sets the number of virtual divisions to 5, and the leftmost The located pixel contains one foreground component, the second pixel from the left contains two foreground components, the third pixel from the left contains three foreground components, and the fourth pixel from the left contains 4
  • the fifth pixel from the left contains five foreground components
  • the sixth pixel from the left contains five foreground components
  • the seventh pixel from the left contains five foreground components.
  • the eighth pixel from the left contains five foreground components
  • the ninth pixel from the left contains four foreground components
  • the tenth pixel from the left contains three foreground components.
  • the first pixel from the left contains two foreground components, and the first pixel from the left contains one foreground component. Selecting eight foreground components or et made models.
  • modeling unit 352 does not select from the models stored in advance, but instead, when the motion vector and the processing unit are supplied, based on the motion vector and the processing unit.
  • a model may be generated.
  • the modeling unit 352 supplies the selected model to the equation generation unit 353.
  • the equation generation unit 353 generates a formula based on the model supplied from the modeling unit 352. Referring to the model of the foreground component image shown in Fig. 58, the number of foreground components is 8, the number of pixels corresponding to the processing unit is 12, the amount of motion V is 5, and the number of virtual divisions When the equation is 5, the equation generator 3 5 3 explain about.
  • C12 F08 / v (50)
  • the equation generation unit 353 deforms the generated equation to generate an equation.
  • the equations generated by the equation generating section 353 are shown in equations (51) to (62).
  • C01 lFOl / v + 0F02 / v + 0F03 / v + 0F04 / v + 0F05 / v
  • C02 lFOl / v + 1F02 / v + 0F03 / v + 0F04 / v + 0 F05 / v
  • N90d ⁇ 0 + ⁇ / ⁇ 0+ ⁇ / 80 ⁇ ⁇ 0+ ⁇ / ⁇ 0+ ⁇ / ⁇ 0 ⁇ ( ⁇ 9) ⁇ / 8 ( ⁇ ⁇ + NLOd ⁇ ⁇ + ⁇ / 9 ( ⁇ 0+
  • equation (67) since the amount of motion v is a fixed value, equation (68) can be derived.
  • equation (69) is obtained.
  • the error contained in the pixel C can be dispersed.
  • the equation generator 353 supplies the normal equation generated in this way to the adder 354.
  • the addition unit 354 calculates the pixel value C included in the foreground component image based on the processing unit supplied from the processing unit determination unit 351, by using the matrix expression supplied from the equation generation unit 353. Set to. The adding unit 354 supplies the matrix in which the pixel values C are set to the calculating unit 355.
  • the calculation unit 355 calculates the foreground component Fi / v from which motion blur has been removed by processing based on a solution method such as the sweeping out method (GA uss-JordAn elimination method), and the motion blur has been removed.
  • Fi corresponding to any one of integers from 0 to 8, which is a pixel value of the foreground, is calculated, and a motion composed of Fi, which is a pixel value from which motion blur has been removed, is shown in FIG.
  • the foreground component image from which the blur has been removed is output to the motion blur adding unit 356 and the selecting unit 357.
  • the motion-poker adding unit 3 56 includes a motion-blur adjustment amount v ′ having a value different from the motion amount V, for example, a motion-blur adjustment amount v ′ having a half value of the motion amount V, and a value unrelated to the motion amount V.
  • a motion-blur adjustment amount v ′ having a half value of the motion amount V
  • a value unrelated to the motion amount V By giving the motion blur adjustment amount v ′, the amount of motion blur can be adjusted. For example, as shown in FIG. 60, the motion-blur adding unit 3556 divides the foreground pixel value Fi from which the motion blur has been removed by the motion-blur adjustment amount v ′ to obtain the foreground component Fi / v.
  • the pixel value C02 is (F01) / v'
  • the pixel value C03 is (F01 + F02) / v '
  • the pixel value C04 is ( F01 + F02 + F03) / v '
  • the pixel value C05 is (F02 + F03 + F04) / v'.
  • the motion poke addition unit 356 supplies the foreground component image with the amount of motion blur adjusted to the selection unit 357.
  • the selection unit 357 supplies, for example, a foreground component image from which the motion blur has been removed supplied from the calculation unit 355 and a motion blur addition unit 356 based on a selection signal corresponding to the user's selection.
  • One of the foreground component images having the adjusted amount of motion blur adjusted is selected, and the selected foreground component image is output.
  • the motion blur adjustment unit 106 can adjust the amount of motion blur based on the selection signal and the motion blur adjustment amount v ′.
  • the motion poke adjustment unit 106 calculates the equation (71) as Generates the expression in the matrix shown.
  • the motion-blur adjusting unit 106 calculates Fi, which is a pixel value in which the amount of motion blur has been adjusted, by establishing a formula of a number corresponding to the length of the processing unit. Similarly, for example, when the number of pixels included in the processing unit is 100, an equation corresponding to 100 pixels is generated, and Fi is calculated.
  • FIG. 62 is a diagram illustrating another configuration of the motion-blur adjusting unit 106.
  • the same parts as those in the case shown in FIG. 56 are denoted by the same reference numerals, and description thereof will be omitted.
  • the selection unit 361 supplies the input motion vector and its position signal to the processing unit determination unit 351 and the modeling unit 352 as they are, or
  • the magnitude of the torque is replaced by the motion blur adjustment amount v ', and the motion vector whose size is replaced by the motion blur adjustment amount v' and its position signal are processed unit determination unit 3 51 1 and modeling unit 3 5 to 2
  • the processing unit determination unit 35 1 to the calculation unit 35 5 of the motion blur adjustment unit 106 in FIG. 62 correspond to the values of the motion amount V and the motion blur adjustment amount v ′.
  • the amount of motion blur can be adjusted. For example, when the motion amount V is 5 and the motion blur adjustment amount v ′ is 3, the processing unit determination unit 35 1 to the operation unit 35 5 of the motion blur adjustment unit 106 in FIG. 5
  • an operation is executed in accordance with the model shown in FIG.
  • the motion poke adjustment unit 106 generates an equation corresponding to the motion amount V and the processing unit, sets the pixel value of the foreground component image in the generated equation, and reduces the amount of motion blur. An adjusted foreground component image is calculated.
  • step S ⁇ b> 251 the processing unit determination unit 351 of the motion blur adjustment unit 106 generates a processing unit based on the motion vector and the area information, and uses the generated processing unit as a modeling unit.
  • Supply 3 5 2 the processing unit determination unit 351 of the motion blur adjustment unit 106 generates a processing unit based on the motion vector and the area information, and uses the generated processing unit as a modeling unit.
  • step S252 the modeling unit 352 of the motion-blur adjusting unit 106 selects or generates a model according to the motion amount V and the processing unit.
  • step S253 the equation generator 353 creates a normal equation based on the selected model.
  • step S254 the adding unit 354 sets the pixel value of the foreground component image in the created normal equation.
  • step S255 the adding unit 354 determines whether or not the pixel values of all pixels corresponding to the processing unit have been set, and sets the pixel values of all pixels corresponding to the processing unit. If it is determined that has not been performed, the process returns to step S254, and the process of setting the pixel value in the normal equation is repeated.
  • step S255 If it is determined in step S255 that the pixel values of all the pixels in the processing unit have been set, the process proceeds to step S256, where the arithmetic unit 355 supplies the data from the adding unit 354. Based on the normal equation in which the set pixel value is set, the pixel value of the foreground with the amount of motion blur adjusted is calculated, and the process ends.
  • the motion-bokeh adjusting unit 106 can adjust the amount of motion blur from the foreground image including the motion blur based on the motion vector and the area information.
  • the configuration of the motion-blur adjusting unit 106 shown in FIG. 56 is an example, and is not the only configuration.
  • the signal processing unit 12 whose configuration is shown in FIG. 10 is included in the input image.
  • the amount of motion blur can be adjusted.
  • the signal processing unit 12 having the configuration shown in FIG. 10 can calculate the mixture ratio, which is the buried information, and output the calculated mixture ratio.
  • FIG. 64 is a block diagram illustrating another configuration of the function of the signal processing unit 12.
  • the region specifying unit 103 supplies the region information to the mixture ratio calculating unit 104 and the combining unit 371.
  • the mixture ratio calculation unit 104 supplies the mixture ratio to the foreground / background separation unit 105 and the synthesis unit 371.
  • the foreground / background separation unit 105 supplies the foreground component image to the synthesis unit 371.
  • the synthesizing unit 37 based on the mixture ratio supplied from the mixture ratio calculation unit 104 and the region information supplied from the region identification unit 103, generates an arbitrary background image and a foreground / background separation unit 10
  • the foreground component image supplied from 5 is synthesized, and a synthesized image in which an arbitrary background image and a foreground component image are synthesized is output.
  • FIG. 65 is a diagram illustrating a configuration of the combining unit 371.
  • the background component generation unit 3881 generates a background component image based on the mixing ratio and an arbitrary background image, and supplies the background component image to the mixed area image synthesis unit 382.
  • the mixed area image synthesizing section 382 generates a mixed area synthesized image by synthesizing the background component image and the foreground component image supplied from the background component generating section 381, and generates the generated mixed area synthesized image.
  • the image is supplied to the image synthesizing unit 3 83.
  • the image synthesizing section 383 synthesizes the foreground component image, the mixed area synthesized image supplied from the mixed area image synthesizing section 382, and an arbitrary background image based on the area information to generate a synthesized image. Output.
  • the synthesizing unit 3771 can synthesize the foreground component image with an arbitrary background image.
  • FIG. 66 shows still another configuration of the function of the signal processing unit 12 for adjusting the amount of motion blur.
  • the signal processing unit 12 shown in FIG. 10 performs the region identification and the calculation of the mixture ratio in order
  • the signal processing unit 12 shown in FIG. 66 performs the region identification and the calculation of the mixture ratio. Perform in parallel.
  • the input image is supplied to the mixture ratio calculating section 401, the foreground / background separating section 402, the area specifying section 103, and the object extracting section 101.
  • the mixing ratio calculation unit 401 calculates the estimated mixing ratio when the pixel belongs to the covered background area and the estimated mixing ratio when the pixel belongs to the anchored background area. The ratio is calculated for each of the pixels included in the input image, and the estimated mixture ratio when the calculated pixel is assumed to belong to the covered background area, and the pixel belongs to the covered background area Is supplied to the foreground / background separation unit 402.
  • FIG. 67 is a block diagram illustrating an example of the configuration of the mixture ratio calculation section 401.
  • the estimated mixture ratio processing unit 201 shown in FIG. 67 is the same as the estimated mixture ratio processing unit 201 shown in FIG.
  • the estimated mixture ratio processing unit 202 shown in FIG. 67 is the same as the estimated mixture ratio processing unit 202 shown in FIG.
  • the estimated mixture ratio processing unit 201 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the covered background area based on the input image, and outputs the calculated estimated mixture ratio.
  • the estimated mixture ratio processing unit 202 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the uncovered background area based on the input image, and outputs the calculated estimated mixture ratio.
  • the foreground / background separation unit 402 receives the estimated mixture ratio provided from the mixture ratio calculation unit 401 assuming that the pixel belongs to the covered background area, and the pixel is included in the uncovered background area.
  • the foreground component image is generated from the input image based on the estimated mixture ratio when it is assumed that the foreground component belongs to and the region information supplied from the region identification unit 103, and the generated foreground component image is subjected to the motion blur adjustment unit.
  • Ten 6 and the selector 107 are the selector 107.
  • FIG. 68 is a block diagram showing an example of the configuration of the foreground / background separation unit 402. As shown in FIG. The same parts as those of the foreground / background separation unit 105 shown in FIG. 48 are denoted by the same reference numerals, and description thereof will be omitted.
  • the selection unit 421 performs estimation based on the region information supplied from the region identification unit 103 when the pixel supplied from the mixture ratio calculation unit 401 is assumed to belong to the covered background region. One of the mixture ratio and the estimated mixture ratio when the pixel is assumed to belong to the uncovered background area is selected, and the selected estimated mixture ratio is supplied to the separation unit 251 as the mixture ratio. .
  • the separation unit 251 extracts the foreground component and the background component from the pixel values of the pixels belonging to the mixed region based on the mixture ratio and the region information supplied from the selection unit 421, and extracts the extracted foreground.
  • the components are supplied to the synthesizing unit 255 and the background component is supplied to the synthesizing unit 255.
  • the separating section 25 1 can have the same configuration as the configuration shown in FIG.
  • the synthesizing section 25 3 synthesizes and outputs the foreground component image.
  • the synthesizing unit 255 synthesizes and outputs the background component image.
  • the motion poke adjustment unit 106 shown in FIG. 66 can have the same configuration as that shown in FIG. 10, and the foreground / background separation unit 402 is used based on the area information and the motion vector. It adjusts the amount of motion blur included in the supplied foreground component image and outputs a foreground component image with the adjusted amount of motion blur.
  • the selection unit 107 shown in FIG. 66 includes a foreground component image supplied from the foreground / background separation unit 402 and a motion blur adjustment unit 106 based on a selection signal corresponding to the user's selection.
  • One of the supplied foreground component images with the adjusted amount of motion blur is selected, and the selected foreground component image is output.
  • FIG. 69 is a block diagram illustrating another configuration of the function of the signal processing unit 12 that combines the foreground component image with an arbitrary background image. While the signal processing unit 12 shown in FIG. 64 performs the area specification and the calculation of the mixing ratio serially, the signal processing unit 12 shown in FIG. 69 performs the area specification and the calculation of the mixing ratio in parallel. To do.
  • the mixture ratio calculation unit 401 shown in FIG. 69 calculates the estimated mixture ratio when pixels are assumed to belong to the covered background area based on the input image, and determines that the pixels belong to the uncovered background area.
  • the estimated mixture ratio under the assumption is calculated for each of the pixels included in the input image, and the estimated mixture ratio under the assumption that the calculated pixel belongs to the covered background area, and the pixel is in the uncovered background. Is supplied to the foreground / background separation unit 402 and the synthesis unit 431, assuming that the mixture ratio belongs to the foreground / background region.
  • the synthesizing unit 431 supplies the estimated mixture ratio when the pixel belongs to the covered background area and the pixel that belongs to the uncovered background area, supplied from the mixture ratio calculation unit 401. Based on the estimated mixture ratio and the region information supplied from the region identification unit 103, an arbitrary background image is combined with the foreground component image supplied from the foreground / background separation unit 402, A composite image in which an arbitrary background image and a foreground component image are composited is output.
  • FIG. 70 is a diagram illustrating a configuration of the combining unit 431. Portions similar to the functions shown in the block diagram of FIG. 65 are denoted by the same reference numerals, and description thereof will be omitted.
  • the selection unit 4441 based on the region information supplied from the region identification unit 103, supplies the pixels supplied from the mixture ratio calculation unit 401 to the covered background region. Either the estimated mixture ratio when the pixel is assumed to belong to the anchored background region or the estimated mixture ratio when the pixel belongs to the anchored background area is selected.
  • the mixed area image synthesizing unit 382 shown in FIG. 70 generates a mixed area synthesized image by synthesizing the background component image and the foreground component image supplied from the background component generating unit 381, The generated mixed area composite image is supplied to the image compositing unit 3833.
  • the image synthesizing section 383 synthesizes the foreground component image, the mixed area synthesized image supplied from the mixed area image synthesizing section 382, and an arbitrary background image based on the area information to generate a synthesized image. Output.
  • the combining unit 4331 can combine the foreground component image with an arbitrary background image.
  • the mixing ratio has been described as the ratio of the background component included in the pixel value, it may be the ratio of the foreground component included in the pixel value.
  • FIG. 71 is a diagram illustrating a configuration example of a signal processing device according to the present invention.
  • the thermography device 451 detects infrared radiation radiated from the object to be measured by a built-in infrared sensor, such as an infrared CCD, and responds to the detected infrared wavelength or intensity. Generate a signal.
  • the thermographic device 451 converts the generated signal from analog to digital, compares it with reference data corresponding to a reference temperature, generates temperature data indicating the temperature of each part of the object, and transmits the generated temperature data to a signal. Output to processing section 4 52.
  • the thermographic device 451 like the sensor 11, has an integrating effect on space and on time.
  • the temperature data supplied by the thermography device 451 to the signal processing unit 452 has the same configuration as the image data of a moving image, and is a value indicating the temperature of each part of the object to be measured ( (Corresponding to the pixel value of the image data) is two-dimensionally arranged in the spatial direction (corresponding to the frame of the image data), and is also data arranged in the time direction.
  • the signal processing unit 452 adjusts the distortion included in the input temperature data and caused by the movement of the object to be measured. For example, the signal processor 452 extracts a more accurate temperature of a desired portion of the object to be measured.
  • FIG. 72 is a flowchart illustrating the process of adjusting the amount of motion blur by the signal processing unit 452.
  • the signal processing unit 452 acquires temperature data in which values indicating temperature are two-dimensionally arranged corresponding to each part of the object to be measured.
  • the signal processing unit 452 generates data indicating the movement based on the temperature data.
  • step S302 the signal processing unit 452 sets the temperature corresponding to the object other than the desired object and the foreground area consisting only of the value indicating the temperature corresponding to the object whose temperature is to be measured. Identify the temperature data area in the background area consisting of only the indicated values, and in the mixed area where temperature information corresponding to the desired object and temperature information corresponding to objects other than the desired object are mixed. .
  • step S303 the signal processor 452 determines whether or not the value indicating the temperature included in the temperature data belongs to the mixed region. Proceeding to step 04, the mixture ratio is calculated by the same processing as the processing in step S102 in FIG.
  • step S305 the signal processing unit 452 separates information on the temperature corresponding to the object whose temperature is desired to be measured by the same processing as the processing in step S103 in FIG. The procedure proceeds to step S306.
  • the processing of the separation of the temperature information in step S305 involves the radiation of the object and the temperature, such as Kirchhoff's law or Stefan's Boltzmann's law.
  • the temperature information is converted into the amount of infrared energy emitted from the object whose temperature is desired to be measured based on the law indicating the relationship with the infrared light, and the converted amount of infrared energy is separated.
  • the separated energy amount may be converted into a temperature.
  • the signal processing unit 452 can separate the temperature information with higher accuracy than when the temperature information is separated as it is.
  • step S303 If it is determined in step S303 that the value indicating the temperature included in the temperature data does not belong to the mixed region, there is no need to perform processing for separating temperature information corresponding to the object for which temperature measurement is desired. The processing of step S304 and step S305 is skipped, and the procedure proceeds to step S306.
  • step S306 the signal processing unit 452 uses the value indicating the temperature belonging to the foreground area and the temperature information corresponding to the object for which the temperature measurement is desired, for the object for which the temperature measurement is desired. Generate temperature data.
  • step S307 the signal processing unit 452 generates a model corresponding to the generated temperature data by the same processing as the processing in step S251 in FIG.
  • step S308 the signal processing unit 452 requests the temperature measurement based on the generated model in the same processing as the processing in steps S252 to S255 in FIG. 63.
  • the amount of motion blur included in the temperature data corresponding to the object is adjusted, and the process ends.
  • the signal processing unit 452 adjusts the amount of motion blur included in the temperature data generated by the motion of the object to be measured, thereby obtaining a more accurate temperature of each part of the object. Can be calculated.
  • FIG. 73 is a diagram illustrating a configuration example of a signal processing device according to the present invention.
  • weight measurement is performed.
  • the pressure area sensor 501 is constituted by a plurality of pressure sensors, and measures a load with respect to a unit area of a plane, that is, a pressure.
  • the pressure area sensor 501 has a structure in which a plurality of pressure sensors 5 1 1 1 1 1 to 5 1 1 ⁇ M ⁇ N are two-dimensionally arranged on the floor surface. Have.
  • the pressure area sensor 501 will be the one of the pressure sensor 511-1-1 to 5-11M-N. So
  • it detects the applied pressure, generates weight data indicating the weight corresponding to each measurement range of the pressure sensors 5 1 1 1-1 to 5 1 1 -M-N, and generates the generated weight data.
  • the signal is output to the signal processing unit 502.
  • Pressure sensor 5 1 1 1 1 to 5 1 1 1 M-N is, for example, a sensor that uses birefringence caused by distortion when transparent force is applied to a transparent elastic body, so-called photoelasticity, etc. It consists of.
  • the pressure area sensor 501 may be configured as a single sensor using photoelasticity.
  • Fig. 75 shows the weight of each part of the object 5 12 added to that of the pressure sensor 5 11 1 m-1 to 5 11 1 m-N that constitutes the pressure area sensor 501. It is a figure explaining a load.
  • a load A corresponding to the weight of the leftmost part in the drawing of the object 5112 is applied to the pressure sensor 5111m-1.
  • the load b corresponding to the weight of the second portion from the left in the drawing of the object 5 12 is applied to the pressure sensor 5 1 1-m-2.
  • the load c corresponding to the weight of the third position from the left of the object 5112 in the figure is applied to the pressure sensor 5111m-3.
  • the load d corresponding to the weight of the fourth position from the left in the drawing of the object 5 121 is applied to the pressure sensor 5 11 1 m-4.
  • the load e corresponding to the weight of the fifth portion from the left of the object 5112 in the figure is applied to the pressure sensor 5111-1m-5.
  • the load f corresponding to the weight of the part located at the sixth position from the left in the drawing of the object 511 is applied to the pressure sensor 511-m-6.
  • Load g, the weight data the pressure sensor 5 1 1 one m-7 a c a pressure area sensor 5 0 1 applied to output corresponding to the weight of the portion located on the 7 th from the left in FIG objects 5 1 2 Corresponds to the arrangement of the pressure sensors 5 1 1-1-1 to 5 1 1 1 M-N, and consists of values indicating the weights arranged two-dimensionally in the spatial direction.
  • FIG. 76 is a diagram illustrating an example of weight data output by the pressure area sensor 501 when the pressure area sensor 501 has an integration effect and the object 5122 is moving. .
  • the pressure sensor 5 11 1 m-1 applies a load A corresponding to the weight of the leftmost part in the drawing of the object 5 12 in the unit time to be measured.
  • the value A is output as a value indicating the included weight.
  • the pressure sensor 5 1 1 1 m—2 applies a load b corresponding to the weight of the second position from the left of the object 5 12 2 in the unit time to be measured, and then applies the object Since a load A corresponding to the weight of the leftmost portion in the drawing of 5 1 2 is applied, a value A + b is output as a value indicating the weight included in the weight data.
  • the pressure sensor 5 1 1 — m— 3 applies a load c corresponding to the weight of the third position from the left in the drawing of the object 5 12 in the unit time to be measured, and the object 5 1 A load b corresponding to the weight of the second position from the left in the drawing of FIG. 2 is applied, and then a load A corresponding to the weight of the leftmost portion of the object 5 12 in the drawing is applied. Since it is added, the value A + b + c is output as a value indicating the weight included in the weight data.
  • the pressure sensor 5 1 1 1 m—4 receives a load d corresponding to the weight of the fourth position from the left in the drawing of the object 5 1 2 in the unit time to be measured, and the object 5 1
  • the load c corresponding to the weight of the third position from the left in the figure in Fig. 2 is applied, and the load b corresponding to the weight of the second position from the left in the figure of the object 5 12 b
  • a load A corresponding to the weight of the leftmost part of the object 5 12 in the figure is added, so that the value A + b Output + c + d.
  • a load e corresponding to the weight of the fifth position from the left in the drawing of the object 5 1 2 is applied in the unit time to be measured, and the object 5 1 A load d corresponding to the weight of the fourth position from the left in the figure in Fig. 2 is applied, and a load c corresponding to the weight of the third position from the left in the object 5 12 in the figure c Is added, and then a load b corresponding to the weight of the second portion from the left in the figure of the object 5 12 is added, so the value b + c is used as the value indicating the weight included in the weight data.
  • Output + d + e is used as the value indicating the weight included in the weight data.
  • the pressure sensor 5 1 1—m—6 detects the object 5 A load f corresponding to the weight of the sixth part from the left in the figure of 1 2 is applied, and the load corresponding to the weight of the fifth part from the left in the figure of the object 5 1 2 is added. e is added, and a load d corresponding to the weight of the fourth portion from the left in the drawing of the object 5 12 is added, and thereafter, the load 5 is added to the third from the left in the drawing of the object 5 12 Since the load c corresponding to the weight of the located portion is applied, the value c + d + e + f is output as a value indicating the weight included in the weight data.
  • the pressure sensor 5 1 1—m—7 is the object 5
  • a load g corresponding to the weight of the seventh part from the left in the figure of 12 is applied, and the load corresponding to the weight of the sixth part from the left in the figure of the object 5 12 is added.
  • f a load e corresponding to the weight of the fifth part from the left in the drawing of the object 5 12 is added, and then the load e in the fourth from the left in the drawing of the object 5 12 Since a load d corresponding to the weight of the located part is applied, the value d + e + f + g is output as a value indicating the weight included in the weight data.
  • the pressure sensor 5 1 1 m—8 is the object 5
  • a load g corresponding to the weight of the seventh part from the left in the figure of 12 is applied, and the load corresponding to the weight of the sixth part from the left in the figure of the object 5 12 is added.
  • f is added, and a load e corresponding to the weight of the fifth portion from the left in the drawing of the object 5 12 is added, so the value e + is used as a value indicating the weight included in the weight data.
  • the pressure sensor 5 1 1—m—9 sets the object 5
  • a load g corresponding to the weight of the seventh position from the left in the figure of 12 is applied, and the load corresponding to the weight of the sixth position from the left in the figure of the object 5 12 is added. Since f is added, the value f + g is output as a value indicating the weight included in the weight data.
  • the pressure sensor 5 1 1—m—10 applies a load g corresponding to the weight of the seventh position from the left of the object 5 12 in the figure in the unit time to be measured.
  • the value g is output as a value indicating the included weight.
  • the pressure area sensor 501 has a value A output from the pressure sensor 5 1 1 m-1, the value A + b output from the pressure sensor 5 1 1 m-2, and the pressure sensor 5 1 1 m 3 Comes out Input value A + b + c, value output by pressure sensor 5 1 1 1 m-4 A + b + c + d-Value output by pressure sensor 5 1 1-m-5 b + c + d + e , Pressure sensor 5 1 1 1 m—6 outputs c + d + e + f, pressure sensor 5 1 1—m—7 outputs d + e + f + g, pressure sensor 5 1 1—m — Gravity data including the value e + f + g output by 8 and the pressure sensor
  • the signal processing unit 502 adjusts the distortion generated by the movement of the object 512 to be measured from the weight data supplied from the pressure area sensor 501. For example, the signal processing unit 502 extracts a more accurate weight of a desired portion of the object 512 to be measured.
  • the signal processing unit 502 has a value A, a value A + b, a value A + b + c, a value A + b + c + d, a value b + c + d + e, a value c + d + e + From the weight data including f, value d + e + f + g, value e + f + g, value f + g, and value g, load A, load b, load load d, load e, load f, and load Extract g.
  • step S401 the signal processing unit 502 acquires the weight data output from the pressure area sensor 501.
  • step S402 the signal processing unit 502 determines whether or not the load of the object 512 is applied to the pressure area sensor 501 based on the weight data acquired from the pressure area sensor 501.
  • the process proceeds to step S403, and based on the change in the weight data, the object 5 is determined. Get 1 2 moves.
  • step S404 the signal processing unit 502 performs the data for one line of the pressure sensor 511 included in the weight data along the direction of the movement acquired in the processing of step S403. Get the evening.
  • step S405 the signal processing unit 502 calculates the load corresponding to the weight of each part of the object 512, and the processing ends.
  • the signal processing unit 502 performs, for example, processing similar to the processing described with reference to the flowchart in FIG. Calculate the load corresponding to the weight of each part of the object 5 12.
  • step S402 If it is determined in step S402 that the load of the object 512 is not applied to the pressure area sensor 501, there is no weight data to be processed, and the process ends.
  • the weighing system can calculate an accurate load corresponding to the weight of each part of the moving object.
  • FIG. 78 is a block diagram showing a configuration for generating a high-resolution image by increasing the number of pixels per frame as another function of the signal processing unit 12.
  • the frame memory 701 stores the input image in frame units, and supplies the stored image to the pixel value generation unit 702 and the correlation calculation unit 703.
  • the correlation calculation unit 703 calculates a correlation value between pixel values of horizontally adjacent pixel data included in the image supplied from the frame memory 701, and supplies the calculated correlation value to the pixel value generation unit 702.
  • the pixel value generation unit 702 uses the correlation value supplied from the correlation calculation unit 703 to determine the horizontal pixel value from the pixel value of the central pixel based on the pixel values of the three pixel data arranged horizontally. The component of the double-density image is calculated, and the pixel value is used to generate a horizontal double-density image.
  • the pixel value generator 702 supplies the generated horizontal double-density image to the frame memory 704.
  • the frame memory 704 stores the horizontal double-density image supplied from the pixel value generation unit 720 in frame units, and stores the stored horizontal double-density image in the pixel value generation unit 705 and the correlation calculation unit. To 706.
  • the correlation calculation unit 706 calculates a correlation value between pixel values of vertically adjacent pixel data included in the horizontal double-density image supplied from the frame memory # 04, and generates a pixel value generation unit 705. To supply.
  • the pixel value generation unit 705 uses the correlation value supplied from the correlation calculation unit 703 to determine the vertical pixel value from the pixel value of the central pixel based on the pixel values of the three pixel data arranged vertically. The component of the double-density image is calculated, and the pixel value is used to generate a double-density image.
  • the pixel value generation unit 705 outputs the generated double-density image.
  • FIG. 79 is a diagram corresponding to FIG. 12 and illustrating the arrangement of pixels provided in the sensor 11 which is a CCD and the area corresponding to the pixel data of the horizontal double-density image.
  • a to I indicate individual pixels.
  • the regions A to r are light receiving regions in which the individual pixels of the pixels A to I are vertically halved. When the width of the light receiving area of the pixels A to I is 21, the width of the areas A to r is 1.
  • the pixel value generation unit 702 calculates the pixel value of the pixel data corresponding to the regions A to r.
  • FIG. 80 is a diagram illustrating pixel data corresponding to light input to regions A to r.
  • F ′ (x) in FIG. 80 indicates a spatially ideal pixel value corresponding to the input light and the minute spatial section.
  • the pixel value of one pixel data is represented by a uniform integration of the ideal pixel value f (x)
  • the pixel value Y1 of the pixel data corresponding to the area i is expressed by the following equation (72)
  • the pixel value Y2 of the pixel data corresponding to the area j is represented by Expression (73)
  • the pixel value Y3 of the pixel E is represented by Expression (74).
  • Equations (72) to (74) xl, x2, and ⁇ 3 are the spatial coordinates of the light receiving area, the area of pixel ⁇ , and the respective boundaries of area j.
  • equations (75) and (76) can be derived.
  • ⁇ 1 2 ⁇ 3- ⁇ 2 (7 5)
  • ⁇ 2 2 ⁇ 3- ⁇ 1 (7 6)
  • the pixel value Y1 of the pixel data corresponding to the region i is calculated by Expression (75). Can be. If the pixel value Y3 of the pixel E and the pixel value Y1 of the pixel data corresponding to the area i are known, the pixel value Y2 of the pixel data corresponding to the area j is calculated by the equation (76). be able to.
  • the other pixel data corresponding to the two regions of the pixel can be obtained. Can be calculated.
  • FIG. 81A shows the relationship between pixel D, pixel E, and pixel F and the spatially ideal pixel value f '(x).
  • Pixel D, pixel E, and pixel F have a spatial integration effect, and one pixel outputs one pixel value. Therefore, as shown in Fig. 8 1B, each pixel value is one pixel value. Is output.
  • the pixel value output by pixel E corresponds to the value obtained by integrating pixel value f '(x) within the range of the light receiving area.
  • the correlation calculator 703 generates a correlation value between the pixel value of the pixel D and the pixel value of the pixel E, and a correlation value between the pixel value of the pixel E and the pixel value of the pixel F, and generates a pixel value. Supply to unit # 2.
  • the correlation value calculated by the correlation calculator 703 is, for example, based on a difference value between the pixel value of the pixel D and the pixel value of the pixel E or a difference value between the pixel value of the pixel E and the pixel value of the pixel F. Is calculated. When the pixel values of neighboring pixels are closer, the correlation of those pixels can be said to be stronger. That is, a smaller value of the pixel value difference value indicates a stronger correlation.
  • the unit 7202 divides the pixel value of the pixel D by 2 and uses the resulting value as the pixel data of the area i.
  • the pixel value generation unit 702 calculates the area based on the pixel value of the pixel E and the pixel value of the pixel data of the area i by Expression (75) or Expression (76). Calculate the pixel value of the pixel data of j.
  • the pixel value generation unit 7002 calculates, for example, the pixel value of the pixel data of the area g and the pixel value of the pixel data of the area h for the pixel D, and calculates the pixel value of the area i for the pixel E. Calculate the pixel value of the pixel data of the area k and the pixel value of the pixel data of the area j, and then, for the pixel F, the pixel value of the pixel data of the area k and the pixel value of the pixel data of the area 1 The pixel values of the pixel data are sequentially calculated as described above for the pixels in the screen so as to calculate the horizontal double-density image including the pixel values of the calculated pixel data. The image is supplied to the frame memory 704.
  • the pixel value generation unit 705 like the pixel value generation unit 720, calculates the correlation between the pixel values of three pixels arranged vertically in the horizontal double-density image supplied from the correlation operation unit 706, and From the pixel values of the three pixels, a double-density image is generated by calculating the pixel value of the image corresponding to the area obtained by dividing the light receiving area of the pixel into two vertically.
  • the pixel value generation unit 720 When the image illustrated in FIG. 82 is an input image, the pixel value generation unit 720 generates a horizontal double-density image illustrated in FIG. 83.
  • the pixel value generation unit 705 When the image shown in FIG. 82 is input, the pixel value generation unit 705 generates the image shown in FIG. 84, and the horizontal double-density image shown in FIG. 83 is input. At this time, a double-density image as shown in FIG. 85 is generated.
  • FIG. 86 is a flowchart illustrating a process of generating a double-density image by the signal processing unit 12 having the configuration illustrated in FIG.
  • the signal processing unit 12 obtains the input image and stores it in the frame memory 701.
  • step S602 the correlation calculator ⁇ 03 selects one pixel on the screen as a pixel of interest, and selects a pixel of interest based on the pixel value stored in the frame memory 701. A correlation value between horizontally adjacent pixels is obtained.
  • step S603 the pixel value generation unit 702 determines the correlation value supplied from the correlation operation unit 703. The pixel value of the pixel data on one side of the horizontal double-density image is generated from the pixel value of the stronger correlation, that is, the larger correlation value, based on
  • step S604 the pixel value generation unit 7202 generates pixel values of other pixels in the horizontal double-density image based on the characteristics of the CCD. Specifically, the pixel value generation unit 7202 calculates the pixel value calculated in the processing of step S603 based on the equations (75) and (76) described with reference to FIG. And the pixel values of the pixel data of the input image are calculated based on the pixel values of the pixel data of the input image.
  • the pixel data of the horizontal double-density image corresponding to the pixel of interest generated in the processing of Steps S603 and S604 is stored in the frame memory 704.
  • step S605 the pixel value generation unit 7202 determines whether or not processing of the entire screen has been completed. If it is determined that processing of the entire screen has not been completed, the procedure proceeds to step S605. Returning to step S602, the next pixel is selected as the pixel of interest, and the process of generating a horizontally doubled image is repeated.
  • step S605 If it is determined in step S605 that the processing of the entire screen has been completed, the process proceeds to step S606, where the correlation calculation unit 706 selects one pixel in the screen as a pixel of interest, Based on the pixel values of the horizontal double-density image stored in the frame memory 704, a correlation value of a pixel vertically adjacent to the target pixel is obtained.
  • step S 607 the pixel value generation unit 705 generates a pixel value on one side of the double-density image from a pixel value having a strong correlation based on the correlation value supplied from the correlation operation unit 706. .
  • step S608 the pixel value generation unit 705 generates another pixel value of the double-density image based on the characteristics of the CCD, as in step S604. More specifically, the pixel value generation unit 702 calculates the pixel value calculated in the process of step S607 based on the equations (75) and (76) described with reference to FIG. , And the pixel values of the other image data of the double-density image are calculated based on the pixel values of the pixel data of the horizontal double-density image. In step S609, the pixel value generation unit 705 determines whether or not processing of the entire screen has been completed. If it is determined that processing of the entire screen has not been completed, the procedure proceeds to step S609. Returning to S606, the next pixel is selected as the pixel of interest, and the process of generating a double-density image is repeated.
  • the pixel value generation unit 705 outputs the generated double-density image, and the process ends.
  • the signal processing unit 12 shown in FIG. 78 is configured to double the number of pixels in the vertical direction of the image and double the number of pixels in the horizontal direction from the input image. Images can be generated.
  • the signal processing unit 12 whose configuration is shown in FIG.
  • the case where the image of the real space having the three-dimensional space and the time-axis information is projected to the two-dimensional space and the space-time having the time-axis information using the video camera is described as an example. Is not limited to this example, and corrects the distortion caused by the projection when more first information of the first dimension is projected onto less second information of the second dimension. It can be used to extract significant information, or to synthesize images more naturally.
  • the senor 11 is not limited to a CCD, but is a solid-state image sensor.
  • a sensor such as a BBD (bucket brigade device) ⁇ CID (chage injection device) or a CPD (chage priming device) can be used.
  • the sensor is not limited to a sensor in which the detection elements are arranged in a matrix, but may be a sensor in which the detection elements are arranged in a line.
  • the recording medium on which the program for performing the signal processing of the present invention is recorded is a magnetic disk 51 (on which the program is recorded, which is distributed in order to provide the program to the user separately from the computer).
  • Optical disk 5 2 including CD-ROM (Comp Aut Disk-Read Only Memory), DVD (Digit A 1 Vers A tile Disk)), magneto-optical disk 5 3 (MD (Mini- Disk)), or package media such as semiconductor memory 54, as well as ROM 22 that stores programs that are provided to users in a state of being pre-installed in a computer.
  • the storage unit 28 includes a hard disk and the like.
  • the steps for describing the program recorded on the recording medium are not limited to the processing performed in chronological order according to the described order, but are not necessarily performed. This includes processes that are not performed in chronological order but are executed in parallel or individually.
  • the foreground region consisting of only the foreground object components constituting the foreground object in the image
  • the background region consisting of only the background object components constituting the background object in the image data
  • the image In the data it is a mixed area of the foreground object component and the background object component, and is a covered background area formed at the front end of the foreground object in the movement direction and the rear end of the foreground object in the movement direction.
  • the uncovered area from the outer edge of the covered background area centering on the foreground area is obtained.
  • a processing unit consisting of pixel data on one straight line is determined, and the pixel value of the pixel in the processing unit determined based on the processing unit and the foreground object component in the mixed area are divided by the set number of divisions.
  • a normal equation is generated by setting an unknown number of divided values, and the normal equation is solved by the least squares method, so that a foreground object component with an adjusted amount of motion blur is generated. Now you can adjust the amount of motion blur.
  • the sample data existing in the detection data before or after the attention detection data in which the attention sample data that is the attention sample data exists exists in the foreground sample corresponding to the object serving as the foreground in the real world.
  • the sample data that is extracted as data and exists in the detection data after or before the target detection data is extracted as the background sample that corresponds to the background object in the real world. Since the mixture ratio of the sample data of interest is detected based on,, and the background sample, the mixture ratio can be detected.
  • a static motion determination is performed based on the detection data, and a mixed region including a sample data in which a plurality of objects in the real world are mixed is detected based on a result of the static motion determination.
  • a first signal which is a real-world signal having a first dimension
  • a second signal having a second dimension which is smaller than the first dimension obtained by detection by the sensor, is generated.
  • a second dimension having a smaller number of dimensions than the first dimension obtained by detecting a first signal, which is a real-world signal having the first dimension, with a sensor.
  • a second signal including the distortion of the first signal is obtained, and a signal processing based on the second signal is performed, so that a third signal whose distortion is reduced compared to the second signal is generated. Therefore, signal distortion can be reduced.
  • a foreground region consisting of only the foreground object component constituting the foreground object a background region consisting of only the background object component constituting the background object, and the foreground object component and the background object are included.
  • a mixed region formed by mixing the background component with the foreground object component and the background object component in at least the mixed region is detected, and the foreground is determined based on the specified result and the mixing ratio. Since the object and the background object are separated, it is possible to use the foreground object and the background object, which are higher quality data.
  • a foreground region consisting only of the foreground object components constituting the foreground object, a background region consisting solely of the background object components constituting the background object, and a foreground object component and a background object. Since the mixture region composed of the mixture of the foreground object component and the background object component in at least the mixture region is detected based on the result of the identification, a significant The mixture ratio, which is information, can be extracted.
  • the foreground object component and the background object component are mixed in a mixed region in which the foreground object component forming the foreground object and the background object component forming the background object are mixed.
  • the ratio is detected and the foreground and background objects are separated based on the mixture ratio. As a result, it is possible to use foreground objects and background objects, which are higher quality images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Studio Devices (AREA)
  • Optical Recording Or Reproduction (AREA)
  • Studio Circuits (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

明細書 信号処理装置および方法、 並びに記録媒体 技術分野 本発明は、 信号処理装置および方法、 並びに記録媒体に関し、 特に、 センサ により検出した信号と現実世界との違いを考慮した信号処理装置および方法、 並びに記録媒体に関する。 背景技術 現実世界における事象をセンサで検出し、画像、音声、温度、圧力、加速度、 またはにおいに対応するデータなどの、センサが出力するサンプリングデ一夕 を処理する技術が広く利用されている。
例えば、静止している所定の背景の前で移動する物体をビデオカメラで撮像 して得られる画像には、 物体の移動速度が比較的速い場合、 動きボケが生じる ことになる。
例えば、静止している所定の背景の前で移動する物体を C C D等を用いたビ デォカメラで撮像して得られる画像には、 物体の移動速度が比較的速い場合、 動きボケが生じることになる。すなわち、 センサである C C Dで現実世界を検 出した時に、 サンプリングデ一夕である画像には歪みが生じている。
従来、 このような動きボケを抑制するのに、 例えば、 電子シャツ夕の速度を 速め、 露光時間を短くするようにしている。
しかしながら、 このようにシャッ夕速度を速める方法は、撮像を行う前にビ デォカメラのシャツ夕速度を調整する必要がある。従って、 既に得られたボケ た画像を補正して、 鮮明な画像を得ることはできない。
また、 静止している背景の前で物体が移動するとき、移動する物体の画像自 身の混ざり合いによる動きボケのみならず、背景の画像と移動する物体の画像 との混ざり合いが生じる。従来は、 背景の画像と移動する物体の画像との混ざ り合いの状態を検出することは、 考えられていなかった。
また、 空間と時間軸を有する現実社会の情報がセンサにより取得され、 デ一 夕化される。 センサが取得したデータは、 現実社会の情報を、 現実社会より低 い次元の時空間に射影して得られた情報である。従って、 射影して得られた情 報は、 射影により発生する歪みを有している。 換言すれば、 センサが出力する デ一夕は、 現実社会の情報に対して歪みを有している。 さらに、 デ一夕は、 射 影による歪みを有しているが、 これを補正するための有意情報を含んでいる。 このようなセンサで取得したサンプリングデ一夕に対する従来の信号処理 では、 センサで取得したサンプリングデータを最も信頼できるデータと考え、 その後の伝送、 記録、 再生等における信号処理では、 伝送等による劣化を考慮 してオリジナルデータに近づけることしか考えられていなかった。
従来は、センサが出力するサンプリングデ一夕を最も信頼できるデ一夕と考 えていたため、 サンプリングデータより高質なデ一夕を作成したり、 サンプリ ングデ一夕から、射影による歪みを考慮したり、 その中に射影により埋もれた 有意情報を抽出する等の信号処理は全くされていなかった。 発明の閧示 本発明の目的は、ボケた画像などの検出信号に含まれる動きボケの量を調整 することができるようにすることにある。
本発明の他の目的は、背景の画像および移動する物体の画像など複数のォブ ジェク 卜の混ざり合いの状態を示す混合比を検出することができるようにす ることを目的とする。
本発明の他の目的は、センサが出力するサンプリングデータから歪みを除去 したり、有意情報を抽出することができる信号処理装置を提供することを目的 とする。例えば、 画像であれば検出信号に含まれる動きボケの量を調整するこ とができるようにすることを目的とする。
本発明は、それそれ時間積分効果を有する所定数の画素を有する撮像素子に よって取得された所定数の画素データから成る画像データを処理する画像処 理装置において、前記画像データにおいて前景オブジェク トを構成する前景ォ ブジェク ト成分のみからなる前景領域と、前記画像データにおいて背景ォブジ ェク トを構成する背景オブジェク ト成分のみからなる背景領域と、前記画像デ —夕において前記前景オブジェク ト成分と前記背景オブジェク ト成分とが混 合された領域であって、前記前景オブジェク トの動き方向先端部側に形成され るカバ一ドバックグラウン ド領域および前記前景オブジェク トの動き方向後 端部側に形成されるアンカバードバックグラウンド領域とを含む混合領域と を示す領域情報と、 前記画像データとに基づいて、 前記前景領域を中心とする 前記カバ一ドバックグラウン ド領域の外側端部から前記アンカバ一ドバック グラウンド領域の外側端部までの、前記前景オブジェク 卜の動き方向と一致す る少なく とも 1つの直線上に乗る画素デ一夕からなる処理単位を決定する処 理単位決定手段と、前記処理単位に基づいて決定される前記処理単位内の画素 の画素値と、前記混合領域における前記前景オブジェク ト成分を設定した分割 数で分割してなる未知数である分割値とを設定することで、正規方程式を生成 する正規方程式生成手段と、 前記正規方程式を最小自乗法で解くことで、 動き ボケ量の調整された前景オブジェク ト成分を生成する演算手段とを備えるこ とを特徴とする。
また、 本発明は、 それそれ時間積分効果を有する所定数の画素を有する撮像 素子によって取得された所定数の画素データから成る画像デ一夕を処理する 画像処理方法において、前記画像デ一夕において前景オブジェク トを構成する 前景オブジェク ト成分のみからなる前景領域と、前記画像データにおいて背景 オブジェク トを構成する背景オブジェク ト成分のみからなる背景領域と、前記 画像データにおいて前記前景ォブジェク ト成分と前記背景オブジェク ト成分 とが混合された領域であって、前記前景ォブジェク 卜の動き方向先端部側に形 成されるカバ一ドバックグラウン ド領域および前記前景オブジェク トの動き 方向後端部側に形成されるアンカバ一ドバックグラウン ド領域とを含む混合 領域とを示す領域情報と、 前記画像データとに基づいて、 前記前景領域を中心 とする前記カバ一ドバックグラウン ド領域の外側端部から前記アンカバ一ド パックグラウンド領域の外側端部までの、前記前景オブジェク トの動き方向と 一致する少なく とも 1つの直線上に乗る画素デ一夕からなる処理単位を決定 する処理単位決定ステツプと、前記処理単位に基づいて決定される前記処理単 位内の画素の画素値と、前記混合領域における前記前景ォブジェク ト成分を設 定した分割数で分割してなる未知数である分割値とを設定することで、正規方 程式を生成する正規方程式生成ステツブと、前記正規方程式を最小自乗法で解 くことで、動きボケ量の調整された前景オブジェク ト成分を生成する演算ステ ップとを含むことを特徴とする。
また、 本発明に係る記録媒体は、 それそれ時間積分効果を有する所定数の画 素を有する撮像素子によって取得された所定数の画素データから成る画像デ 一夕を処理する画像処理用のプログラムであって、前記画像データにおいて前 景オブジェク トを構成する前景オブジェク ト成分のみからなる前景領域と、前 記画像データにおいて背景オブジェク トを構成する背景オブジェク ト成分の みからなる背景領域と、前記画像デ一夕において前記前景オブジェク ト成分と 前記背景オブジェク ト成分とが混合された領域であって、前記前景オブジェク 卜の動き方向先端部側に形成されるカバードバックグラウン ド領域および前 記前景オブジェク トの動き方向後端部側に形成されるアンカバードバックグ ラウンド領域とを含む混合領域とを示す領域情報と、前記画像データとに基づ いて、前記前景領域を中心とする前記カバ一ドバックグラウンド領域の外側端 部から前記アンカバ一ドバックグラウンド領域の外側端部までの、前記前景ォ ブジェク 卜の動き方向と一致する少なく とも 1つの直線上に乗る画素デ一夕 からなる処理単位を決定する処理単位決定ステツブと、前記処理単位に基づい て決定される前記処理単位内の画素の画素値と、前記混合領域における前記前 景オブジェク ト成分を設定した分割数で分割してなる未知数である分割値と を設定することで、 正規方程式を生成する正規方程式生成ステップと、 前記正 規方程式を最小自乗法で解くことで、動きボケ量の調整された前景オブジェク ト成分を生成する演算ステツプとを含むことを特徴とするコンピュータが読 み取り可能なプログラムが記録されている。
また、 本発明は、 時間積分効果を有する所定の数の検出素子から成るセンサ によって所定の期間毎に取得された所定の数のサンプルデータから成る所定 期間毎の検出データを処理する信号処理装置において、注目 している前記サン プルデータである注目サンプルデータが存在する注目検出データの前または 後の検出データに存在する前記サンプルデータを、現実世界における前景とな るオブジェク トに対応する前景サンプルデータとして抽出する前景サンブル データ抽出手段と、前記注目検出デ一夕より後または前の検出データに存在す る前記サンプルデータを、現実世界における背景となるオブジェク トに対応す る背景サンプルデータとして抽出する背景サンプルデ一夕抽出手段と、前記注 目サンプルデ一夕、 前記前景サンプルデ一夕、 および前記背景サンブルデータ を基に、前記注目サンプルデータの混合比を検出する検出手段とを含むことを 特徴とする。
また、 本発明は、 時間積分効果を有する所定の数の検出素子から成るセンサ によって所定の期間毎に取得された所定の数のサンプルデータから成る所定 期間毎の検出データを処理する信号処理方法において、注目 している前記サン プルデ一夕である注目サンプルデータが存在する注目検出デ一夕の前または 後の検出デ一夕に存在する前記サンプルデータを、現実世界における前景とな るオブジェク トに対応する前景サンプルデータとして抽出する前景サンプル データ抽出ステップと、前記注目検出データより後または前の検出データに存 在する前記サンプルデ一夕を、現実世界における背景となるオブジェク トに対 応する背景サンプルデータと して抽出する背景サンブルデータ抽出ステップ と、 前記注目サンプルデータ、 前記前景サンブルデ一夕、 および前記背景サン ブルデータを基に、前記注目サンプルデ一夕の混合比を検出する検出ステツプ とを含むことを特徴とする。
また、 本発明に係る記録媒体は、 時間積分効果を有する所定の数の検出素子 から成るセンサによって所定の期間毎に取得された所定の数のサンプルデ一 タから成る所定期間毎の検出デ一夕を処理する信号処理用のプログラムであ つて、注目 している前記サンプルデータである注目サンプルデータが存在する 注目検出データの前または後の検出データに存在する前記サンブルデータを、 現実世界における前景となるオブジェク トに対応する前景サンプルデ一夕と して抽出する前景サンプルデータ抽出ステツブと、前記注目検出データより後 または前の検出データに存在する前記サンプルデ一夕を、現実世界における背 景となるオブジェク トに対応する背景サンブルデ一夕として抽出する背景サ ンプルデ一夕抽出ステップと、 前記注目サンプルデ一夕、 前記前景サンプルデ —夕、 および前記背景サンブルデ一夕を基に、 前記注目サンプルデ一夕の混合 比を検出する検出ステップとを含むことを特徴とするコンピュ一夕が読み取 り可能なプログラムが記録されている。
また、 本発明は、 時間積分効果を有する所定の数の検出素子から成るセンサ によって所定の期間毎に取得された所定の数のサンプルデータから成る所定 期間毎の検出デ一夕を処理する信号処理装置において、前記検出データに基づ いて静動判定を行う静動判定手段と、 静動判定の結果に基づいて、 現実世界に おける複数のオブジェク トが混ざり合ったサンプルデータを含む混合領域を 検出する検出手段とを含むことを特徴とする。
また、 本発明は、 時間積分効果を有する所定の数の検出素子から成るセンサ によって所定の期間毎に取得された所定の数のサンプルデータから成る所定 期間毎の検出デ一夕を処理する信号処理方法において、前記検出データに基づ いて静動判定を行う静動判定ステップと、 静動判定の結果に基づいて、 現実世 界における複数のォブジェク トが混ざり合ったサンプルデ一夕を含む混合領 域を検出する検出ステップとを含むことを特徴とする。
また、 本発明に係る記録媒体は、 時間積分効果を有する所定の数の検出素子 から成るセンサによって所定の期間毎に取得された所定の数のサンプルデー タから成る所定期間毎の検出デ一夕を処理する信号処理用のプログラムであ つて、 前記検出データに基づいて静動判定を行う静動判定ステップと、 静動判 定の結果に基づいて、現実世界における複数のオブジェク トが混ざり合ったサ ンブルデ一夕を含む混合領域を検出する検出ステップとを含むことを特徴と するコンビュー夕が読み取り可能なプログラムが記録されている。
また、 本発明に係る信号処理装置は、 第 1の次元を有する現実世界の信号で ある第 1の信号が、 センサに射影され、 前記センサによって検出することで得 た前記第 1の次元より少ない第 2の次元の第 2の信号を取得する取得手段と、 前記第 2の信号に基づく信号処理を行うことにより、射影により埋もれた有意 情報を前記第 2の信号から抽出する信号処理手段とを備えることを特徴とす る。
また、 本発明に係る記録媒体は、 第 1の次元を有する現実世界の信号である 第 1の信号が、 センサに射影され、 前記センサによって検出することで得た前 記第 1の次元より少ない第 2の次元の第 2の信号を取得する取得ステツプと、 前記第 2の信号に基づく信号処理を行うことにより、射影により埋もれた有意 情報を前記第 2の信号から抽出する信号処理ステツプとを含むことを特徴と するコンピュ一夕が読み取り可能なプログラムが記録されている。
また、 本発明に係る信号処理装置は、 第 1の次元を有する現実世界の信号で ある第 1の信号をセンサによって検出することにより得た、前記第 1の次元に 比較し次元が少ない第 2の次元を有し、前記第 1の信号に対する歪を含む第 2 の信号を取得する取得手段と、前記第 2の信号に基づく信号処理を行うことに より、前記第 2の信号に比して前記歪の軽減された第 3の信号を生成する信号 処理手段とを備えることを特徴とす。
また、 本発明に係る信号処理装置は、 時間積分効果を有する所定の数の検出 素子から成るセンサによって取得された所定の数の検出信号を処理する信号 処理装置において、 前記検出信号の内、 前景オブジェク トを構成する前景ォブ ジェク ト成分のみから成る前景領域と、背景オブジェク トを構成する背景ォブ ジェク ト成分のみから成る背景領域と、前記前景オブジェク ト成分および前記 背景オブジェク ト成分とが混合されて成る混合領域とを特定する領域特定手 段と、少なく とも前記混合領域における前記前景オブジェク ト成分と前記背景 オブジェク ト成分との混合比を検出する混合比検出手段と、前記領域特定手段 の特定結果と前記混合比とに基づいて、 前記前景オブジェク トと、 前記背景ォ ブジェク トとを分離する分離手段とを含むことを特徴とする。
また、 本発明は、 時間積分効果を有する所定の数の検出素子から成るセンサ によって取得された所定の数の検出信号を処理する信号処理方法において、 前記検出信号の内、前景オブジェク トを構成する前景オブジェク ト成分のみ から成る前景領域と、背景オブジェク トを構成する背景オブジェク ト成分のみ から成る背景領域と、前記前景オブジェク ト成分および前記背景オブジェク ト 成分とが混合されて成る混合領域とを特定する領域特定ステップと、少なく と も前記混合領域における前記前景オブジェク ト成分と前記背景オブジェク ト 成分との混合比を検出する混合比検出ステツプと、前記領域特定ステツプの処 理の特定結果と前記混合比とに基づいて、 前記前景オブジェク トと、 前記背景 オブジェク トとを分離する分離ステップとを含むことを特徴とする。
また、 本発明に係る記録媒体は、 時間積分効果を有する所定の数の検出素子 から成るセンサによつて取得された所定の数の検出信号を処理する信号処理 用のプログラムであって、 前記検出信号の内、 前景オブジェク トを構成する前 景ォブジェク ト成分のみから成る前景領域と、背景オブジェク トを構成する背 景ォブジェク ト成分のみから成る背景領域と、前記前景オブジェク ト成分およ び前記背景オブジェク ト成分とが混合されて成る混合領域とを特定する領域 特定ステップと、少なく とも前記混合領域における前記前景オブジェク ト成分 と前記背景オブジェク ト成分との混合比を検出する混合比検出ステップと、前 記領域特定ステツブの処理の特定結果と前記混合比とに基づいて、前記前景ォ ブジェク トと、前記背景オブジェク トとを分離する分離ステップとを含むこと を特徴とするコンピュータが読み取り可能なプログラムが記録されている。 また、 本発明に係る信号処理装置は、 時間積分効果を有する所定の数の検出 素子から成るセンサによって取得された所定の数の検出信号を処理する信号 処理装置において、 前記検出信号の内、 前景オブジェク トを構成する前景ォブ ジェク ト成分のみから成る前景領域と、背景オブジェク トを構成する背景ォブ ジェク ト成分のみから成る背景領域と、前記前景オブジェク ト成分および前記 背景オブジェク ト成分とが混合されて成る混合領域とを特定する領域特定手 段と、 前記領域特定手段の特定結果に基づいて、 少なくとも前記混合領域にお ける前記前景オブジェク ト成分と前記背景オブジェク ト成分との混合比を検 出する混合比検出手段とを含むことを特徴とする。
また、本発明は、 時間積分効果を有する所定の数の検出素子から成るセンサ によって取得された所定の数の検出信号を処理する信号処理方法において、前 記検出信号の内、前景オブジェク トを構成する前景オブジェク ト成分のみから 成る前景領域と、背景ォブジヱク トを構成する背景オブジェク ト成分のみから 成る背景領域と、前記前景オブジェク ト成分および前記背景オブジェク ト成分 とが混合されて成る混合領域とを特定する領域特定ステップと、前記領域特定 ステツプの処理の特定結果に基づいて、少なく とも前記混合領域における前記 前景オブジェク ト成分と前記背景オブジェク ト成分との混合比を検出する混 合比検出ステップとを含むことを特徴とする。
また、 本発明に係る記録媒体は、 時間積分効果を有する所定の数の検出素子 から成るセンサによって取得された所定の数の検出信号を処理する信号処理 用のプログラムであって、 前記検出信号の内、 前景オブジェク トを構成する前 景ォブジェク ト成分のみから成る前景領域と、背景オブジェク トを構成する背 景ォブジェクト成分のみから成る背景領域と、前記前景オブジェク ト成分およ び前記背景オブジェク ト成分とが混合されて成る混合領域とを特定する領域 特定ステツプと、 前記領域特定ステツブの処理の特定結果に基づいて、 少なく とも前記混合領域における前記前景ォブジェク ト成分と前記背景ォブジェク ト成分との混合比を検出する混合比検出ステップとを含むことを特徴とする コンピュ一夕が読み取り可能なプログラムが記録されている。
また、 本発明は、 時間積分効果を有する所定の数の検出素子から成るセンサ によって取得された所定の数の検出信号を処理する信号処理装置において、前 景オブジェク トを構成する前景オブジェク ト成分と、背景オブジェク トを構成 する背景オブジェク ト成分とが混合されて成る前記混合領域における、前記前 景ォブジェク ト成分と前記背景オブジェク ト成分との混合比を検出する混合 比検出手段と、 前記混合比に基づいて、 前記前景オブジェク トと前記背景ォブ ジェク トとを分離する分離手段とを含むことを特徴とする。
また、 本発明は、 時間積分効果を有する所定の数の検出素子から成るセンサ によって取得された所定の数の検出信号を処理する信号処理方法において、前 景ォブジェク トを構成する前景オブジェク ト成分と、背景オブジェク トを構成 する背景オブジェク ト成分とが混合されて成る前記混合領域における、前記前 景ォブジェク ト成分と前記背景オブジェク ト成分との混合比を検出する混合 比検出ステップと、 前記混合比に基づいて、 前記前景オブジェク トと前記背景 オブジェク トとを分離する分離ステップとを含むことを特徴とする。
また、 本発明に係る記録媒体は、 時間積分効果を有する所定の数の検出素子 から成るセンサによって取得された所定の数の検出信号を処理する信号処理 用のプログラムであって、前景オブジェク トを構成する前景オブジェク ト成分 と、背景オブジェク トを構成する背景オブジェク ト成分とが混合されて成る前 記混合領域における、前記前景オブジェク ト成分と前記背景オブジェク ト成分 との混合比を検出する混合比検出ステツプと、 前記混合比に基づいて、 前記前 景ォブジェク トと前記背景オブジェク トとを分離する分離ステップとを含む ことを特徴とするコンピュー夕が読み取り可能なプログラムが記録されてい る。 図面の簡単な説明 図 1は、 本発明の原理を説明する図である。
図 2は、 本発明を適用するシステムの構成例を示すプロック図である。 図 3は、 図 2の信号処理部の構成例を示すプロヅク図である。
図 4は、 図 2のシステムの動作を説明するフ口一チャートである。
図 5は、 図 4のステップ S 1で取得される画像の例を示す図である。
図 6は、 混合領域の画素値を説明する図である。
図 7は、図 6の区間 D 1乃至 D 3において背景の画像成分を減算して得られ る結果を説明する図である。
図 8は、 動きボケの構造を説明する図である。
図 9は、 図 2のシステムの他の処理例を説明するフローチャートである。 図 1 0は、 信号処理部 1 2を示すブロック図である。
図 1 1は、 センサによる撮像を説明する図である。
図 1 2は、 画素の配置を説明する図である。
図 1 3は、 検出素子の動作を説明する図である。
図 1 4 A, Bは、 動いている前景に対応するォブジェク トと、 静止している 背景に対応するオブジェク トとを撮像して得られる画像を説明する図である。 図 1 5は、背景領域、前景領域、混合領域、カバ一ドバックグラウンド領域、 およびアンカバ一ドバックグラウンド領域を説明する図である。
図 1 6は、静止している前景に対応するォブジェク トおよび静止している背 景に対応するォブジヱク トを撮像した画像における、隣接して 1列に並んでい る画素の画素値を時間方向に展開したモデル図である。
図 1 7は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割 したモデル図である。
図 1 8は、 画素値を時間方向に展開し、 シャッ夕時間に対応する期間を分割 したモデル図である。
図 1 9は、 画素値を時間方向に展開し、 シャッ夕時間に対応する期間を分割 したモデル図である。
図 2 0は、 前景領域、 背景領域、 および混合領域の画素を抽出した例を示す 図である。
図 2 1は、画素と画素値を時間方向に展開したモデルとの対応を示す図であ る。
図 2 2は、 画素値を時間方向に展開し、 シャッ夕時間に対応する期間を分割 したモデル図である。
図 2 3は、 画素値を時間方向に展閧し、 シャッ夕時間に対応する期間を分割 したモデル図である。
図 2 4は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割 したモデル図である。
図 2 5は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割 したモデル図である。
図 2 6は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割 したモデル図である。
図 2 7は、 動きボケの量の調整の処理を説明するフローチヤ一トである。 図 2 8は、 領域特定部 1 0 3の構成の一例を示すプロック図である。
図 2 9は、前景に対応するォブジェク 卜が移動しているときの画像を説明す る図である。 図 3 0は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割 したモデル図である。
図 3 1は、 画素値を時間方向に展開し、 シャッ夕時間に対応する期間を分割 したモデル図である。
図 3 2は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割 したモデル図である。
図 3 3は、 領域判定の条件を説明する図である。
図 3 4 A , B , C , Dは、 領域特定部 1 0 3の領域の特定の結果の例を示す 図である。
図 3 5は、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 3 6は、 領域特定の処理を説明するフローチヤ一トである。
図 3 7は、 混合比算出部 1 0 4の構成の一例を示すブロック図である。 図 3 8は、 理想的な混合比ひの例を示す図である。
図 3 9は、 画素値を時間方向に展開し、 シャッ夕時間に対応する期間を分割 したモデル図である。
図 4 0は、 画素値を時間方向に展開し、 シャッ夕時間に対応する期間を分割 したモデル図である。
図 4 1は、 前景の成分の相関を利用した近似を説明する図である。
図 4 2は、 C, N、 および Pの関係を説明する図である。
図 4 3は、 推定混合比処理部 2 0 1 の構成を示すブロック図である。
図 4 4は、 推定混合比の例を示す図である。
図 4 5は、 混合比算出部 1 0 4の他の構成を示すプロック図である。
図 4 6は、 混合比の算出の処理を説明するフ口一チャートである。
図 4 7は、 推定混合比の演算の処理を説明するフローチャートである。 図 4 8は、 前景背景分離部 1 0 5の構成の一例を示すプロック図である。 図 4 9 A , Bは、 入力画像、 前景成分画像、 および背景成分画像を示す図で ある。
図 5 0は、 画素値を時間方向に展開し、 シャッタ時間に対応する期間を分割 したモデル図である。 図 5 1は、 画素値を時間方向に展開し、 シャッ夕時間に対応する期間を分割 したモデル図である。
図 5 2は、 画素値を時間方向に展開し、 シャッ夕時間に対応する期間を分割 したモデル図である。
図 5 3は、 分離部 2 5 1の構成の一例を示すブロック図である。
図 5 4 A, Bは、 分離された前景成分画像、 および背景成分画像の例を示す 図である。
図 5 5は、 前景と背景との分離の処理を説明するフローチャートである。 図 5 6は、 動きボケ調整部 1 0 6の構成の一例を示すプロック図である。 図 5 7は、 処理単位を説明する図である。
図 5 8は、 前景成分画像の画素値を時間方向に展開し、 シャッ夕時間に対応 する期間を分割したモデル図である。
図 5 9は、 前景成分画像の画素値を時間方向に展開し、 シャッ夕時間に対応 する期間を分割したモデル図である。
図 6 0は、前景成分画像の画素値を時間方向に展開し、 シャッ夕時間に対応 する期間を分割したモデル図である。
図 6 1は、 前景成分画像の画素値を時間方向に展開し、 シャッタ時間に対応 する期間を分割したモデル図である。
図 6 2は、 動きボケ調整部 1 0 6の他の構成を示す図である。
図 6 3は、動きボケ調整部 1 0 6による前景成分画像に含まれる動きボケの 量の調整の処理を説明するフローチャートである。
図 6 4は、 信号処理部 1 2の機能の他の構成を示すプロック図である。 図 6 5は、 合成部 3 7 1の構成を示す図である。
図 6 6は、 信号処理部 1 2の機能の更に他の構成を示すプロック図である。 図 6 7は、 混合比算出部 4 0 1の構成を示すプロック図である。
図 6 8は、 前景背景分離部 4 0 2の構成を示すプロック図である。
図 6 9は、 信号処理部 1 2の機能の他の構成を示すプロック図である。 図 7 0は、 合成部 4 3 1の構成を示す図である。
図 7 1は、 本発明に係る信号処理装置の構成例を示す図である。 図 7 2は、信号処理部 4 5 2による動きボケの量の調整の処理を説明するフ 口—チヤ—トである。
図 7 3は、 本発明に係る信号処理装置の構成例を示す図である。
図 7 4は、 圧力エリアセンサ 5 0 1の構成を示す図である。
図 7 5は、 圧力エリアセンサ 5 0 1に加えられる荷重を説明する図である。 図 7 6は、圧力エリアセンサ 5 0 1が出力する重量デ一夕の例を説明する図 である。
図 7 7は、信号処理部 5 0 2が実行する荷重の算出の処理を説明するフロー チャートである。
図 7 8は、信号処理部 1 2の他の機能として、 1 フ レームあたりの画素数を 增加させた画像を生成する構成を示すプロック図である。
図 7 9は、 画素の配置、 および水平倍密画像の画素に対応する領域を説明す る図である。
図 8 0は、領域 A乃至 rに入力される光に対応する画像の成分を説明する図 である。
図 8 1 A, B , C, Dは、 1つの画素の 2つの領域に対応する画像の成分の 算出を説明する図である。
図 8 2は、 入力画像の例を示す図である。
図 8 3は、 水平倍密画像の例を示す図である。
図 8 4は、 垂直倍密画像の例を示す図である。
図 8 5は、 倍密画像の例を示す図である。
図 8 6は、図 7 8に構成を示す信号処理部 1 2の倍密画像の生成の処理を説 明するフローチャートである。 発明を実施するための最良の形態 図 1は、 本発明の原理を表している。 同図に示すように、 空間と時間軸を有 する現実社会 1の情報である第 1の信号がセンサ 2により取得され、デ一夕化 される。センサ 2が取得したデータ 3である検出信号は、現実社会 1の情報を、 現実社会よ り低い次元の時空間に射影して得られた情報である。 従って、 射影 して得られた情報は、 射影により発生する歪みを有している。 換言すれば、 セ ンサ 2が出力するデータ 3は、 現実社会 1 の情報に対して歪みを有している。 また、 データ 3は、 射影による歪みを有しているが、 これを補正するための有 意情報を含んでいる。
そこで、 本発明においては、 センサ 2が出力したデータを信号処理部 4にお いて信号処理することで、 その歪みが除去されるか、 低減されるか、 または調 整される。 または、 本発明においては、 センサ 2が出力したデータを信号処理 部 4において信号処理することで、 有意情報が抽出される。
図 2は、 本発明が適用される信号処理装置の構成例を表している。 センサ 1 1は、 例えば、 ビデオカメラで構成され、 現実社会の画像を撮像し、 得られた 画像データを信号処理部 1 2に出力する。 信号処理部 1 2は、 例えば、 パ一ソ ナルコンビユー夕などで構成され、センサ 1 1 より入力されたデータを処理し、 射影により発生する歪みの量を調整したり、射影によ り埋もれた有意情報の含 まれる領域を特定したり、 更に特定した領域から有意情報を抽出したり、 抽出 した有意情報に基づいて、 入力されたデ一夕を処理したりする。
ここで言う有意情報は、 例えば、 後述する混合比である。
なお、射影により埋もれた有意情報の含まれる領域を示す情報も有意情報と 考えることができる。 ここでは、 後述する領域情報が有意情報に相当する。 ここで言う有意情報の含まれる領域は、 例えば、 後述する混合領域である。 信号処理部 1 2は、 例えば、 図 3に示すように構成される。 CPU ( CentrA 1 Processing Uuit) 2 1は、 ROM ( Re A d Only Memory) 2 2、 または記憶 部 2 8に記憶されているプログラムに従って各種の処理を実行する。 RA M ( R A ndom A ccess Memory) 2 3には、 CPU 2 1 が実行するプログラムゃデ一 夕などが適宜記憶される。 これらの CPU 2 1 、 ROM 2 2、 および RA M 2 3 は、 バス 2 4により相互に接続されている。
CPU 2 1 にはまた、 バス 2 4 を介して入出力ィ ン夕フエース 2 5が接続さ れている。 入出力イ ン夕フェース 2 5には、 キーボー ド、 マウス、 マイクロホ ンなどよ りなる入力部 2 6、 ディスプレイ、 スピーカなどよ りなる出力部 2 7 が接続されている。 CPU 2 1 は、 入力部 2 6から入力される指令に対応して 各種の処理を実行する。 そして、 CPU 2 1は、 処理の結果得られた画像や音 声等を出力部 2 7に出力する。
入出力ィ ンタフエース 2 5に接続されている記憶部 2 8は、例えばハードデ イスクなどで構成され、 CPU 2 1 が実行するプログラムや各種のデータを記 憶する。 通信部 2 9は、 イ ンターネッ ト、 その他のネッ トワークを介して外部 の装置と通信する。 この例の場合、 通信部 2 9はセンサ 1 1 の出力を取り込む 取得部として働く。
また、 通信部 2 9 を介してプログラムを取得し、 記憶部 2 8に記憶してもよ い。
入出力イ ン夕フェース 2 5に接続されている ドライ ブ 3 0は、磁気ディスク 5 1、 光ディスク 5 2、 光磁気ディスク 5 3、 或いは半導体メモリ 5 4などが 装着されたとき、 それらを駆動し、 そこに記録されているプログラムやデータ などを取得する。 取得されたプログラムゃデ一夕は、 必要に応じて記憶部 2 8 に転送され、 記憶される。
次に、 図 4のフローチヤ一 トを参照して、 この信号処理装置が記憶媒体であ る記憶部 2 8に記憶されたプログラムに基づいて行う動作について説明する。 最初に、 ステツブ S 1 において、 センサ 1 1 により取得された、 被写体の画像 を通信部 2 9等を介して取得する。 信号処理部 1 2の CPU 2 1は、 取得した 画像データを記憶部 2 8に供給し、 記憶させる。
図 5は、このようにして取得された画像デ一夕に対応する画像を表している < この例においては、 背景 6 1の前に前景 6 2が配置された画像となっている。 前景 6 2は、 この例の場合、 おもちゃの飛行機とされ、 静止している背景 6 1 の前で所定の速度で、 図中右方向に移動している。 その結果、 前景 6 2の画像 は、 いわゆる動きボケの生じた画像となっている。 これに対して、 背景 6 1の 画像は静止しているので、 動きボケのない鮮明な画像となる。 そして、 混合領 域 6 3は、 背景 6 1 というオブジェク トと、 前景 6 2 というオブジェク トが混 合した状態の画像となっている。
次に、 ステップ S 2 において、 CPU 2 1は、 オブジェク トの混合領域を検 出する。 図 5の例の場合、 混合領域 6 3が、 オブジェク トが混合されている領 域として検出される。
CPU 2 1は、 ステップ S 3において、 オブジェク トが混合されているか否 かを判定する。オブジェク トが混合されていない場合、 すなわち混合領域 6 3 がない場合、 この情報処理装置における処理対象ではないので、 処理は終了さ れる。
これに対して、 ステップ S 3において、 オブジェク トが混合されていると判 定された場合、 ステップ S 4に進み、 CPU 2 1は、 検出された混合領域のォ ブジェク 卜の混合比を求める。 混合比は、 例えば、 前景 6 2の背景 6 1に対す る動きべク トルを求め、 その動きべク トルから混合領域 6 3において、 混合比 が 0乃至 1に変化するようにあてはめることによって、 求めることができる。 さらに、 ステップ S 5において、 CPU 2 1は、 求まった混合比から、 複数の オブジェク トが混合した混合領域 6 3においてオブジェク トを分離する処理 を実行する。
以上の処理について、 図 5の画像を例としてさらに説明する。 今、 図 5の混 合領域 6 3の右端の一部である部分 6 3 Aの 1ライン上の画素データをプロ ヅ トすると、 図 6に示すようになる。 図 6において、 横軸は X座標 (図 5にお ける水平方向の座標) を表し、 縦軸はその座標における画素値を表している。 曲線 L 1は、 第 1の夕ィ ミングのライン上の画素値を表しており、 曲線 L 2 は、 次のタイ ミングの対応するライン上の画素値を表している。 以下同様に、 曲線 3はさらにその次のタイ ミングの、曲線 L 4はさらにその次の夕ィ ミン グの、 それぞれ対応するラインの画素値を表している。 換言すれば、 図 6は、 連続する 4つのタイ ミングの対応するライン上の画素値の変化を表している。 曲線 L 1は、時間的に最初のタイ ミングを表しており、この状態においては、 まだ前景 6 2が撮像されていない。 従って、 曲線 1は、 背景 6 1の画素を表 している。
曲線 1上においては、 X座標 1 4 0付近において画素値は約 7 5であるが、 X座標 1 4 5において、 画素値は約 1 3 0まで増加する。 その後、 画素値は低 下し、 X座標 1 4 9付近において、 画素値は約 1 2 0となる。 X座標が増加す るにつれて、 画素値はその後再び増加し、 X座標 1 5 4付近において、 画素値 はほぼ 1 6 0となっている。 その後、 画素値は低下し、 X座標 1 6 2付近で、 約 1 3 0となる。その後、 X座標 1 6 5付近において画素値が約 1 8 0となり、 X座標 1 7 0付近において、画素値は再び約 1 2 5まで低下している。その後、 X座標 1 Ί 2付近においては、 画素値が約 1 7 5まで増加し、 その後は X座標 1 7 8付近において、 画素値は約 6 0まで低下する。 その後、 X座標 1 7 8乃 至 1 9 5までの区間は、 画素値の値が 6 0乃至 8 0の間で若干変化している。 そして、 X座標 1 9 5付近よりさらに右側の座標においては、 画素値が再び 1 6 0前後まで増加している。
次のフレームの曲線 L 2においては、 X座標 1 4 5付近まで約 2 0 0の画素 値で一定であるが、 X座標 1 4 5から X座標 1 6 0まで徐々に画素値が低下し、 X座標 1 6 0では、 画素値は約 1 2 5となっている。 その後の変化は、 曲線 1 と同様となる。
曲線 L 3の画素値は、 X座標 1 5 8付近まで画素値 2 0 0でほぼ一定である が、 その後、 X座標 1 6 2付近において、 約 1 8 0まで低下した後、 X座標 1 6 4付近においては、 再び画素値は、 約 1 9 0まで増加している。 その後、 ほ ぼ曲線 L 1 と同様に変化している。
曲線 L 4の画素値は、 X座標 1 4 0付近から X座標 1 Ί 0付近まで、 約 2 0 0の一定の画素値となっているが、 X座標 1 7 0付近から X座標 1 8 0付近ま で急激に画素値は低下し、 X座標 1 7 0付近では約 7 0となっている。その後 の変化は、 曲線 L 1 と同様となっている。
このように、 曲線 L 2乃至 L 4の画素値が変化するのは、 曲線 L 1の状態に おいては、 背景 6 1だけの画像であつたところに、 前景 6 2の画像が、 その移 動に伴って (時間の経過に伴って) 次第に増加してきたことに起因する。
すなわち、 曲線 L 1 と、 その直後のタイ ミングの曲線 L 2を比較して明らか なように、 曲線 L 2乃至曲線 L 4の値は、 X座標 1 4 7付近までほぼ同一であ る。 曲線 L 2の値は、 X座標 1 4 7付近から、 曲線 L 3 , L 4と異なった値と なり、 X座標 1 5 9付近で、 曲線 1の値とほぼ同一となる。 それ以降の X座 標における曲線 L 2の画素値は、曲線 L 1における場合とほぼ同一となってい る。すなわち、 X座標 1 4 6から X座標 1 5 9までの区間 D 1に対応する領域 R 1における曲線 L 2の値は、 前景 6 2の先端が 1単位の期間において、 区間 D 1の左端から右端まで移動したことを表している。
同様に、 X座標 1 5 9から X座標 1 7 2までの区間 D 2に対応する領域 R 2 における、 次のタイ ミングの曲線 L 3の画素値は、 前景 6 2の先端がその間に 移動してきた画像に対応している。 さらに、 X座標 1 Ί 2から X座標 1 8 4ま での区間 D 3に対応する領域 R 3における、 曲線 L 4の画素値は、 前景 6 2の 先端がその間に移動してきたことを表している。
従って、 区間 D 1において、 曲線 L 2の画素値から、 曲線 L 1の画素値に対 して、背景 6 1に対する前景 6 2の混合比に基づく重み付けを施した値を減算 すると、 図 7に示すような曲線 L I 1が得られる。 この曲線 L I 1は、 混合領 域 6 3において、前景 6 2の画素から背景 6 1に相当する値を減算しているこ とになるので、 画素値 0の背景上での前景の画像となる。 なお、 図 7における 横軸は、 位置を表し (左端は図 6における区間 D 1の左端に対応し、 右端は図 6の区間 D 1における右端に対応する)、 縦軸は、 抽出された前景の画素値を 表している。
同様に、 図 6の区間 D 2において、 曲線!: 3の画素値から、 混合比で重み付 けした曲線 L 1 の画素値を減算すると、 図 7における曲線 L 1 2が得られ、 図 6の区間 D 3において、 曲線 4から、 混合比で重み付けした曲線 L 1の画素 値を減算すると、 図 7における曲線 L 1 3が得られる。 図 7に示すように、 曲 線 L 1 2と曲線 L 1 3は、 曲線 L 1 1 とほぼ一致した曲線となっている。 この ことは、前景 6 2が 3つの単位のタイ ミングの期間に渡ってほぼ一定の速度で 移動しており、 重み付け減算によって、 真っ黒な背景、 すなわち、 画素値 0 の背景上での前景画素値が正しく求められたことを示す。
以上の動作を画素に注目して説明すると、 図 8に示すようになる。 同図にお いて、 横軸は、 部分 6 3 Aの X座標を表し、 縦軸は、 上から下方向に向かう時 間軸を表している。 この例では、 動き量が 5であるので、 1露光時間 (シャヅ 夕時間) 内に、 t 1乃至 t 5に対応する時間で露光が行われる。 b 1乃至 b f は、 背景 6 1の各画素の画素値を表している。 八 1乃至八 6は、 前景 6 2の画 素値を表す。
すなわち、タイ ミング t 1において、背景 6 1の画素 b 3乃至 b 8の位置に、 前景 6 2の画素 A 1乃至 A 6が表れ、 タイ ミング t 2においては、 この前景 6 2の画素 A 1乃至 A 6が、 1画素分右方向に、 すなわち、 背景 6 1の画素 b 4 乃至 b 9の位置に移動している。
以下、 同様に、 タイ ミング t 3乃至タイ ミング t 5に時間が進むに従って、 前景 6 2の画素 A 1乃至 A 6は、 順次右方向に 1画素分ずつ移動している。 この場合、夕ィ ミング t 1乃至 t 5の各ラインの画素を平均して得られる画素 値 y 1乃至 y f が、 撮像の結果得られる画素 (動きボケした画素) となり、 そ の値は、 次式で表される。
Figure imgf000022_0001
y8 = ^'(a2+a3+a4 + a5+a6) (6) y9 = j'(a3+a4+a5+a6)+ 'b9 (7)
Figure imgf000022_0002
なお、 y l , y 2 , y d, y e , y f は、 それぞれ、 背景の画素 b l, b 2 , b d, b e, b f に等しい。
背景の画素 b 1乃至 b f を除去すれば、混合領域 6 3における背景 6 1 と前 景 6 2を分離することができる。 すなわち、 複数のオブジェク トを分離するこ とができる。 さらに、 背景の画素 b 1乃至 b f は、 前後のシャッタ時間 (フレ —ム) の画素値を用いるなどして、 既知であるとしておき、 前景 6 2の画素 A 1乃至 A 6を、 上記した式を、 例えば最小自乗法などを用いて解くことで、 求 めることができる。 これにより、 動きボケを除いた前景の画像を得ることがで きる。すなわち、 射影された実社会の情報における歪みを軽減することができ る。 そして、 さらに、 解像度創造などの処理により、 鮮明な画像を創造するこ とができる。
以上の図 4においては、 確定論的な処理を行うようにしたが、 すなわち、 前 の処理を基にして、前の処理の結果が正しいものとして次の処理を行うように したが、 統計論的に処理を行うことも可能である。 図 9は、 この場合の処理例 を表している。
すなわち、 この統計論的処理を行う場合には、 ステップ S 2 1において、 CPU 2 1は画像デ一夕を取得する。 この処理は、 図 4のステップ S 1 におけ る処理と同様の処理である。
次に、 ステップ S 2 2において、 CPU 2 1は、 ステップ S 2 1で取得した 画像データから前景と背景の混合比を求める処理を行う。そして、 ステップ S 2 3において、 CPU 2 1は、ステップ S 2 2で求められた混合比に基づいて、 背景と前景を分離する処理を実行する。
このように、統計論的処理に基づく場合、 図 4のステップ S 2 3における場 合のような物体の境界であるのか否かの判定処理が不要となるため、より迅速 に前景と背景を分離することが可能となる。
以上のようにして、背景 6 1の前で移動している前景 6 2の画像を撮像した 場合に得られる動きボケの生じた画像から、鮮明な前景 6 2の画像を分離抽出 することができる。
次に、 確定論的な処理により、 センサにより取得されたデータから、 有意情 報が埋もれている領域を特定したり、埋もれた有意情報を抽出する処理を行う 信号処理装置についてより具体的な例を挙げて説明する。 以下の例において、 CCDラインセンサまたは CCDェリァセンサがセンサに対応し、領域情報や混 合比が有意情報に対応し、 混合領域において、 前景と背景が混合していること や動きボケが歪みに対応する。
図 1 0は、 信号処理部 1 2を示すブロック図である。 なお、 信号処理部 1 2の各機能をハードウヱァで実現するか、 ソフ トゥヱァ で実現するかは問わない。 つまり、 本明細書の各ブロック図は、 ハードウェア のブロック図と考えても、ソフ トウェアによる機能ブロック図と考えても良い, ここで、 動きボケとは、 撮像の対象となる、 現実世界におけるオブジェク ト の動きと、 センサ 1 1の撮像の特性とにより生じる、 動いているオブジェク ト に対応する画像に含まれている歪みをいう。
この明細書では、撮像の対象となる、 現実世界におけるオブジェク トに対応 する画像を、 画像オブジェク トと称する。
信号処理部 1 2に供給された入力画像は、 オブジェク ト抽出部 1 0 1、 領域 特定部 1 0 3、 混合比算出部 1 0 4、 および前景背景分離部 1 0 5に供給され る。
オブジェク ト抽出部 1 0 1は、入力画像に含まれる前景のオブジェク トに対 応する画像オブジェク トを粗く抽出して、抽出した画像オブジェク トを動き検 出部 1 0 2に供給する。 ォブジヱク ト抽出部 1 0 1は、 例えば、 入力画像に含 まれる前景のオブジェク 卜に対応する画像オブジェク 卜の輪郭を検出するこ とで、 前景のオブジェク トに対応する画像オブジェク トを粗く抽出する。
オブジェク ト抽出部 1 0 1は、入力画像に含まれる背景のオブジェク 卜に対 応する画像オブジェク トを粗く抽出して、抽出した画像オブジェク トを動き検 出部 1 0 2に供給する。 オブジェク ト抽出部 1 0 1は、 例えば、 入力画像と、 抽出された前景のオブジェク トに対応する画像オブジェク 卜との差から、背景 のォブジヱク トに対応する画像ォブジェク トを粗く抽出する。
また、 例えば、 オブジェク ト抽出部 1 0 1は、 内部に設けられている背景メ モリに記憶されている背景の画像と、 入力画像との差から、 前景のオブジェク トに対応する画像オブジェク ト、および背景のオブジェク トに対応する画像ォ ブジェク トを粗く抽出するようにしてもよい。
動き検出部 1 0 2は、例えば、プロックマッチング法、勾配法、位相相関法、 およびペルリカーシブ法などの手法により、粗く抽出された前景のオブジェク トに対応する画像オブジェク トの動きべク トルを算出して、算出した動きべク トルおよび動きべク トルの位置情報(動きべク トルに対応する画素の位置を特 定する情報) を動きボケ抽出部 1 0 6に供給する。
動き検出部 1 0 2が出力する動きべク トルには、動き量 Vに対応する情報が 含まれるている。
また、 例えば、 動き検出部 1 0 2は、 画像オブジェク トに画素を特定する画 素位置情報と共に、画像オブジェク ト毎の動きぺク トルを動きボケ調整部 1 0 6に出力するようにしてもよい。
動き量 Vは、動いているオブジェク トに対応する画像の位置の変化を画素間 隔を単位として表す値である。例えば、前景に対応するオブジェク 卜の画像が、 あるフレームを基準として次のフレ一ムにおいて 4画素分離れた位置に表示 されるように移動しているとき、前景に対応するオブジェク 卜の画像の動き量 Vは、 4とされる。
なお、 オブジェク ト抽出部 1 0 1および動き検出部 1 0 2は、 動いているォ ブジェク トに対応した動きボケ量の調整を動きボケ調整部 1 0 6で行う場合 に用いられる。
領域特定部 1 0 3は、 入力された画像の画素のそれそれを、 前景領域、 背景 領域、 または混合領域のいずれかに特定し、 画素毎に前景領域、 背景領域、 ま たは混合領域のいずれかに属するかを示す情報 (以下、 領域情報と称する) を 混合比算出部 1 0 4、 前景背景分離部 1 0 5、 および動きボケ調整部 1 0 6に 供給する。
混合比算出部 1 0 4は、 入力画像、 および領域特定部 1 0 3から供給された 領域情報を基に、 混合領域 6 3に含まれる画素に対応する混合比 (以下、 混合 比 αと称する) を算出して、 算出した混合比を前景背景分離部 1 0 5に供給す る。
混合比ひは、 後述する式 ( 1 3 ) に示されるように、 画素値における、 背景 のオブジェク トに対応する画像の成分 (以下、 背景の成分とも称する) の割合 を示す値である。
前景背景分離部 1 0 5は、 領域特定部 1 0 3から供給された領域情報、 およ び混合比算出部 1 0 4から供給された混合比ひを基に、前景のオブジェク トに 対応する画像の成分 (以下、 前景の成分とも称する) のみから成る前景成分画 像と、 背景の成分のみから成る背景成分画像とに入力画像を分離して、 前景成 分画像を動きボケ調整部 1 0 6および選択部 1 0 7に供給する。 なお、 分離さ れた前景成分画像を最終的な出力とすることも考えられる。従来の混合領域を 考慮しないで前景と背景だけを特定し、分離していた方式に比べ正確な前景と 背景を得ることが出来る。
動きボケ調整部 1 0 6は、動きべク トルからわかる動き量 Vおよび領域情報 を基に、 前景成分画像に含まれる 1以上の画素を示す処理単位を決定する。処 理単位は、動きボケの量の調整の処理の対象となる 1群の画素を指定するデ一 夕である。
動きボケ調整部 1 0 6は、信号処理部 1 2に入力された動きボケ調整量、 前 景背景分離部 1 0 5から供給された前景成分画像、動き検出部 1 0 2から供給 された動きべク トルおよびその位置情報、 並びに処理単位を基に、 前景成分画 像に含まれる動きボケを除去する、 動きボケの量を減少させる、 または動きポ ケの量を増加させるなど前景成分画像に含まれる動きボケの量を調整して、動 きボケの量を調整した前景成分画像を選択部 1 0 7に出力する。動きベク トル とその位置情報は使わないこともある。
選択部 1 0 7は、例えば使用者の選択に対応した選択信号を基に、 前景背景 分離部 1 0 5から供給された前景成分画像、および動きボケ調整部 1 0 6から 供給された動きボケの量が調整された前景成分画像のいずれか一方を選択し て、 選択した前景成分画像を出力する。
次に、 図 1 1乃至図 2 6を参照して、 信号処理部 1 2に供給される入力画像 について説明する。
図 1 1は、 センサによる撮像を説明する図である。 センサ 1 1は、 例えば、 固体撮像素子である CCD ( ChA rge-Coupled Device) エリアセンサを備えた CCD ビデオカメラなどで構成される。 現実世界における、 前景に対応するォ ブジェク トは、 現実世界における、 背景に対応するオブジェク トと、 センサ 1 1 との間を、 例えば、 図中の左側から右側に水平に移動する。
センサ 1 1は、 前景に対応するォブジェク トを、 背景に対応するォブジェク トと共に撮像する。センサ 1 1は、撮像した画像を 1 フ レーム単位で出力する。 例えば、 センサ 1 1は、 1秒間に 3 0フレームから成る画像を出力する。 セン サ 1 1の露光時間は、 1 / 3 0秒とすることができる。 露光時間は、 センサ 1 1が入力された光の電荷への変換を開始してから、入力された光の電荷への変 換を終了するまでの期間である。 以下、 露光時間をシャツタ時間とも称する。 図 1 2は、画素の配置を説明する図である。図 1 2中において、 A乃至 Iは、 個々の画素を示す。 画素は、 画像に対応する平面上に配置されている。 1つの 画素に対応する 1つの検出素子は、 センサ 1 1上に配置されている。センサ 1 1が画像を撮像するとき、 1つの検出素子は、 画像を構成する 1つの画素に対 応する画素値を出力する。 例えば、 検出素子の X方向の位置は、 画像上の横方 向の位置に対応し、検出素子の Y方向の位置は、 画像上の縦方向の位置に対応 する。
図 1 3に示すように、 例えば、 CCD である検出素子は、 シャツ夕時間に対 応する期間、 入力された光を電荷に変換して、 変換された電荷を蓄積する。 電 荷の量は、 入力された光の強さと、 光が入力されている時間にほぼ比例する。 検出素子は、 シャッ夕時間に対応する期間において、 入力された光から変換さ れた電荷を、 既に蓄積されている電荷に加えていく。 すなわち、 検出素子は、 シャツ夕時間に対応する期間、 入力される光を積分して、積分された光に対応 する量の電荷を蓄積する。 検出素子は、 時間に対して、 積分効果があるとも言 える。
検出素子に蓄積された電荷は、 図示せぬ回路により、 電圧値に変換され、 電 圧値は更にデジタルデ一夕などの画素値に変換されて出力される。従って、 セ ンサ 1 1から出力される個々の画素値は、前景または背景に対応するオブジェ ク トの空間的に広がりを有するある部分を、シャツ夕時間について積分した結 果である、 1次元の空間に射影された値を有する。
信号処理部 1 2は、 このような.センサ 1 1の蓄積の動作により、 出力信号に 埋もれてしまった有意な情報、 例えば、 混合比ひを抽出する。 信号処理部 1 2 は、 前景の画像オブジェク ト自身が混ざり合うことによる生ずる歪みの量、例 えば、 動きポケの量などを調整する。 また、 信号処理部 1 2は、 前景の画像ォ ブジェク トと背景の画像オブジェク トとが混ざり合うことにより生ずる歪み の量を調整する。
図 1 4は、 動いている前景に対応するオブジェク トと、 静止している背景に 対応するオブジェク 卜とを撮像して得られる画像を説明する図である。図 1 4 Aは、 動きを伴う前景に対応するオブジェク トと、 静止している背景に対応す るオブジェク トとを撮像して得られる画像を示している。図 1 4 Aに示す例に おいて、 前景に対応するォブジェク トは、 画面に対して水平に左から右に動い ている。
図 1 4 Bは、図 1 4 Aに示す画像の 1つのラインに対応する画素値を時間方 向に展開したモデル図である。図 1 4 Bの横方向は、 図 1 4 Aの空間方向 Xに 対応している。
背景領域の画素は、 背景の成分、 すなわち、 背景のオブジェク トに対応する 画像の成分のみから、 その画素値が構成されている。 前景領域の画素は、 前景 の成分、 すなわち、 前景のオブジェク 卜に対応する画像の成分のみから、 その 画素値が構成されている。
混合領域の画素は、 背景の成分、 および前景の成分から、 その画素値が構成 されている。 混合領域は、 背景の成分、 および前景の成分から、 その画素値が 構成されているので、 歪み領域ともいえる。 混合領域は、 更に、 カバ一ドバッ クグラウンド領域およびアンカバ一ドバックグラウンド領域に分類される。 カバードバックグラウンド領域は、 前景領域に対して、 前景のオブジェク ト の進行方向の前端部に対応する位置の混合領域であり、時間の経過に対応して 背景成分が前景に覆い隠される領域をいう。
これに対して、 アンカバードバックグラウンド領域は、 前景領域に対して、 前景のオブジェク 卜の進行方向の後端部に対応する位置の混合領域であり、時 間の経過に対応して背景成分が現れる領域をいう。
このように、 前景領域、 背景領域、 またはカバードバックグラウンド領域若 しくはアンカバ一ドバックグラウンド領域を含む画像が、 領域特定部 1 0 3、 混合比算出部 1 0 4、および前景背景分離部 1 0 5に入力画像として入力され る。
図 1 5は、 以上のような、 背景領域、 前景領域、 混合領域、 力パ一ドバック グラウンド領域、およびアンカバードバックグラウンド領域を説明する図であ る。 図 1 4に示す画像に対応する場合、 背景領域は、 静止部分であり、 前景領 域は、 動き部分であり、 混合領域のカバードバックグラウン ド領域は、 背景か ら前景に変化する部分であり、混合領域のアンカバ一ドバックグラウンド領域 は、 前景から背景に変化する部分である。
図 1 6は、静止している前景に対応する才ブジェク トおよび静止している背 景に対応するオブジェク トを撮像した画像における、隣接して 1列に並んでい る画素の画素値を時間方向に展開したモデル図である。例えば、 隣接して 1列 に並んでいる画素として、画面の 1つのライン上に並んでいる画素を選択する ことができる。
図 1 6に示す F01乃至 F04の画素値は、 静止している前景のオブジェク ト に対応する画素の画素値である。 図 1 6に示す B01乃至 B04の画素値は、 静 止している背景のォブジェク トに対応する画素の画素値である。
図 1 6における縦方向は、 図中の上から下に向かって時間が経過する。 図 1 6中の矩形の上辺の位置は、センサ 1 1が入力された光の電荷への変換を開始 する時刻に対応し、 図 1 6中の矩形の下辺の位置は、 センサ 1 1が入力された 光の電荷への変換を終了する時刻に対応する。 すなわち、 図 1 6中の矩形の上 辺から下辺までの距離は、 シャッ夕時間に対応する。
以下において、シャッタ時間とフレーム間隔とが同一である場合を例に説明 する。
図 1 6における横方向は、 図 1 4で説明した空間方向 X に対応する。 より 具体的には、 図 1 6に示す例において、 図 1 6中の" F01 " と記載された矩形 の左辺から" B04" と記載された矩形の右辺までの距離は、 画素のピッチの 8 倍、 すなわち、 連続している 8つの画素の間隔に対応する。
前景のオブジェク トおよび背景のオブジェク 卜が静止している場合、シャッ タ時間に対応する期間において、 センサ 1 1に入力される光は変化しない。 ここで、シャツ夕時間に対応する期間を 2つ以上の同じ長さの期間に分割す る。 例えば、 仮想分割数を 4とすると、 図 1 6に示すモデル図は、 図 1 7に示 すモデルとして表すことができる。仮想分割数は、 前景に対応するォブジェク 卜のシャツタ時間内での動き量 vなどに対応して設定される。例えば、 4であ る動き量 Vに対応して、 仮想分割数は、 4とされ、 シャッタ時間に対応する期 間は 4つに分割される。
図中の最も上の行は、シャツ夕が開いて最初の、分割された期間に対応する。 図中の上から 2番目の行は、 シャッ夕が開いて 2番目の、 分割された期間に対 応する。 図中の上から 3番目の行は、 シャツ夕が開いて 3番目の、 分割された 期間に対応する。 図中の上から 4番目の行は、 シャツ夕が開いて 4番目の、 分 割された期間に対応する。
以下、 動き量 V に対応して分割されたシャッ夕時間をシャ タ時間/ V とも 称する。
前景に対応するォブジェク 卜が静止しているとき、センサ 1 1に入力される 光は変化しないので、 前景の成分 FOl/vは、 画素値 F01 を仮想分割数で除し た値に等しい。 同様に、 前景に対応するオブジェク 卜が静止しているとき、 前 景の成分 F02/Vは、 画素値 F02 を仮想分割数で除した値に等しく、 前景の成 分 F03/vは、画素値 F03を仮想分割数で除した値に等しく、前景の成分 F04/v は、 画素値 F04を仮想分割数で除した値に等しい。
背景に対応するォブジェク トが静止しているとき、センサ 1 1に入力される 光は変化しないので、 背景の成分 BOl/vは、 画素値 B01 を仮想分割数で除し た値に等しい。 同様に、 背景に対応するオブジェク 卜が静止しているとき、 背 景の成分 B02/Vは、画素値 B02を仮想分割数で除した値に等しく、 B03/Vは、 画素値 B03を仮想分割数で除した値に等しく、 B04/Vは、 画素値 B04を仮想 分割数で除した値に等しい。
すなわち、 前景に対応するオブジェク 卜が静止している場合、 シャツ夕時間 に対応する期間において、センサ 1 1に入力される前景のオブジェク 卜に対応 する光が変化しないので、 シャツ夕が開いて最初の、 シャツ夕時間/ V に対応 する前景の成分 FO l/v と、 シャツ夕が開いて 2番目の、 シャツ夕時間/ V に対 応する前景の成分 FOl/v と、 シャツ夕が開いて 3番目の、 シャツ夕時間/ V に 対応する前景の成分 FOl/v と、 シャヅ夕が開いて 4番目の、 シャツ夕時間/ V に対応する前景の成分 FO l/vとは、同じ値となる。 F02/v乃至 F04/vも、 FO l/v と同様の関係を有する。
背景に対応するオブジェク 卜が静止している場合、シャッタ時間に対応する 期間において、センサ 1 1に入力される背景のオブジェク 卜に対応する光は変 化しないので、 シャツ夕が開いて最初の、 シャツ夕時間/ V に対応する背景の 成分 Β01/ν と、 シャツ夕が開いて 2番目の、 シャツ夕時間/ V に対応する背景 の成分 Β01/ν と、 シャツ夕が閧いて 3番目の、 シャツ夕時間/ V に対応する背 景の成分 Β01/ν と、 シャヅ夕が開いて 4番目の、 シャツタ時間/ V に対応する 背景の成分 Β01/ν とは、 同じ値となる。 B02/v乃至 B04/v も、 同様の関係を 有する。
次に、 前景に対応するォブジェク トが移動し、 背景に対応するォブジェク ト が静止している場合について説明する。
図 1 8は、前景に対応するオブジェク トが図中の右側に向かって移動する場 合の、 カバ一ドバックグラウンド領域を含む、 1つのライン上の画素の画素値 を時間方向に展開したモデル図である。 図 1 8において、 前景の動き量 Vは、 4である。 1 フレームは短い時間なので、 前景に対応するオブジェク 卜が剛体 であり、 等速で移動していると仮定することができる。 図 1 8において、 前景 に対応するォブジェク トの画像は、あるフレームを基準として次のフレームに おいて 4画素分右側に表示されるように移動する。
図 1 8において、 最も左側の画素乃至左から 4番目の画素は、 前景領域に属 する。 図 1 8において、 左から 5番目乃至左から 7番目の画素は、 カバードバ ックグラウンド領域である混合領域に属する。 図 1 8において、 最も右側の画 素は、 背景領域に属する。
前景に対応するオブジェク トが時間の経過と共に背景に対応するオブジェ ク トを覆い隠すように移動しているので、カバ一ドバックグラウンド領域に属 する画素の画素値に含まれる成分は、シャッ夕時間に対応する期間のある時点 で、 背景の成分から、 前景の成分に替わる。
例えば、 図 1 8中に太線枠を付した画素値 Mは、 式 ( 1 1 ) で表される。
M=B02/v+B02/v+F07/v+F06/v ( 1 1 )
例えば、 左から 5番目の画素は、 1つのシャツ夕時間 /V に対応する背景の 成分を含み、 3つのシャツタ時間/ v に対応する前景の成分を含むので、 左か ら 5番目の画素の混合比ひは、 1/4である。 左から 6番目の画素は、 2つのシ ャッタ時間/ V に対応する背景の成分を含み、 2つのシャツタ時間/ V に対応す る前景の成分を含むので、 左から 6番目の画素の混合比ひは、 1/2である。 左 から 7番目の画素は、 3つのシャツ夕時間/ V に対応する背景の成分を含み、 1つのシャツタ時間/ V に対応する前景の成分を含むので、 左から 7番目の画 素の混合比 αは、 3/4である。
前景に対応するォブジェク トが、 剛体であり、 前景の画像が次のフレームに おいて 4画素右側に表示されるように等速で移動すると仮定できるので、例え ば、 図 1 8中の左から 4番目の画素の、 シャヅ夕が開いて最初の、 シャツタ時 間/ V の前景の成分 F07/v は、 図 1 8中の左から 5番目の画素の、 シャツ夕が 鬨いて 2番目のシャツタ時間/ V に対応する前景の成分に等しい。 同様に、 前 景の成分 F07/vは、 図 1 8中の左から 6番目の画素の、 シャヅ夕が開いて 3番 目のシャ ツ夕時間/ V に対応する前景の成分と、 図 1 8中の左から 7番目の画 素の、シャッ夕が開いて 4番目のシャヅ夕時間/ Vに対応する前景の成分とに、 それそれ等しい。
前景に対応するオブジェク トが、 剛体であり、 前景の画像が次のフレームに おいて 4画素右側に表示されるように等速で移動すると仮定できるので、例え ば、 図 1 8中の左から 3番目の画素の、 シャツ夕が閧いて最初のシャツ夕時間 /ν の前景の成分 F06/v は、 図 1 8中の左から 4番目の画素の、 シャツ夕が開 いて 2番目のシャツ夕時間/ V に対応する前景の成分に等しい。 同様に、 前景 の成分 F06/vは、 図 1 8中の左から 5番目の画素の、 シャ ツ夕が開いて 3番目 のシャツ夕時間/ V に対応する前景の成分と、 図 1 8中の左から 6番目の画素 の、 シャツ夕が開いて 4番目のシャヅ夕時間/ V に対応する前景の成分とに、 それぞれ等しい。
前景に対応するオブジェク 卜が、 剛体であり、 前景の画像が次のフレームに おいて 4画素右側に表示されるように等速で移動すると仮定できるので、例え ば、 図 1 8中の左から 2番目の画素の、 シャツ夕が開いて最初のシャツタ時間 /ν の前景の成分 F05/v は、 図 1 8中の左から 3番目の画素の、 シャツ夕が閧 いて 2番目のシャツタ時間/ v のに対応する前景の成分に等しい。 同様に、 前 景の成分 F05/vは、 図 1 8中の左から 4番目の画素の、 シャツタが閧いて 3番 目のシャヅ夕時間/ V に対応する前景の成分と、 図 1 8中の左から 5番目の画 素の、シャツ夕が開いて 4番目のシャツ夕時間/ Vに対応する前景の成分とに、 それそれ等しい。
前景に対応するォブジェク トが、 剛体であり、 前景の画像が次のフレームに おいて 4画素右側に表示されるように等速で移動すると仮定できるので、例え ば、 図 1 8中の最も左側の画素の、 シャ ツ夕が開いて最初のシャ ツ夕時間/ V の前景の成分 F04/vは、 図 1 8中の左から 2番目の画素の、 シャヅ夕が開いて 2番目のシャツタ時間/ V に対応する前景の成分に等しい。 同様に、 前景の成 分 F04/vは、 図 1 8中の左から 3番目の画素の、 シャツ夕が開いて 3番目のシ ャッ夕時間/ V に対応する前景の成分と、 図 1 8中の左から 4番目の画素の、 シャツ夕が開いて 4番目のシャツ夕時間/ V に対応する前景の成分とに、 それ それ等しい。
動いているオブジェク トに対応する前景の領域は、このように動きボケを含 むので、 歪み領域とも言える。
図 1 9は、前景が図中の右側に向かって移動する場合の、 アンカバ一ドバッ クグラウンド領域を含む、 1つのライン上の画素の画素値を時間方向に展開し たモデル図である。 図 1 9において、 前景の動き量 Vは、 4である。 1 フレー ムは短い時間なので、 前景に対応するオブジェク 卜が剛体であり、 等速で移動 していると仮定することができる。 図 1 9において、 前景に対応するオブジェ ク 卜の画像は、あるフレームを基準として次のフレームにおいて 4画素分右側 に移動する。
図 1 9において、 最も左側の画素乃至左から 4番目の画素は、 背景領域に属 する。 図 1 9において、 左から 5番目乃至左から 7番目の画素は、 アンカバ一 ドバヅクグラウンドである混合領域に属する。 図 1 9において、 最も右側の画 素は、 前景領域に属する。
背景に対応するォブジェク トを覆っていた前景に対応するォブジェク 卜が 時間の経過と共に背景に対応するォブジェク 卜の前から取り除かれるように 移動しているので、アンカバードバックグラウンド領域に属する画素の画素値 に含まれる成分は、 シャツ夕時間に対応する期間のある時点で、 前景の成分か ら、 背景の成分に替わる。
例えば、 図 1 9中に太線枠を付した画素値 M'は、 式 ( 1 2 ) で表される。
M'=F02/v+F01/v+B26/v+B26/v ( 1 2 )
例えば、 左から 5番目の画素は、 3つのシャツ夕時間 /V に対応する背景の 成分を含み、 1つのシャツ夕時間/ V に対応する前景の成分を含むので、 左か ら 5番目の画素の混合比ひは、 3/4である。 左から 6番目の画素は、 2つのシ ャッ夕時間/ V に対応する背景の成分を含み、 2つのシャツ夕時間/ V に対応す る前景の成分を含むので、 左から 6番目の画素の混合比ひは、 1/2である。 左 から 7番目の画素は、 1つのシャツ夕時間/ V に対応する背景の成分を含み、 3つのシャツ夕時間/ V に対応する前景の成分を含むので、 左から 7番目の画 素の混合比ひは、 1/4である。
式 ( 1 1 ) および式 ( 1 2 ) をより一般化すると、 画素値 Mは、 式 ( 1 3 ) で表される。
Figure imgf000034_0001
ここで、 ひは、 混合比である。 Bは、 背景の画素値であり、 Fi/vは、 前景の成 分である。
前景に対応するオブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 動き量 Vが 4であるので、 例えば、 図 1 9中の左から 5番目の画素の、 シャヅ 夕が開いて最初の、 シャツ夕時間/ V の前景の成分 FOl/v は、 図 1 9中の左か ら 6番目の画素の、 シャツ夕が開いて 2番目のシャ ツ夕時間/ V に対応する前 景の成分に等しい。 同様に、 FOl/vは、 図 1 9中の左から 7番目の画素の、 シ ャッ夕が閧いて 3番目のシャッタ時間/ V に対応する前景の成分と、 図 1 9中 の左から 8番目の画素の、 シャツ夕が開いて 4番目のシャツ夕時間/ V に対応 する前景の成分とに、 それそれ等しい。 前景に対応するオブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 仮想分割数が 4であるので、 例えば、 図 1 9中の左から 6番目の画素の、 シャ ヅタが開いて最初の、 シャツ夕時間/ V の前景の成分 F02/v は、 図 1 9中の左 から 7番目の画素の、 シャツ夕が開いて 2番目のシャツ夕時間/ V に対応する 前景の成分に等しい。 同様に、 前景の成分 F02/vは、 図 1 9中の左から 8番目 の画素の、 シャツ夕が開いて 3番目のシャツ夕時間/ V に対応する前景の成分 に等しい。
前景に対応するオブジェク トが剛体であり、 等速で動く と仮定でき、 かつ、 動き量 Vが 4であるので、 例えば、 図 1 9中の左から 7番目の画素の、 シャツ 夕が開いて最初の、 シャツ夕時間/ V の前景の成分 F03/v は、 図 1 9中の左か ら 8番目の画素の、 シャ ヅ夕が開いて 2番目のシャツ夕時間/ V に対応する前 景の成分に等しい。
図 1 7乃至図 1 9の説明において、仮想分割数は、 4であるとして説明した が、 仮想分割数は、 動き量 Vに対応する。 動き量 Vは、 一般に、 前景に対応す るオブジェク 卜の移動速度に対応する。例えば、 前景に対応するオブジェク ト が、あるフレームを基準として次のフレームにおいて 4画素分右側に表示され るように移動しているとき、 動き量 Vは、 4とされる。 動き量 Vに対応し、 仮 想分割数は、 4とされる。 同様に、 例えば、 前景に対応するオブジェク トが、 あるフレームを基準として次のフ レームにおいて 6画素分左側に表示される ように移動しているとき、動き量 Vは、 6とされ、仮想分割数は、 6とされる。 図 2 0および図 2 1に、 以上で説明した、 前景領域、 背景領域、 カバ一ドバ ックグラウン ド領域若しくはアンカバ一ドバックグラウン ド領域から成る混 合領域と、分割されたシャッ夕時間に対応する前景の成分および背景の成分と の関係を示す。
図 2 0は、静止している背景の前を移動しているオブジェク トに対応する前 景を含む画像から、 前景領域、 背景領域、 および混合領域の画素を抽出した例 を示す。 図 2 0に示す例において、 前景に対応するオブジェク トは、 画面に対 して水平に移動している。
フレーム #n+ l は、 フレーム #nの次のフレームであり、 フレーム #n+2は、 フレーム #n+ lの次のフレームである。
フレーム #n乃至フレーム #n+2のいずれかから抽出した、 前景領域、 背景領 域、 および混合領域の画素を抽出して、 動き量 Vを 4として、 抽出された画素 の画素値を時間方向に展開したモデルを図 2 1に示す。
前景領域の画素値は、 前景に対応するオブジェク 卜が移動するので、 シャツ 夕時間/ V の期間に対応する、 4つの異なる前景の成分から構成される。 例え ば、 図 2 1 に示す前景領域の画素のう ち最も左側に位置する画素は、 F01/v,F02/v,F03/v、および F04/vから構成される。 すなわち、 前景領域の画素 は、 動きボケを含んでいる。
背景に対応するオブジェク トが静止しているので、シャツタ時間に対応する 期間において、 センサ 1 1に入力される背景に対応する光は変化しない。 この 場合、 背景領域の画素値は、 動きボケを含まない。
カバ一ドバックグラウン ド領域若しくはアンカバードバックグラウンド領 域から成る混合領域に属する画素の画素値は、 前景の成分と、 背景の成分とか ら構成される。
次に、 ォブジェク トに対応する画像が動いているとき、複数のフレームにお ける、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の位置の画 素の画素値を時間方向に展開したモデルについて説明する。例えば、 オブジェ ク トに対応する画像が画面に対して水平に動いているとき、隣接して 1列に並 んでいる画素として、画面の 1つのライン上に並んでいる画素を選択すること ができる。
図 2 2は、静止している背景に対応するォブジェク トを撮像した画像の 3つ のフレームの、 隣接して 1列に並んでいる画素であって、 フレーム上で同一の 位置の画素の画素値を時間方向に展開したモデル図である。 フレ一ム#n は、 フレーム #n- l の次のフレームであり、 フレーム #n+ l は、 フレーム #n の次の フレームである。 他のフレームも同様に称する。
図 2 2に示す B01乃至 B 12の画素値は、 静止している背景のオブジェク ト に対応する画素の画素値である。背景に対応するオブジェク トが静止している ので、 フレーム #η· 1乃至フレーム n+ 1において、 対応する画素の画素値は、 変化しない。 例えば、 フレーム #n- lにおける B05の画素値を有する画素の位 置に対応する、 フレーム #nにおける画素、 およびフレーム #n+ lにおける画素 は、 それそれ、 B05の画素値を有する。
図 2 3は、静止している背景に対応するオブジェク トと共に図中の右側に移 動する前景に対応するォブジェク トを撮像した画像の 3つのフレームの、隣接 して 1列に並んでいる画素であって、フレーム上で同一の位置の画素の画素値 を時間方向に展開したモデル図である。 図 2 3に示すモデルは、 カバ一ドバヅ クグラウンド領域を含む。
図 2 3において、 前景に対応するォブジェク 卜が、 剛体であり、 等速で移動 すると仮定でき、前景の画像が次のフレームにおいて 4画素右側に表示される ように移動するので、前景の動き量 Vは、 4であり、仮想分割数は、 4である。 例えば、 図 2 3中のフレーム #n- l の最も左側の画素の、 シャツ夕が開いて 最初のシャヅタ時間/ Vの前景の成分は、 F 12/vとなり、 図 2 3中の左から 2番 目の画素の、シャッ夕が閧いて 2番目のシャヅタ時間/ Vの前景の成分も、 F12/v となる。 図 2 3中の左から 3番目の画素の、 シャツ夕が開いて 3番目のシャツ タ時間/ V の前景の成分、 および図 2 3中の左から 4番目の画素の、 シャ ツタ が開いて 4番目のシャヅ夕時間/ Vの前景の成分は、 F12/vとなる。
図 2 3中のフレーム #n- l の最も左側の画素の、 シャツ夕が開いて 2番目の シャッ夕時間/ Vの前景の成分は、 F ll/vとなり、 図 2 3中の左から 2番目の画 素の、 シャツ夕が開いて 3番目のシャツ夕時間/ Vの前景の成分も、 F ll/vとな る。 図 2 3中の左から 3番目の画素の、 シャツ夕が開いて 4番目のシャツ夕時 間/ Vの前景の成分は、 F ll/vとなる。
図 2 3中のフレーム #n- l の最も左側の画素の、 シャツ夕が開いて 3番目の シャッ夕時間/ Vの前景の成分は、 F lO/vとなり、 図 2 3中の左から 2番目の画 素の、 シャツ夕が閧いて 4番目のシャツ夕時間/ Vの前景の成分も、 FlO/vとな る。 図 2 3中のフレーム #η· 1 の最も左側の画素の、 シャツ夕が閧いて 4番目 のシャツ夕時間/ Vの前景の成分は、 F09/vとなる。
背景に対応するォブジェク 卜が静止しているので、図 2 3中のフレーム #η· 1 の左から 2番目の画素の、 シャッ夕が開いて最初のシャッタ時間/ V の背景の 成分は、 BO l/v となる。 図 2 3中のフレーム #n- l の左から 3番目の画素の、 シャ ツ夕が開いて最初および 2番目のシャツ夕時間/ Vの背景の成分は、 B02/v となる。 図 2 3中のフレーム #n- l の左から 4番目の画素の、 シャツ夕が開い て最初乃至 3番目のシャッタ時間/ Vの背景の成分は、 B03/Vとなる。
図 2 3中のフレーム #n- l において、 最も左側の画素は、 前景領域に属し、 左側から 2番目乃至 4番目の画素は、カバードバックグラウンド領域である混 合領域に属する。
図 2 3中のフレーム #n- l の左から 5番目の画素乃至 1 2番目の画素は、 背 景領域に属し、 その画素値は、 それそれ、 B04乃至 B 11 となる。
図 2 3中のフレーム #n の左から 1番目の画素乃至 5番目の画素は、 前景領 域に属する。 フレーム #nの前景領域における、 シャツ夕時間/ Vの前景の成分 は、 F05/V乃至 F 12/vのいずれかである。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前景の画像が次のフレームにおいて 4画素右側に表示されるように移動する ので、 図 2 3中のフレーム #n の左から 5番目の画素の、 シャツ夕が開いて最 初のシャヅ夕時間/ Vの前景の成分は、 F 12/vとなり、 図 2 3中の左から 6番目 の画素の、 シャツ夕が鬨いて 2番目のシャヅタ時間/ Vの前景の成分も、 F 12/v となる。 図 2 3中の左から 7番目の画素の、 シャツ夕が開いて 3番目のシャヅ 夕時間/ V の前景の成分、 および図 2 3中の左から 8番目の画素の、 シャ ツタ が閧いて 4番目のシャヅ夕時間/ Vの前景の成分は、 F 12/vとなる。
図 2 3中のフレーム #n の左から 5番目の画素の、 シャ ツ夕が開いて 2番目 のシャッタ時間/ Vの前景の成分は、 F l l/vとなり、 図 2 3中の左から 6番目の 画素の、 シャツ夕が開いて 3番目のシャヅタ時間/ Vの前景の成分も、 F ll/vと なる。 図 2 3中の左から 7番目の画素の、 シャツタが閧いて 4番目のシャツ夕 時間/ Vの前景の成分は、 F l l/vとなる。
図 2 3中のフレーム #n の左から 5番目の画素の、 シャツ夕が閧いて 3番目 のシャツ夕時間/ Vの前景の成分は、 F lO/vとなり、 図 2 3中の左から 6番目の 画素の、 シャツ夕が閧いて 4番目のシャヅタ時間/ Vの前景の成分も、 F lO/vと なる。 図 2 3中のフレ一ム #n の左から 5番目の画素の、 シャツタが閧いて 4 番目のシャッ夕時間/ vの前景の成分は、 F09/Vとなる。
背景に対応するォブジェク トが静止しているので、 図 2 3中のフレーム #n の左から 6番目の画素の、 シャ ヅ夕が閧ぃて最初のシャツタ時間/ V の背景の 成分は、 B05/v となる。 図 2 3中のフレーム #n の左から 7番目の画素の、 シ ャッ夕が閧いて最初および 2番目のシャツ夕時間/ Vの背景の成分は、 B06/vと なる。 図 2 3中のフレーム #n の左から 8番目の画素の、 シャツ夕が開いて最 初乃至 3番目の、 シャツタ時間/ Vの背景の成分は、 B07/vとなる。
図 2 3中のフレーム #n において、 左側から 6番目乃至 8番目の画素は、 力 バードバックグラウンド領域である混合領域に属する。
図 2 3中のフレーム #n の左から 9番目の画素乃至 1 2番目の画素は、 背景 領域に属し、 画素値は、 それそれ、 B08乃至 B 11 となる。
図 2 3中のフレーム #n+ lの左から 1番目の画素乃至 9番目の画素は、 前景 領域に属する。 フレーム #n+ lの前景領域における、 シャツ夕時間/ Vの前景の 成分は、 FO l/v乃至 F 12/vのいずれかである。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前景の画像が次のフレームにおいて 4画素右側に表示されるように移動する ので、 図 2 3中のフレーム #n+ lの左から 9番目の画素の、 シャツ夕が開いて 最初のシャッタ時間/ Vの前景の成分は、 F 12/Vとなり、 図 2 3中の左から 1 0 番目の画素の、 シャツ夕が開いて 2番目のシャツ夕時間/ V の前景の成分も、 F 12/vとなる。 図 2 3中の左から 1 1番目の画素の、 シャツ夕が開いて 3番目 のシャツ夕時間/ Vの前景の成分、および図 2 3中の左から 1 2番目の画素の、 シャツ夕が開いて 4番目のシャヅ夕時間/ Vの前景の成分は、 F 12/vとなる。 図 2 3中のフレ一ム#n+ lの左から 9番目の画素の、 シャ ヅ夕が開いて 2番 目のシャッ夕時間/ Vの期間の前景の成分は、 F l l/vとなり、 図 2 3中の左から 1 0番目の画素の、 シャツ夕が鬨いて 3番目のシャツ夕時間/ V の前景の成分 も、 F l l/vとなる。 図 2 3中の左から 1 1番目の画素の、 シャツ夕が閧いて 4 番目の、 シャツタ時間/ Vの前景の成分は、 F ll/vとなる。
図 2 3中のフレーム #n+ lの左から 9番目の画素の、 シャツ夕が開いて 3番 目の、 シャッ夕時間/ Vの前景の成分は、 F l O/vとなり、 図 2 3中の左から 1 0 番目の画素の、 シャツ夕が開いて 4番目のシャツ夕時間/ v の前景の成分も、 F lO/v となる。 図 2 3中のフレーム #n+ l の左から 9番目の画素の、 シャツ夕 が鬨いて 4番目のシャヅタ時間/ Vの前景の成分は、 F09/vとなる。
背景に対応するォブジェク トが静止しているので、 図 2 3中のフ レーム #n+ lの左から 1 0番目の画素の、 シャツ夕が開いて最初のシャツタ時間/ Vの 背景の成分は、 B09/v となる。 図 2 3中のフレーム #τι+ 1の左から 1 1番目の 画素の、 シャツ夕が開いて最初および 2番目のシャ ツタ時間/ V の背景の成分 は、 B lO/v となる。 図 2 3中のフレーム #n+ lの左から 1 2番目の画素の、 シ ャヅタが鬨いて最初乃至 3番目の、 シャヅ夕時間/ Vの背景の成分は、 B ll/vと なる。
図 2 3中のフレーム #n+ l において、 左側から 1 0番目乃至 1 2番目の画素 は、 カバ一ドバックグラウンド領域である混合領域に対応する。
図 2 4は、図 2 3に示す画素値から前景の成分を抽出した画像のモデル図で ある。
図 2 5は、静止している背景と共に図中の右側に移動するォブジヱク トに対 応する前景を撮像した画像の 3つのフレ一ムの、隣接して 1列に並んでいる画 素であって、フレーム上で同一の位置の画素の画素値を時間方向に展開したモ デル図である。 図 2 5において、 アンカバ一ドバヅクグラウンド領域が含まれ ている。
図 2 5において、 前景に対応するオブジェク トは、 剛体であり、 かつ等速で 移動していると仮定できる。前景に対応するォブジェクトが、 次のフレームに おいて 4画素分右側に表示されるように移動しているので、 動き量 Vは、 4で ある。
例えば、 図 2 5中のフレーム #n- l の最も左側の画素の、 シャツ夕が開いて 最初の、 シャツ夕時間/ Vの前景の成分は、 F 13/vとなり、 図 2 5中の左から 2 番目の画素の、 シャツ夕が開いて 2番目のシャツ夕時間/ V の前景の成分も、 F 13/vとなる。 図 2 5中の左から 3番目の画素の、 シャヅ夕が開いて 3番目の シャッ夕時間/ V の前景の成分、 および図 2 5中の左から 4番目の画素の、 シ ャッタが開いて 4番目のシャツ夕時間/ Vの前景の成分は、 F 13/vとなる。 図 2 5中のフレーム #n- l の左から 2番目の画素の、 シャツタが開いて最初 のシャツ夕時間/ Vの前景の成分は、 F 14/vとなり、 図 2 5中の左から 3番目の 画素の、 シャツ夕が開いて 2番目のシャ ツタ時間/ Vの前景の成分も、 F 14/vと なる。 図 2 5中の左から 3番目の画素の、 シャツ夕が開いて最初の、 シャツタ 時間/ Vの前景の成分は、 F 15/vとなる。
背景に対応するォブジェク トが静止しているので、図 2 5中のフレーム #η· 1 の最も左側の画素の、 シャツ夕が閧いて 2番目乃至 4番目の、 シャツ夕時間/ V の背景の成分は、 B25/v となる。 図 2 5中のフレーム #η· 1 の左から 2番目の 画素の、 シャツ夕が開いて 3番目および 4番目の、 シャ ツ夕時間/ V の背景の 成分は、 B26/v となる。 図 2 5中のフレーム #n- l の左から 3番目の画素の、 シャヅ夕が開いて 4番目のシャヅタ時間/ Vの背景の成分は、 B27/vとなる。 図 2 5中のフレーム #η· 1 において、 最も左側の画素乃至 3番目の画素は、 アンカバードバックグラウンド領域である混合領域に属する。
図 2 5中のフレーム #η · 1 の左から 4番目の画素乃至 1 2番目の画素は、 前 景領域に属する。 フレームの前景の成分は、 F 13/V乃至 F24/vのいずれかであ る。
図 2 5中のフレーム #n の最も左側の画素乃至左から 4番目の画素は、 背景 領域に属し、 画素値は、 それそれ、 B25乃至 B28となる。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前景の画像が次のフレームにおいて 4画素右側に表示されるように移動する ので、 図 2 5中のフレーム #n の左から 5番目の画素の、 シャツ夕が開いて最 初のシャヅ夕時間/ Vの前景の成分は、 F 13/vとなり、 図 2 5中の左から 6番目 の画素の、 シャツ夕が鬨いて 2番目のシャツ夕時間/ Vの前景の成分も、 F 13/v となる。 図 2 5中の左から 7番目の画素の、 シャツ夕が開いて 3番目のシャツ 夕時間/ V の前景の成分、 および図 2 5中の左から 8番目の画素の、 シャヅ夕 が閧いて 4番目のシャッタ時間/ Vの前景の成分は、 F 13/vとなる。
図 2 5中のフレーム #n の左から 6番目の画素の、 シャツ夕が閧いて最初の シャッ夕時間/ Vの前景の成分は、 F 14/vとなり、 図 2 5中の左から 7番目の画 素の、 シャツ夕が開いて 2番目のシャツ夕時間/ Vの前景の成分も、 F 14/vとな る。図 2 5中の左から 8番目の画素の、 シャヅ夕が開いて最初のシャヅ夕時間 /vの前景の成分は、 F 15/vとなる。
背景に対応するォブジェク トが静止しているので、 図 2 5中のフレーム #n の左から 5番目の画素の、シャツ夕が開いて 2番目乃至 4番目のシャツ夕時間 /vの背景の成分は、 B29/v となる。 図 2 5中のフレーム #nの左から 6番目の 画素の、 シャツ夕が閧いて 3番目および 4番目のシャツ夕時間/ V の背景の成 分は、 B30/v となる。 図 2 5中のフレーム #n の左から 7番目の画素の、 シャ ヅタが開いて 4番目のシャツタ時間/ Vの背景の成分は、 B3 1 /vとなる。
図 2 5中のフレーム #nにおいて、左から 5番目の画素乃至 7番目の画素は、 アンカバ一ドバックグラウンド領域である混合領域に属する。
図 2 5中のフレーム #n の左から 8番目の画素乃至 1 2番目の画素は、 前景 領域に属する。 フレーム #nの前景領域における、 シャツ夕時間/ Vの期間に対 応する値は、 F 13/v乃至 F20/vのいずれかである。
図 2 5中のフレーム #n+ lの最も左側の画素乃至左から 8番目の画素は、 背 景領域に属し、 画素値は、 それそれ、 B25乃至 B32となる。
前景に対応するオブジェク トが、 剛体であり、 等速で移動すると仮定でき、 前景の画像が次のフレームにおいて 4画素右側に表示されるように移動する ので、 図 2 5中のフレーム #n+ lの左から 9番目の画素の、 シャツ夕が開いて 最初のシャヅ夕時間/ Vの前景の成分は、 F 13/vとなり、 図 2 5中の左から 1 0 番目の画素の、 シャツ夕が開いて 2番目のシャツタ時間/ V の前景の成分も、 F 13/vとなる。 図 2 5中の左から 1 1番目の画素の、 シャツ夕が鬨いて 3番目 のシャツ夕時間/ Vの前景の成分、および図 2 5中の左から 1 2番目の画素の、 シャツ夕が開いて 4番目のシャツ夕時間/ Vの前景の成分は、 F 13/vとなる。 図 2 5中のフレーム #n+ lの左から 1 0番目の画素の、 シャツ夕が開いて最 初のシャッタ時間/ Vの前景の成分は、 F 14/vとなり、 図 2 5中の左から 1 1番 目の画素の、シャツ夕が開いて 2番目のシャヅタ時間/ Vの前景の成分も、 F 14/v となる。図 2 5中の左から 1 2番目の画素の、 シャツ夕が閧いて最初のシャヅ 夕時間/ Vの前景の成分は、 F 15/vとなる。
背景に対応するォブジェク 卜が静止しているので、 図 2 5中のフ レーム #n+ lの左から 9番目の画素の、 シャツ夕が開いて 2番目乃至 4番目の、 シャ ッ夕時間/ Vの背景の成分は、 B33/V となる。 図 2 5中のフレーム #n+ lの左か ら 1 0番目の画素の、 シャツ夕が開いて 3番目および 4番目のシャ ツ夕時間/ V の背景の成分は、 B34/v となる。 図 2 5中のフレーム #n+ lの左から 1 1番目 の画素の、 シャツ夕が開いて 4番目のシャツ夕時間/ Vの背景の成分は、 B35/v となる。
図 2 5中のフレーム #n+ l において、 左から 9番目の画素乃至 1 1番目の画 素は、 アンカバ一ドバックグラウンド領域である混合領域に属する。
図 2 5中のフレーム #n+ lの左から 1 2番目の画素は、 前景領域に属する。 フレーム #n+ l の前景領域における、 シャヅタ時間/ V の前景の成分は、 F13/V 乃至 F16/vのいずれかである。
図 2 6は、図 2 5に示す画素値から前景の成分を抽出した画像のモデル図で ある。
図 1 0に戻り、 領域特定部 1 0 3は、 複数のフレームの画素値を用いて、 前 景領域、 背景領域、 カバードバックグラウンド領域、 またはアンカバ一ドバヅ クグラウンド領域に属することを示すフラグを画素毎に対応付けて、領域情報 として、 混合比算出部 1 0 4および動きボケ調整部 1 0 6に供給する。
混合比算出部 1 0 4は、 複数のフレームの画素値、 および領域情報を基に、 混合領域に含まれる画素について画素毎に混合比ひを算出し、算出した混合比 ひを前景背景分離部 1 0 5に供給する。
前景背景分離部 1 0 5は、 複数のフレームの画素値、 領域情報、 および混合 比ひを基に、 前景の成分のみからなる前景成分画像を抽出して、 動きポケ調整 部 1 0 6に供給する。
動きボケ調整部 1 0 6は、前景背景分離部 1 0 5から供給された前景成分画 像、 動き検出部 1 0 2から供給された動きベク トル、 および領域特定部 1 0 3 から供給された領域情報を基に、前景成分画像に含まれる動きボケの量を調整 して、 動きボケの量を調整した前景成分画像を出力する。
図 2 7のフローチャートを参照して、信号処理部 1 2による動きボケの量の 調整の処理を説明する。 ステップ S 1 0 1において、 領域特定部 1 0 3は、 入 力画像を基に、 入力画像の画素毎に前景領域、 背景領域、 カバードバックグラ ゥンド領域、またはアンカバ一ドバックグラウンド領域のいずれかに属するか を示す領域情報を生成する領域特定の処理を実行する。領域特定の処理の詳細 は、 図 3 6のフローチャートを参照して後述する。 領域特定部 1 0 3は、 生成 した領域情報を混合比算出部 1 0 4に供給する。
なお、 ステップ S 1 0 1において、 領域特定部 1 0 3は、 入力画像を基に、 入力画像の画素毎に前景領域、 背景領域、 または混合領域 (カバ一ドバックグ ラウンド領域、 またはアンカバードバックグラウンド領域の区別をしない)の いずれかに属するかを示す領域情報を生成するようにしてもよい。この場合に おいて、 前景背景分離部 1 0 5および動きボケ調整部 1 0 6は、 動きベク トル の方向を基に、 混合領域がカバ一ドバックグラウンド領域であるか、 またはァ ンカバ一ドバックグラウンド領域であるかを判定する。例えば、 動きべク トル の方向に対応して、 前景領域、 混合領域、 および背景領域と順に並んでいると き、 その混合領域は、 カバードバックグラウンド領域と判定され、 動きべクト ルの方向に対応して、 背景領域、 混合領域、 および前景領域と順に並んでいる とき、 その混合領域は、 アンカバードバックグラウンド領域と判定される。 ステップ S 1 0 2において、 混合比算出部 1 0 4は、 入力画像および領域情 報を基に、 混合領域に含まれる画素毎に、 混合比ひを算出する。 混合比算出の 処理の詳細は、 図 4 6のフローチャートを参照して後述する。混合比算出部 1 0 4は、 算出した混合比ひを前景背景分離部 1 0 5に供給する。
ステップ S 1 0 3において、 前景背景分離部 1 0 5は、 領域情報、 および混 合比ひを基に、 入力画像から前景の成分を抽出して、 前景成分画像として動き ボケ調整部 1 0 6に供給する。
ステップ S 1 0 4において、 動きボケ調整部 1 0 6は、 動きべク トルおよび 領域情報を基に、 動き方向に並ぶ連続した画素であって、 アンカバ一ドバック グラウンド領域、 前景領域、 およびカバ一ドバックグラウンド領域のいずれか に属するものの画像上の位置を示す処理単位を生成し、処理単位に対応する前 景成分に含まれる動きボケの量を調整する。動きボケの量の調整の処理の詳細 については、 図 6 3のフローチャートを参照して後述する。 ステップ S 1 0 5において、 信号処理部 1 2は、 画面全体について処理を終 了したか否かを判定し、画面全体について処理を終了していないと判定された 場合、 ステップ S 1 0 4に進み、処理単位に対応する前景の成分を対象とした 動きボケの量の調整の処理を繰り返す。
ステップ S 1 0 6において、画面全体について処理を終了したと判定された 場合、 処理は終了する。
このように、 信号処理部 1 2は、 前景と背景を分離して、 前景に含まれる動 きボケの量を調整することができる。 すなわち、 信号処理部 1 2は、 前景の画 素の画素値であるサンプルデータに含まれる動きボケの量を調整することが できる。
以下、 領域特定部 1 0 3、 混合比算出部 1 0 4、 前景背景分離部 1 0 5、 お よび動きボケ調整部 1 0 6のそれそれの構成の一例について説明する。
図 2 8は、 領域特定部 1 0 3の構成の一例を示すプロック図である。 フレー ムメモリ 1 2 1は、 入力された画像をフレーム単位で記憶する。 フレームメモ リ 1 2 1は、 処理の対象がフレーム #nであるとき、 フレーム #nの 2つ前のフ レームであるフレーム #n-2、 フレーム #n の 1 つ前のフレームであるフレーム #n- l、 フレーム #n、 フレーム #nの 1つ後のフレームであるフレーム #n+ l、 お よびフレーム #ιιの 2つ後のフレームであるフレーム #n+2を記憶する。
静動判定部 1 2 2— 1は、 フレーム #n の領域特定の対象である画素の画像 上の位置と同一の位置にあるフレーム #n+2の画素の画素値、 およびフレーム #n の領域特定の対象である画素の画像上の位置と同一の位置にあるフレーム #n+ lの画素の画素値をフレームメモリ 1 2 1から読み出して、 読み出した画 素値の差の絶対値を算出する。 静動判定部 1 2 2 — 1は、 フレーム #n+2の画 素値とフレ一ム#n+ l の画素値との差の絶対値が、 予め設定している閾値 Th より大きいか否かを判定し、 差の絶対値が閾値 Thより大きいと判定された場 合、 動きを示す静動判定を領域判定部 1 2 3— 1に供給する。 フレーム #n+2 の画素の画素値とフレーム #n+ l の画素の画素値との差の絶対値が閾値 Th以 下であると判定された場合、 静動判定部 1 2 2 — 1は、 静止を示す静動判定を 領域判定部 1 2 3— 1に供給する。 静動判定部 1 2 2 — 2は、 フレ一ム#n の領域特定の対象である画素の画像 上の位置と同一の位置にあるフレーム #n+ lの画素の画素値、 およびフ レーム #n の対象となる画素の画素値をフ レームメモリ 1 2 1から読み出して、 画素 値の差の絶対値を算出する。 静動判定部 1 2 2 — 2は、 フレーム #n+ l の画素 値とフレーム #n の画素値との差の絶対値が、 予め設定している閾値 Th より 大きいか否かを判定し、 画素値の差の絶対値が、 閾値 Thより大きいと判定さ れた場合、動きを示す静動判定を領域判定部 1 2 3 — 1および領域判定部 1 2 3 — 2に供給する。フレーム #n+ lの画素の画素値とフ レーム #nの画素の画素 値との差の絶対値が、 閾値 Th以下であると判定された場合、 静動判定部 1 2 2 — 2は、静止を示す静動判定を領域判定部 1 2 3 — 1および領域判定部 1 2 3 - 2に供給する。
静動判定部 1 2 2 — 3は、 フ レーム #n の領域特定の対象である画素の画素 値、 およびフレーム #n の領域特定の対象である画素の画像上の位置と同一の 位置にあるフレーム #η· 1 の画素の画素値をフ レームメモリ 1 2 1から読み出 して、 画素値の差の絶対値を算出する。静動判定部 1 2 2 — 3は、 フレーム #n の画素値とフレーム #n - l の画素値との差の絶対値が、 予め設定している閾値 Th より大きいか否かを判定し、 画素値の差の絶対値が、 閾値 Th より大きい と判定された場合、動きを示す静動判定を領域判定部 1 2 3 — 2および領域判 定部 1 2 3 — 3に供給する。 フレーム #nの画素の画素値とフレーム #n- lの画 素の画素値との差の絶対値が、 閾値 Th以下であると判定された場合、 静動判 定部 1 2 2 — 3は、静止を示す静動判定を領域判定部 1 2 3 — 2および領域判 定部 1 2 3 — 3に供給する。
静動判定部 1 2 2 — 4は、 フレーム #n の領域特定の対象である画素の画像 上の位置と同一の位置にあるフレーム #n - l の画素の画素値、 およびフレーム #n の領域特定の対象である画素の画像上の位置と同一の位置にあるフ レーム #n-2 の画素の画素値をフレームメモリ 1 2 1から読み出して、 画素値の差の 絶対値を算出する。 静動判定部 1 2 2 — 4は、 フレーム #η · 1 の画素値とフ レ 一ム# 2の画素値との差の絶対値が、予め設定している閾値 Thより大きいか 否かを判定し、画素値の差の絶対値が、閾値 Thより大きいと判定された場合、 動きを示す静動判定を領域判定部 1 2 3 — 3に供給する。 フレーム #η· 1 の画 素の画素値とフレーム #n-2の画素の画素値との差の絶対値が、閾値 Th以下で あると判定された場合、 静動判定部 1 2 2 — 4は、 静止を示す静動判定を領域 判定部 1 2 3— 3に供給する。
領域判定部 1 2 3— 1は、静動判定部 1 2 2 — 1から供給された静動判定が 静止を示し、 かつ、 静動判定部 1 2 2 — 2から供給された静動判定が動きを示 しているとき、 フレーム #n における領域特定の対象である画素がアンカバ一 ドバックグラウン ド領域に属すると判定し、領域の判定される画素に対応する ァンカバ一ドバックグラウンド領域判定フラグに、アンカバ一ドバックグラウ ンド領域に属することを示す" 1 " を設定する。
領域判定部 1 2 3— 1は、静動判定部 1 2 2 — 1から供給された静動判定が 動きを示すか、 または、 静動判定部 1 2 2 — 2から供給された静動判定が静止 を示しているとき、 フレーム #n における領域特定の対象である画素がアンカ バードバックグラウンド領域に属しないと判定し、領域の判定される画素に対 応するアンカバ一ドバックグラウンド領域判定フラグに、アンカバードバック グラウンド領域に属しないことを示す" 0 " を設定する。
領域判定部 1 2 3— 1は、 このように" 1 " または" 0 " が設定されたアン カバードバックグラウン ド領域判定フラグを判定フラグ格納フレームメモリ 1 2 4に供給する。
領域判定部 1 2 3— 2は、静動判定部 1 2 2 — 2から供給された静動判定が 静止を示し、 かつ、 静動判定部 1 2 2— 3から供給された静動判定が静止を示 しているとき、 フレーム #n における領域特定の対象である画素が静止領域に 属すると判定し、 領域の判定される画素に対応する静止領域判定フラグに、 静 止領域に属することを示す'' 1 " を設定する。
領域判定部 1 2 3— 2は、静動判定部 1 2 2 — 2から供給された静動判定が 動きを示すか、 または、 静動判定部 1 2 2 — 3から供給された静動判定が動き を示しているとき、 フレーム #n における領域特定の対象である画素が静止領 域に属しないと判定し、領域の判定される画素に対応する静止領域判定フラグ に、 静止領域に属しないことを示す" 0 " を設定する。 領域判定部 1 2 3— 2は、 このように" 1 " または" 0 " が設定された静止 領域判定フラグを判定フラグ格納フレームメモリ 1 2 4に供給する。
領域判定部 1 2 3— 2は、静動判定部 1 2 2 — 2から供給された静動判定が 動きを示し、 かつ、 静動判定部 1 2 2 — 3から供給された静動判定が動きを示 しているとき、 フレーム #n における領域特定の対象である画素が動き領域に 属すると判定し、 領域の判定される画素に対応する動き領域判定フラグに、 動 き領域に属することを示す" 1 " を設定する。
領域判定部 1 2 3— 2は、静動判定部 1 2 2 — 2から供給された静動判定が 静止を示すか、 または、 静動判定部 1 2 2 — 3から供給された静動判定が静止 を示しているとき、 フレーム #n における領域特定の対象である画素が動き領 域に属しないと判定し、領域の判定される画素に対応する動き領域判定フラグ に、 動き領域に属しないことを示す" 0 " を設定する。
領域判定部 1 2 3— 2は、 このように" 1 " または" 0 " が設定された動き 領域判定フラグを判定フラグ格納フレームメモリ 1 2 4に供給する。
領域判定部 1 2 3— 3は、静動判定部 1 2 2 — 3から供給された静動判定が 動きを示し、 かつ、 静動判定部 1 2 2 _ 4から供給された静動判定が静止を示 しているとき、 フレーム #n における領域特定の対象である画素がカバ一ドバ ックグラウン ド領域に属すると判定し、領域の判定される画素に対応するカバ ―ドバックグラウン ド領域判定フラグに、カバ一 ドバックグラウン ド領域に属 することを示す" 1 " を設定する。
領域判定部 1 2 3— 3は、静動判定部 1 2 2 — 3から供給された静動判定が 静止を示すか、 または、 静動判定部 1 2 2 — 4から供給された静動判定が動き を示しているとき、 フレーム #n における領域特定の対象である画素がカバー ドバックグラウン ド領域に属しないと判定し、領域の判定される画素に対応す るカバー ドバックグラウン ド領域判定フラグに、カバードバックグラウン ド領 域に属しないことを示す" 0 " を設定する。
領域判定部 1 2 3 — 3は、 このように" 1 " または" 0 " が設定されたカバ 一ドバヅクグラウン ド領域判定フラグを判定フラグ格納フ レームメモリ 1 2 4に供給する。 判定フラグ格納フレームメモリ 1 2 4は、領域判定部 1 2 3 — 1 から供給さ れたアンカパ一 ドバックグラウン ド領域判定フラグ、領域判定部 1 2 3 — 2か ら供給された静止領域判定フラグ、領域判定部 1 2 3— 2から供給された動き 領域判定フラグ、および領域判定部 1 2 3— 3から供給されたカバ一ドバック グラウン ド領域判定フラグをそれそれ記憶する。
判定フラグ格納フレームメモリ 1 2 4は、記憶しているアンカバ一ドバック グラウン ド領域判定フラグ、 静止領域判定フラグ、 動き領域判定フラグ、 およ びカバ一ドバックグラウン ド領域判定フラグを合成部 1 2 5に供給する。合成 部 1 2 5は、 判定フラグ格納フレームメモリ 1 2 4から供給された、 ァンカバ ―ドバックグラウン ド領域判定フラグ、 静止領域判定フラグ、 動き領域判定フ ラグ、 およびカバ一ドバックグラウン ド領域判定フラグを基に、 各画素が、 ァ ンカバ一ドバックグラウン ド領域、 静止領域、 動き領域、 およびカバ一ドバッ クグラウン ド領域のいずれかに属することを示す領域情報を生成し、判定フラ グ格納フレームメモリ 1 2 6に供給する。
判定フラグ格納フレームメモリ 1 2 6は、合成部 1 2 5から供給された領域 情報を記憶すると共に、 記憶している領域情報を出力する。
次に、領域特定部 1 0 3の処理の例を図 2 9乃至図 3 3を参照して説明する < 前景に対応するオブジェク トが移動しているとき、オブジェク トに対応する 画像の画面上の位置は、 フレーム毎に変化する。 図 2 9に示すように、 フレー ム# において、 Yn(x,y)で示される位置に位置するォブジェク トに対応する画 像は、 次のフレームであるフレーム #n+ l において、 Yn+ l (x,y)に位置する。 前景のオブジェク 卜に対応する画像の動き方向に隣接して 1列に並ぶ画素 の画素値を時間方向に展開したモデル図を図 3 0に示す。例えば、 前景のォブ ジェク 卜に対応する画像の動き方向が画面に対して水平であるとき、図 3 0に おけるモデル図は、 1 つのライ ン上の隣接する画素の画素値を時間方向に展開 したモデルを示す。
図 3 0において、 フレーム #nにおけるライ ンは、 フレーム #n+ l におけるラ イ ンと同一である。
フレーム #n において、 左から 2番目の画素乃至 1 3番目の画素に含まれて いるオブジェク トに対応する前景の成分は、 フ レニム #n+ lにおいて、 左から 6番目乃至 1 7番目の画素に含まれる。
フ レーム #n において、 カバ一ドバックグラウン ド領域に属する画素は、 左 から 1 1番目乃至 1 3番目の画素であり、アンカバ一ドバックグラウンド領域 に属する画素は、 左から 2番目乃至 4番目の画素である。 フ レーム #n+ l にお いて、 カバードバックグラウンド領域に属する画素は、左から 1 5番目乃至 1 7番目の画素であり、 アンカバ一ドバックグラウンド領域に属する画素は、左 から 6番目乃至 8番目の画素である。
図 3 0に示す例において、 フ レーム #n に含まれる前景の成分が、 フ レーム #n+ lにおいて 4画素移動しているので、 動き量 Vは、 4である。 仮想分割数 は、 動き量 Vに対応し、 4である。
次に、注目しているフレームの前後における混合領域に属する画素の画素値 の変化について説明する。
図 3 1に示す、 背景が静止し、 前景の動き量 Vが 4であるフレーム #nにお いて、 カバ一ドバックグラウンド領域に属する画素は、左から 1 5番目乃至 1 7番目の画素である。 動き量 Vが 4であるので、 1つ前のフ レーム #n - l にお いて、 左から 1 5番目乃至 1 7番目の画素は、 背景の成分のみを含み、 背景領 域に属する。 また、 更に 1つ前のフレーム #n-2 において、 左から 1 5番目乃 至 1 7番目の画素は、 背景の成分のみを含み、 背景領域に属する。
ここで、 背景に対応するオブジェク トが静止しているので、 フ レーム #n - l の左から 1 5番目の画素の画素値は、 フレーム #n-2 の左から 1 5番目の画素 の画素値から変化しない。 同様に、 フ レーム #n- l の左から 1 6番目の画素の 画素値は、 フ レーム #η·2 の左から 1 6番目の画素の画素値から変化せず、 フ レ一ム# 1の左から 1 7番目の画素の画素値は、 フレ一ム #ιι-2の左から 1 7 番目の画素の画素値から変化しない。
すなわち、 フ レ一ム#n における力バードバックグラウンド領域に属する画 素に対応する、 フ レーム #η· 1およびフレーム #η· 2の画素は、 背景の成分のみ から成り、 画素値が変化しないので、 その差の絶対値は、 ほぼ 0の値となる。 従って、フレーム #nにおける混合領域に属する画素に対応する、フレーム #n - l およびフレーム #η·2 の画素に対する静動判定は、 静動判定部 1 2 2— 4によ り、 静止と判定される。
フレーム #η におけるカバ一ドバックグラウンド領域に属する画素は、 前景 の成分を含むので、 フ レーム #η- 1 における背景の成分のみから成る場合と、 画素値が異なる。 従って、 フ レーム #η における混合領域に属する画素、 およ び対応するフ レーム #η- 1 の画素に対する静動判定は、 静動判定部 1 2 2 — 3 により、 動きと判定される。
このように、 領域判定部 1 2 3— 3は、 静動判定部 1 2 2 — 3から動きを示 す静動判定の結果が供給され、静動判定部 1 2 2 — 4から静止を示す静動判定 の結果が供給されたとき、対応する画素がカバードバックグラウンド領域に属 すると判定する。
図 3 2に示す、 背景が静止し、 前景の動き量 Vが 4であるフレーム #ηにお いて、 アンカバードバックグラウンド領域に含まれる画素は、左から 2番目乃 至 4番目の画素である。 動き量 Vが 4であるので、 1つ後のフレーム #η+ 1に おいて、 左から 2番目乃至 4番目の画素は、 背景の成分のみを含み、 背景領域 に属する。 また、 更に 1つ後のフレーム #η+2において、 左から 2番目乃至 4 番目の画素は、 背景の成分のみを含み、 背景領域に属する。
ここで、 背景に対応するオブジェク トが静止しているので、 フ レーム #η+2 の左から 2番目の画素の画素値は、 フレーム #η+ 1の左から 2番目の画素の画 素値から変化しない。 同様に、 フ レーム #η+2の左から 3番目の画素の画素値 は、 フ レーム #η+ 1 の左から 3番目の画素の画素値から変化せず、 フ レーム #η+2の左から 4番目の画素の画素値は、フレーム #η+ 1の左から 4番目の画素 の画素値から変化しない。
すなわち、 フレーム #η におけるアンカバ一ドバヅクグラウンド領域に属す る画素に対応する、 フレーム #η+ 1およびフレーム #η+2の画素は、 背景の成分 のみから成り、 画素値が変化しないので、 その差の絶対値は、 ほぼ 0の値とな る。 従って、 フ レーム #η における混合領域に属する画素に対応する、 フ レー ム #ιι+ 1およびフレーム #η+2の画素に対する静動判定は、静動判定部 1 2 2— 1により、 静止と判定される。 フレーム #n におけるアンカバードバックグラウンド領域に属する画素は、 前景の成分を含むので、 フレーム #n+ l における背景の成分のみから成る場合 と、 画素値が異なる。 従って、 フ レーム #n における混合領域に属する画素、 および対応するフレーム #n+ lの画素に対する静動判定は、 静動判定部 1 2 2 — 2により、 動きと判定される。
このように、 領域判定部 1 2 3 — 1は、 静動判定部 1 2 2 — 2から動きを示 す静動判定の結果が供給され、静動判定部 1 2 2 — 1から静止を示す静動判定 の結果が供給されたとき、対応する画素がアンカバードバックグラウンド領域 に属すると判定する。
図 3 3は、 フレーム #n における領域特定部 1 0 3の判定条件を示す図であ る。 フレーム #n の判定の対象となる画素の画像上の位置と同一の位置にある フレーム #n -2の画素と、 フレーム #nの判定の対象となる画素の画像上の位置 と同一の位置にあるフレーム #n- lの画素とが静止と判定され、 フレーム #nの 判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム #n- l の画 素と、 フレーム #n の画素とが動きと判定されたとき、 領域特定部 1 0 3は、 フレーム #n の判定の対象となる画素がカバードバックグラウンド領域に属す ると判定する。
フレーム #n の判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム #η· 1 の画素と、 フ レーム #η の画素とが静止と判定され、 フ レーム #η の画素と、 フレーム #η の判定の対象となる画素の画像上の位置と同一の位置 にあるフレーム #η+ 1の画素とが静止と判定されたとき、領域特定部 1 0 3は、 フレーム #ηの判定の対象となる画素が静止領域に属すると判定する。
フレーム #η の判定の対象となる画素の画像上の位置と同一の位置にあるフ レーム #η· 1 の画素と、 フ レーム #η の画素とが動きと判定され、 フ レーム #η の画素と、 フレーム #η の判定の対象となる画素の画像上の位置と同一の位置 にあるフレーム #η+ 1 の画素とが動きと判定されたとき、領域特定部 1 0 3は、 フレーム #ηの判定の対象となる画素が動き領域に属すると判定する。
フレーム #ηの画素と、 フレーム #ηの判定の対象となる画素の画像上の位置 と同一の位置にあるフレーム #η+ 1の画素とが動きと判定され、フレーム #ηの 判定の対象となる画素の画像上の位置と同一の位置にあるフレーム #n+ lの画 素と、 フレーム #n の判定の対象となる画素の画像上の位置と同一の位置にあ るフレーム #n+2の画素とが静止と判定されたとき、 領域特定部 1 0 3は、 フ レーム #n の判定の対象となる画素がアンカバードバックグラウンド領域に属 すると判定する。
図 3 4は、 領域特定部 1 0 3の領域の特定の結果の例を示す図である。 図 3 4 Aにおいて、 カバ一ドバックグラウンド領域に属すると判定された画素は、 白で表示されている。図 3 4 Bにおいて、 アンカバードバックグラウンド領域 に属すると判定された画素は、 白で表示されている。
図 3 4 Cにおいて、 動き領域に属すると判定された画素は、 白で表示されて いる。 図 3 4 Dにおいて、 静止領域に属すると判定された画素は、 白で表示さ れている。
図 3 5は、 判定フラグ格納フレームメモリ 1 2 6が出力する領域情報の内、 混合領域を示す領域情報を画像として示す図である。図 3 5において、 カバ一 ドバックグラウン ド領域またはアンカバ一ドバヅクグラウンド領域に属する と判定された画素、 すなわち混合領域に属すると判定された画素は、 白で表示 されている。判定フラグ格納フレームメモリ 1 2 6が出力する混合領域を示す 領域情報は、 混合領域、 および前景領域内のテクスチャの無い部分に囲まれた テクスチャの有る部分を示す。
次に、 図 3 6のフローチャートを参照して、 領域特定部 1 0 3の領域特定の 処理を説明する。 ステップ S 1 2 1において、 フレームメモリ 1 2 1は、 判定 の対象となるフレーム #n を含むフレーム #n-2 乃至フレーム #n+2 の画像を取 得する。
ステップ S 1 2 2において、 静動判定部 1 2 2 — 3は、 フレーム #n- l の画 素とフレーム #n の同一位置の画素とで、 静止か否かを判定し、 静止と判定さ れた場合、 ステップ S 1 2 3に進み、 静動判定部 1 2 2 — 2は、 フレーム #n の画素とフレーム #n+ lの同一位置の画素とで、 静止か否かを判定する。
ステップ S 1 2 3において、フレーム #nの画素とフレーム #n+ lの同一位置 の画素とで、 静止と判定された場合、 ステップ S 1 2 4に進み、 領域判定部 1 2 3 — 2は、領域の判定される画素に対応する静止領域判定フラグに、 静止領 域に属することを示す" 1 " を設定する。 領域判定部 1 2 3 — 2は、 静止領域 判定フラグを判定フラグ格納フレームメモリ 1 2 4に供給し、 手続きは、 ステ ヅプ S 1 2 5に進む。
ステップ S 1 2 2において、 フレーム #n- lの画素とフレーム #nの同一位置 の画素とで、 動きと判定された場合、 または、 ステップ S 1 2 3において、 フ レーム #nの画素とフレーム #n+ lの同一位置の画素とで、動きと判定された場 合、 フレーム #n の画素が静止領域には属さないので、 ステップ S 1 2 4の処 理はスキップされ、 手続きは、 ステップ S 1 2 5に進む。
ステップ S 1 2 5において、 静動判定部 1 2 2 — 3は、 フレーム #n- l の画 素とフレーム #n の同一位置の画素とで、 動きか否かを判定し、 動きと判定さ れた場合、 ステップ S 1 2 6に進み、 静動判定部 1 2 2 — 2は、 フ レーム #n の画素とフレーム #n+ lの同一位置の画素とで、 動きか否かを判定する。
ステップ S 1 2 6において、フレーム #nの画素とフレーム #n+ lの同一位置 の画素とで、 動きと判定された場合、 ステップ S 1 2 7に進み、 領域判定部 1 2 3— 2は、領域の判定される画素に対応する動き領域判定フラグに、 動き領 域に属することを示す" 1 " を設定する。 領域判定部 1 2 3— 2は、 動き領域 判定フラグを判定フラグ格納フレームメモリ 1 2 4に供給し、 手続きは、 ステ ヅブ S 1 2 8に進む。
ステップ S 1 2 5において、 フレーム #n- lの画素とフレーム #nの同一位置 の画素とで、 静止と判定された場合、 または、 ステップ S 1 2 6において、 フ レーム #nの画素とフレーム #n+ lの同一位置の画素とで、静止と判定された場 合、 フレーム #n の画素が動き領域には属さないので、 ステップ S 1 2 7の処 理はスキップされ、 手続きは、 ステヅブ S 1 2 8に進む。
ステップ S 1 2 8において、 静動判定部 1 2 2 — 4は、 フレーム #η·2 の画 素とフレーム #n- l の同一位置の画素とで、 静止か否かを判定し、 静止と判定 された場合、ステップ S 1 2 9に進み、静動判定部 1 2 2— 3は、フレーム #n- l の画素とフレーム #nの同一位置の画素とで、 動きか否かを判定する。
ステップ S 1 2 9において、 フレーム #n- lの画素とフレーム #nの同一位置 の画素とで、 動きと判定された場合、 ステップ S 1 3 0に進み、 領域判定部 1 2 3 - 3は、領域の判定される画素に対応するカバ一ドバックグラウン ド領域 判定フラグに、 カバードバックグラウン ド領域に属することを示す" 1 " を設 定する。 領域判定部 1 2 3 — 3は、 カバ一ドバックグラウン ド領域判定フラグ を判定フラグ格納フレームメモリ 1 2 4に供給し、 手続きは、 ステップ S 1 3 1 に進む。
ステップ S 1 2 8において、 フレーム #η·2の画素とフ レーム #η- 1の同一位 置の画素とで、 動きと判定された場合、 または、 ステップ S 1 2 9において、 フレーム #η- 1の画素とフレーム #ηの同一位置の画素とで、 静止と判定された 場合、 フレ一ム#nの画素がカバードバックグラウン ド領域には属さないので、 ステップ S 1 3 0の処理はスキヅプされ、手続きは、ステヅブ S 1 3 1 に進む。 ステップ S 1 3 1 において、 静動判定部 1 2 2 — 2は、 フレーム #η の画素 とフ レーム #η+ 1 の同一位置の画素とで、 動きか否かを判定し、 動きと判定さ れた場合、 ステップ S 1 3 2に進み、 静動判定部 1 2 2— 1は、 フレーム #η+ 1 の画素とフレーム #η+2の同一位置の画素とで、 静止か否かを判定する。
ステップ S 1 3 2において、フレーム #η+ 1の画素とフレーム #η+2の同一位 置の画素とで、 静止と判定された場合、 ステップ S 1 3 3に進み、 領域判定部 1 2 3 - 1は、領域の判定される画素に対応するアンカバ一 ドバックグラウン ド領域判定フラグに、 アンカバ一 ドバックグラウン ド領域に属することを示 す" 1 " を設定する。 領域判定部 1 2 3— 1は、 アンカバードバックグラウン ド領域判定フラグを判定フラグ格納フレームメモリ 1 2 4に供給し、手続きは、 ステップ S 1 3 4に進む。
ステップ S 1 3 1 において、 フレーム #ηの画素とフレーム #η+ 1の同一位置 の画素とで、 静止と判定された場合、 または、 ステップ S 1 3 2において、 フ レーム #η+ 1の画素とフ レーム #η+2の同一位置の画素とで、動きと判定された 場合、 フレーム #η の画素がアンカバ一ドバヅクグラウン ド領域には属さない ので、 ステップ S 1 3 3の処理はスキヅブされ、 手続きは、 ステップ S 1 3 4 に進む。
ステップ S 1 3 4において、 領域特定部 1 0 3は、 フレーム #η の全ての画 素について領域を特定したか否かを判定し、 フレーム #n の全ての画素につい て領域を特定していないと判定された場合、 手続きは、 ステップ S 1 2 2に戻 り、 他の画素について、 領域特定の処理を繰り返す。
ステップ S 1 3 4において、 フレーム #n の全ての画素について領域を特定 したと判定された場合、 ステップ S 1 3 5に進み、 合成部 1 2 5は、 判定フラ グ格納フ レームメモリ 1 2 4に記憶されているアンカバー ドバックグラウン ド領域判定フラグ、 およびカバードバックグラウン ド領域判定フラグを基に、 混合領域を示す領域情報を生成し、 更に、 各画素が、 アンカバ一ドバックグラ ゥン ド領域、 静止領域、 動き領域、 およびカバー ドバックグラウン ド領域のい ずれかに属することを示す領域情報を生成し、生成した領域情報を判定フラグ 格納フレームメモリ 1 2 6に設定し、 処理は終了する。
このように、 領域特定部 1 0 3は、 フレームに含まれている画素のそれそれ について、 動き領域、 静止領域、 アンカバ一ドバックグラウン ド領域、 または カバードバックグラウン ド領域に属することを示す領域情報を生成すること ができる。
なお、 領域特定部 1 0 3は、 アンカバードバックグラウン ド領域およびカバ 一ドバックグラウン ド領域に対応する領域情報に論理和を適用することによ り、 混合領域に対応する領域情報を生成して、 フレームに含まれている画素の それそれについて、 動き領域、 静止領域、 または混合領域に属することを示す フラグから成る領域情報を生成するようにしてもよい。
前景に対応するオブジェク トがテクスチャを有す場合、領域特定部 1 0 3は、 より正確に動き領域を特定することができる。
領域特定部 1 0 3は、動き領域を示す領域情報を前景領域を示す領域情報と して、 また、 静止領域を示す領域情報を背景領域を示す領域情報として出力す ることができる。
なお、 背景に対応するォブジェク トが静止しているとして説明したが、 背景 領域に対応する画像が動きを含んでいても上述した領域を特定する処理を適 用することができる。例えば、 背景領域に対応する画像が一様に動いていると き、 領域特定部 1 0 3は、 この動きに対応して画像全体をシフ 卜させ、 背景に 対応するオブジェク 卜が静止している場合と同様に処理する。 また、 背景領域 に対応する画像が局所毎に異なる動きを含んでいるとき、領域特定部 1 0 3は、 動きに対応した画素を選択して、 上述の処理を実行する。
図 3 7は、 混合比算出部 1 0 4の構成の一例を示すプロック図である。推定 混合比処理部 2 0 1は、 入力画像を基に、 カバードバックグラウンド領域のモ デルに対応する演算により、 画素毎に推定混合比を算出して、 算出した推定混 合比を混合比決定部 2 0 3に供給する。
推定混合比処理部 2 0 2は、 入力画像を基に、 アンカバードバックグラウン ド領域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出 した推定混合比を混合比決定部 2 0 3に供給する。
前景に対応するオブジェク トがシャ ツタ時間内に等速で動いていると仮定 できるので、 混合領域に属する画素の混合比ひは、 以下の性質を有する。 すな わち、 混合比ひは、 画素の位置の変化に対応して、 直線的に変化する。 画素の 位置の変化を 1次元とすれば、混合比ひの変化は、直線で表現することができ、 画素の位置の変化を 2次元とすれば、 混合比ひの変化は、 平面で表現すること ができる。
なお、 1フレームの期間は短いので、 前景に対応するォブジェク トが剛体で あり、 等速で移動していると仮定が成り立つ。
この場合、混合比ひの傾きは、 前景のシャツ夕時間内での動き量 Vの逆比と なる。
理想的な混合比ひの例を図 3 8に示す。理想的な混合比ひの混合領域におけ る傾き 1は、 動き量 Vの逆数として表すことができる。
図 3 8に示すように、 理想的な混合比ひは、 背景領域において、 1の値を有 し、 前景領域において、 0の値を有し、 混合領域において、 0を越え 1未満の 値を有する。
図 3 9の例において、 フ レーム #nの左から 7番目の画素の画素値 C06は、 フ レーム #n- lの左から 7番目の画素の画素値 P06を用いて、 式 ( 1 4 ) で表す ことができる。 C06 = B06/v + B06/v + F01/v + F02/v
= P06/v + P06/v + FOl/v + F02/v
= 2/vP06+∑Fi/v (14) 式 ( 1 4 ) において、 画素値 C06を混合領域の画素の画素値 Mと、 画素値 P06 を背景領域の画素の画素値 B と表現する。 すなわち、 混合領域の画素の 画素値 Mおよび背景領域の画素の画素値 Bは、 それそれ、 式 ( 1 5 ) および 式 ( 1 6 ) のように表現することができる。
M=C06 ( 1 5 )
B=P06 ( 1 6 )
式 ( 1 4 ) 中の 2/vは、 混合比ひに対応する。 動き量 Vが 4なので、 フ レー ム#nの左から 7番目の画素の混合比ひは、 0.5となる。
以上のように、 注目しているフレーム #nの画素値 Cを混合領域の画素値と 見なし、 フレーム #nの前のフレーム #n-lの画素値 Pを背景領域の画素値と見 なすことで、 混合比ひを示す式 ( 1 3 ) は、 式 ( 1 7 ) のように書き換えられ る。
C= . P+f ( 1 7 )
式 ( 1 7 ) の f は、 注目している画素に含まれる前景の成分の和 Σ ί/ν であ る。 式 ( 1 7 ) に含まれる変数は、 混合比ひおよび前景の成分の和 fの 2つで ある。
同様に、アンカバ一ドバックグラウンド領域における、動き量 Vが 4であり、 時間方向の仮想分割数が 4である、画素値を時間方向に展開したモデルを図 4 0に示す。
ァンカバ一ドバックグラウンド領域におい 、上述したカバードバックグラ ゥンド領域における表現と同様に、 注目しているフレーム #ηの画素値 Cを混 合領域の画素値と見なし、 フレーム #ηの後のフレーム #η+1 の画素値 Ν を背 景領域の画素値と見なすことで、 混合比ひを示す式 ( 1 3 ) は、 式 ( 1 8 ) の ように表現することができる。
C= . N+f ( 1 8 ) なお、 背景のォブジェク 卜が静止しているとして説明したが、 背景のォブジ ェク 卜が動いている場合においても、背景の動き量 Vに対応させた位置の画素 の画素値を利用することにより、 式 ( 1 4 ) 乃至式 ( 1 8) を適用することが できる。 例えば、 図 3 9において、 背景に対応するォブジェク 卜の動き量 V が 2であり、仮想分割数が 2であるとき、 背景に対応するォブジェク トが図中 の右側に動いているとき、 式( 1 6 ) における背景領域の画素の画素値 Bは、 画素値 P04とされる。
式 ( 1 7 ) および式 ( 1 8 ) は、 それそれ 2つの変数を含むので、 そのまま では混合比ひを求めることができない。 ここで、 画像は一般的に空間的に相関 が強いので近接する画素同士でほぼ同じ画素値となる。
そこで、 前景成分は、 空間的に相関が強いので、 前景の成分の和 f を前また は後のフレームから導き出せるように式を変形して、 混合比ひを求める。 図 4 1のフレーム #nの左から 7番目の画素の画素値 Mcは、 式 ( 1 9 ) で 表すことができる。
Mc = ·Β06 +∑Fi/v (19)
▼ i = ll
式 ( 1 9 ) の右辺第 1項の 2/vは、 混合比ひに相当する。 式 ( 1 9 ) の右辺第 2項は、 後のフレーム #n+lの画素値を利用して、 式 (2 0 ) のように表すこ ととする。
12 10
∑Fi/v = i3-∑Fi/v (20)
i = ll i:
ここで、 前景の成分の空間相関を利用して、 式 ( 2 1 ) が成立するとする。
F=F05=F06=F07=F08=F09=F10=F11=F12 ( 2 1 ) 式 ( 2 0 ) は、 式 ( 2 1 ) を利用して、 式 ( 2 2 ) のように置き換えることが できる。 12
∑Fi/v = -^-.F
i=ii V
= β ^ ¥ (22) 結果として、 は、 式 ( 2 3 ) で表すことができる。
/3=2/4 ( 2 3 )
一般的に、 式 ( 2 1 ) に示すように混合領域に関係する前景の成分が等しい と仮定すると、 混合領域の全ての画素について、 内分比の関係から式 ( 2 4 ) が成立する。
β=1· ( 2 4 )
式 ( 2 4 ) が成立するとすれば、 式 ( 1 7 ) は、 式 ( 2 5 ) に示すように展 閧することができる。
Figure imgf000060_0001
= ·Ρ+(1- )·Ν <25>
同様に、 式 ( 2 4 ) が成立するとすれば、 式 ( 1 8 ) は、 式 ( 2 6 ) に示す ように展開することができる。
C = -N+f
r+v-i
= Of-N+(l- ¾)-∑Fi/v
= α·Ν+(1-α)·ρ (26)
式 ( 2 5 ) および式 ( 2 6 ) において、 C, N、 および Pは、 既知の画素値 なので、 式( 2 5 )および式( 2 6 ) に含まれる変数は、 混合比ひのみである。 式 ( 2 5 ) および式 ( 2 6 ) における、 C, N、 および Pの関係を図 4 2に示 す。 C は、 混合比ひを算出する、 フレーム #nの注目している画素の画素値で ある。 N は、 注目している画素と空間方向の位置が対応する、 フレーム #n+l の画素の画素値である。 Pは、注目 している画素と空間方向の位置が対応する、 フレーム #n-lの画素の画素値である。
従って、 式 ( 2 5) および式 ( 2 6 ) のそれそれに 1つの変数が含まれるこ ととなるので、 3つのフレームの画素の画素値を利用して、 混合比ひを算出す ることができる。 式 ( 2 5 ) および式 ( 2 6 ) を解く ことにより、 正しい混合 比ひが算出されるための条件は、 混合領域に関係する前景の成分が等しい、 す なわち、前景のオブジェク トが静止しているとき撮像された前景の画像ォブジ ェク 卜において、 前景のオブジェク トの動きの方向に対応する、 画像オブジェ ク 卜の境界に位置する画素であって、動き量 Vの 2倍の数の連続している画素 の画素値が、 一定であることである。
以上のように、 カバードバックグラウン ド領域に属する画素の混合比ひは、 式 ( 2 7 ) によ り算出され、 アンカバ一 ドパックグラウン ド領域に属する画素 の混合比ひは、 式 ( 2 8 ) により算出される。
a=(C-N)/(P-N) ( 2 7 )
ひ =(C-P)/(N-P) ( 2 8 )
図 4 3は、 推定混合比処理部 2 0 1の構成を示すプロック図である。 フ レー ムメモリ 2 2 1は、 入力された画像をフレーム単位で記憶し、 入力画像として 入力されているフ レームから 1つ後のフレームをフ レームメモリ 2 2 2およ び混合比演算部 2 2 3に供給する。
フレームメモリ 2 2 2は、 入力された画像をフレーム単位で記憶し、 フレー ムメモリ 2 2 1から供給されているフレームから 1つ後のフ レームを混合比 演算部 2 2 3に供給する。
従って、 入力画像としてフレーム #n+l が混合比演算部 2 2 3に入力されて いるとき、 フレームメモリ 2 2 1は、 フレーム #n を混合比演算部 2 2 3に供 給し、 フレームメモリ 2 2 2は、 フレーム #n-l を混合比演算部 2 2 3に供給 する。
混合比演算部 2 2 3は、 式 ( 2 7 ) に示す演算によ り、 フレーム #n の注目 している画素の画素値 C、 注目 している画素と空間的位置が対応する、 フレー ム の画素の画素値 N、および注目 している画素と空間的位置が対応する、 フレーム #n- lの画素の画素値 Pを基に、 注目している画素の推定混合比を算 出して、 算出した推定混合比を出力する。 例えば、 背景が静止しているとき、 混合比演算部 2 2 3は、 フレーム #n の注目している画素の画素値 C、 注目し ている画素とフレーム内の位置が同じ、 フレーム #n+ lの画素の画素値 N、 お よび注目している画素とフレーム内の位置が同じ、 フレーム #η· 1 の画素の画 素値 P を基に、 注目している画素の推定混合比を算出して、 算出した推定混 合比を出力する。
このように、 推定混合比処理部 2 0 1は、 入力画像を基に、 推定混合比を算 出して、 混合比決定部 2 0 3に供給することができる。
なお、 推定混合比処理部 2 0 2は、 推定混合比処理部 2 0 1が式 ( 2 7 ) に 示す演算により、注目している画素の推定混合比を算出するのに対して、式( 2 8 ) に示す演算により、 注目している画素の推定混合比を算出する部分が異な ることを除き、 推定混合比処理部 2 0 1 と同様なので、 その説明は省略する。 図 4 4は、推定混合比処理部 2 0 1により算出された推定混合比の例を示す 図である。 図 4 4に示す推定混合比は、 等速で動いているオブジェク トに対応 する前景の動き量 Vが 1 1である場合の結果を、 1ラインに対して示すもので ある。
推定混合比は、 混合領域において、 図 3 8に示すように、 ほぼ直線的に変化 していることがわかる。
図 3 7に戻り、 混合比決定部 2 0 3は、 領域特定部 1 0 3から供給された、 混合比ひの算出の対象となる画素が、 前景領域、 背景領域、 カバードパックグ ラウンド領域、またはアンカバ一ドバックグラウンド領域のいずれかに属する かを示す領域情報を基に、 混合比ひを設定する。 混合比決定部 2 0 3は、 対象 となる画素が前景領域に属する場合、 0を混合比ひに設定し、 対象となる画素 が背景領域に属する場合、 1を混合比 αに設定し、 対象となる画素がカバ一ド バックグラウンド領域に属する場合、推定混合比処理部 2 0 1から供給された 推定混合比を混合比ひに設定し、対象となる画素がアンカバードバックグラウ ンド領域に属する場合、推定混合比処理部 2 0 2から供給された推定混合比を 混合比ひに設定する。混合比決定部 2 0 3は、 領域情報を基に設定した混合比 ひを出力する。
図 4 5は、 混合比算出部 1 0 4の他の構成を示すプロック図である。選択部 2 3 1は、 領域特定部 1 0 3から供給された領域情報を基に、 カバードバック グラウンド領域に属する画素および、これに対応する前および後のフレームの 画素を推定混合比処理部 2 3 2に供給する。選択部 2 3 1は、 領域特定部 1 0 3から供給された領域情報を基に、アンカバ一ドバックグラウン ド領域に属す る画素および、これに対応する前および後のフレームの画素を推定混合比処理 部 2 3 3に供給する。
推定混合比処理部 2 3 2は、 選択部 2 3 1から入力された画素値を基に、 式
( 2 7 ) に示す演算により、 カバ一ドバヅクグラウンド領域に属する、 注目し ている画素の推定混合比を算出して、算出した推定混合比を選択部 2 3 4に供 給する。
推定混合比処理部 2 3 3は、 選択部 2 3 1から入力された画素値を基に、 式
( 2 8 ) に示す演算により、 アンカバードバックグラウンド領域に属する、 注 目している画素の推定混合比を算出して、算出した推定混合比を選択部 2 3 4 に供給する。
選択部 2 3 4は、 領域特定部 1 0 3から供給された領域情報を基に、 対象と なる画素が前景領域に属する場合、 0である推定混合比を選択して、 混合比ひ に設定し、 対象となる画素が背景領域に属する場合、 1である推定混合比を選 択して、 混合比ひに設定する。 選択部 2 3 4は、 対象となる画素がカバ一ドバ ックグラウンド領域に属する場合、推定混合比処理部 2 3 2から供給された推 定混合比を選択して混合比ひに設定し、対象となる画素がアンカバードバヅク グラウンド領域に属する場合、推定混合比処理部 2 3 3から供給された推定混 合比を選択して混合比ひに設定する。選択部 2 3 4は、領域情報を基に選択し て設定した混合比ひを出力する。
このように、 図 4 5に示す他の構成を有する混合比算出部 1 0 4は、 画像の 含まれる画素毎に混合比ひを算出して、算出した混合比ひを出力することがで きる。
図 4 6のフローチャートを参照して、図 3 7に構成を示す混合比算出部 1 0 4の混合比ひの算出の処理を説明する。 ステップ S 1 5 1 において、 混合比算 出部 1 0 4は、 領域特定部 1 0 3から供給された領域情報を取得する。 ステツ プ S 1 5 2において、 推定混合比処理部 2 0 1 は、 カバ一ドバックグラウン ド 領域に対応するモデルによ り推定混合比の演算の処理を実行し、算出した推定 混合比を混合比決定部 2 0 3に供給する。 混合比推定の演算の処理の詳細は、 図 4 7のフローチャートを参照して、 後述する。
ステップ S 1 5 3において、 推定混合比処理部 2 0 2は、 アンカバ一 ドバヅ クグラウン ド領域に対応するモデルにより推定混合比の演算の処理を実行し、 算出した推定混合比を混合比決定部 2 0 3に供給する。
ステップ S 1 5 4において、混合比算出部 1 0 4は、フレーム全体について、 混合比ひを推定したか否かを判定し、 フレーム全体について、 混合比ひを推定 していないと判定された場合、 ステップ S 1 5 2に戻り、 次の画素について混 合比ひを推定する処理を実行する。
ステップ S 1 5 4において、 フレーム全体について、 混合比ひを推定したと 判定された場合、 ステップ S 1 5 5に進み、 混合比決定部 2 0 3は、 画素が、 前景領域、 背景領域、 カバードバックグラウン ド領域、 またはアンカバードバ ックグラウン ド領域のいずれかに属するかを示す、領域特定部 1 0 3から供給 された領域情報を基に、 混合比ひを設定する。 混合比決定部 2 0 3は、 対象と なる画素が前景領域に属する場合、 0を混合比ひに設定し、 対象となる画素が 背景領域に属する場合、 1 を混合比ひに設定し、 対象となる画素がカバードバ ックグラウン ド領域に属する場合、推定混合比処理部 2 0 1 から供給された推 定混合比を混合比ひに設定し、対象となる画素がアンカバードバックグラウン ド領域に属する場合、推定混合比処理部 2 0 2から供給された推定混合比を混 合比ひに設定し、 処理は終了する。
このように、 混合比算出部 1 0 4は、 領域特定部 1 0 3から供給された領域 情報、 および入力画像を基に、 各画素に対応する特徴量である混合比ひを算出 することができる。
図 4 5に構成を示す混合比算出部 1 0 4の混合比ひの算出の処理は、図 4 6 のフローチヤ一トで説明した処理と同様なので、 その説明は省略する。 次に、 図 4 6のステップ S 1 5 2に対応する、 カバ一ドバックグラウン ド領 域に対応するモデルによる混合比推定の処理を図 4 7のフローチャー トを参 照して説明する。
ステップ S 1 7 1 において、 混合比演算部 2 2 3は、 フレームメモリ 2 2 1 から、 フ レーム #nの注目画素の画素値 Cを取得する。
ステップ S 1 7 2 において、 混合比演算部 2 2 3は、 フレームメモリ 2 2 2 から、 注目画素に対応する、 フ レーム #n- lの画素の画素値 Pを取得する。 ステップ S 1 7 3において、 混合比演算部 2 2 3は、 入力画像に含まれる注 目画素に対応する、 フレーム #n+ lの画素の画素値 Nを取得する。
ステップ S 1 7 4において、 混合比演算部 2 2 3は、 フレーム #n の注目画 素の画素値 C、 フ レーム #n- lの画素の画素値 P、 およびフ レーム #n+ lの画素 の画素値 Nを基に、 推定混合比を演算する。
ステヅプ S 1 7 5において、混合比演算部 2 2 3は、フレーム全体について、 推定混合比を演算する処理を終了したか否かを判定し、フレーム全体について、 推定混合比を演算する処理を終了していないと判定された場合、ステップ S 1 7 1 に戻り、 次の画素について推定混合比を算出する処理を繰り返す。
ステップ S 1 7 5において、 フレーム全体について、 推定混合比を演算する 処理を終了したと判定された場合、 処理は終了する。
このように、 推定混合比処理部 2 0 1は、 入力画像を基に、 推定混合比を演 算することができる。
図 4 6のステップ S 1 5 3におけるアンカバ一ドバヅクグラウン ド領域に 対応するモデルによる混合比推定の処理は、アンカバードバックグラウン ド領 域のモデルに対応する式を利用した、図 4 7のフローチャートに示す処理と同 様なので、 その説明は省略する。
なお、図 4 5に示す推定混合比処理部 2 3 2および推定混合比処理部 2 3 3 は、図 4 7に示すフローチャートと同様の処理を実行して推定混合比を演算す るので、 その説明は省略する。
また、 背景に対応するォブジェク 卜が静止しているとして説明したが、 背景 領域に対応する画像が動きを含んでいても上述した混合比ひを求める処理を 適用することができる。例えば、 背景領域に対応する画像が一様に動いている とき、推定混合比処理部 2 0 1は、 背景の動きに対応して画像全体をシフ トさ せ、背景に対応するオブジェク トが静止している場合と同様に処理する。また、 背景領域に対応する画像が局所毎に異なる背景の動きを含んでいるとき、推定 混合比処理部 2 0 1は、 混合領域に属する画素に対応する画素として、 背景の 動きに対応した画素を選択して、 上述の処理を実行する。
なお、図 3 7または図 4 5に示す混合比算出部 1 0 4の構成は、一例である。 また、 混合比算出部 1 0 4は、 全ての画素について、 カバードバックグラウ ンド領域に対応するモデルによる混合比推定の処理のみを実行して、算出され た推定混合比を混合比ひとして出力するようにしてもよい。この場合において、 混合比ひは、 カバ一ドバヅクグラウンド領域に属する画素について、 背景の成 分の割合を示し、 アンカバードバックグラウンド領域に属する画素について、 前景の成分の割合を示す。アンカバ一ドバックグラウンド領域に属する画素に ついて、 このように算出された混合比ひと 1 との差分の絶対値を算出して、 算 出した絶対値を混合比ひに設定すれば、信号処理部 1 2は、 アンカバードバッ クグラウンド領域に属する画素について、背景の成分の割合を示す混合比ひを 求めることができる。
なお、 同様に、 混合比算出部 1 0 4は、 全ての画素について、 アンカバ一ド バックグラウン ド領域に対応するモデルによる混合比推定の処理のみを実行 して、 算出された推定混合比を混合比ひとして出力するようにしてもよい。 次に、 前景背景分離部 1 0 5について説明する。 図 4 8は、 前景背景分離部 1 0 5の構成の一例を示すプロック図である。前景背景分離部 1 0 5に供給さ れた入力画像は、 分離部 2 5 1、 スィッチ 2 5 2、 およびスイッチ 2 5 4に供 給される。 力パードバックグラウンド領域を示す情報、 およびアンカバードバ ックグラウンド領域を示す、 領域特定部 1 0 3から供給された領域情報は、 分 離部 2 5 1に供給される。前景領域を示す領域情報は、 スィ ッチ 2 5 2に供給 される。 背景領域を示す領域情報は、 スィッチ 2 5 4に供給される。
混合比算出部 1 0 4から供給された混合比ひは、分離部 2 5 1に供給される c 分離部 2 5 1は、 カバ一ドバックグラウンド領域を示す領域情報、 アンカバ 一ドバックグラウンド領域を示す領域情報、 および混合比ひを基に、 入力画像 から前景の成分を分離して、分離した前景の成分を合成部 2 5 3に供給すると ともに、 入力画像から背景の成分を分離して、 分離した背景の成分を合成部 2 5 5に供給する。
スィッチ 2 5 2は、 前景領域を示す領域情報を基に、前景に対応する画素が 入力されたとき、 閉じられ、 入力画像に含まれる前景に対応する画素のみを合 成部 2 5 3に供給する。
スィッチ 2 5 4·は、 背景領域を示す領域情報を基に、 背景に対応する画素が 入力されたとき、 閉じられ、 入力画像に含まれる背景に対応する画素のみを合 成部 2 5 5に供給する。
合成部 2 5 3は、 分離部 2 5 1から供給された前景に対応する成分、 スイツ チ 2 5 2から供給された前景に対応する画素を基に、 前景成分画像を合成し、 合成した前景成分画像を出力する。 前景領域と混合領域とは重複しないので、 合成部 2 5 3は、 例えば、 前景に対応する成分と、 前景に対応する画素とに論 理和の演算を適用して、 前景成分画像を合成する。
合成部 2 5 3は、前景成分画像の合成の処理の最初に実行される初期化の処 理において、内蔵しているフ レームメモリに全ての画素値が 0である画像を格 納し、 前景成分画像の合成の処理において、 前景成分画像を格納 (上書き) す る。 従って、 合成部 2 5 3が出力する前景成分画像の内、 背景領域に対応する 画素には、 画素値として 0が格納されている。
合成部 2 5 5は、 分離部 2 5 1から供給された背景に対応する成分、 スイツ チ 2 5 4から供給された背景に対応する画素を基に、背景成分画像を合成して、 合成した背景成分画像を出力する。 背景領域と混合領域とは重複しないので、 合成部 2 5 5は、 例えば、 背景に対応する成分と、 背景に対応する画素とに論 理和の演算を適用して、 背景成分画像を合成する。
合成部 2 5 5は、背景成分画像の合成の処理の最初に実行される初期化の処 理において、内蔵しているフ レームメモリに全ての画素値が 0である画像を格 納し、 背景成分画像の合成の処理において、 背景成分画像を格納 (上書き) す る。 従って、 合成部 2 5 5が出力する背景成分画像の内、 前景領域に対応する 画素には、 画素値として 0が格納されている。
図 4 9は、前景背景分離部 1 0 5に入力される入力画像、 並びに前景背景分 離部 1 0 5から出力される前景成分画像および背景成分画像を示す図である。 図 4 9 Aは、 表示される画像の模式図であり、 図 4 9 Bは、 図 4 9 Aに対応 する前景領域に属する画素、 背景領域に属する画素、 および混合領域に属する 画素を含む 1ラインの画素を時間方向に展鬨したモデル図を示す。
図 4 9 Aおよび図 4 9 Bに示すように、前景背景分離部 1 0 5から出力され る背景成分画像は、 背景領域に属する画素、 および混合領域の画素に含まれる 背景の成分から構成される。
図 4 9 Aおよび図 4 9 Bに示すように、前景背景分離部 1 0 5から出力され る前景成分画像は、 前景領域に属する画素、 および混合領域の画素に含まれる 前景の成分から構成される。
混合領域の画素の画素値は、 前景背景分離部 1 0 5により、 背景の成分と、 前景の成分とに分離される。分離された背景の成分は、 背景領域に属する画素 と共に、 背景成分画像を構成する。 分離された前景の成分は、 前景領域に属す る画素と共に、 前景成分画像を構成する。
このように、前景成分画像は、背景領域に対応する画素の画素値が 0とされ、 前景領域に対応する画素および混合領域に対応する画素に意味のある画素値 が設定される。 同様に、 背景成分画像は、 前景領域に対応する画素の画素値が 0とされ、背景領域に対応する画素および混合領域に対応する画素に意味のあ る画素値が設定される。
次に、 分離部 2 5 1が実行する、 混合領域に属する画素から前景の成分、 お よび背景の成分を分離する処理について説明する。
図 5 0は、 図中の左から右に移動するオブジェク トに対応する前景を含む、 2つのフレームの前景の成分および背景の成分を示す画像のモデルである。図 5 0に示す画像のモデルにおいて、前景の動き量 Vは 4であり、仮想分割数は、 4とされている。
フレーム #n において、 最も左の画素、 および左から 1 4番目乃至 1 8番目 の画素は、 背景の成分のみから成り、 背景領域に属する。 フ レーム #n におい て、 左から 2番目乃至 4番目の画素は、 背景の成分および前景の成分を含み、 アンカバ一ドバックグラウンド領域に属する。 フ レーム #n において、 左から 1 1番目乃至 1 3番目の画素は、 背景の成分および前景の成分を含み、 カバー ドバックグラウンド領域に属する。 フ レーム #n において、 左から 5番目乃至 1 0番目の画素は、 前景の成分のみから成り、 前景領域に属する。
フレーム #n+lにおいて、 左から 1番目乃至 5番目の画素、 および左から 1 8番目の画素は、 背景の成分のみから成り、 背景領域に属する。 フ レーム #n+l において、左から 6番目乃至 8番目の画素は、 背景の成分および前景の成分を 含み、アンカバ一ドバックグラウンド領域に属する。フレーム #n+lにおいて、 左から 1 5番目乃至 1 7番目の画素は、 背景の成分および前景の成分を含み、 カバードバックグラウンド領域に属する。 フレーム #n+l において、 左から 9 番目乃至 1 4番目の画素は、 前景の成分のみから成り、 前景領域に属する。 図 5 1は、カバ一ドバックグラウンド領域に属する画素から前景の成分を分 離する処理を説明する図である。 図 5 1において、 ひ 1乃至ひ 1 8は、 フレー ム#n における画素のそれそれに対応する混合比である。 図 5 1において、 左 から 1 5番目乃至 1 7番目の画素は、カバードバックグラウンド領域に属する ( フレーム #nの左から 1 5番目の画素の画素値 C15は、 式 ( 2 9 ) で表され る。
C15=B15/v+F09/v+F08/v+F07/v
=ひ 15 · B15+F09/v+F08/v+F07/v
=a 15-P15+F09/v+F08/v+F07/v ( 2 9 ) ここで、 ひ 15は、 フレーム #ηの左から 1 5番目の画素の混合比である。 P15 は、 フレーム #η·1の左から 1 5番目の画素の画素値である。
式 ( 2 9 ) を基に、 フレーム #η の左から 1 5番目の画素の前景の成分の和 fl5は、 式 ( 3 0 ) で表される。
fl5=F09/v+F08/v+F07/v
=C15-ひ 15-P15 ( 3 0 )
同様に、 フレーム #nの左から 1 6番目の画素の前景の成分の和 Π6は、 式 ( 3 1 )で表され、 フレーム #nの左から 1 7番目の画素の前景の成分の和 fl7 は、 式 ( 3 2 ) で表される。
fl6=Cl6-a 16-P16 ( 3 1 )
fl7=C17-ひ 17·Ρ17 (3 2 )
このように、 カバ一ドバックグラウンド領域に属する画素の画素値 C に含 まれる前景の成分 fcは、 式 ( 3 3 ) で計算される。
fc=C-a ·Ρ ( 3 3 )
Ρは、 1つ前のフレームの、 対応する画素の画素値である。
図 5 2は、アンカバ一ドバックグラウンド領域に属する画素から前景の成分 を分離する処理を説明する図である。 図 5 2において、 ひ 1乃至ひ 1 8は、 フ レーム #ηにおける画素のそれそれに対応する混合比である。図 5 2において、 左から 2番目乃至 4番目の画素は、アンカバードバックグラウンド領域に属す る。
フレーム #ηの左から 2番目の画素の画素値 C02は、式( 34)で表される。
C02=B02/v+B02/v+B02/v+F01/v
= «2-B02+F01/v
=ひ 2-N02+F01/V ( 3 4 ) ここで、 ひ 2は、 フレーム #nの左から 2番目の画素の混合比である。 N02は、 フレーム #n+lの左から 2番目の画素の画素値である。
式 ( 3 4 ) を基に、 フレーム #nの左から 2番目の画素の前景の成分の和 f02 は、 式 ( 3 5) で表される。
f02=F01/v
=C02-ひ 2·Ν02 ( 3 5 ) 同様に、 フレーム #ηの左から 3番目の画素の前景の成分の和 f03は、式( 3 6 ) で表され、 フ レーム #nの左から 4番目の画素の前景の成分の和 f04は、 式 ( 3 7 ) で表される。
f03=C03-a3-N03 ( 3 6 )
f04=C04-ひ 4·Ν04 ( 3 7 )
このように、 アンカバードバックグラウンド領域に属する画素の画素値 C に含まれる前景の成分 fuは、 式 ( 3 8 ) で計算される。 fu=C-ひ · Ν ( 3 8 )
Nは、 1つ後のフレームの、 対応する画素の画素値である。
このように、 分離部 2 5 1は、 領域情報に含まれる、 カバ一ドバックグラウ ン ド領域を示す情報、 およびアンカバードバックグラウン ド領域を示す情報、 並びに画素毎の混合比ひを基に、 混合領域に属する画素から前景の成分、 およ び背景の成分を分離することができる。
図 5 3は、以上で説明した処理を実行する分離部 2 5 1の構成の一例を示す ブロック図である。 分離部 2 5 1 に入力された画像は、 フレームメモリ 3 0 1 に供給され、混合比算出部 1 0 4から供給されたカバ一ドバックグラウン ド領 域およびアンカバ一ドバックグラウン ド領域を示す領域情報、並びに混合比ひ は、 分離処理ブロック 3 0 2に入力される。
フレームメモリ 3 0 1は、 入力された画像をフレーム単位で記憶する。 フレ ームメモリ 3 0 1は、 処理の対象がフレーム #nであるとき、 フレーム #nの 1 つ前のフレームであるフレーム #n- l、 フレーム #n、 およびフレーム #nの 1 つ 後のフレームであるフレーム #n+ l を記憶する。
フレームメモリ 3 0 1は、 フレーム #n- l、 フレーム #n、およびフレ一 Λ #η+ 1 の対応する画素を分離処理プロック 3 0 2に供給する。
分離処理ブロック 3 0 2は、カバードバックグラウン ド領域およびアンカバ 一ドバックグラウン ド領域を示す領域情報、 並びに混合比ひを基に、 フレーム メモリ 3 0 1 から供給されたフレーム #η- 1、フレーム #η、およびフレーム #η+ 1 の対応する画素の画素値に図 5 1および図 5 2 を参照して説明した演算を適 用して、 フレーム #η の混合領域に属する画素から前景の成分および背景の成 分を分離して、 フレームメモリ 3 0 3に供給する。
分離処理プロック 3 0 2は、 アンカバード領域処理部 3 1 1、 カバード領域 処理部 3 1 2、 合成部 3 1 3、 および合成部 3 1 4で構成されている。
アンカバ一ド領域処理部 3 1 1の乗算器 3 2 1は、 混合比ひを、 フレームメ モリ 3 0 1 から供給されたフレーム #η+ 1 の画素の画素値に乗じて、 スイ ッチ 3 2 2に出力する。 スィ ヅチ 3 2 2は、 フレームメモリ 3 0 1 から供給された フレーム #ηの画素 (フレーム #η+ 1の画素に対応する) がアンカバ一ドバヅク グラウン ド領域であるとき、 閉じられ、 乗算器 3 2 1 から供給された混合比ひ を乗じた画素値を演算器 3 2 2および合成部 3 1 4に供給する。スィ ツチ 3 2 2から出力されるフレーム #n+ l の画素の画素値に混合比ひを乗じた値は、 フ レーム #nの対応する画素の画素値の背景の成分に等しい。
演算器 3 2 3は、 フレームメモリ 3 0 1 から供給されたフレーム #n の画素 の画素値から、 スィ ッチ 3 2 2から供給された背景の成分を減じて、 前景の成 分を求める。 演算器 3 2 3は、 アンカバー ドバックグラウン ド領域に属する、 フ レーム #nの画素の前景の成分を合成部 3 1 3に供給する。
カバ一ド領域処理部 3 1 2の乗算器 3 3 1は、 混合比ひを、 フレームメモリ 3 0 1 から供給されたフレーム #n- l の画素の画素値に乗じて、 スィ ッチ 3 3 2に出力する。 スィ ッチ 3 3 2は、 フレームメモリ 3 0 1 から供給されたフレ 一ム#nの画素 (フレーム #n- lの画素に対応する) がカバ一ドバックグラウン ド領域であるとき、 閉じられ、 乗算器 3 3 1 から供給された混合比ひを乗じた 画素値を演算器 3 3 3および合成部 3 1 4に供給する。スィ ツチ 3 3 2から出 力されるフレーム #n- l の画素の画素値に混合比ひを乗じた値は、 フレーム #n の対応する画素の画素値の背景の成分に等しい。
演算器 3 3 3は、 フ レームメモリ 3 0 1 から供給されたフ レーム #n の画素 の画素値から、 スィ ッチ 3 3 2から供給された背景の成分を減じて、 前景の成 分を求める。 演算器 3 3 3は、 カバードバックグラウン ド領域に属する、 フレ —ム #nの画素の前景の成分を合成部 3 1 3に供給する。
合成部 3 1 3は、 フ レーム #n の、 演算器 3 2 3から供給された、 アンカバ ―ドバックグラウン ド領域に属する画素の前景の成分、および演算器 3 3 3か ら供給された、カバードバックグラウン ド領域に属する画素の前景の成分を合 成して、 フ レームメモリ 3 0 3に供給する。
合成部 3 1 4は、 フレーム #n の、 スイ ッチ 3 2 2から供給された、 アンカ バードバックグラウン ド領域に属する画素の背景の成分、およびスィ ッチ 3 3 2から供給された、カバードバヅクグラウン ド領域に属する画素の背景の成分 を合成して、 フ レームメモリ 3 0 3に供給する。
フレームメモリ 3 0 3は、 分離処理プロヅク 3 0 2から供給された、 フレー ム#nの混合領域の画素の前景の成分と、背景の成分とをそれそれに記憶する。 フレームメモリ 3 0 3は、 記憶しているフレーム #n の混合領域の画素の前 景の成分、 および記憶しているフレーム #n の混合領域の画素の背景の成分を 出力する。
特徴量である混合比ひを利用することにより、画素値に含まれる前景の成分 と背景の成分とを完全に分離することが可能になる。
合成部 2 5 3は、 分離部 2 5 1から出力された、 フ レーム #n の混合領域の 画素の前景の成分と、前景領域に属する画素とを合成して前景成分画像を生成 する。 合成部 2 5 5は、 分離部 2 5 1から出力された、 フレーム #n の混合領 域の画素の背景の成分と、背景領域に属する画素とを合成して背景成分画像を 生成する。
図 5 4は、 図 5 0のフ レーム #n に対応する、 前景成分画像の例と、 背景成 分画像の例を示す図である。
図 5 4 Aは、 図 5 0のフレーム #n に対応する、 前景成分画像の例を示す。 最も左の画素、 および左から 1 4番目の画素は、 前景と背景が分離される前に おいて、 背景の成分のみから成っていたので、 画素値が 0とされる。
左から 2番目乃至 4番目の画素は、 前景と背景とが分離される前において、 アンカバ一ドバックグラウンド領域に属し、 背景の成分が 0とされ、 前景の成 分がそのまま残されている。左から 1 1番目乃至 1 3番目の画素は、 前景と背 景とが分離される前において、 カバードバックグラウンド領域に属し、 背景の 成分が 0とされ、 前景の成分がそのまま残されている。左から 5番目乃至 1 0 番目の画素は、 前景の成分のみから成るので、 そのまま残される。
図 5 4 Bは、 図 5 0のフレーム #n に対応する、 背景成分画像の例を示す。 最も左の画素、 および左から 1 4番目の画素は、 前景と背景とが分離される前 において、 背景の成分のみから成っていたので、 そのまま残される。
左から 2番目乃至 4番目の画素は、 前景と背景とが分離される前において、 アンカバ一ドバックグラウン ド領域に属し、 前景の成分が 0とされ、 背景の成 分がそのまま残されている。左から 1 1番目乃至 1 3番目の画素は、 前景と背 景とが分離される前において、 カバ一ドバックグラウンド領域に属し、 前景の 成分が 0とされ、 背景の成分がそのまま残されている。左から 5番目乃至 1 0 番目の画素は、 前景と背景とが分離される前において、 前景の成分のみから成 つていたので、 画素値が 0とされる。
次に、 図 5 5に示すフローチャートを参照して、 前景背景分離部 1 0 5によ る前景と背景との分離の処理を説明する。ステップ S 2 0 1において、 分離部 2 5 1のフ レームメモリ 3 0 1は、 入力画像を取得し、 前景と背景との分離の 対象となるフレーム #n を、 その前のフレーム #n- l およびその後のフレーム #n+l と共に記憶する。
ステップ S 2 0 2において、 分離部 2 5 1の分離処理プロック 3 0 2は、 混 合比算出部 1 0 4から供給された領域情報を取得する。ステップ S 2 0 3にお いて、 分離部 2 5 1の分離処理プロック 3 0 2は、 混合比算出部 1 0 4から供 給された混合比ひを取得する。
ステップ S 2 0 4において、 アンカバード領域処理部 3 1 1は、 領域情報お よび混合比ひを基に、 フレームメモリ 3 0 1から供給された、 アンカバ一ドパ ックグラウンド領域に属する画素の画素値から、 背景の成分を抽出する。 ステップ S 2 0 5において、 アンカバ一ド領域処理部 3 1 1は、 領域情報お よび混合比ひを基に、 フレームメモリ 3 0 1から供給された、 アンカバ一ドバ ックグラウンド領域に属する画素の画素値から、 前景の成分を抽出する。 ステップ S 2 0 6において、 カバ一ド領域処理部 3 1 2は、 領域情報および 混合比ひを基に、 フ レームメモリ 3 0 1から供給された、 カバ一ドバックグラ ゥンド領域に属する画素の画素値から、 背景の成分を抽出する。
ステップ S 2 0 7において、 カバ一ド領域処理部 3 1 2は、 領域情報および 混合比 αを基に、 フレームメモリ 3 0 1から供給された、 カバ一ドバヅクグラ ゥンド領域に属する画素の画素値から、 前景の成分を抽出する。
ステップ S 2 0 8において、合成部 3 1 3は、 ステップ S 2 0 5の処理で抽 出されたアンカバードバックグラウンド領域に属する画素の前景の成分と、ス テツプ S 2 0 7の処理で抽出されたカバ一ドバヅクグラウンド領域に属する 画素の前景の成分とを合成する。合成された前景の成分は、 合成部 2 5 3に供 給される。 更に、 合成部 2 5 3は、 スィッチ 2 5 2を介して供給された前景領 域に属する画素と、 分離部 2 5 1から供給された前景の成分とを合成して、 前 景成分画像を生成する。
ステップ S 2 0 9において、 合成部 3 1 4は、 ステップ S 2 0 4の処理で抽 出されたアンカバードバックグラウンド領域に属する画素の背景の成分と、ス テツプ S 2 0 6の処理で抽出されたカバードバヅクグラウン ド領域に属する 画素の背景の成分とを合成する。合成された背景の成分は、 合成部 2 5 5に供 給される。 更に、 合成部 2 5 5は、 スィッチ 2 5 4を介して供給された背景領 域に属する画素と、 分離部 2 5 1から供給された背景の成分とを合成して、 背 景成分画像を生成する。
ステップ S 2 1 0において、 合成部 2 5 3は、 前景成分画像を出力する。 ス テツプ S 2 1 1において、 合成部 2 5 5は、 背景成分画像を出力し、 処理は終 了する。
このように、 前景背景分離部 1 0 5は、 領域情報および混合比ひを基に、 入 力画像から前景の成分と、 背景の成分とを分離し、 前景の成分のみから成る前 景成分画像、および背景の成分のみから成る背景成分画像を出力することがで きる。
次に、 前景成分画像からの動きボケの量の調整について説明する。
図 5 6は、 動きボケ調整部 1 0 6の構成の一例を示すプロック図である。動 き検出部 1 0 2から供給された動きべク トルとその位置情報、および領域特定 部 1 0 3から供給された領域情報は、処理単位決定部 3 5 1およびモデル化部 3 5 2に供給される。 前景背景分離部 1 0 5から供給された前景成分画像は、 足し込み部 3 5 4に供給される。
処理単位決定部 3 5 1は、 動きべク トルとその位置情報、 および領域情報を 基に、動きべク トルと共に、生成した処理単位をモデル化部 3 5 2に供給する。 処理単位決定部 3 5 1は、 生成した処理単位を足し込み部 3 5 4に供給する。 処理単位決定部 3 5 1が生成する処理単位は、 図 5 7に例を示すように、 前 景成分画像のカバ一ドバックグラウンド領域に対応する画素から始まり、アン カバードバックグラウン ド領域に対応する画素までの動き方向に並ぶ連続す る画素、またはアンカバードバックグラウンド領域に対応する画素から始まり、 カバードバックグラウン ド領域に対応する画素までの動き方向に並ぶ連続す る画素を示す。 処理単位は、 例えば、 左上点 (処理単位で指定される画素であ つて、 画像上で最も左または最も上に位置する画素の位置)および右下点の 2 つのデータから成る。
モデル化部 3 5 2は、 動きべク トルおよび入力された処理単位を基に、 モデ ル化を実行する。 より具体的には、 例えば、 モデル化部 3 5 2は、 処理単位に 含まれる画素の数、 画素値の時間方向の仮想分割数、 および画素毎の前景の成 分の数に対応する複数のモデルを予め記憶しておき、 処理単位、 および画素値 の時間方向の仮想分割数を基に、 図 5 8に示すような、 画素値と前景の成分と の対応を指定するモデルを選択するようにしても良い。
例えば、処理単位に対応する画素の数が 1 2でありシャツ夕時間内の動き量 Vが 5であるときにおいては、 モデル化部 3 5 2は、 仮想分割数を 5とし、 最 も左に位置する画素が 1つの前景の成分を含み、左から 2番目の画素が 2つの 前景の成分を含み、左から 3番目の画素が 3つの前景の成分を含み、左から 4 番目の画素が 4つの前景の成分を含み、左から 5番目の画素が 5つの前景の成 分を含み、左から 6番目の画素が 5つの前景の成分を含み、左から 7番目の画 素が 5つの前景の成分を含み、左から 8番目の画素が 5つの前景の成分を含み、 左から 9番目の画素が 4つの前景の成分を含み、左から 1 0番目の画素が 3つ の前景の成分を含み、 左から 1 1番目の画素が 2つの前景の成分を含み、 左か ら 1 2番目の画素が 1つの前景の成分を含み、全体として 8つの前景の成分か ら成るモデルを選択する。
なお、 モデル化部 3 5 2は、 予め記憶してあるモデルから選択するのではな く、 動きべク トル、 および処理単位が供給されたとき、 動きべク トル、 および 処理単位を基に、 モデルを生成するようにしてもよい。
モデル化部 3 5 2は、 選択したモデルを方程式生成部 3 5 3に供給する。 方程式生成部 3 5 3は、 モデル化部 3 5 2から供給されたモデルを基に、 方 程式を生成する。 図 5 8に示す前景成分画像のモデルを参照して、 前景の成分 の数が 8であり、処理単位に対応する画素の数が 1 2であり、 動き量 Vが 5で あり、 仮想分割数が 5であるときの、 方程式生成部 3 5 3が生成する方程式に ついて説明する。
前景成分画像に含まれるシャッタ時間/ V に対応する前景成分が FOl/v乃至 F08/vであるとき、 FOl/v乃至 F08/v と画素値 C01乃至 C12 との関係は、 式 ( 3 9 ) 乃至式 ( 5 0 ) で表される。
C01=F01/v ( 3 9 )
C02=F02/v+F01/v (4 0 )
C03=F03/v+F02/v+F01/v (4 1 )
C04=F04/v+F03/v+F02/v+F01/v (4 2 )
C05=F05/v+F04/v+F03/v+F02/v+F01/v (4 3 )
C06=F06/v+F05/v+F04/v+F03/v+F02/v (44 )
C07=F07/v+F06/v+F05/v+F04/v+F03/v (4 5 )
C08=F08/v+F07/v+F06/v+F05/v+F04/v ( 4 6 )
C09=F08/v+F07/v+F06/v+F05/v (4 7 )
C10=F08/v+F07/v+F06/v ( 4 8 )
Cll=F08/v+F07/v (4 9 )
C12=F08/v ( 5 0 ) 方程式生成部 3 5 3は、 生成した方程式を変形して方程式を生成する。方程 式生成部 3 5 3が生成する方程式を、 式 ( 5 1 ) 乃至式 ( 6 2 ) に示す。 C01 = l · FOl/v+0 · F02/v+0 · F03/v+0 · F04/v+0 · F05/v
+0 · F06/V+0 · F07/v+0 · F08/v ( 5 1 ) C02=l · FOl/v+1 · F02/v+0 · F03/v+0 · F04/v+0 · F05/v
+0 · F06/v+0 · F07/v+0 · F08/v ( 5 2 ) C03 = l · FOl/v+1 · F02/v+l · F03/v+0 · F04/v+0 · F05/v
+0 · F06/v+0 · F07/v+0 · F08/v ( 5 3 ) C04=l · FOl/v+1 · F02/v+l · F03/v+l · F04/v+0 · F05/v
+0 · F06/v+0 · F07/v+0 · F08/v ( 54 ) C05 = l · FOl/v+1 · F02/v+l · F03/v+l · F04/v+l · F05/v
+0 · F06/v+0 · F07/v+0 · F08/v ( 5 5 ) C06=0 · FOl/v+1 · F02/V+1 · F03/v+l · F04/v+l · F05/v 曇 】 ( 9 9 ) « ( 9 ) ^
¾¾^ 譴¾"1^^^ 案画目¾ 、^ 、 ^ ( 9 ) ^
10=}
(Ρ9)
80
° ^ '
Figure imgf000078_0001
ΐ ¥5 ^ o κ ^^ - θ ? Λ
Figure imgf000078_0002
©2 °4 ¾S¾©»喜 Jjl ¥} ϊ ^ °94練 W 丟 ΐ 、 〖 、 ^ ¾ © ° ¾軎¾ 挲画 、^ ί 、 ^ ( ε 9 ) ¾ΐ
10=ι
(€9)
80 ·辇 つ:? ( S 9 ) ¥ 、《 ( 2 9 ) ^Sii ( I S ) ( 2 9 ) Λ/8( · l+NLOd · 0+Λ/9( · 0+
N90d · 0+Λ/ · 0+Λ/80Λ · 0+Λ/ · 0+Λ / · 0=ΖΐΟ ( ΐ 9 ) Λ/8( · Ι+NLOd · ΐ+Λ/9( · 0+
八/ · 0+Λ/ · 0+Λ/謝 · · 0+八/觀 · 0=ΪΤΟ
( 0 9 ) Λ/8( · l+NLOd · τ+Λ / · ΐ +
八/ ·
Figure imgf000078_0003
( 6 9 ) · ϊ+Λ/ od · T+A/90d · Τ +
N90d · l+N Od · 0+Λ/εθΛ · 0+Λ/ · 0+ /Ϊ( · 0=600 ( 8 ) Λ/幅 · l+ /LOd · Ϊ+Λ/90Λ · Τ +
A/90d · l+ VOd · ΐ+Λ/ · 0+NZOd · 0+Λ/ΤΟΛ · 0=800 ( 1 9 ) Λ/803 · 0+Λ/10Λ · Τ+Λ/90.ί · Τ +
Λ/90Λ · ΐ+Λ/ · · 1+ΝΖΟ . · 0+八/ · 0=Α0Ο
( 9 9 ) Λ/80 · O+NLOd · 0+A/90J · ΐ +
LL ΐひ 60/00df/ェ:) d £698 OAV
Figure imgf000079_0001
ここで、 最小自乗法を適用するため、 誤差の自乗和 E を式 ( 6 6 ) に示す ように定義する。
E =∑ ei2 (66)
j= i
誤差が最小になるためには、 誤差の自乗和 Eに対する、 変数 Fkによる偏微 分の値が 0になればよい。 式 ( 6 7 ) を満たすように Fkを求める。
dFk — ^ ί k
12 08
= 2 ·∑ {(Cy -∑ai/.Fi/v)-(-«kj/v) = 0 (67)
j=01 i=0J
式 ( 6 7 ) において、 動き量 vは固定値であるから、 式 ( 6 8 ) を導くこと ができる。
12 08
∑ akj · (Cy -∑aij-Fi/y) = 0 (68)
j-01 i=0J
式 ( 6 8 ) を展開して、 移項すると、 式 ( 6 9 ) を得る。
12 08 12
∑ («kj -∑aij'Fi) = v ·∑ «kj · Cj (69)
j=01 i=01 j=01
式( 6 9 )の kに 1乃至 8の整数のいずれか 1つを代入して得られる 8つの 式に展開する。得られた 8つの式を、 行列により 1つの式により表すことがで きる。 この式を正規方程式と呼ぶ。
このような最小自乗法に基づく、方程式生成部 3 5 3が生成する正規方程式 の例を式 ( 7 0 ) に示す。
Figure imgf000080_0001
式 ( 7 0 ) を A ' F=v ' C と表すと、 C, A ,v が既知であり、 F は未知である。 また、 A,vは、 モデル化の時点で既知だが、 Cは、 足し込み動作において画素 値を入力することで既知となる。
最小自乗法に基づく正規方程式により前景成分を算出することにより、画素 Cに含まれている誤差を分散させることができる。
方程式生成部 3 5 3は、このように生成された正規方程式を足し込み部 3 5 4に供給する。
足し込み部 3 5 4は、処理単位決定部 3 5 1から供給された処理単位を基に、 前景成分画像に含まれる画素値 C を、 方程式生成部 3 5 3から供給された行 列の式に設定する。 足し込み部 3 5 4は、 画素値 C を設定した行列を演算部 3 5 5に供給する。
演算部 3 5 5は、 掃き出し法 (G A uss-JordA nの消去法) などの解法に基 づく処理により、 動きボケが除去された前景成分 Fi/v を算出して、 動きボケ が除去された前景の画素値である、 0乃至 8の整数のいずれかの iに対応する Fiを算出して、 図 5 9に例を示す、 動きボケが除去された画素値である Fiか ら成る、動きボケが除去された前景成分画像を動きボケ付加部 3 5 6および選 択部 3 5 7に出力する。
なお、 図 5 9に示す動きボケが除去された前景成分画像において、 C03乃至 C10のそれそれに F01乃至 F08のそれそれが設定されているのは、 画面に対 する前景成分画像の位置を変化させないためであり、任意の位置に対応させる ことができる。
動きポケ付加部 3 5 6は、動き量 Vとは異なる値の動きボケ調整量 v'、例え ば、 動き量 Vの半分の値の動きボケ調整量 v'や、 動き量 V と無関係の値の動 きボケ調整量 v'を与えることで、 動きボケの量を調整することができる。例え ば、 図 6 0に示すように、 動きボケ付加部 3 5 6は、 動きボケが除去された前 景の画素値 Fiを動きボケ調整量 v'で除すことにより、前景成分 Fi/v'を算出し て、 前景成分 Fi/v'の和を算出して、 動きボケの量が調整された画素値を生成 する。 例えば、 動きボケ調整量 v'が 3のとき、 画素値 C02は、 (F01 ) /v'とさ れ、 画素値 C03は、 ( F01+F02 ) /v'とされ、 画素値 C04は、 (F01+F02+F03 ) /v'とされ、 画素値 C05は、 (F02+F03+F04) /v'とされる。
動きポケ付加部 3 5 6は、動きボケの量を調整した前景成分画像を選択部 3 5 7に供給する。
選択部 3 5 7は、 例えば使用者の選択に対応した選択信号を基に、 演算部 3 5 5から供給された動きボケが除去された前景成分画像、および動きボケ付加 部 3 5 6から供給された動きボケの量が調整された前景成分画像のいずれか 一方を選択して、 選択した前景成分画像を出力する。
このように、 動きボケ調整部 1 0 6は、 選択信号および動きボケ調整量 v' を基に、 動きボケの量を調整することができる。
また、 例えば、 図 6 1に示すように、 処理単位に対応する画素の数が 8であ り、 動き量 Vが 4であるとき、 動きポケ調整部 1 0 6は、 式 ( 7 1 ) に示す行 列の式を生成する。
Figure imgf000082_0001
動きボケ調整部 1 0 6は、このように処理単位の長さに対応した数の式を立 てて、 動きボケの量が調整された画素値である Fiを算出する。 同様に、 例え ば、処理単位に含まれる画素の数が 1 0 0あるとき、 1 0 0個の画素に対応す る式を生成して、 Fiを算出する。
図 6 2は、 動きボケ調整部 1 0 6の他の構成を示す図である。 図 5 6に示す 場合と同様の部分には同一の番号を付してあり、 その説明は省略する。
選択部 3 6 1は、 選択信号を基に、 入力された動きべク トルとその位置信号 をそのまま処理単位決定部 3 5 1およびモデル化部 3 5 2に供給するか、また は動きべク トルの大きさを動きボケ調整量 v'に置き換えて、その大きさが動き ボケ調整量 v'に置き換えられた動きべク トルとその位置信号を処理単位決定 部 3 5 1およびモデル化部 3 5 2に供給する。
このようにすることで、図 6 2の動きボケ調整部 1 0 6の処理単位決定部 3 5 1乃至演算部 3 5 5は、動き量 Vと動きボケ調整量 v'との値に対応して、動 きボケの量を調整することができる。例えば、 動き量 Vが 5であり、 動きボケ 調整量 v'が 3であるとき、図 6 2の動きボケ調整部 1 0 6の処理単位決定部 3 5 1乃至演算部 3 5 5は、図 5 8に示す動き量 Vが 5である前景成分画像に対 して、 3である動きボケ調整量 v'対応する図 6 0に示すようなモデルに従って、 演算を実行し、 (動き量 V ) / (動きボケ調整量 ν ' ) = 5/3、 すなわちほぼ 1.7の 動き量 Vに応じた動きボケを含む画像を算出する。 なお、 この場合、 算出され る画像は、 3である動き量 Vに対応した動きボケを含むのではないので、 動き ポケ付加部 3 5 6の結果とは動き量 V と動きボケ調整量 v'の関係の意味合い が異なる点に注意が必要である。 以上のように、 動きポケ調整部 1 0 6は、 動き量 Vおよび処理単位に対応し て、 式を生成し、 生成した式に前景成分画像の画素値を設定して、 動きボケの 量が調整された前景成分画像を算出する。
次に、 図 6 3のフローチャートを参照して、 動きボケ調整部 1 0 6による前 景成分画像に含まれる動きボケの量の調整の処理を説明する。
ステップ S 2 5 1において、動きボケ調整部 1 0 6の処理単位決定部 3 5 1 は、 動きべク トルおよび領域情報を基に、 処理単位を生成し、 生成した処理単 位をモデル化部 3 5 2に供給する。
ステップ S 2 5 2において、 動きボケ調整部 1 0 6のモデル化部 3 5 2は、 動き量 Vおよび処理単位に対応して、 モデルの選択や生成を行う。ステップ S 2 5 3において、 方程式生成部 3 5 3は、 選択されたモデルを基に、 正規方程 式を作成する。
ステップ S 2 5 4において、 足し込み部 3 5 4は、 作成された正規方程式に 前景成分画像の画素値を設定する。 ステップ S 2 5 5において、 足し込み部 3 5 4は、処理単位に対応する全ての画素の画素値の設定を行ったか否かを判定 し、処理単位に対応する全ての画素の画素値の設定を行っていないと判定され た場合、 ステップ S 2 5 4に戻り、 正規方程式への画素値の設定の処理を繰り 返す。
ステップ S 2 5 5において、処理単位の全ての画素の画素値の設定を行った と判定された場合、 ステップ S 2 5 6に進み、 演算部 3 5 5は、 足し込み部 3 5 4から供給された画素値が設定された正規方程式を基に、動きボケの量を調 整した前景の画素値を算出して、 処理は終了する。
このように、動きポケ調整部 1 0 6は、動きべク トルおよび領域情報を基に、 動きボケを含む前景画像から動きボケの量を調整することができる。
すなわち、サンプルデータである画素値に含まれる動きボケの量を調整する ことができる。
なお、 図 5 6に示す動きボケ調整部 1 0 6の構成は、 一例であり、 唯一の構 成ではない。
以上のように、 図 1 0に構成を示す信号処理部 1 2は、 入力画像に含まれる 動きボケの量を調整することができる。図 1 0に構成を示す信号処理部 1 2は. 埋もれた情報である混合比ひを算出して、算出した混合比ひを出力することが できる。
図 6 4は、 信号処理部 1 2の機能の他の構成を示すプロック図である。
図 1 0に示す部分と同様の部分には同一の番号を付してあり、その説明は適 宜省略する。
領域特定部 1 0 3は、領域情報を混合比算出部 1 0 4および合成部 3 7 1に 供給する。
混合比算出部 1 0 4は、混合比ひを前景背景分離部 1 0 5および合成部 3 7 1に供給する。
前景背景分離部 1 0 5は、 前景成分画像を合成部 3 7 1に供給する。
合成部 3 7 1は、 混合比算出部 1 0 4から供給された混合比ひ、 領域特定部 1 0 3から供給された領域情報を基に、 任意の背景画像と、 前景背景分離部 1 0 5から供給された前景成分画像とを合成して、任意の背景画像と前景成分画 像とが合成された合成画像を出力する。
図 6 5は、 合成部 3 7 1の構成を示す図である。 背景成分生成部 3 8 1は、 混合比ひおよび任意の背景画像を基に、 背景成分画像を生成して、 混合領域画 像合成部 3 8 2に供給する。
混合領域画像合成部 3 8 2は、背景成分生成部 3 8 1から供給された背景成 分画像と前景成分画像とを合成することにより、混合領域合成画像を生成して、 生成した混合領域合成画像を画像合成部 3 8 3に供給する。
画像合成部 3 8 3は、 領域情報を基に、 前景成分画像、 混合領域画像合成部 3 8 2から供給された混合領域合成画像、 および任意の背景画像を合成して、 合成画像を生成して出力する。
このように、 合成部 3 7 1は、 前景成分画像を、 任意の背景画像に合成する ことができる。
特徴量である混合比ひを基に前景成分画像を任意の背景画像と合成して得 られた画像は、 単に画素を合成した画像に比較し、 より自然なものと成る。 図 6 6は、動きボケの量を調整する信号処理部 1 2の機能の更に他の構成を 示すブロック図である。図 1 0に示す信号処理部 1 2が領域特定と混合比ひの 算出を順番に行うのに対して、 図 6 6に示す信号処理部 1 2は、 領域特定と混 合比ひの算出を並行して行う。
図 1 0のプロック図に示す機能と同様の部分には同一の番号を付してあり、 その説明は省略する。
入力画像は、 混合比算出部 4 0 1、 前景背景分離部 4 0 2、 領域特定部 1 0 3、 およびオブジェク ト抽出部 1 0 1に供給される。
混合比算出部 4 0 1は、 入力画像を基に、 画素がカバードバックグラウンド 領域に属すると仮定した場合における推定混合比、および画素がアンカバ一ド バックグラウンド領域に属すると仮定した場合における推定混合比を、入力画 像に含まれる画素のそれそれに対して算出し、算出した画素がカバ一ドバック グラウンド領域に属すると仮定した場合における推定混合比、および画素がァ ンカバードバックグラウン ド領域に属すると仮定した場合における推定混合 比を前景背景分離部 4 0 2に供給する。
図 6 7は、 混合比算出部 4 0 1の構成の一例を示すプロック図である。 図 6 7に示す推定混合比処理部 2 0 1は、図 3 7に示す推定混合比処理部 2 0 1 と同じである。 図 6 7に示す推定混合比処理部 2 0 2は、 図 3 7に示す推 定混合比処理部 2 0 2と同じである。
推定混合比処理部 2 0 1は、 入力画像を基に、 カバードバックグラウンド領 域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出した 推定混合比を出力する。
推定混合比処理部 2 0 2は、 入力画像を基に、 アンカバ一ドバックグラウン ド領域のモデルに対応する演算により、 画素毎に推定混合比を算出して、 算出 した推定混合比を出力する。
前景背景分離部 4 0 2は、 混合比算出部 4 0 1から供給された、 画素がカバ —ドバックグラウンド領域に属すると仮定した場合における推定混合比、およ び画素がアンカバードバックグラウン ド領域に属すると仮定した場合におけ る推定混合比、 並びに領域特定部 1 0 3から供給された領域情報を基に、 入力 画像から前景成分画像を生成し、生成した前景成分画像を動きボケ調整部 1 0 6および選択部 1 0 7に供給する。
図 6 8は、 前景背景分離部 4 0 2の構成の一例を示すプロック図である。 図 4 8に示す前景背景分離部 1 0 5と同様の部分には同一の番号を付して あり、 その説明は省略する。
選択部 4 2 1は、 領域特定部 1 0 3から供給された領域情報を基に、 混合比 算出部 4 0 1から供給された、画素がカバ一ドバックグラウンド領域に属する と仮定した場合における推定混合比、および画素がアンカバードバックグラウ ン ド領域に属すると仮定した場合における推定混合比のいずれか一方を選択 して、 選択した推定混合比を混合比ひとして分離部 2 5 1に供給する。
分離部 2 5 1は、選択部 4 2 1から供給された混合比ひおよび領域情報を基 に、混合領域に属する画素の画素値から前景の成分および背景の成分を抽出し、 抽出した前景の成分を合成部 2 5 3に供給すると共に、背景の成分を合成部 2 5 5に供給する。
分離部 2 5 1は、 図 5 3に示す構成と同じ構成とすることができる。
合成部 2 5 3は、 前景成分画像を合成して、 出力する。 合成部 2 5 5は、 背 景成分画像を合成して出力する。
図 6 6に示す動きポケ調整部 1 0 6は、図 1 0に示す場合と同様の構成とす ることができ、領域情報および動きべク トルを基に、 前景背景分離部 4 0 2か ら供給された前景成分画像に含まれる動きボケの量を調整して、動きボケの量 が調整された前景成分画像を出力する。
図 6 6に示す選択部 1 0 7は、例えば使用者の選択に対応した選択信号を基 に、 前景背景分離部 4 0 2から供給された前景成分画像、 および動きボケ調整 部 1 0 6から供給された動きボケの量が調整された前景成分画像のいずれか 一方を選択して、 選択した前景成分画像を出力する。
このように、 図 6 6に構成を示す信号処理部 1 2は、 入力画像に含まれる前 景のオブジェク トに対応する画像に対して、その画像に含まれる動きボケの量 を調整して出力することができる。 図 6 6に構成を示す信号処理部 1 2は、 第 1の実施例と同様に、埋もれた情報である混合比ひを算出して、 算出した混合 比ひを出力することができる。 図 6 9は、前景成分画像を任意の背景画像と合成する信号処理部 1 2の機能 の他の構成を示すプロック図である。図 6 4に示す信号処理部 1 2が領域特定 と混合比ひの算出をシリアルに行うのに対して、図 6 9に示す信号処理部 1 2 は、 領域特定と混合比ひの算出をパラレルに行う。
図 6 6のプロック図に示す機能と同様の部分には同一の番号を付してあり、 その説明は省略する。
図 6 9に示す混合比算出部 4 0 1は、 入力画像を基に、 画素がカバードバッ クグラウンド領域に属すると仮定した場合における推定混合比、および画素が アンカバードバックグラウン ド領域に属すると仮定した場合における推定混 合比を、 入力画像に含まれる画素のそれそれに対して算出し、 算出した画素が カバードバックグラウンド領域に属すると仮定した場合における推定混合比、 および画素がアンカバ一ドバックグラウン ド領域に属すると仮定した場合に おける推定混合比を前景背景分離部 4 0 2および合成部 4 3 1に供給する。 図 6 9に示す前景背景分離部 4 0 2は、混合比算出部 4 0 1から供給された、 画素がカバ一ドバックグラウン ド領域に属すると仮定した場合における推定 混合比、および画素がアンカバ一ドバックグラウンド領域に属すると仮定した 場合における推定混合比、並びに領域特定部 1 0 3から供給された領域情報を 基に、 入力画像から前景成分画像を生成し、 生成した前景成分画像を合成部 4 3 1に供給する。
合成部 4 3 1は、 混合比算出部 4 0 1から供給された、 画素がカバ一ドバッ クグラウンド領域に属すると仮定した場合における推定混合比、および画素が アンカバ一ドバックグラウンド領域に属すると仮定した場合における推定混 合比、 領域特定部 1 0 3から供給された領域情報を基に、 任意の背景画像と、 前景背景分離部 4 0 2から供給された前景成分画像とを合成して、任意の背景 画像と前景成分画像とが合成された合成画像を出力する。
図 7 0は、合成部 4 3 1の構成を示す図である。 図 6 5のブロック図に示す 機能と同様の部分には同一の番号を付してあり、 その説明は省略する。
選択部 4 4 1は、 領域特定部 1 0 3から供給された領域情報を基に、 混合比 算出部 4 0 1から供給された、画素がカバードバックグラウンド領域に属する と仮定した場合における推定混合比、および画素がアンカバ一ドバックグラウ ン ド領域に属すると仮定した場合における推定混合比のいずれか一方を選択 して、選択した推定混合比を混合比ひとして背景成分生成部 3 8 1に供給する, 図 7 0に示す背景成分生成部 3 8 1は、選択部 4 4 1から供給された混合比 ひおよび任意の背景画像を基に、 背景成分画像を生成して、 混合領域画像合成 部 3 8 2に供給する。
図 7 0に示す混合領域画像合成部 3 8 2は、背景成分生成部 3 8 1から供給 された背景成分画像と前景成分画像とを合成することにより、混合領域合成画 像を生成して、 生成した混合領域合成画像を画像合成部 3 8 3に供給する。 画像合成部 3 8 3は、 領域情報を基に、 前景成分画像、 混合領域画像合成部 3 8 2から供給された混合領域合成画像、 および任意の背景画像を合成して、 合成画像を生成して出力する。
このように、 合成部 4 3 1は、 前景成分画像を、 任意の背景画像に合成する ことができる。
なお、 混合比ひは、 画素値に含まれる背景の成分の割合として説明したが、 画素値に含まれる前景の成分の割合としてもよい。
また、 前景となるオブジェク 卜の動きの方向は左から右として説明したが、 その方向に限定されないことは勿論である。
次に、 上述した信号処理部 1 2と同様の処理により、 温度のデータ、 または 圧力のデ一夕に含まれる動きボケの量を調整する、 例について説明する。
図 7 1は、 本発明に係る信号処理装置の構成例を示す図である。 サ一モグラ フィ装置 4 5 1は、 測定の対象となるオブジェク 卜から輻射される赤外線を、 赤外線 CCDなど、 内蔵している赤外線センサで検出し、 検出した赤外線の波 長または強さに対応する信号を生成する。 サーモグラフィ装置 4 5 1は、 生成 した信号をアナログデジタル変換し、基準温度に対応する基準データと比較し、 オブジェク トの各部位の温度を示す温度データを生成して、生成した温度デー 夕を信号処理部 4 5 2に出力する。
サ一モグラフィ装置 4 5 1は、 センサ 1 1 と同様に、 空間に対して、 および 時間に対して積分効果を有する。 サ一モグラフィ装置 4 5 1が信号処理部 4 5 2に供給する温度データは、動 画像の画像データと同様の構成を有し、測定の対象となるオブジェク トの各部 位の温度を示す値 (画像データの画素値に対応する) が、 空間方向に 2次元に 配置され (画像デ一夕のフレームに対応する)、 更に、 時間方向に配置されて いるデータである。
信号処理部 4 5 2は、 入力された温度デ一夕に含まれる、 測定の対象となる オブジェク トが動くことにより発生した歪みを調整する。例えば、 信号処理部 4 5 2は、測定の対象となるオブジェク トの所望の部位のより正確な温度を抽 出する。
図 7 2は、信号処理部 4 5 2による動きボケの量の調整の処理を説明するフ 口一チャートである。 ステップ S 3 0 1において、 信号処理部 4 5 2は、 測定 の対象となるオブジェク トの各部位に対応する、温度を示す値が 2次元に配置 された温度データを取得する。 信号処理部 4 5 2は、 温度データを基に、 動き を示すデ一タを生成する。
ステップ S 3 0 2において、 信号処理部 4 5 2は、 温度の測定を所望するォ ブジェク トに対応する温度を示す値のみから成る前景領域、所望のオブジェク ト以外のオブジェク トに対応する温度を示す値のみから成る背景領域、並びに 所望のオブジェク トに対応する温度の情報および所望のオブジェク ト以外の オブジェク トに対応する温度の情報が混合して成る混合領域に、温度データの 領域を特定する。
ステップ S 3 0 3において、 信号処理部 4 5 2は、 温度データに含まれる温 度を示す値が混合領域に属するか否かを判定し、混合領域に属すると判定され た場合、 ステップ S 3 0 4に進み、 図 2 7のステヅプ S 1 0 2の処理と同様の 処理で、 混合比ひを算出する。
ステップ S 3 0 5において、 信号処理部 4 5 2は、 図 2 7のステップ S 1 0 3の処理と同様の処理で、温度測定を所望するオブジェク トに対応する温度の 情報を分離して、 手続きは、 ステップ S 3 0 6に進む。
ステップ S 3 0 5における温度の情報の分離の処理は、キルヒホッフの法則 またはシュテフアン 'ボルツマンの法則などのオブジェク トの温度と放射され る赤外線との関係を示す法則を基に、 温度の情報を、 温度の測定を所望するォ ブジヱク トから放出される赤外線のエネルギ量に変換して、変換した赤外線の エネルギ量を分離し、 再度、 分離したエネルギ量を温度に変換するようにして もよい。 赤外線のエネルギ量に変換して分離することにより、 信号処理部 4 5 2は、 温度の情報をそのまま分離するときに比較して、 より精度良く、 温度の 情報を分離することができる。
ステップ S 3 0 3において、温度データに含まれる温度を示す値が混合領域 に属しないと判定された場合、温度測定を所望するオブジェク トに対応する温 度の情報を分離する処理は必要無いので、ステツプ S 3 0 4およびステヅブ S 3 0 5の処理はスキヅプされ、 手続きは、 ステップ S 3 0 6に進む。
ステップ S 3 0 6において、 信号処理部 4 5 2は、 前景領域に属する温度を 示す値、 および温度測定を所望するォブジェク 卜に対応する温度の情報とで、 温度測定を所望するオブジェク トに対応する温度データを生成する。
ステップ S 3 0 7において、 信号処理部 4 5 2は、 図 6 3のステップ S 2 5 1 の処理と同様の処理で、 生成した温度データに対応するモデルを生成する。 ステップ S 3 0 8において、 信号処理部 4 5 2は、 生成したモデルを基に、 図 6 3のステップ S 2 5 2乃至ステップ S 2 5 5の処理と同様の処理で、温度 測定を所望するオブジェク トに対応する温度デ一夕に含まれる動きボケの量 を調整して、 処理は終了する。
このように、 信号処理部 4 5 2は、 測定の対象となるオブジェク 卜の動きに よ り生じた温度データに含まれる動きボケの量を調整して、オブジェク トの各 部のより正確な温度の値を算出することができる。
図 7 3は、本発明に係る信号処理装置の構成例を示す図である。この例では、 重量測定を行う。圧力エリァセンサ 5 0 1は、複数の圧力センサから構成され、 平面の単位面積に対する荷重、 すなわち圧力を測定する。圧力エリアセンサ 5 0 1は、 例えば、 図 7 4に示すように、 複数の圧力センサ 5 1 1 一 1— 1乃至 5 1 1— M— Nが床面に 2次元に配置されて成る構造を有する。重量が測定さ れるォブジェク ト 5 1 2が圧力エリアセンサ 5 0 1上を移動するとき、圧力ェ リアセンサ 5 0 1 は、圧力センサ 5 1 1 — 1 — 1乃至 5 1 1 一 M— Nのそれそ れに、 加えられる圧力を検出し、圧力センサ 5 1 1 一 1— 1乃至 5 1 1 - M - Nのそれそれの測定範囲に対応する重量を示す重量データを生成し、生成した 重量データを信号処理部 5 0 2に出力する。
圧力センサ 5 1 1— 1 _ 1乃至 5 1 1 一 M— Nのそれそれは、例えば、 透明 な弾性体に外力が加わったとき、 その歪みによって生じる複屈折性、 いわゆる 光弾性を利用したセンサなどで構成される。
なお、 圧力エリアセンサ 5 0 1は、 全体を 1つの光弾性を利用したセンサで 構成するようにしてもよい。
図 7 5は、圧力エリアセンサ 5 0 1 を構成する圧力センサ 5 1 1 一 m— 1乃 至 5 1 1 一 m— Nのそれそれに加えられる、オブジェク ト 5 1 2の各部の重量 に対応する荷重を説明する図である。
オブジェク ト 5 1 2の図中の最も左に位置する部分の重量に対応する荷重 Aは、圧力センサ 5 1 1 一 m— 1に加えられる。 オブジェク ト 5 1 2の図中の 左から 2番目に位置する部分の重量に対応する荷重 bは、圧力センサ 5 1 1— m— 2に加えられる。オブジェク ト 5 1 2の図中の左から 3番目に位置する部 分の重量に対応する荷重 cは、圧力センサ 5 1 1 一 m— 3に加えられる。 ォブ ジェク ト 5 1 2の図中の左から 4番目に位置する部分の重量に対応する荷重 dは、 圧力センサ 5 1 1 一 m— 4に加えられる。
オブジェク ト 5 1 2の図中の左から 5番目に位置する部分の重量に対応す る荷重 eは、圧力センサ 5 1 1 一 m— 5に加えられる。オブジェク ト 5 1 2の 図中の左から 6番目に位置する部分の重量に対応する荷重 f は、圧力センサ 5 1 1 一 m— 6に加えられる。オブジェク ト 5 1 2の図中の左から 7番目に位置 する部分の重量に対応する荷重 gは、圧力センサ 5 1 1 一 m— 7に加えられる c 圧力エリアセンサ 5 0 1が出力する重量データは、圧力センサ 5 1 1 - 1 - 1乃至 5 1 1 一 M— Nの配置に対応し、空間方向に 2次元に配置されている重 量を示す値から成る。
図 7 6は、圧力エリアセンサ 5 0 1が積分効果を有し、 オブジェク ト 5 1 2 が移動しているとき、圧力エリアセンサ 5 0 1が出力する重量データの例を説 明する図である。 圧力センサ 5 1 1一 m— 1は、 計測する単位時間において、 オブジェク ト 5 1 2の図中の最も左に位置する部分の重量に対応する荷重 Aが加えられるの で、 重量デ一夕に含まれる重量を示す値として、 値 Aを出力する。
圧力センサ 5 1 1一 m— 2は、 計測する単位時間において、 オブジェク ト 5 1 2の図中の左から 2番目に位置する部分の重量に対応する荷重 bが加えら れ、 その後、 オブジェク ト 5 1 2の図中の最も左に位置する部分の重量に対応 する荷重 Aが加えられるので、 重量デ一夕に含まれる重量を示す値として、値 A + bを出力する。
圧力センサ 5 1 1 — m— 3は、 計測する単位時間において、 オブジェク ト 5 1 2の図中の左から 3番目に位置する部分の重量に対応する荷重 cが加えら れ、オブジェク ト 5 1 2の図中の左から 2番目に位置する部分の重量に対応す る荷重 bが加えられ、 その後、 オブジェク ト 5 1 2の図中の最も左に位置する 部分の重量に対応する荷重 Aが加えられるので、重量データに含まれる重量を 示す値として、 値 A + b + cを出力する。
圧力センサ 5 1 1一 m— 4は、 計測する単位時間において、 オブジェク ト 5 1 2の図中の左から 4番目に位置する部分の重量に対応する荷重 dが加えら れ、オブジェク ト 5 1 2の図中の左から 3番目に位置する部分の重量に対応す る荷重 cが加えられ、オブジェク ト 5 1 2の図中の左から 2番目に位置する部 分の重量に対応する荷重 bが加えられ、 その後、 オブジェク ト 5 1 2の図中の 最も左に位置する部分の重量に対応する荷重 Aが加えられるので、重量デ一夕 に含まれる重量を示す値として、 値 A + b + c + dを出力する。
圧力センサ 5 1 1 — m— 5は、 計測する単位時間において、 オブジェク ト 5 1 2の図中の左から 5番目に位置する部分の重量に対応する荷重 eが加えら れ、ォブジェク ト 5 1 2の図中の左から 4番目に位置する部分の重量に対応す る荷重 dが加えられ、オブジェク ト 5 1 2の図中の左から 3番目に位置する部 分の重量に対応する荷重 cが加えられ、 その後、 オブジェク ト 5 1 2の図中の 左から 2番目に位置する部分の重量に対応する荷重 bが加えられるので、重量 データに含まれる重量を示す値として、 値 b + c + d + eを出力する。
圧力センサ 5 1 1—m— 6は、 計測する単位時間において、 オブジェク ト 5 1 2の図中の左から 6番目に位置する部分の重量に対応する荷重 f が加えら れ、オブジェク ト 5 1 2の図中の左から 5番目に位置する部分の重量に対応す る荷重 eが加えられ、オブジェク ト 5 1 2の図中の左から 4番目に位置する部 分の重量に対応する荷重 dが加えられ、 その後、 オブジェク ト 5 1 2の図中の 左から 3番目に位置する部分の重量に対応する荷重 cが加えられるので、重量 デ一夕に含まれる重量を示す値として、 値 c + d + e + f を出力する。
圧力センサ 5 1 1— m— 7は、 計測する単位時間において、 オブジェク ト 5
1 2の図中の左から 7番目に位置する部分の重量に対応する荷重 gが加えら れ、オブジェク ト 5 1 2の図中の左から 6番目に位置する部分の重量に対応す る荷重 f が加えられ、オブジェク ト 5 1 2の図中の左から 5番目に位置する部 分の重量に対応する荷重 eが加えられ、 その後、 オブジェク ト 5 1 2の図中の 左から 4番目に位置する部分の重量に対応する荷重 dが加えられるので、重量 データに含まれる重量を示す値として、 値 d + e + f + gを出力する。
圧力センサ 5 1 1 一 m— 8は、 計測する単位時間において、 オブジェク ト 5
1 2の図中の左から 7番目に位置する部分の重量に対応する荷重 gが加えら れ、オブジェク ト 5 1 2の図中の左から 6番目に位置する部分の重量に対応す る荷重 f が加えられ、オブジェク ト 5 1 2の図中の左から 5番目に位置する部 分の重量に対応する荷重 eが加えられるので、重量データに含まれる重量を示 す値として、 値 e + f + gを出力する。
圧力センサ 5 1 1—m— 9は、 計測する単位時間において、 オブジェク ト 5
1 2の図中の左から 7番目に位置する部分の重量に対応する荷重 gが加えら れ、ォブジヱク ト 5 1 2の図中の左から 6番目に位置する部分の重量に対応す る荷重 f が加えられるので、 重量データに含まれる重量を示す値として、値 f + gを出力する。
圧力センサ 5 1 1— m— 1 0は、 計測する単位時間において、 オブジェク ト 5 1 2の図中の左から 7番目に位置する部分の重量に対応する荷重 gが加え られるので、 重量データに含まれる重量を示す値として、 値 gを出力する。 圧力エリアセンサ 5 0 1は、圧力センサ 5 1 1 一 m— 1が出力する値 A、 圧 力センサ 5 1 1 — m— 2が出力する値 A + b、圧力センサ 5 1 1 一 m— 3が出 力する値 A + b + c、圧力センサ 5 1 1 一 m— 4が出力する値 A + b + c + d - 圧力センサ 5 1 1— m— 5が出力する値 b + c + d + e、圧力センサ 5 1 1 一 m— 6が出力する値 c + d + e + f 、圧力センサ 5 1 1— m— 7が出力する値 d + e + f + g、圧力センサ 5 1 1— m— 8が出力する値 e + f + g、 圧力セ ンサ 5 1 1 一 m— 9が出力する値 f + g、および圧力センサ 5 1 1— m— 1 0 が出力する値 gを含む重力データを出力する。
信号処理部 5 0 2は、圧力エリアセンサ 5 0 1から供給された重量デ一夕か ら、測定の対象となるオブジェク ト 5 1 2が動くことにより発生した歪みを調 整する。 例えば、 信号処理部 5 0 2は、 測定の対象となるオブジェク ト 5 1 2 の所望の部位のより正確な重量を抽出する。例えば、 信号処理部 5 0 2は、 値 A、 値 A + b、 値 A + b + c、 値 A + b + c + d、 値 b + c + d + e、 値 c + d + e + f 、 値 d + e + f + g、 値 e + f + g、 値 f + g、 および値 gを含む 重量データから、 荷重 A、 荷重 b、 荷重 荷重 d、 荷重 e、 荷重 f、 および荷 重 gを抽出する。
図 7 7のフローチャートを参照して、信号処理部 5 0 2が実行する荷重の算 出の処理を説明する。
ステップ S 4 0 1において、信号処理部 5 0 2は、圧力ェリアセンサ 5 0 1 が出力する重量データを取得する。 ステップ S 4 0 2において、 信号処理部 5 0 2は、圧力エリアセンサ 5 0 1から取得した重量データを基に、 オブジェク ト 5 1 2の荷重が圧力ェリアセンサ 5 0 1に加わっているか否かを判定し、ォ ブジェク ト 5 1 2の荷重が圧力エリアセンサ 5 0 1に加わっていると判定さ れた場合、 ステップ S 4 0 3に進み、 重量デ一夕の変化を基に、 ォブジヱク ト 5 1 2の動きを取得する。
ステップ S 4 0 4において、信号処理部 5 0 2は、 ステップ S 4 0 3の処理 で取得した動きの方向に沿って、 重量データに含まれる、圧力センサ 5 1 1の 1ライン分のデ一夕を取得する。
ステップ S 4 0 5において、 信号処理部 5 0 2は、 オブジェク ト 5 1 2の各 部の重さに対応する荷重を算出して、 処理は終了する。 信号処理部 5 0 2は、 例えば、 図 6 3のフローチャートを参照して説明した処理と同様の処理で、 ォ ブジェク ト 5 1 2の各部の重さに対応する荷重を算出する。
ステップ S 4 0 2において、オブジェク ト 5 1 2の荷重が圧力エリアセンサ 5 0 1に加わっていないと判定された場合、処理すべき重量デ一夕が無いので、 処理は終了する。
このように、 重量測定システムは、移動しているオブジェク トの各部の重さ に対応する正確な荷重を算出することができる。
次に、 空間方向に、 より高解像度の画像を生成する信号処理部 1 2について 説明する。
図 7 8は、信号処理部 1 2の他の機能として、 1フレームあたりの画素数を 増加させ、 高解像度画像を生成する構成を示すプロック図である。
フレームメモリ 7 0 1は、 入力画像をフレーム単位で記憶し、 記憶している 画像を画素値生成部 7 0 2および相関演算部 7 0 3に供給する。
相関演算部 7 0 3は、フレームメモリ 7 0 1から供給された画像に含まれる 横方向に隣り合う画素データの画素値の相関値を演算して、画素値生成部 7 0 2に供給する。画素値生成部 7 0 2は、 相関演算部 7 0 3から供給された相関 値を基に、 横に並ぶ 3つの画素データの画素値を基に、 中央の画素の画素値か ら横方向に倍密の画像の成分を算出して、それを画素値として水平倍密画像を 生成する。画素値生成部 7 0 2は、 生成した水平倍密画像をフレームメモリ 7 0 4に供給する。
フレームメモリ 7 0 4は、画素値生成部 7 0 2から供給された水平倍密画像 をフレーム単位で記憶し、記憶している水平倍密画像を画素値生成部 7 0 5お よび相関演算部 7 0 6に供給する。
相関演算部 7 0 6は、フレームメモリ Ί 0 4から供給された水平倍密画像に 含まれる縦方向に隣り合う画素データの画素値の相関値を演算して、画素値生 成部 7 0 5に供給する。画素値生成部 7 0 5は、相関演算部 7 0 3から供給さ れた相関値を基に、縦に並ぶ 3つの画素データの画素値を基に、 中央の画素の 画素値から縦方向に倍密の画像の成分を算出して、それを画素値として倍密画 像を生成する。 画素値生成部 7 0 5は、 生成した倍密画像を出力する。
次に、 画素値生成部 7 0 2による、水平倍密画像を生成する処理について説 明する。
図 7 9は、 図 1 2に対応する、 CCD であるセンサ 1 1に設けられている画 素の配置、および水平倍密画像の画素データに対応する領域を説明する図であ る。 図 7 9中において、 A乃至 Iは、 個々の画素を示す。 領域 A乃至 rは、 画 素 A乃至 Iの個々の画素を縦に半分にした受光領域である。画素 A乃至 Iの受 光領域の幅が、 21であるとき、 領域 A乃至 rの幅は、 1である。 画素値生成部 7 0 2は、 領域 A乃至 rに対応する画素デ一夕の画素値を算出する。
図 8 0は、領域 A乃至 rに入力される光に対応する画素データを説明する図 である。図 8 0の f'(x)は、入力される光および空間的な微少区間に対応する、 空間的に見て理想的な画素値を示す。
1つの画素データの画素値が、 理想的な画素値 f(x)の一様な積分で表され るとすれば、 領域 iに対応する画素デ一夕の画素値 Y1は、 式 ( 7 2 ) で表さ れ、 領域 jに対応する画素データの画素値 Y2は、 式 ( 7 3 ) で表され、 画素 Eの画素値 Y3は、 式 (7 4 ) で表される。
Yl= f(x)dx.士 (72)
X3
Y2= f(x)dx^ (73)
Figure imgf000096_0001
一 Y1+Y2
一 (74)
2
式 ( 7 2 ) 乃至式 ( 74) において、 xl, x2、 および χ3は、 画素 Εの受光領 域、 領域し および領域 jのそれそれの境界の空間座標である。
式 ( 74 ) を変形することにより、 式 ( 7 5 ) および式 ( 7 6 ) を導くこと ができる。 Υ1=2 · Υ3 -Υ2 ( 7 5 ) Υ2=2 · Υ3 -Υ1 ( 7 6 )
従って、 画素 Εの画素値 Υ3および領域 j に対応する画素デ一夕の画素値 Y2 が既知であれば、 式 ( 7 5 ) により、 領域 i に対応する画素データの画素値 Y1 を算出することができる。 また、 画素 Eの画素値 Y3および領域 iに対応 する画素データの画素値 Y1が既知であれば、 式 ( 7 6 ) により、 領域 jに対 応する画素デ一夕の画素値 Y2を算出することができる。
このように、 画素に対応する画素値と、 その画素の 2つの領域に対応する画 素データのいずれか一方の画素値とを知ることができれば、画素の 2つの領域 に対応する他の画素データの画素値を算出することができる。
図 8 1を参照して、 1つの画素の 2つの領域に対応する画素データの画素値 の算出を説明する。 図 8 1 Aは、 画素 D, 画素 E、 および画素 Fと、 空間的に 見て理想的な画素値 f'(x)との関係を示す。
画素 D , 画素 E、 および画素 Fは、 空間的に、 積分効果があり、 1つの画素 が 1つの画素値を出力するので、 図 8 1 Bに示すように、 それそれ、 1つの画 素値を出力する。 画素 E が出力する画素値は、 受光領域の範囲で画素値 f'(x) を積分した値に対応する。
相関演算部 7 0 3は、 画素 Dの画素値と画素 Eの画素値との相関値、 およ び画素 Eの画素値と画素 Fの画素値との相関値を生成して、 画素値生成部 Ί 0 2に供給する。 相関演算部 7 0 3が算出する相関値は、 例えば、 画素 D の 画素値と画素 Eの画素値との差分値、 または画素 Eの画素値と画素 Fの画素 値との差分値を基に算出される。近接する画素の画素値がより近い値であると き、 それらの画素の相関はより強いと言える。 すなわち、 画素値の差分値のよ り小さい値は、 より強い相関を示す。
従って、 画素 Dの画素値と画素 Eの画素値との差分値、 または画素 Eの画 素値と画素 F の画素値との差分値をそのまま相関値として利用するとき、 よ り小さい差分値である相関値は、 より強い相関を示す。
例えば、 画素 Dの画素値と画素 Eの画素値との相関が、 画素 Eの画素値と 画素 F の画素値との相関より強いとき、 図 8 1 Cに示すように、 画素値生成 部 7 0 2は、 画素 D の画素値を 2 で除して、 その結果求められた値を領域 i の画素データとする。
画素値生成部 7 0 2は、 図 8 1 Dに示すように、 式( 7 5 ) または式 ( 7 6 ) により、 画素 Eの画素値および領域 iの画素データの画素値を基に、 領域 jの 画素データの画素値を算出する。
画素値生成部 7 0 2は、 例えば、 画素 Dについての、 領域 gの画素データ の画素値、 および領域 hの画素デ一夕の画素値を算出して、 画素 E について の、 領域 iの画素デ一夕の画素値、 および領域 jの画素データの画素値を算出 して、 続いて、 画素 F についての、 領域 kの画素デ一夕の画素値、 および領 域 1の画素データの画素値を算出するように、 順次、 画面内の画素について上 述したように画素データの画素値を算出して、算出した画素データの画素値を 含む水平倍密画像を生成し、生成した水平倍密画像をフレームメモリ 7 0 4に 供給する。
画素値生成部 7 0 5は、 画素値生成部 7 0 2 と同様に、 相関演算部 7 0 6か ら供給された水平倍密画像の、縦に並ぶ 3つの画素の画素値の相関、 およびそ の 3つの画素の画素値から、画素の受光領域を縦に 2つに分割した領域に対応 する画像デ一夕の画素値を算出することで倍密画像を生成する。
図 8 2に例を示す画像が入力画像であるとき、 画素値生成部 7 0 2は、 図 8 3に例を示す水平倍密画像を生成する。
画素値生成部 7 0 5は、 図 8 2に例を示す画像が入力されたとき、 図 8 4に 例を示す画像を生成し、 図 8 3に例を示す水平倍密画像が入力されたとき、 図 8 5に例を示す倍密画像を生成する。
図 8 6は、図 7 8に構成を示す信号処理部 1 2の倍密画像の生成の処理を説 明するフローチャートである。ステヅブ S 6 0 1において、信号処理部 1 2は、 入力された画像を取得し、 フレームメモリ 7 0 1に記憶する。
ステップ S 6 0 2において、 相関演算部 Ί 0 3は、 画面中の 1つの画素を注 目画素として選択し、 フレームメモリ 7 0 1に記憶されている画素値を基に、 注目画素に対して水平方向に隣接する画素の相関値を求める。ステップ S 6 0 3において、 画素値生成部 7 0 2は、相関演算部 7 0 3から供給された相関値 を基に、相関の強い、 すなわち相関値の大きい方の画素値から水平倍密画像の 片側の画素データの画素値を生成する。
ステップ S 6 0 4において、 画素値生成部 7 0 2は、 CCD の特性を基に、 水平倍密画像の他の画素デ一夕の画素値を生成する。具体的には、 画素値生成 部 7 0 2は、 図 8 0を参照して説明した式 ( 7 5 ) および式 ( 7 6 ) を基に、 ステヅプ S 6 0 3の処理で算出した画素値、および入力画像の画素データの画 素値を基に、水平倍密画像の他の画像データの画素値を算出する。 ステップ S 6 0 3およびステップ S 6 0 4の処理で生成された、注目画素に対応する水平 倍密画像の画素データは、 フ レームメモリ 7 0 4に記憶される。
ステップ S 6 0 5において、 画素値生成部 7 0 2は、 画面全体の処理を終了し たか否かを判定し、 画面全体の処理を終了していないと判定された場合、 手続 きは、 ステップ S 6 0 2に戻り、 次の画素を注目画素として選択して、 水平倍 密画像の生成の処理を繰り返す。
ステップ S 6 0 5において、 画面全体の処理を終了したと判定された場合、 ス テツプ S 6 0 6に進み、 相関演算部 7 0 6は、 画面中の 1つの画素を注目画素 として選択し、フ レームメモリ 7 0 4に記憶されている水平倍密画像の画素値 を基に、 注目画素に対して垂直方向に隣接する画素の相関値を求める。ステツ プ S 6 0 7において、 画素値生成部 7 0 5は、相関演算部 7 0 6から供給され た相関値を基に、 相関の強い画素値から倍密画像の片側の画素値を生成する。 ステップ S 6 0 8において、 画素値生成部 7 0 5は、 ステップ S 6 0 4と同 様に、 CCD の特性を基に、 倍密画像の他の画素値を生成する。 具体的には、 画素値生成部 7 0 2は、 図 8 0を参照して説明した式( 7 5 )および式( 7 6 ) を基に、 ステップ S 6 0 7の処理で算出した画素値、 および水平倍密画像の画 素データの画素値を基に、 倍密画像の他の画像データの画素値を算出する。 ステップ S 6 0 9において、 画素値生成部 7 0 5は、 画面全体の処理を終了 したか否かを判定し、 画面全体の処理を終了していないと判定された場合、 手 続きは、 ステップ S 6 0 6に戻り、 次の画素を注目画素として選択して、 倍密 画像の生成の処理を繰り返す。
ステップ S 6 0 9において、 画面全体の処理を終了したと判定された場合、 画素値生成部 7 0 5は、 生成した倍密画像を出力して、 処理は終了する。 このように、 図 7 8に構成を示す信号処理部 1 2は、 入力された画像から、 画像の縦方向に画素の数を 2倍とし、横方向に画素の数を 2倍とした倍密画像 を生成することができる。
以上のように、 図 7 8に構成を示す信号処理部 1 2は、 画素の相関、 および
CCD の空間に対する積分効果を考慮した信号処理を行うことにより空間的に 解像度の高い画像を生成することができる。
以上においては、 3次元空間と時間軸情報を有する現実空間の画像をビデオ カメラを用いて 2次元空間と時間軸情報を有する時空間への射影を行った場 合を例としたが、 本発明は、 この例に限らず、 より多くの第 1の次元の第 1の 情報を、 より少ない第 2の次元の第 2の情報に射影した場合に、 その射影によ つて発生する歪みを補正したり、 有意情報を抽出したり、 またはより自然に画 像を合成する場合に適応することが可能である。
なお、 センサ 1 1は、 CCD に限らす、 固体撮像素子である、 例えば、 BBD ( Bucket BrigA de Device ) ^ CID ( Ch A rge Injection Device)、 または CPD ( Ch A rge Priming Device) などのセンサでもよく、 また、 検出素子がマト リックス状に配置されているセンサに限らず、検出素子が 1列に並んでいるセ ンサでもよい。
本発明の信号処理を行うプログラムを記録した記録媒体は、図 3に示すよう に、コンピュータとは別に、ユーザにプログラムを提供するために配布される、 プログラムが記録されている磁気ディスク 5 1 (フロッピディスクを含む)、 光ディスク 5 2 ( CD-ROM(Comp A ut Disk-Re A d Only Memory), DVD(Digit A 1 Vers A tile Disk)を含む)、 光磁気ディスク 5 3 ( M D ( Mini-Disk) を含 む)、 もしくは半導体メモリ 5 4などよりなるパッケージメディアにより構成 されるだけでなく、コンピュー夕に予め組み込まれた状態でユーザに提供され る、 プログラムが記録されている ROM 2 2や、 記憶部 2 8に含まれるハード ディスクなどで構成される。
なお、 本明細書において、 記録媒体に記録されるプログラムを記述するステツ プは、 記載された順序に沿って時系列的に行われる処理はもちろん、 必ずしも 時系列的に処理されなく とも、並列的あるいは個別に実行される処理をも含む ものである。
以上のように、 像デ一夕において前景オブジェク トを構成する前景オブジェ ク ト成分のみからなる前景領域と、画像データにおいて背景オブジェク トを構 成する背景オブジェク ト成分のみからなる背景領域と、画像データにおいて前 景ォブジェク ト成分と背景オブジェク ト成分とが混合された領域であって、前 景オブジェク トの動き方向先端部側に形成されるカバードバックグラウンド 領域および前景オブジェク 卜の動き方向後端部側に形成されるアンカバ一ド パックグラウンド領域とを含む混合領域とを示す領域情報と、画像データとに 基づいて、前景領域を中心とするカバ一ドバックグラウンド領域の外側端部か らアンカバ一ドバックグラウンド領域の外側端部までの、前景オブジェク トの 動き方向と一致する少なく とも 1つの直線上に乗る画素デ一夕からなる処理 単位が決定され、処理単位に基づいて決定される処理単位内の画素の画素値と、 混合領域における前景ォブジェク ト成分を設定した分割数で分割してなる未 知数である分割値とを設定することで、 正規方程式が生成され、 正規方程式を 最小自乗法で解くことで、動きボケ量の調整された前景オブジェク ト成分が生 成されるようにしたので、 動きボケの量を調整することができるようになる。 また、 注目しているサンプルデータである注目サンブルデータが存在する注 目検出データの前または後の検出データに存在するサンプルデ一夕が、現実世 界における前景となるオブジェク トに対応する前景サンブルデータとして抽 出され、注目検出データより後または前の検出データに存在するサンプルデー 夕が、現実世界における背景となるオブジェク トに対応する背景サンブルデー 夕として抽出され、 注目サンブルデ一夕、 前景サンプルデータ、 および背景サ ンブルデ一夕を基に、注目サンプルデータの混合比が検出されるようにしたの で、 混合比を検出することができるようになる。
また、検出データに基づいて静動判定が行われ、 静動判定の結果に基づいて、 現実世界における複数のオブジェク トが混ざり合ったサンプルデ一夕を含む 混合領域が検出されるようにしたので、複数のオブジェク トの混ざり合いが生 じている領域を検出することができるようになる。 また、 第 1の次元を有する現実世界の信号である第 1の信号が、 センサに射 影され、センサによって検出することで得た第 1の次元より少ない第 2の次元 の第 2の信号が取得され、 第 2の信号に基づく信号処理を行うことにより、射 影により埋もれた有意情報が第 2の信号から抽出されるようにしたので、有意 情報を抽出することができるようになる。
また、 第 1の次元を有する現実世界の信号である第 1の信号をセンサによつ て検出することにより得た、第 1の次元に比較し次元が少ない第 2の次元を有 し、 第 1の信号に対する歪を含む第 2の信号が取得され、 第 2の信号に基づく 信号処理を行うことにより、第 2の信号に比して歪の軽減された第 3の信号が 生成されるようにしたので、信号の歪みを軽減することができるようになる。 また、 検出信号の内、 前景オブジェク トを構成する前景オブジェク ト成分の みから成る前景領域と、背景オブジェク トを構成する背景オブジェク ト成分の みから成る背景領域と、前景オブジェク ト成分および背景オブジェク ト成分と が混合されて成る混合領域とが特定され、少なく とも混合領域における前景ォ ブジェク ト成分と背景オブジェク ト成分との混合比が検出され、特定結果と混 合比とに基づいて、 前景オブジェク トと、 背景オブジェク トとが分離されるよ うにしたので、より高質なデータである前景オブジェク トおよび背景オブジェ ク トを利用することができるようになる。
また、検出信号の内、 前景オブジェク トを構成する前景オブジェク ト成分の みから成る前景領域と、背景オブジェク トを構成する背景オブジェク ト成分の みから成る背景領域と、前景オブジェク ト成分および背景オブジェク ト成分と が混合されて成る混合領域とが特定され、特定結果に基づいて、 少なく とも混 合領域における前景オブジェク ト成分と背景オブジェク ト成分との混合比が 検出されるようにしたので、有意情報である混合比を抽出することができるよ うになる。
さらに、 前景オブジェク トを構成する前景オブジェク ト成分と、 背景ォブジ ェク トを構成する背景ォブジェク ト成分とが混合されて成る混合領域におけ る、 前景オブジェク ト成分と背景ォブジェク ト成分との混合比が検出され、 混 合比に基づいて、前景オブジェク トと背景オブジェク トとが分離されるように したので、より高質なデ一夕である前景オブジェク トおよび背景オブジェク ト を利用することができるようになる。

Claims

請求の範囲
1 . それそれ時間積分効果を有する所定数の画素を有する撮像素子によって 取得された所定数の画素データから成る画像データを処理する画像処理装置 において、
前記画像データにおいて前景オブジェク トを構成する前景オブジェク ト成 分のみからなる前景領域と、前記画像データにおいて背景オブジェク トを構成 する背景オブジェク ト成分のみからなる背景領域と、前記画像デ一夕において 前記前景オブジェク ト成分と前記背景オブジェク ト成分とが混合された領域 であって、前記前景オブジェク 卜の動き方向先端部側に形成されるカバードバ ックグラウン ド領域および前記前景オブジェク 卜の動き方向後端部側に形成 されるアンカバ一ドバックグラウン ド領域とを含む混合領域とを示す領域情 報と、 前記画像データとに基づいて、 前記前景領域を中心とする前記カバード バックグラウンド領域の外側端部から前記アンカバードバックグラウン ド領 域の外側端部までの、前記前景オブジェク トの動き方向と一致する少なく とも
1つの直線上に乗る画素データからなる処理単位を決定する処理単位決定手 段と、
前記処理単位に基づいて決定される前記処理単位内の画素の画素値と、前記 混合領域における前記前景オブジェク ト成分を設定した分割数で分割してな る未知数である分割値とを設定することで、正規方程式を生成する正規方程式 生成手段と、
前記正規方程式を最小自乗法で解くことで、動きボケ量の調整された前景ォ ブジェク ト成分を生成する演算手段とを備えることを特徴とする画像処理装 置。
2 . 前記演算手段は、 前記前景オブジェク トの動き量に基づいて、 動きボケ 量の調整された前記前景オブジェク ト成分を生成することを特徴とする請求 の範囲第 1項に記載の画像処理装置。
3 . 前記演算手段は、 前記前景オブジェク 卜の動き量に基づいて、 動きボケ の除去された前記前景オブジェク ト成分を生成することを特徴とする請求の 範囲第 2項に記載の画像処理装置。
4 . 前記演算手段は、 予め設定された値に基づいて、 前記動きボケの量を調 整することを特徴とする請求の範囲第 1項に記載の画像処理装置。
5 . 前記演算手段は、 前記正規方程式を解いて前記分割値を算出し、 前記分 割値に対する所定の演算処理を行うことで動きボケ量の調整された前記前景 オブジェク ト成分を生成することを特徴とする請求の範囲第 1項に記載の画 像処理装置。
6 . 前記前景領域、 前記背景領域、 並びに前記カバードバックグラウンド領 域および前記アンカバードバックグラウン ド領域を含む前記混合領域を特定 し、 前記前景領域、 前記背景領域、 並びに前記カバードバックグラウンド領域 および前記アンカバ一ドバックグラウンド領域を含む前記混合領域を示す領 域情報を生成する領域情報生成手段をさらに含むことを特徴とする請求の範 囲第 1項に記載の画像処理装置。
7 . 少なくとも前記混合領域における前記前景オブジェク ト成分と前記背景 オブジェク ト成分との混合比を検出する混合比検出手段をさらに含むことを 特徴とする請求の範囲第 1項に記載の画像処理装置。
8 . 前記領域情報と混合比とに基づいて、 前記前景オブジェク トと前記背景 オブジェク トとを分離する分離手段をさらに含むことを特徴とする請求の範 囲第 1項に記載の画像処理装置。
9 . それそれ時間積分効果を有する所定数の画素を有する撮像素子によって 取得された所定数の画素データから成る画像データを処理する画像処理方法 において、
前記画像デ一夕において前景オブジェク トを構成する前景オブジェク ト成 分のみからなる前景領域と、前記画像デ一夕において背景オブジェク トを構成 する背景オブジェク ト成分のみからなる背景領域と、前記画像データにおいて 前記前景オブジェク ト成分と前記背景オブジェク ト成分とが混合された領域 であって、前記前景オブジェク 卜の動き方向先端部側に形成されるカバードバ ックグラウン ド領域および前記前景オブジェク トの動き方向後端部側に形成 されるアンカバ一ドバックグラウンド領域とを含む混合領域とを示す領域情 報と、 前記画像データとに基づいて、 前記前景領域を中心とする前記カバード バヅクグラウン ド領域の外側端部から前記アンカバ一ドバックグラウン ド領 域の外側端部までの、前記前景オブジェク トの動き方向と一致する少なく とも 1つの直線上に乗る画素データからなる処理単位を決定する処理単位決定ス テツブと、
前記処理単位に基づいて決定される前記処理単位内の画素の画素値と、前記 混合領域における前記前景ォブジェク ト成分を設定した分割数で分割してな る未知数である分割値とを設定することで、正規方程式を生成する正規方程式 生成ステツブと、
前記正規方程式を最小自乗法で解くことで、動きボケ量の調整された前景ォ ブジェク ト成分を生成する演算ステツブとを含むことを特徴とする画像処理 方法。
1 0 . それぞれ時間積分効果を有する所定数の画素を有する撮像素子によつ て取得された所定数の画素データから成る画像データを処理する画像処理用 のプログラムであって、
前記画像データにおいて前景オブジェク トを構成する前景オブジェク ト成 分のみからなる前景領域と、前記画像データにおいて背景オブジェク トを構成 する背景オブジェク ト成分のみからなる背景領域と、前記画像データにおいて 前記前景オブジェク ト成分と前記背景オブジェク ト成分とが混合された領域 であって、前記前景オブジェク 卜の動き方向先端部側に形成されるカバ一ドバ ックグラウンド領域および前記前景オブジェク トの動き方向後端部側に形成 されるアンカバードバックグラウン ド領域とを含む混合領域とを示す領域情 報と、 前記画像データとに基づいて、 前記前景領域を中心とする前記カバ一ド バックグラウンド領域の外側端部から前記アンカバ一ドバックグラウン ド領 域の外側端部までの、前記前景オブジェク トの動き方向と一致する少なく とも
1つの直線上に乗る画素データからなる処理単位を決定する処理単位決定ス テツブと、
前記処理単位に基づいて決定される前記処理単位内の画素の画素値と、前記 混合領域における前記前景ォブジェク ト成分を設定した分割数で分割してな る未知数である分割値とを設定することで、正規方程式を生成する正規方程式 生成ステツブと、
前記正規方程式を最小自乗法で解くことで、動きポケ量の調整された前景ォ ブジェク ト成分を生成する演算ステップとを含むことを特徴とするコンビュ ―夕が読み取り可能なプログラムが記録されている記録媒体。
1 1 . 時間積分効果を有する所定の数の検出素子から成るセンサによって所 定の期間毎に取得された所定の数のサンブルデ一夕から成る所定期間毎の検 出データを処理する信号処理装置において、
注目している前記サンプルデ一夕である注目サンブルデ一夕が存在する注 目検出データの前または後の検出データに存在する前記サンプルデータを、現 実世界における前景となるオブジェク トに対応する前景サンプルデータとし て抽出する前景サンプルデ一夕抽出手段と、
前記注目検出データより後または前の検出デ一夕に存在する前記サンプル データを、現実世界における背景となるオブジェク トに対応する背景サンプル デ一夕として抽出する背景サンプルデ一夕抽出手段と、
前記注目サンプルデータ、 前記前景サンプルデ一夕、 および前記背景サンプ ルデ一夕を基に、前記注目サンプルデ一夕の混合比を検出する検出手段とを含 むことを特徴とする信号処理装置。
1 2 . 前記サンプルデータの、 前景となるオブジェク トを構成する前景ォブ ジェク ト成分のみから成る前景領域と、背景となるオブジェク トを構成する背 景ォブジェク ト成分のみから成る背景領域と、前記前景オブジェク ト成分およ び前記背景オブジェク ト成分とが混合されて成る混合領域とを特定する領域 特定手段を更に含み、
前記前景サンプルデータ抽出手段は、 前記領域特定手段の特定結果を基に、 前記前景サンブルデータを抽出し、
前記背景サンプルデータ抽出手段は、 前記領域特定手段の特定結果を基に、 前記背景サンプルデ一夕を抽出することを特徴とする請求の範囲第 1 1項に 記載の信号処理装置。
1 3 . 前記領域特定手段は、 前記混合領域をカバー ドバックグラウン ド領域 とアンカバ一ドバックグラウン ド領域とにさらに識別し、
前記検出手段は、カバ一ドバックグラウン ド領域とアンカバ一 ドバックグラ ゥン ド領域との識別の結果、 前記注目サンブルデータ、 前記前景サンプルデー タ、 および前記背景サンプルデータを基に、 前記注目サンプルデータの混合比 を検出することを特徴とする請求の範囲第 1 2項に記載の信号処理装置。
1 4 . 前記検出データは、 画像データであることを特徴とする請求の範囲第 1 1項に記載の信号処理装置。
1 5 . 前記検出手段は、 前記注目サンプルデ一夕と前記前景サンプルデ一夕 との差を、前記背景サンプルデータと前記前景サンプルデータとの差で除して、 前記注目サンプルデータの混合比を検出することを特徴とする請求の範囲第 1 1項に記載の信号処理装置。
1 6 . 前記検出手段は、 現実世界において、 静止している背景となるォブジ ェク トを構成する背景オブジェク ト成分を含む前記注目サンプルデ一夕およ び前記背景サンプルデータ、並びにほぼ同一の前景オブジェク ト成分を含む前 記注目サンプルデ一夕および前記前景サンプルデータを基に、前記注目サンプ ルデータの混合比を検出することを特徴する請求の範囲第 1 1項に記載の信 号処理装置。
1 7 . 時間積分効果を有する所定の数の検出素子から成るセンサによって所 定の期間毎に取得された所定の数のサンプルデータから成る所定期間毎の検 出データを処理する信号処理方法において、
注目している前記サンブルデータである注目サンプルデ一夕が存在する注 目検出デ一夕の前または後の検出データに存在する前記サンプルデ一夕を、現 実世界における前景となるオブジェク 卜に対応する前景サンプルデータとし て抽出する前景サンプルデ一夕抽出ステップと、
前記注目検出データよ り後または前の検出データに存在する前記サンプル デ一夕を、現実世界における背景となるオブジェク トに対応する背景サンプル データとして抽出する背景サンプルデータ抽出ステップと、
前記注目サンブルデータ、 前記前景サンブルデータ、 および前記背景サンブ ルデータを基に、前記注目サンプルデ一夕の混合比を検出する検出ステップと を含むことを特徴とする信号処理方法。
1 8 . 時間積分効果を有する所定の数の検出素子から成るセンサによって所 定の期間毎に取得された所定の数のサンプルデータから成る所定期間毎の検 出データを処理する信号処理用のプログラムであって、
注目している前記サンプルデータである注目サンプルデ一夕が存在する注 目検出デ一夕の前または後の検出データに存在する前記サンプルデ一夕を、現 実世界における前景となるオブジェク 卜に対応する前景サンプルデ一夕とし て抽出する前景サンプルデ一夕抽出ステツプと、
前記注目検出データより後または前の検出データに存在する前記サンプル デ一夕を、現実世界における背景となるオブジェク トに対応する背景サンプル データとして抽出する背景サンプルデータ抽出ステップと、
前記注目サンプルデータ、 前記前景サンプルデータ、 および前記背景サンブ ルデータを基に、前記注目サンプルデータの混合比を検出する検出ステップと を含むことを特徴とするコンピュー夕が読み取り可能なプログラムが記録さ れている記録媒体。
1 9 . 時間積分効果を有する所定の数の検出素子から成るセンサによって所 定の期間毎に取得された所定の数のサンプルデータから成る所定期間毎の検 出データを処理する信号処理装置において、
前記検出データに基づいて静動判定を行う静動判定手段と、
静動判定の結果に基づいて、現実世界における複数のオブジェク 卜が混ざり 合ったサンプルデ一タを含む混合領域を検出する検出手段とを含むことを特 徴とする信号処理装置。
2 0 . 前記静動判定手段は、 判定の対象となる前記サンブルデータが、 基準 時刻以前に、 その値が時間の経過に対応してほぼ一定の状態から、 その値が時 間の経過に対応して変化している状態に移行したか否かを判定する第 1の判 定手段と、 判定の対象となる前記サンプルデータが、 前記基準時刻以後に、 そ の値が時間の経過に対応して変化している状態から、その値が時間の経過に対 応してほぼ一定の状態に移行するか否かを判定する第 2の判定手段とを含み、 前記検出手段は、 前記第 1の判定手段が、 判定の対象となる前記サンプルデ
—夕が、前記基準時刻以前にその値が時間の経過に対応してほぼ一定の状態か ら、その値が時間の経過に対応して変化している状態に移行したと判定したと き、 または前記第 2の判定手段が、 判定の対象となる前記サンプルデ一夕が、 前記基準時刻以後にその値が時間の経過に対応して変化している状態から、そ の値が時間の経過に対応してほぼ一定の状態に移行すると判定したとき、判定 の対象となる前記サンプルデ一夕を、前記混合領域に属する前記サンプルデー 夕として検出することを特徴とする請求の範囲第 1 9項に記載の信号処理装 置。
2 1 . 前記検出手段は、 前記第 1の判定手段が、 判定の対象となる前記サン ブルデータが、前記基準時刻以前にその値が時間の経過に対応してほぼ一定の 状態から、その値が時間の経過に対応して変化している状態に移行したと判定 したとき、 判定の対象となる前記サンブルデ一夕を、 カバードバックグラウン ド領域に属する前記サンプルデータとして検出し、 前記第 2の判定手段が、 判 定の対象となる前記サンプルデータが、前記基準時刻以後にその値が時間の経 過に対応して変化している状態から、その値が時間の経過に対応してほぼ一定 の状態に移行すると判定したとき、 判定の対象となる前記サンプルデータを、 アンカバ一ドバヅクグラウン ド領域に属する前記サンプルデ一夕として検出 することを特徴とする請求の範囲第 2 0項に記載の信号処理装置。
2 2 . 前記検出データは、 画像データであることを特徴とする請求の範囲第 1 9項に記載の信号処理装置。
2 3 . 時間積分効果を有する所定の数の検出素子から成るセンサによって所 定の期間毎に取得された所定の数のサンプルデータから成る所定期間毎の検 出デ一夕を処理する信号処理方法において、
前記検出データに基づいて静動判定を行う静動判定ステップと、
静動判定の結果に基づいて、現実世界における複数のオブジェク トが混ざり 合ったサンプルデータを含む混合領域を検出する検出ステツプとを含むこと を特徴とする信号処理方法。
2 4 . 時間積分効果を有する所定の数の検出素子から成るセンサによって所 定の期間毎に取得された所定の数のサンブルデータから成る所定期間毎の検 出デ一夕を処理する信号処理用のプログラムであって、
前記検出データに基づいて静動判定を行う静動判定ステツブと、
静動判定の結果に基づいて、現実世界における複数のオブジェク トが混ざり 合ったサンプルデータを含む混合領域を検出する検出ステップとを含むこと を特徴とするコンビュ一夕が読み取り可能なプログラムが記録されている記 録媒体。
2 5 . 第 1の次元を有する現実世界の信号である第 1の信号が、 センサに射 影され、前記センサによって検出することで得た前記第 1の次元より少ない第 2の次元の第 2の信号を取得する取得手段と、
前記第 2の信号に基づく信号処理を行うことにより、射影により埋もれた有 意情報を前記第 2の信号から抽出する信号処理手段とを備えることを特徴と する信号処理装置。
2 6 . 前記有意情報は、 射影により生じた歪を調整するための情報であるこ とを特徴とする請求の範囲第 2 5項に記載の信号処理装置。
2 7 . 前記センサは、 それそれ時間積分効果を有する複数の検出素子からな るセンサであって、
前記取得手段は、前記センサによって検出された個々の前記検出素子に対応 する複数の検出信号を前記第 2の信号として取得し、
前記歪は、時間積分効果による歪であることを特徴とする請求の範囲第 2 6 項に記載の信号処理装置。
2 8 . 前記取得手段は、 所定時間単位毎に前記センサの複数の検出素子で検 出された複数の時間単位の前記複数の検出信号を取得し、
前記信号処理手段は、 前記複数の時間単位の複数の検出信号に基づいて、 所 望の時間の前記第 2の信号に対する前記有意情報を抽出することを特徴とす る請求の範囲第 2 7項に記載の信号処理装置。
2 9 . 前記第 2の信号は、 画像信号であることを特徴とする請求の範囲第 2 5項に記載の信号処理装置。
3 0 . 前記信号処理手段は、 前記第 2の信号のうち、 前記射影により埋も れた有意情報を含む有意領域と他の領域とを特定し、特定された領域を示す領 域情報を前記有意情報として出力する領域特定手段を備えることを特徴とす る請求の範囲第 2 5項に記載の信号処理装置。
3 1 . 前記領域情報は、 前景オブジェク トを構成する前景オブジェク ト成分 のみからなる前記他の領域である前景領域と、背景オブジェク トを構成する背 景オブジェク ト成分のみからなる前記他の領域である背景領域と、前記前景ォ ブジェク ト成分と前記背景オブジェク ト成分とが混合されてなる前記有意領 域である混合領域を示すことを特徴とする請求の範囲第 3 0項に記載の信号 処理装置。
3 2 . 前記領域情報は、 前記混合領域をカバードバックグラウンド領域とァ ンカバ一ドバックグラウン ド領域とに識別する情報を含むことを特徴とする 請求の範囲第 3 1項に記載の信号処理装置。
3 3 . 前記信号処理手段は、 前記領域特定手段により特定された前記有意情 報を含む領域から前記有意情報を抽出する有意情報抽出手段をさらに備える ことを特徴とする請求の範囲第 3 0項に記載の信号処理装置。
3 4 . 前記有意情報は、 前景オブジェク トを構成する前景オブジェク ト成分 のみからなる前景領域と、背景オブジェク トを構成する背景オブジェク ト成分 のみからなる背景領域と、前記前景オブジェク ト成分と前記背景オブジェク ト 成分とが混合されてなる混合領域からなる前記第 2の信号のうちの前記混合 領域における前記前景オブジェク ト成分と前記背景オブジェク ト成分の混合 比を示すことを特徴とする請求の範囲第 3 3項に記載の信号処理装置。
3 5 . 前記信号処理手段は、 前記有意情報に基づいて、 前記射影により前記 第 2の信号に生じている歪の量を調整する歪量調整手段をさらに備えること を特徴とする請求の範囲第 3 3項に記載の信号処理装置。
3 6 . 前記歪量調整手段は、 前記歪の量を低減することを特徴とする請求の 範囲第 3 5項に記載の信号処理装置。
3 7 . 前記歪量調整手段は、 前記歪を除去することを特徴とする請求の範囲 第 3 5項に記載の信号処理装置。
3 8 . 前記歪が、 前記前景オブジェク トに生じている動きボケであることを 特徴とする請求の範囲第 3 5項に記載の信号処理装置。
3 9 . 前記信号処理手段は、 前記前景オブジェク 卜の動き量を検出するォブ ジェク ト動き検出手段をさらに備え、
前記歪量調整手段は、 前記前景オブジェク トの動き量に基づいて、 前記歪で ある動きボケの量を調整することを特徴とする請求の範囲第 3 8項に記載の 信号処理装置。
4 0 . 前記信号処理手段は、 前景オブジェク トを構成する前景オブジェク ト 成分のみからなる前景領域と、背景オブジェク トを構成する背景オブジェク ト 成分のみからなる背景領域と、前記前景ォブジェク ト成分と前記背景ォブジェ ク ト成分とが混合されてなる混合領域とからなる前記第 2信号のうちの、前記 混合領域における前記前景オブジェク ト成分と前記背景オブジェク ト成分の 混合比を、前記有意情報として抽出することを特徴とする請求の範囲第 2 5項 に記載の信号処理装置。
4 1 . 前記信号処理手段は、 前記有意情報に基づいて、 前記射影により前記 第 2の信号に生じている歪の量を調整する歪量調整手段をさらに備えること を特徴とする請求の範囲第 4 0項に記載の信号処理装置。
4 2 . 前記歪量調整手段は、 前記歪の量を低減することを特徴とする請求の 範囲第 4 1項に記載の信号処理装置。
4 3 . 前記歪量調整手段は、 前記歪を除去することを特徴とする請求の範囲 第 4 1項に記載の信号処理装置。
4 . 前記歪が、 前記前景ォブジェク トに生じている動きボケであることを 特徴とする請求の範囲第 4 1項に記載の信号処理装置。
4 5 . 前記信号処理手段は、 前記前景オブジェク トの動き量を検出するォブ ジェク ト動き検出手段をさらに備え、
前記歪量調整手段は、 前記前景オブジェク 卜の動き量に基づいて、 前記歪で ある動きボケの量を調整することを特徴とする請求の範囲第 4 4項に記載の 信号処理装置。
4 6 . 前記信号処理手段は、 前記第 2の信号に基づいて、 前記混合比を前記 有意情報として抽出し、 前記信号処理手段は、 前記第 2の信号から、 前記前景領域と前記背景領域と 前記混合領域とを示す領域情報を、前記有意情報として抽出することを特徴と する請求の範囲第 4 0項に記載の信号処理装置。
4 7 . 前記信号処理手段は、 前記混合比と前記領域情報とに基づいて、 前記 前景オブジェク ト成分のみからなる前記前景オブジェク トと前記背景ォブジ ェク ト成分のみからなる前記背景オブジェク 卜とを分離することを特徴とす る請求の範囲第 4 6項に記載の信号処理装置。
4 8 . 前記信号処理手段は、 前記前景オブジェク トに生じている前記歪であ る動きボケを調整する歪量調整手段をさらに備えることを特徴とする請求の 範囲第 4 7項に記載の信号処理装置。
4 9 . 前記信号処理手段は、 前記前景オブジェク トの動き量を検出するォブ ジェク ト動き検出手段をさらに備え、
前記歪量調整手段は、 前記前景オブジェク トの動き量に基づいて、 前記歪で ある動きボケの量を調整することを特徴とする請求の範囲第 4 8項に記載の 信号処理装置。
5 0 . 前記信号処理手段は、 前記前景オブジェク トを任意の背景画像と合成 することを特徴とする請求の範囲第 4 7項に記載の信号処理装置。
5 1 . 第 1の次元を有する現実世界の信号である第 1の信号が、 センサに射 影され、前記センサによって検出することで得た前記第 1の次元より少ない第 2の次元の第 2の信号を取得する取得ステツプと、
前記第 2の信号に基づく信号処理を行うことにより、射影により埋もれた有 意情報を前記第 2の信号から抽出する信号処理ステツプとを含むことを特徴 とする信号処理方法。
5 2 . 第 1の次元を有する現実世界の信号である第 1の信号が、 センサに射 影され、前記センサによって検出することで得た前記第 1の次元より少ない第 2の次元の第 2の信号を取得する取得ステツプと、
前記第 2の信号に基づく信号処理を行うことにより、射影により埋もれた有 意情報を前記第 2の信号から抽出する信号処理ステップとを含むことを特徴 とするコンピュー夕が読み取り可能なプログラムが記録されている記録媒体。
5 3 . 第 1の次元を有する現実世界の信号である第 1の信号をセンサによつ て検出することにより得た、前記第 1の次元に比較し次元が少ない第 2の次元 を有し、 前記第 1の信号に対する歪を含む第 2の信号を取得する取得手段と、 前記第 2の信号に基づく信号処理を行うことにより、前記第 2の信号に比し て前記歪の軽減された第 3の信号を生成する信号処理手段とを備えることを 特徴とする信号処理装置。
5 4 . 前記センサは、 それぞれ前記歪である時間積分効果を有する複数の検 出素子から成るセンサであって、
前記取得手段は、前記センサによって検出された個々の前記検出素子に対応 する複数の検出信号を前記第 2の信号として取得し、
前記信号処理手段は、 前記第 2の信号に基づく信号処理を行うことにより、 時間積分効果が軽減された、前記複数の検出信号に対応する複数のサンプルデ —夕から成る前記第 3の信号を生成することを特徴とする請求の範囲第 5 3 項に記載の信号処理装置。
5 5 . 前記信号処理手段は、 現実世界における第 1のオブジェク トと、 前記 第 1のォブジヱク 卜に対して相対的に移動する第 2のォブジェク 卜とを前記 センサで検出した場合、前記第 2の信号によって表される前記第 1のオブジェ ク トと前記第 2のオブジェク トとの境界近傍において、前記センサの時間積分 効果によって生じた前記第 1のオブジェク トと前記第 2のオブジェク 卜との 混合による歪を前記信号処理により軽減することを特徴とする請求の範囲第 5 4項に記載の信号処理装置。
5 6 . 前記取得手段は、 所定時間単位ごとに前記センサの複数の検出素子で 検出された、 複数の前記時間単位の前記検出信号を取得し、
前記信号処理手段は、 複数の前記時間単位の前記検出信号に基づいて、所望 の前記時間単位に対応する前記第 2の信号によって表される前記第 1のォブ ジェク トと前記第 2のオブジェク トとの境界近傍における歪を、前記信号処理 により軽減することを特徴とする請求の範囲第 5 5項に記載の信号処理装置。
5 7 . 前記信号処理手段は、 現実世界における第 1のオブジェク トと、 前記 第 1のォブジェク トに対して相対的に移動する第 2のォブジェク トとを前記 センサで検出した場合、前記第 2の信号において混合されている前記第 1のォ ブジェク トおよび前記第 2のォブジェク トから、前記第 1のォブジェク トおよ び前記第 2のォブジェク 卜のいずれか一方を分離して、分離された前記第 1の オブジェク トおよび前記第 2のォブジェク 卜のいずれか一方を前記第 3の信 号として出力することを特徴とする請求の範囲第 5 4項に記載の信号処理装 置。
5 8 . 前記センサは、 前記第 1の信号である、 光を含む電磁波を光電変換に より前記第 2の信号である画像信号に変換することを特徴とする請求の範囲 第 5 3項に記載の信号処理装置。
5 9 . 前記センサは、 温度を測定するサ一モグラフィ装置であることを特徴 とする請求の範囲第 5 3項に記載の信号処理装置。
6 0 . 前記センサは、圧力センサであることを特徴とする請求の範囲第 5 3 項に記載の信号処理装置。
6 1 . 前記センサは、所定時間間隔毎に前記第 2の信号を生成することを特 徴とする請求の範囲第 5 3項に記載の信号処理装置。
6 2 . 前記センサが、 それぞれ空間積分効果を有する複数の検出素子を有す るセンサであって、
前記取得手段は、前記センサによって検出された個々の前記検出素子に対応 する複数の検出信号を前記第 2の信号として取得し、
前記信号処理手段は、 前記第 2の信号に基づく信号処理を行うことにより、 前記歪である射影による空間積分効果が軽減された複数の検出信号からなる 前記第 3の信号を生成することを特徴とする請求の範囲第 5 3項に記載の信 号処理装置。
6 3 . 前記センサは、 前記複数の検出素子が少なく とも 1つの方向である所 定の方向に複数個配置されており、
前記信号処理手段は、
前記第 2の信号の各サンプルデ一夕に対して、前記所定の方向において隣接 する前記第 2の信号の 2つのサンプルデ一夕との間の相関をそれそれ検出す る相関検出手段と、 各注目サンプルデ一夕に対して、 前記隣接する 2つのサンプルデータの内、 前記相関の大きいほうのサンプルデ一夕のサンプル値に基づいて、前記相関の 大ぎいサンプルデータ側のサンプル値となる第 1のサンプル値を生成し、前記 注目サンブルデ一夕のサンプル値と前記第 1のサンプル値とに基づいて、前記 相関の小さい側のサンプル値となる第 2のサンプル値を生成し、前記第 1のサ ンプル値と前記第 2のサンプル値を前記注目サンブルに対応する前記第 3の 信号の 2つのサンプル値として出力する倍密サンプル生成手段とを備えるこ とを特徴とする請求の範囲第 6 2項に記載の信号処理装置。
6 4 . 前記センサは、複数の前記検出素子がマト リクス状に配置されており、 前記所定の方向は、前記マト リクス状の配置における水平方向および垂直方 向の少なく とも一方であることを特徴とする請求の範囲第 6 3項に記載の信 号処理装置。
6 5 . 前記信号処理手段は、水平方向および垂直方向の両方向について倍密 化することを特徴とする請求の範囲第 6 4項に記載の信号処理装置。
6 6 . 前記相関は、 前記サンプルデ一夕の差分であることを特徴とする請求 の範囲第 6 3項に記載の信号処理装置。
6 7 . 前記取得手段は、 前記複数の検出素子から所定時間毎に前記第 2の信 号を取得することを特徴とする請求の範囲第 6 3項に記載の信号処理装置。
6 8 . 第 1の次元を有する現実世界の信号である第 1の信号をセンサによつ て検出することにより得た、前記第 1の次元に比較し次元が少ない第 2の次元 を有し、前記第 1の信号に対する歪を含む第 2の信号を取得する取得ステツプ と、
前記第 2の信号に基づく信号処理を行うことにより、前記第 2の信号に比し て前記歪の軽減された第 3の信号を生成する信号処理ステップとを含むこと を特徴とする信号処理方法。
6 9 . 第 1の次元を有する現実世界の信号である第 1の信号をセンサによつ て検出することにより得た、前記第 1の次元に比較し次元が少ない第 2の次元 を有し、前記第 1の信号に対する歪を含む第 2の信号を取得する取得ステツプ と、 前記第 2の信号に基づく信号処理を行うことにより、前記第 2の信号に比し て前記歪の軽減された第 3の信号を生成する信号処理ステツプとを含むこと を特徴とするコンピュー夕が読み取り可能なプログラムが記録されている記 録媒体。
7 0 . 時間積分効果を有する所定の数の検出素子から成るセンサによって取 得された所定の数の検出信号を処理する信号処理装置において、
前記検出信号の内、前景オブジェク トを構成する前景オブジェク ト成分のみ から成る前景領域と、背景オブジェク トを構成する背景オブジェク ト成分のみ から成る背景領域と、前記前景オブジェク ト成分および前記背景オブジェク ト 成分とが混合されて成る混合領域とを特定する領域特定手段と、
少なく とも前記混合領域における前記前景オブジェク ト成分と前記背景ォ ブジェク ト成分との混合比を検出する混合比検出手段と、
前記領域特定手段の特定結果と前記混合比とに基づいて、前記前景オブジェ ク トと、前記背景オブジェク トとを分離する分離手段とを含むことを特徴とす る信号処理装置。
7 1 . 前記前景オブジェク トの動きボケ量を調整する動きボケ量調整手段を さらに含むことを特徴とする請求の範囲第 7 0項の信号処理装置。
7 2 . 時間積分効果を有する所定の数の検出素子から成るセンサによって取 得された所定の数の検出信号を処理する信号処理方法において、
前記検出信号の内、前景オブジェク トを構成する前景オブジェク ト成分のみ から成る前景領域と、背景オブジェク トを構成する背景オブジェク ト成分のみ から成る背景領域と、前記前景オブジェク ト成分および前記背景オブジェク ト 成分とが混合されて成る混合領域とを特定する領域特定ステップと、
少なく とも前記混合領域における前記前景オブジェク ト成分と前記背景ォ ブジェク ト成分との混合比を検出する混合比検出ステップと、
前記領域特定ステツプの処理の特定結果と前記混合比とに基づいて、前記前 景オブジェク トと、前記背景オブジェク トとを分離する分離ステップとを含む ことを特徴とする信号処理方法。
7 3 . 時間積分効果を有する所定の数の検出素子から成るセンサによって取 得された所定の数の検出信号を処理する信号処理用のプログラムであって、 前記検出信号の内、前景オブジェク トを構成する前景オブジェク ト成分のみ から成る前景領域と、背景オブジェク トを構成する背景オブジェク ト成分のみ から成る背景領域と、前記前景オブジェク ト成分および前記背景オブジェク ト 成分とが混合されて成る混合領域とを特定する領域特定ステップと、
少なく とも前記混合領域における前記前景オブジェク ト成分と前記背景ォ ブジェク ト成分との混合比を検出する混合比検出ステップと、
前記領域特定ステツプの処理の特定結果と前記混合比とに基づいて、前記前 景オブジェク トと、前記背景オブジェク トとを分離する分離ステップとを含む ことを特徴とするコンピュ一夕が読み取り可能なプログラムが記録されてい る記録媒体。
7 4 . 時間積分効果を有する所定の数の検出素子から成るセンサによって取 得された所定の数の検出信号を処理する信号処理装置において、
前記検出信号の内、前景オブジェク トを構成する前景オブジェク ト成分のみ から成る前景領域と、背景オブジェク トを構成する背景オブジェク ト成分のみ から成る背景領域と、前記前景オブジェク ト成分および前記背景オブジェク ト 成分とが混合されて成る混合領域とを特定する領域特定手段と、
前記領域特定手段の特定結果に基づいて、少なく とも前記混合領域における 前記前景オブジェク ト成分と前記背景オブジェク ト成分との混合比を検出す る混合比検出手段とを含むことを特徴とする信号処理装置。
7 5 . 前記混合比に基づいて、 前記前景オブジェク トと前記背景オブジェク トとを分離する分離手段をさらに備える請求の範囲第 7 4項に記載の信号処 理装置。
7 6 . 前記前景オブジェク トに含まれる動きボケの量を調整する動きボケ量 調整手段をさらに備えることを特徴とする請求の範囲第 7 4項に記載の信号 処理装置。
7 7 . 少なく とも前記前景オブジェク トおよび前記背景オブジェク 卜のいず れか一方の動きを検出する動き検出手段をさらに含み、
前記動きポケ調整手段は、検出された動きに基づいて、 動きボケの量を調整 することを特徴とする請求の範囲第 7 6項に記載の信号処理装置。
7 8 . 時間積分効果を有する所定の数の検出素子から成るセンサによって取 得された所定の数の検出信号を処理する信号処理方法において、
前記検出信号の内、前景オブジェク トを構成する前景オブジェク ト成分のみ から成る前景領域と、背景オブジェク トを構成する背景オブジェク ト成分のみ から成る背景領域と、前記前景オブジェク ト成分および前記背景オブジェク ト 成分とが混合されて成る混合領域とを特定する領域特定ステップと、
前記領域特定ステツプの処理の特定結果に基づいて、少なく とも前記混合領 域における前記前景オブジェク ト成分と前記背景オブジェク ト成分との混合 比を検出する混合比検出ステップとを含むことを特徴とする信号処理方法。
7 9 . 時間積分効果を有する所定の数の検出素子から成るセンサによって取 得された所定の数の検出信号を処理する信号処理用のプログラムであって、 前記検出信号の内、前景オブジェク トを構成する前景オブジェク ト成分のみ から成る前景領域と、背景オブジェク トを構成する背景オブジェク ト成分のみ から成る背景領域と、前記前景オブジェク ト成分および前記背景オブジェク ト 成分とが混合されて成る混合領域とを特定する領域特定ステップと、
前記領域特定ステツプの処理の特定結果に基づいて、少なくとも前記混合領 域における前記前景オブジェク ト成分と前記背景オブジェク ト成分との混合 比を検出する混合比検出ステツプとを含むことを特徴とするコンピュ一夕が 読み取り可能なプログラムが記録されている記録媒体。
8 0 . 時間積分効果を有する所定の数の検出素子から成るセンサによって取 得された所定の数の検出信号を処理する信号処理装置において、
前景オブジェク トを構成する前景オブジェク ト成分と、背景オブジェク トを 構成する背景オブジェク ト成分とが混合されて成る前記混合領域における、前 記前景オブジェク ト成分と前記背景オブジェク ト成分との混合比を検出する 混合比検出手段と、
前記混合比に基づいて、前記前景オブジェク トと前記背景オブジェク トとを 分離する分離手段とを含むことを特徴とする信号処理装置。
8 1 . 前記前景オブジェク 卜に含まれる動きボケの量を調整する動きボケ量 調整手段をさらに備えることを特徴とする請求の範囲第 8 0項に記載の信号 処理装置。
8 2 . 少なく とも前記前景オブジェク トおよび前記背景オブジェク トのい ずれか一方の動きを検出する動き検出手段をさらに含み、
前記動きボケ調整手段は、検出された動きに基づいて、 動きボケの量を調整 することを特徴とする請求の範囲第 8 1項に記載の信号処理装置。
8 3 . 時間積分効果を有する所定の数の検出素子から成るセンサによって取 得された所定の数の検出信号を処理する信号処理方法において、
前景オブジェク トを構成する前景オブジェク ト成分と、背景オブジェク トを 構成する背景オブジェク ト成分とが混合されて成る前記混合領域における、前 記前景オブジェク ト成分と前記背景オブジェク ト成分との混合比を検出する 混合比検出ステップと、
前記混合比に基づいて、前記前景オブジェク トと前記背景オブジェク トとを 分離する分離ステップとを含むことを特徴とする信号処理方法。
8 4 . 時間積分効果を有する所定の数の検出素子から成るセンサによって取 得された所定の数の検出信号を処理する信号処理用のプログラムであって、 前景オブジェク トを構成する前景オブジェク ト成分と、背景オブジェク トを 構成する背景ォブジェク ト成分とが混合されて成る前記混合領域における、前 記前景オブジェク ト成分と前記背景オブジェク ト成分との混合比を検出する 混合比検出ステップと、
前記混合比に基づいて、前記前景オブジェク トと前記背景オブジェク トとを 分離する分離ステップとを含むことを特徴とするコンピュ一夕が読み取り可 能なプログラムが記録されている記録媒体。
PCT/JP2000/009421 1999-12-28 2000-12-28 Signal processing device and method, and recording medium Ceased WO2001048693A1 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CA2365233A CA2365233C (en) 1999-12-28 2000-12-28 Signal processing device and method, and recording medium
EP00985993A EP1164545B1 (en) 1999-12-28 2000-12-28 Signal processing device and method, and recording medium
DE60042588T DE60042588D1 (de) 1999-12-28 2000-12-28 Signalverarbeitungsvorrichtung und verfahren und aufzeichnungsmedium
US09/830,858 US7583292B2 (en) 1999-12-28 2000-12-28 Signal processing device and method, and recording medium
US11/446,905 US7525574B2 (en) 1999-12-28 2006-06-05 Signal processing method and apparatus and recording medium
US11/446,764 US7538796B2 (en) 1999-12-28 2006-06-05 Signal processing method and apparatus and recording medium
US11/446,886 US7576780B2 (en) 1999-12-28 2006-06-05 Signal processing method and apparatus and recording medium
US11/446,632 US7206018B2 (en) 1999-12-28 2006-06-05 Signal processing method and apparatus and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP11/373782 1999-12-28
JP37378299 1999-12-28

Related Child Applications (6)

Application Number Title Priority Date Filing Date
US09830858 A-371-Of-International 2000-12-28
US09/830,858 Division US7583292B2 (en) 1999-12-28 2000-12-28 Signal processing device and method, and recording medium
US11/446,632 Division US7206018B2 (en) 1999-12-28 2006-06-05 Signal processing method and apparatus and recording medium
US11/446,764 Division US7538796B2 (en) 1999-12-28 2006-06-05 Signal processing method and apparatus and recording medium
US11/446,886 Division US7576780B2 (en) 1999-12-28 2006-06-05 Signal processing method and apparatus and recording medium
US11/446,905 Division US7525574B2 (en) 1999-12-28 2006-06-05 Signal processing method and apparatus and recording medium

Publications (1)

Publication Number Publication Date
WO2001048693A1 true WO2001048693A1 (en) 2001-07-05

Family

ID=18502751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/009421 Ceased WO2001048693A1 (en) 1999-12-28 2000-12-28 Signal processing device and method, and recording medium

Country Status (7)

Country Link
US (5) US7583292B2 (ja)
EP (6) EP1840825B1 (ja)
KR (1) KR100725192B1 (ja)
CN (5) CN100456324C (ja)
CA (5) CA2647018A1 (ja)
DE (2) DE60042588D1 (ja)
WO (1) WO2001048693A1 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4596203B2 (ja) 2001-02-19 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4674408B2 (ja) * 2001-04-10 2011-04-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US8134613B2 (en) 2001-04-10 2012-03-13 Sony Corporation Image processing apparatus and method, and image pickup apparatus
KR100904340B1 (ko) * 2001-06-15 2009-06-23 소니 가부시끼 가이샤 화상 처리 장치 및 방법과 촬상 장치
WO2002103636A1 (en) 2001-06-15 2002-12-27 Sony Corporation Image processing apparatus and method, and image pickup apparatus
JP4596216B2 (ja) * 2001-06-20 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596219B2 (ja) * 2001-06-25 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596220B2 (ja) 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
WO2003001456A1 (en) * 2001-06-26 2003-01-03 Sony Corporation Image processing apparatus and method, and image pickup apparatus
JP4135360B2 (ja) * 2001-12-25 2008-08-20 ソニー株式会社 固体撮像装置
US7079151B1 (en) * 2002-02-08 2006-07-18 Adobe Systems Incorporated Compositing graphical objects
JP4214459B2 (ja) * 2003-02-13 2009-01-28 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP4144377B2 (ja) 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7606417B2 (en) 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US7680342B2 (en) * 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7982772B2 (en) * 2004-03-30 2011-07-19 Fujifilm Corporation Image correction apparatus and image correction method for correcting image blur using a mobile vector
CN101069147B (zh) * 2004-11-10 2011-07-06 飞思卡尔半导体公司 使用多个参考电路来控制电压和频率的装置和方法
US7515768B2 (en) 2004-12-07 2009-04-07 Sony Corporation Method, and apparatus for processing image, recording medium and computer program
CN100486299C (zh) 2004-12-21 2009-05-06 索尼株式会社 图像处理装置和图像处理方法
KR101161706B1 (ko) * 2004-12-21 2012-07-03 소니 가부시끼가이샤 화상 처리 장치와 학습 장치와 계수 생성 장치 및 방법
EP1991957A2 (en) * 2005-07-12 2008-11-19 Nxp B.V. Method and device for removing motion blur effects
US7956929B2 (en) * 2005-10-31 2011-06-07 Broadcom Corporation Video background subtractor system
US7692696B2 (en) * 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
US7469071B2 (en) 2006-02-14 2008-12-23 Fotonation Vision Limited Image blurring
IES20060559A2 (en) * 2006-02-14 2006-11-01 Fotonation Vision Ltd Automatic detection and correction of non-red flash eye defects
IES20060564A2 (en) 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
JP4245045B2 (ja) * 2006-12-26 2009-03-25 ソニー株式会社 撮像装置、撮像信号処理方法及びプログラム
EP2131589B1 (en) * 2007-03-28 2018-10-24 Fujitsu Limited Image processing device, image processing method, and image processing program
JP5066996B2 (ja) * 2007-04-23 2012-11-07 ソニー株式会社 固体撮像装置、固体撮像装置の信号処理方法および撮像装置
RU2423015C2 (ru) * 2007-12-18 2011-06-27 Сони Корпорейшн Устройство обработки данных, способ обработки данных и носитель информации
JP4480760B2 (ja) * 2007-12-29 2010-06-16 株式会社モルフォ 画像データ処理方法および画像処理装置
US8121409B2 (en) * 2008-02-26 2012-02-21 Cyberlink Corp. Method for handling static text and logos in stabilized images
JP5264582B2 (ja) * 2008-04-04 2013-08-14 キヤノン株式会社 監視装置、監視方法、プログラム、及び記憶媒体
JP4544336B2 (ja) * 2008-04-17 2010-09-15 ソニー株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
WO2010036240A1 (en) * 2008-09-24 2010-04-01 Nikon Corporation Image segmentation from focus varied images using graph cuts
JP5517431B2 (ja) * 2008-09-29 2014-06-11 キヤノン株式会社 光学装置および撮像装置
KR20100138725A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101605770B1 (ko) * 2009-07-28 2016-03-23 삼성전자주식회사 영상 처리 방법 및 장치
DE102009034994B3 (de) * 2009-07-28 2011-01-27 Carl Zeiss Surgical Gmbh Verfahren zum Erzeugen einer Darstellung eines OCT-Datensatzes und ein OCT-System zur Durchführung desselben
DE102010013377B4 (de) * 2010-03-30 2012-02-02 Testo Ag Bildverarbeitungsverfahren und Wärmebildkamera
KR20120052767A (ko) * 2010-11-16 2012-05-24 한국전자통신연구원 영상 분리 장치 및 방법
US9001130B2 (en) * 2011-03-09 2015-04-07 Foy Inventerprises, Inc. Flying effects choreography system
JP5645079B2 (ja) * 2011-03-31 2014-12-24 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP5412692B2 (ja) * 2011-10-04 2014-02-12 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
US9025873B2 (en) * 2011-11-10 2015-05-05 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP5740370B2 (ja) * 2012-09-04 2015-06-24 株式会社東芝 領域特定装置、方法、及びプログラム
US9135683B2 (en) * 2013-09-05 2015-09-15 Arecont Vision, Llc. System and method for temporal video image enhancement
JPWO2016152190A1 (ja) * 2015-03-20 2018-01-11 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理システムおよび画像処理方法
JP2017042136A (ja) * 2015-08-28 2017-03-02 株式会社リコー 植物栽培支援装置、植物栽培支援方法、プログラム、記憶媒体
CN110622215B (zh) * 2017-12-14 2021-07-23 佳能株式会社 三维模型的生成装置、生成方法和程序
CN111768425B (zh) * 2020-07-23 2021-08-10 腾讯科技(深圳)有限公司 图像处理方法、装置及设备
KR102791034B1 (ko) 2020-09-15 2025-04-02 삼성전자주식회사 이미지 센싱 시스템
US12244798B2 (en) * 2021-09-24 2025-03-04 Intel Corporation Methods and apparatus to perform dirty region reads and writes to reduce memory bandwidth usage
US12229969B2 (en) * 2022-07-15 2025-02-18 Pixart Imaging Inc. Method and optical motion sensor capable of identifying false motion

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0455444A1 (en) * 1990-04-29 1991-11-06 Canon Kabushiki Kaisha Movement detection device and focus detection apparatus using such device
EP0502615A2 (en) * 1991-03-07 1992-09-09 Matsushita Electric Industrial Co., Ltd. Video signal motion detection method and noise reducer using said method
EP0551077A2 (en) * 1992-01-09 1993-07-14 Suntory Limited Pharmaceutical composition comprising atrial nutriuretic peptide for treatment of adult respiratory distress syndrome
JPH07325906A (ja) * 1994-05-31 1995-12-12 Hitachi Ltd 移動体検出・追跡装置
JPH10164436A (ja) 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法
WO1999022520A2 (en) 1997-10-29 1999-05-06 Koninklijke Philips Electronics N.V. Motion vector estimation and detection of covered/uncovered image parts
EP0933727A2 (en) 1998-01-29 1999-08-04 Canon Kabushiki Kaisha Image information processing apparatus and its method

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1282490C (en) * 1985-06-27 1991-04-02 Nec Corporation Coding apparatus for moving object image
JPH0411471A (ja) 1990-04-29 1992-01-16 Canon Inc 動き検出装置
SK399692A3 (en) 1990-09-20 1995-01-12 British Broadcasting Corp Method of determination of suitable motion vector
JPH05153493A (ja) * 1991-11-27 1993-06-18 Matsushita Electric Ind Co Ltd 映像信号合成装置
JPH06137974A (ja) 1992-09-11 1994-05-20 Fujitsu Ltd 物体の画像解析装置
US6393216B1 (en) * 1992-09-28 2002-05-21 Minolta Co., Ltd. Camera system including a monitor device
GB9308952D0 (en) * 1993-04-30 1993-06-16 Philips Electronics Uk Ltd Tracking objects in video sequences
GB2279531B (en) * 1993-06-24 1997-07-16 Sony Uk Ltd Motion compensated image interpolation
EP0637889B1 (en) * 1993-08-06 2001-01-17 Lg Electronics Inc. Device for converting the frame rate of an image
KR0128859B1 (ko) * 1993-08-20 1998-04-10 배순훈 적응적인 영상부호화 제어장치
JPH07336688A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> アンカバー領域の検出方法
WO1996036168A1 (fr) * 1995-05-12 1996-11-14 Sony Corporation Dispositif generateur de signaux codes, dispositif de formation d'images, procede de generation de signaux codes et procede de formation d'images
US5812787A (en) * 1995-06-30 1998-09-22 Intel Corporation Video coding scheme with foreground/background separation
JP3334776B2 (ja) * 1995-09-14 2002-10-15 松下電器産業株式会社 ノイズ低減装置
US5774183A (en) * 1996-08-20 1998-06-30 Eastman Kodak Company Method for simulating an increased shutter time in digital video
JP3797397B2 (ja) 1997-05-02 2006-07-19 ソニー株式会社 受信装置および受信方法
JP3240371B2 (ja) * 1997-06-23 2001-12-17 松下電器産業株式会社 映像信号処理装置
US6310982B1 (en) * 1998-11-12 2001-10-30 Oec Medical Systems, Inc. Method and apparatus for reducing motion artifacts and noise in video image processing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0455444A1 (en) * 1990-04-29 1991-11-06 Canon Kabushiki Kaisha Movement detection device and focus detection apparatus using such device
EP0502615A2 (en) * 1991-03-07 1992-09-09 Matsushita Electric Industrial Co., Ltd. Video signal motion detection method and noise reducer using said method
EP0551077A2 (en) * 1992-01-09 1993-07-14 Suntory Limited Pharmaceutical composition comprising atrial nutriuretic peptide for treatment of adult respiratory distress syndrome
JPH07325906A (ja) * 1994-05-31 1995-12-12 Hitachi Ltd 移動体検出・追跡装置
JPH10164436A (ja) 1996-12-04 1998-06-19 Sony Corp 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法
WO1999022520A2 (en) 1997-10-29 1999-05-06 Koninklijke Philips Electronics N.V. Motion vector estimation and detection of covered/uncovered image parts
EP0933727A2 (en) 1998-01-29 1999-08-04 Canon Kabushiki Kaisha Image information processing apparatus and its method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1164545A4

Also Published As

Publication number Publication date
US20060221211A1 (en) 2006-10-05
EP1164545A4 (en) 2006-11-08
EP1840827B1 (en) 2011-10-26
KR20020009567A (ko) 2002-02-01
US7576780B2 (en) 2009-08-18
EP1840826B1 (en) 2011-02-23
EP1852823B1 (en) 2011-07-27
CN1658238A (zh) 2005-08-24
DE60042588D1 (de) 2009-09-03
EP1840828B1 (en) 2011-07-20
US20060227220A1 (en) 2006-10-12
EP1852823A2 (en) 2007-11-07
CA2646789A1 (en) 2001-07-05
KR100725192B1 (ko) 2007-06-08
US7583292B2 (en) 2009-09-01
US7525574B2 (en) 2009-04-28
CN100370485C (zh) 2008-02-20
EP1840827A1 (en) 2007-10-03
DE60045673D1 (de) 2011-04-07
EP1840825A1 (en) 2007-10-03
EP1840828A1 (en) 2007-10-03
US7206018B2 (en) 2007-04-17
EP1164545A1 (en) 2001-12-19
EP1840826A1 (en) 2007-10-03
EP1852823A3 (en) 2009-02-18
CA2365233C (en) 2013-03-12
CN100456324C (zh) 2009-01-28
CA2365233A1 (en) 2001-07-05
CA2646792A1 (en) 2001-07-05
CA2646791C (en) 2012-02-28
CN100412905C (zh) 2008-08-20
US20060227218A1 (en) 2006-10-12
CA2646791A1 (en) 2001-07-05
US20040201753A1 (en) 2004-10-14
EP1164545B1 (en) 2009-07-22
EP1840825B1 (en) 2011-08-17
CN1279489C (zh) 2006-10-11
CN1658239A (zh) 2005-08-24
CA2647018A1 (en) 2001-07-05
CN1658241A (zh) 2005-08-24
US20060227219A1 (en) 2006-10-12
US7538796B2 (en) 2009-05-26
CN1345430A (zh) 2002-04-17
CA2646792C (en) 2010-09-28
CN1658240A (zh) 2005-08-24
CN1326087C (zh) 2007-07-11

Similar Documents

Publication Publication Date Title
WO2001048693A1 (en) Signal processing device and method, and recording medium
JP4491965B2 (ja) 信号処理装置および方法、並びに記録媒体
JP4507044B2 (ja) 画像処理装置および方法、並びに記録媒体
JP4507045B2 (ja) 信号処理装置および方法、並びに記録媒体
JP4596220B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4479098B2 (ja) 信号処理装置および方法、並びに記録媒体
JP2003006650A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2003003306A1 (en) Image processing apparatus and method
JP2003006648A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
JP4596201B2 (ja) 画像処理装置および方法、並びに記録媒体
WO2003003304A1 (en) Image processing apparatus and method, and image pickup apparatus
JP2002366949A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2003001456A1 (en) Image processing apparatus and method, and image pickup apparatus
JP2003016446A (ja) 画像処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00805488.6

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 09830858

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

ENP Entry into the national phase

Ref document number: 2365233

Country of ref document: CA

Ref document number: 2365233

Country of ref document: CA

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020017010963

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2000985993

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2000985993

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020017010963

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1020017010963

Country of ref document: KR