WO1998046011A1 - Dispositif a effet special et procede de generation d'effet special - Google Patents
Dispositif a effet special et procede de generation d'effet special Download PDFInfo
- Publication number
- WO1998046011A1 WO1998046011A1 PCT/JP1997/001249 JP9701249W WO9846011A1 WO 1998046011 A1 WO1998046011 A1 WO 1998046011A1 JP 9701249 W JP9701249 W JP 9701249W WO 9846011 A1 WO9846011 A1 WO 9846011A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- signal
- shadow
- video signal
- filtering
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2622—Signal amplitude transition in the zone between image portions, e.g. soft edges
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
- H04N5/275—Generation of keying signals
Definitions
- the present invention relates to an image processing device, and more particularly to a special effect device that obtains a three-dimensional effect by applying an appropriate shadow to an object video signal that is three-dimensionally image-converted.
- FIG. 1A is an explanatory diagram showing one of the effects of the video special effect device
- FIG. 1B is a configuration diagram of a video special effect device capable of realizing such effects.
- the video special effect device shown in FIG. 1B generates a pseudo shadow IS from an object, and combines the object 0 and the pseudo shadow IS.
- the object is a video to be processed to apply a special effect
- the object video signal is a video signal to be processed by the special effect.
- the video special effect device shown in FIG. 1B subtracts the key signal K supplied via the input terminal 101 from the background signal BG supplied via the input terminal 103, and calculates the result of this operation.
- a mixing circuit 102 for adding a video signal V i supplied via an input terminal 100 to the input terminal 100; a memory 104 for storing a key signal K supplied via an input terminal 101;
- An operation unit 105 for generating a pseudo-shadow signal IS by changing the position of the key signal K stored in the memory 104 by operating an address in the X and Y directions; From 104 the pseudo shadow signal IS is mixed with an over-verter one circuit 106 that reduces the overlapping part of the pseudo shadow signal IS and the key signal K supplied via the input terminal 101. From the mixed signal MIX from the circuit 102, the overunder circuit 1
- a mixing circuit that subtracts the over-under processed output KZIS from 06, adds the color matte signal supplied via the input terminal 108 to the subtraction result, and outputs the result as the output signal OUT from the output terminal 109. It consists of 107. ,
- An object video signal V i is supplied via an input terminal 100. This corresponds to object 0 shown in FIG. 1A.
- the key signal K supplied via the input terminal 101 is a key signal K for keying the object video signal Vi.
- the mixing circuit 102 subtracts the signal corresponding to the key signal K from the background signal BG, adds the object video signal Vi to the position, and adds the mixed signal M
- the key signal K supplied through the input terminal 101 is supplied to the memory 104.
- the operation unit 105 changes the position of the key signal K in the memory 104.
- the key signal K is read from the memory 104 and is supplied to the over-under circuit 106 as a pseudo shadow signal IS.
- the screen of the pseudo shadow signal IS is an image in which the pseudo shadow I shown in FIG. 1A is not hidden by the object 0.
- the keyer signal K and the pseudo-shade signal IS are supplied to the inverter circuit 106.
- the overunder circuit 106 subtracts only the overlapping portion of the key signal and the pseudo shadow signal IS from the pseudo shadow signal IS.
- the overhander processing output KZIS from 6 corresponds to the pseudo shadow IS shown in FIG. 1A.
- Over-Znder processing output KZIS and mixed signal MIX are Each is supplied to the mixing circuit 107.
- the over-Z under-processing output KZIS from the over-Z under-circuit 106 is subtracted from the mixed signal MIX from the mixing circuit 102, and the input terminal 10
- the power cutout signal supplied via 8 is added, and the addition result is output from the output terminal 109 as an output signal ⁇ UT.
- This output signal is the entire image shown in FIG. 1A.
- the pseudo shadow I shown in Fig. 1A is simply a shift of the key signal generated from the object ⁇ . That is, the pseudo-shaded image shown in FIG. 1A is a two-dimensional image. Therefore, in order to get closer to the actual shadow, it is necessary to use a three-dimensional image. In this case, it is necessary to generate a rotated shadow for the object and combine the shadow with the object. For this purpose, it is necessary to prepare one video special effect device for the object and one video special effect device for the shadow, and change the rotation axes of the object and the shadow before combining. In this case, the required operation technology is very advanced because it is the synthesis of images generated by different video special effect devices.
- a special effect device is a special effect device for performing a special effect process on an object indicated by a video signal and a shadow on the object, wherein the gain control means controls a gain of an image of a shadow of the object; Filtering means for filtering the image, control means for controlling the gain of the gain control means in accordance with the shadow depth information, and controlling the filtering characteristics of the filtering means in accordance with the shadow depth information; and Means for synthesizing an image of the shadow of the object controlled and output by the means, an image of the object, and an image serving as a background of the object.
- control means has a storage means for storing gain characteristic data according to the depth information and filtering characteristic data, and the control means is stored in the storage means.
- the gain of the gain control means is controlled in accordance with the gain characteristic data
- the filtering characteristic of the filtering means is controlled in accordance with the filtering characteristic data stored in the storage means.
- the filtering means includes a low-pass filter.
- a special effect device is a special effect device for performing a special effect process on an input source video signal.
- the special effect device performs a first image conversion process on the source video signal to indicate an object image.
- Object signal generating means for generating a shadow signal; and shadow signal generating means for performing a second image conversion process on the source video signal to generate a shadow signal corresponding to the target image.
- the shadow signal output from the shadow video signal generation unit is input, and the object signal, the shadow signal, and the background signal corresponding to the source video signal are combined and output.
- Synthesizing means for outputting an output video signal wherein the shadow signal generating means includes: gain control means for controlling a gain of the shadow and dough signals corresponding to the source video signal; and the shadow signal , A depth information generating means for generating depth information corresponding to the shadow signal, and a gain of the gain control means based on the depth information from the depth information generating means. And a control stage for controlling the filtering characteristics of the filtering means based on the depth information.
- the shadow signal input to the shadow signal generating means is output to the gain control means as a shadow signal whose gain is controlled, and the gain is controlled.
- the shadow signal thus input is input to the filtering means, is filtered, and is output from the filtering means as a shadow signal.
- the filtering means includes a low-pass filter.
- control means has storage means for storing gain characteristic data and filtering characteristic data corresponding to the depth information from the depth information generating means,
- the filtering characteristic data is supplied from the storage means to the gain control means and the filtering means in accordance with the depth information, respectively.
- the object signal generating means may include a storage means for storing the input source video signal, and the source video signal stored in the storage means may be read out in a predetermined unit.
- Read address generating means for generating a read address, wherein the first image conversion process is performed by the read address.
- the object video signal read from the memory means is processed as a target image.
- the shadow video signal generation means includes a storage means for storing the input source video signal, and a readout unit for reading the source video signal stored in the storage means in a predetermined unit.
- a read address generating means for generating a dress, and wherein the second image conversion processing is such that the shadow signal read from the memory means by the read address is used as the target image. Is processed to be output as a shadow signal corresponding to.
- the synthesizing unit may be configured to receive the object signal from the object signal generating unit and the shadow signal from the shadow signal generating unit, and to input each of the signals. And a second synthesizing unit that receives the mixing unit and the background signal and outputs an output video signal. .
- the special effects device is a special effects device for performing special effects processing on an input source video signal and a source key signal corresponding to the source video signal.
- An object signal generating means for performing a first image conversion process to generate an object video signal and an object key signal indicating a target image, and the source video signal and the source key signal are input.
- a shadow signal generating means for performing a second image conversion process to generate a shadow video signal and a real shadow signal corresponding to the target image, and an object output from the object signal generating means
- the video signal and the object signal are input and the shadow signal generating means
- the shadow video signal and the real shadow signal Synthesizing means for inputting a background signal corresponding to the source video signal, synthesizing the input signals, generating an output video signal, and outputting the output video signal.
- the shadow signal generating means includes: a shadow key signal generating means for generating a shadow key signal corresponding to the target image with respect to the input so-called ski key signal; and the shadow key signal generating means.
- Gain control means for controlling the gain of the shadow key signal output from the means, filtering means for filtering the shadow key signal, depth information generating means for generating depth information corresponding to the shadow signal, The gain of the gain control means is controlled based on the depth information from the depth information generating means, and the filtering characteristic of the filtering means is controlled based on the depth information. And control means for performing the operation.
- the filtering means includes a low-pass filter.
- the shadow key signal output from the shadow key signal generation means of the shadow signal generation means is output as a shadow key signal whose gain is controlled by the gain control means, and
- the controlled shadow key signal is inputted to the above-mentioned filtering means, and the filtering characteristic is controlled and outputted as a real shadow signal.
- the control means of the shadow signal generator has storage means for storing gain characteristic data and filtering characteristic data corresponding to the depth information from the depth information generating means. Then, the gain characteristic data and the filtering characteristic data are supplied to the gain control means and the filtering means, respectively, in accordance with the depth information.
- the synthesizing means may include the object video signal from the object signal generating means and the object video signal.
- the shadow video signal from the shadow signal generating means and the real shadow signal are input, and the input signals are combined to produce a mixed video signal.
- 2 combining means for combining the mixed video signal, the mixed key signal and the background signal from the first synthesizing means, and generating the output video signal.
- the object signal generating means may include first memory means for storing the source video signal and second memory means for storing the source key signal.
- the source video signal and the source key signal stored in the first memory means and the second memory means, respectively, from the respective memory means.
- Read address generating means for generating the read address to supply the read address to the first memory means and the second memory means.
- the object video signal and the object key signal read from the first memory means and the second memory means, respectively, by the read address are used for the above purpose. Appear as an image It is intended to be.
- the shadow signal generating means may include a third storage means for storing the source video signal and a fourth memory means for storing the source key signal. And a read address for reading the source video signal and the source key signal stored in the third memory means and the fourth memory means, respectively, from the respective memory means. And a read address generating means for supplying the read address to the third memory means and the fourth memory means, and the second image conversion processing comprises: The third memory means and the second memory means The above-mentioned shadow video signal and the above-mentioned shadow key signal read out from the memory means 4 are output, and the above-mentioned shadow video signal is output as a shadow video signal corresponding to the above-mentioned target image. is there.
- the special effect method according to the present invention is a special effect method for performing a special effect process on an object formed by an input video signal and a shadow of the object, wherein a gain step for controlling a gain of an image showing the shadow of the object is provided.
- the gain is controlled in the gain step by gain characteristic data corresponding to the depth information stored in a storage unit, and the depth stored in the storage unit.
- the filtering step the shadow image is filtered by the filtering characteristic data corresponding to the information.
- the special effect method is a special effect method for performing a special effect process on an input source video signal, wherein the first image conversion process is performed on the source video signal to indicate a target image.
- the shadow signal step includes a gain control step of controlling a gain of the shadow signal corresponding to the source video signal, and a filtering step of filtering the shadow signal.
- a depth information generating step for generating depth information corresponding to the shadow signal, and controlling the gain of the gain control step based on the depth information from the depth information generating step. And a control step of controlling the filtering characteristics of the filtering step based on the depth information.
- the special effect method includes an object signal generation step of performing a first image conversion process on an input source video signal to generate an object signal indicating a target image; A shadow signal generation step of performing a second image conversion process to generate a shadow signal corresponding to the target image, an object signal generated in the object signal generation step, and the shadow video signal The shadow signal generated in the generation step is input, and the object signal, the shadow signal, and the background signal corresponding to the source video signal are combined to output an output video signal.
- a gain control step for controlling the gain of the signal a filtering step for filtering the shadow signal, a depth information generation step for generating depth information corresponding to the shadow signal, and a depth information generation step.
- the above-mentioned filtering step is performed by a one-pass filter.
- control step may include: A step of storing gain characteristic data and filtering characteristic data according to the depth information from the information generating step, wherein the gain characteristic data and the filtering characteristic data are stored in accordance with the depth information from the storing step. These are supplied to the gain control step and the filtering step, respectively.
- the object signal generating step includes: a storage step of storing the input source video signal; and the source video signal stored in the storage step in a predetermined unit.
- a read address generating step for generating a read address so that the read address can be read out, and the first image conversion processing is performed by the object read out from the storage step by the read address.
- the video signal is processed as a target image.
- the shadow video signal generation step includes: a storage step of storing the input source video signal; and the source video signal stored in the storage step.
- a read address generation step for generating a read address to be read in a predetermined unit, wherein the second image conversion processing is performed by the memory read out from the memory means by the read address.
- the video signal is processed so as to be output as a shadow signal corresponding to the target image.
- the object signal from the smart signal generating step and the shadow signal from the shadow signal generating step are input and input.
- a first combining step of combining the above signals to output a mixed signal, and a second combining step of receiving the mixed signal and the background signal and outputting an output video signal. is there.
- the special effect method comprises the steps of: In a special effect method in which a special effect process is performed on a source key signal corresponding to a source video signal, the source video signal and the source key signal are input, a first image conversion process is performed, and a target image is processed.
- a source signal generation step for generating an object video signal and an object key signal to be shown and the source, the video signal, and the source key signal are input, and a second image conversion process is performed.
- a shadow video signal generating step for generating a shadow video signal and a real shadow key signal corresponding to the target image, and an object video signal and an object key signal output from the object signal generating step are input.
- a key signal and a background signal corresponding to the source video signal are input, and the input signals are synthesized to generate and output an output video signal; and
- a gain control step for controlling the gain of the shadow key signal output from the shadow key signal generation step;
- a filtering step for filtering the shadow key signal; and generating depth information corresponding to the shadow signal.
- the filtering step is performed by a one-pass filter.
- the special effect method according to the present invention includes a shadow key output from the shadow key signal generation step in the shadow signal generation step.
- the signal is output as a shadow key signal whose gain has been controlled in the gain control step, and the shadow key signal whose gain has been controlled is input to the filtering step where the filtering characteristic is controlled and the real shadow key signal is output. It is output as a signal.
- the gain control data and the filtering characteristic data corresponding to the depth information from the depth information generation step are stored.
- a special effect method comprising a storage step, wherein the gain characteristic data and the filtering characteristic data are supplied to the gain control step and the filtering step, respectively, according to the depth information.
- the synthesizing step in the synthesizing step, the object video signal and the object key signal from the object signal generating step are input and the shadow signal generating step is performed.
- the object signal generating step includes a first memory step for storing the source video signal and a second memory step for storing the source key signal. And the source video signal and the source key signal stored in the first memory step and the second memory step, respectively, from the respective memory steps.
- the object video signal and the object signal read from the first memory step and the second memory step, respectively, are output as the target image by the address. It is something.
- a third storage step for storing the source video signal and a fourth memory step for storing the source key signal are included.
- the shadow video signal and the shadow key read from the third memory step and the fourth memory step by the read address, respectively are used.
- a signal is output and the shadow video signal is output as a shadow video signal corresponding to the target image.
- the present invention provides a shadow generating means for generating a shadow image, a synthesizing means for synthesizing an object image to which a shadow is to be applied, the above-mentioned shadow image, and a background image.
- Gain characteristic data storage means for storing filtering characteristic data; gain control means for controlling the gain of the shadow image; filtering means for filtering the shadow image; and the shadow image and the object.
- the ratio xZy between the distance X from the image of the object and the distance y between the virtual light source and the image of the object is determined, and the gain control method is performed according to the gain characteristic according to the ratio XZy.
- the gain in the gain control means is controlled in accordance with the gain characteristic in accordance with the ratio XZy, and the filtering characteristic in the filtering means is controlled in accordance with the filtering characteristic in accordance with the ratio xZy.
- An image of a close shadow is generated, and the shadow image, the object image, and the background image are combined.
- FIG. 1 is a diagram for explaining the background art.
- FIG. 2 is a block diagram showing the entire configuration of the special effect device of the present invention.
- FIG. 3 is a diagram for explaining a world coordinate system defined in the special effect device of the present invention.
- FIG. 4 is a diagram for explaining a conversion process for obtaining an object video signal.
- FIG. 5 is a diagram showing the relationship between the address on the frame memory corresponding to the object video signal and the address on the monitor screen.
- FIG. 6 is a diagram showing an array of pixel data on the monitor screen and in the frame memory for indicating the meaning of the parameter ⁇ .
- Figure 2 is a diagram showing the address space of the frame memory when the perspective method is used.
- FIG. 8 is a conceptual diagram showing the relationship between the world coordinate system and the shadow coordinate system.
- FIG. 6 is a diagram showing a relationship with an address on a plane.
- FIG. 10 is a diagram for explaining a perspective transformation process for obtaining a three-dimensional shadow video signal from a three-dimensional object video signal in the point light source mode.
- FIG. 11 is a flowchart showing a procedure of a conversion process for obtaining a point light source and a three-dimensional object video signal.
- FIG. 12 is a diagram for explaining a conversion process for obtaining a shadow video signal in the parallel light source mode.
- FIG. 13 is a flowchart showing a procedure of a conversion process for a parallel light source and a three-dimensional object video signal.
- FIG. 14 is a diagram for illustrating a relationship between spherical coordinates and rectangular coordinates in a world coordinate system and a shadow coordinate system, respectively.
- FIG. 15 is a diagram for explaining a perspective transformation process for obtaining a three-dimensional shadow video signal from a three-dimensional object video signal in the parallel light source mode.
- FIG. 16 is a diagram for explaining a perspective transformation process for obtaining a virtual three-dimensional shadow video signal from a virtual three-dimensional object video signal.
- FIG. 17 is a diagram for explaining an origin setting mode for automatically setting the origin of the shadow coordinate system.
- FIG. 18 is a diagram showing a configuration of a real shadow generator.
- FIG. 19 is a diagram showing a target image and a diagram showing the relationship between parameter H and gain and filtering characteristics.
- FIG. 20 is a diagram for explaining the combining process of two intersecting images.
- FIG. 21 is a block diagram showing the detailed configuration of the combiner.
- FIG. 22 is a block diagram showing a detailed configuration of the priority signal generating circuit of FIG. 21.
- FIG. 4 is a signal waveform diagram provided for FIG. BEST MODE FOR CARRYING OUT THE INVENTION
- the CUP 8 is a processor for controlling all the circuits of the special effect device 1.
- the CPU 8 receives each parameter obtained by operating the control panel 5 by the operator via the interface circuit (IZF) 5a and the data bus, and based on this parameter. To control each circuit. From this control panel 5, the perspective value P z , X in the shadow coordinate system
- the parameters are read out in real time and reflected in the calculation of the address.
- the CPU 8 monitors the change of the parameter supplied from the control panel 5 at a frame cycle. And parameters for calculating the read address based on the supplied parameters (! ⁇ To ⁇ ; ⁇ , b, ⁇ B 33 ', b, ⁇ b 33 ") frame period is not calculated. Ru a. Therefore, varying these parameters to re Alta Lee beam at full rate A period in response to operation of the operator And apply real-time special effects to the source video signal according to the changed parameters. it can.
- the special effect device of the present invention allows a desired light source to be selected from a point light source and a parallel light source by inputting the type of the light source from the control panel 5.
- a point light source mode the mode in which an object shadow is generated by a point light source. I will call it.
- the CPU 8 controls each circuit and calculates a read address based on a program stored in a ROM (Read Only Memory) 6 provided as a program memory. Also, a ROM (Read Only Memory) 6 provided as a program memory. Also, a ROM (Read Only Memory) 6 provided as a program memory. Also, a ROM (Read Only Memory) 6 provided as a program memory. Also, a ROM (Read Only Memory) 6 provided as a program memory. Also,
- each circuit is controlled and a read address is calculated.
- RAM Random Access Memory
- the object signal generator 10 receives the source video signal V 0 from the outside, and receives the source video signal V 0. Is converted to 3D
- the object signal generator 10 To produce a two-dimensional object video signal V 3. Also, the object signal generator 10 outputs the source video signal V. It receives the source key signal K D for keying, and receives the source key signal K in the same way as the source video signal. Is subjected to three-dimensional conversion processing to generate an object key signal K 2 . Specifically, the object signal generation unit 10 generates the source video signal V. Frame memory 12 for temporarily storing data, and a soft key signal ⁇ for keying this source video signal. Frame memory 13 for temporarily storing data, and read addresses calculated for frame memory 12 and frame memory 13 corresponding to the three-dimensional conversion operation. (
- Frame memory 12 is the supplied source video signal V. One It is a memory for storing it temporarily.
- the frame memory 12 is supplied with a sequential write address from a write address generation circuit (not shown), so that the supplied source video signal V is supplied to the frame memory 12. Is stored as it is without deformation.
- a read address ( ⁇ ,, ⁇ ⁇ ) calculated in accordance with the three-dimensional conversion operation is supplied from the read and address generation circuit 14 to the frame memory 12.
- the object video signal V 2 that has been subjected to the three-dimensional conversion processing for each frame is output from the frame memory 12.
- the output object video signal V 2 is sent to the mixer 30.
- Frame memory 13 is a source key signal K for keying the source video signal V 0. This is a memory for temporarily storing data.
- the same write address as the sequential write address supplied to the frame memory 12 is supplied.
- the frame memory 13 receives the supplied sousky signal ⁇ . Is stored as it is without deformation.
- the full Remume mode Li 1 3 frame Note Li 1 2 is supplied to the same address as the read address ( ⁇ ⁇ , ⁇ ⁇ ) so is supplied from the full Remume mode Li 1 3 3D transformed object Toki first signal kappa 2 the same as converted 3-dimensional and object Tobideo signal V 2 which is output.
- the outputted object signal # 2 is sent to the combiner 30.
- Read ⁇ address generating circuit 1 supplied from the scan click rie N'a dress generating circuits 9 in Sequence emission sheet catcher Le.
- Lean add-less X S, Y S
- the read add-supplied to the full Remume mode Li 1 2 and full Remume mode Li 1 3 Generate the address ( ⁇ ⁇ , Y M ).
- This read address generation circuit 14 The specific calculation in will be described later.
- the shadow signal generation unit 20 is a circuit for generating a shadow video signal and a shadow signal.
- the shadow signal generator 20 outputs the source video signal V supplied from the outside.
- the shadow signal generator 20 generates a source key signal K for keying the source video signal.
- the receive Ri just as with three-dimensional conversion processing Shah Doubideo signal V 4, to generate a shut synchronizing first signal kappa 4.
- the shadow signal generator 20 outputs the source video signal V supplied from the outside.
- the shadow signal generation unit 20 generates a source key signal for keying the source video signal. And performs a three-dimensional conversion process in the same manner as the shadow video signal V 6 to generate a shadow key signal K s.
- the shadow signal generation section 20 has a circuit configuration similar to that of the object signal generation section 10 and includes the source video signal V.
- Memory 23 for temporarily storing data, and reading for supplying the calculated read address to the frame memory 22 and the frame memory 23.
- the color matte generation circuit 21 has an address generation circuit 24 and a source video signal V0. By processing the source video signal V. This is a circuit to make the color of the shadow into a shadow. In the simplest case, the source video signal
- the frame memory 22 is a memory for temporarily storing the source video signal and the matte-processed signal. Since a sequential write address from a write address generator (not shown) is supplied to the frame memory 22, the matte-processed software is supplied to the frame memory 22. Source video signal is stored as it is without image deformation. In the point light source mode, this frame memory
- the 2 reads address generating circuit 2 4 from the three-dimensional conversion operation ⁇ beauty point light source is calculated on the basis of the read-out add-less (X M ', YM') because is supplied, the frame memory 2 2 from, Shah Doubideo signal V 4 which has been converted 3D is output.
- the read address (2 ⁇ ,, ⁇ ⁇ ) calculated from the read address generation circuit 24 based on the three-dimensional conversion operation and the parallel light source is stored in the frame memory 22. Since this is supplied, the frame memory 22 outputs a three-dimensionally converted shadow video signal V 6.
- Frame memory 2'3 is the source key signal K for keying the source video signal Vn. This is a memory for temporarily storing data. Since the same address as the sequential write address supplied to the frame memory 22 is supplied to the frame memory 23, the supplied address is supplied to the frame memory 23. Sawski — signal. Are stored as they are without image conversion. In the point light source mode, the frame memory 23 is supplied with the same address (XM ', ⁇ ⁇ ') as the read address supplied to the frame memory 22. From frame memory 23, three-dimensional conversion is performed. In the same manner as the shadow video signal V 4 , a three-dimensionally converted shadow key signal K 4 is output.
- the same address ( ⁇ ⁇ ,, ⁇ ⁇ ⁇ ) as the read address supplied to the frame memory 22 is supplied to the frame memory 23.
- the frame memory 23 outputs a three-dimensionally converted shadow key signal K 6 in the same manner as the three-dimensionally converted shadow video signal V 6 .
- the read address generation circuit 24 is a circuit for generating a read address to be applied to the frame memory 22 and the frame memory 23.
- scan click rie N'a monitor scan from de-less onset raw circuit 9 is supplied to the sequencer Nsha Torque rie down 3 on at the ⁇ de-less (X s, Y s) and, in the CPU 8 parameter b of Yotsute computed images transformation matrix, 'based on the read add-less (X M' ⁇ b 33, YM ') to generate a.
- the real shadow signal generator 50 receives a shadow key signal (K 4 in the point light source mode and ⁇ 6 in the parallel light source mode) output from the frame memory 23, and receives the input shadow signal. outputs a; (when source mode is kappa 4 ', directional light mode kappa 6' point ⁇ ) against the dough signal, more realistic shadow Riarusha Douki signal for generating a. Details of the real shadow signal generator 50 will be described later.
- the above is the configuration of the shadow video signal generation unit 20 ′.
- the screen address generation circuit 9 is used for the monitor screen 3 screen. This is a circuit for dressing the entire lean surface in the order corresponding to the raster scan order. Specifically, a screen address (X s, Y s) is generated based on the internally generated horizontal synchronization signal and vertical synchronization signal.
- the compiler 30 is a circuit for mixing signals supplied from the object signal generator 10 and the shadow signal generator 20.
- the compiler 30 receives the object video signal V 3 and the object key signal K 2 output from the object signal generator 10, and outputs the object video signal V 2 and the object key signal K 2 from the shadow signal generator 20.
- mixed bidet O signal V MIX 'and mixed key signal K MI X' the following equation
- Vache IX ' K 2 V 2 + (1-K 2 ) ⁇ ' V
- the object video signal V 2 and the object key signal # 2 output from the object signal generator 10 are received, and the shadow video signal output from the shadow signal generator 20 is received. It receives signals V and Li Arushi catcher Douki signal K '6, Obujiweku preparative bidet and old signals V 2 and Shah Doubideo signal V 6 and the mixture was mixed video signal V mIX ", Obujiweku Toki first signal K 2 and Li Arusha Douki Generate a mixed key signal K MI X ⁇ mixed with the signal K '6.
- K " 1-(1-K 2) (1 — K '6) ⁇ ' ⁇ ⁇ (b) It can be expressed as.
- Mixer 4 which will be described later in detail co Nbaina 3 0 0 is a circuit for mixing the supplied Bakkugurau down Dobideo signal V BK from the mixed video signal and mixed key signal and an external output from the co Nbaina 3 0 is there. In the point light source mode, it receives the mixed video signal V MIX ′ and the mixed key signal K MIX ′ output from the mixer 30 and receives the externally supplied background video signal V BK . The mixed video signal V MIX ′ and the background video signal V BK are mixed based on the mixed key signal K MIX ′ to generate an output video signal V 0UT ′. More specifically, this output video signal VOUT 'is given by the following equation:
- V 0 UT KMIX VMIX + (1 — MIX) ⁇ BK ⁇ ⁇ ⁇ ⁇ ⁇ (C)
- This world coordinate system is a three-dimensional rectangular coordinate system composed of the X, ⁇ , and ⁇ axes.
- the ⁇ plane defined by the X axis and the ⁇ axis orthogonal thereto Assuming that the screen surface 3 exists on the surface, the X axis is defined as the horizontal (left / right) direction of the screen surface 3, and the Y axis is vertical (up / down) of the screen surface 3. ) Direction is defined.
- the depth direction of the screen surface 3 is defined as the positive direction of the Z axis orthogonal to the XY plane, and the front side of the screen surface 3, that is, the screen surface is viewed.
- the side where the viewpoint PZ exists is defined as the negative direction of the Z axis.
- the center of the screen plane 3 matches the origin of the world coordinate system including the X axis, the Y axis, and the Z axis.
- Virtual coordinate values are set on the X-axis that are continuous from the inside (origin) of the screen area to the left and right sides, and the X-axis in the screen area has the viewpoint PZ
- the virtual coordinate values between "1 4" and "+4" are set from left to right when viewing the screen surface 3 from.
- virtual coordinate values that are continuous from the inside (origin) of the screen area in the vertical and external directions are set on the Y axis, and the Y axis in the screen area is provided with a viewpoint.
- Virtual coordinates between “13” and “+3” are set from below to above when viewing the screen surface 3 from PZ.
- the operator's viewpoint position P Z is virtually set on the Z axis at a position where its coordinate value is “1 16”.
- the conversion processing for generating an object video signal V 2 from a source video signal V ⁇ will be described with reference to FIGS. 4A and 4B.
- the source video signal V which is two-dimensional data. Is stored in the frame memory 12 as it is without image conversion. Therefore, as shown in FIGS. 4A and 4B, the source video signal V. Is on the XY plane of the world coordinate system, Source video signal V on screen 8 present in the Y plane. Image is displayed.
- FIG. 4 (a) shows a state where the XY plane is viewed from the viewpoint PZ on the Z axis in the space represented by the three-dimensional coordinates of the world coordinate system.
- the displayed image appears.
- FIG. 4B shows a state where the XZ plane is viewed from the viewpoint position on the positive side of the Y axis in a space represented by three-dimensional coordinates in the world coordinate system. Therefore, the source video signal V 0 existing on the XY plane overlaps the screen surface 3.
- Such source video signal V Such source video signal V.
- the operator operates the controls on the control panel to perform 3D image conversion processing in the world coordinate space. That is, a three-dimensional conversion matrix T consisting of parameters set for each frame.
- the source video signal V by operating the operator.
- the source video signal V is applied to each pixel. Is converted to a three-dimensional spatial position.
- the video signal subjected to the three-dimensional image conversion processing is represented as a three-dimensional object video signal V ,.
- the source video signal V is used for the three-dimensional conversion in the cases of Figs. This is an example in which is rotated about 45 ° about the X-axis as the center of rotation, and further translated in the positive direction of the Z-axis.
- the three-dimensional transformation matrix T Q used for three-dimensional transformation is
- the source video signal V is a parameter including elements for translating the source video signal in the X-axis, Y-axis, and Z-axis directions, respectively. This is a parameter that includes elements for uniformly enlarging and reducing the size of the whole in each of the three-dimensional axial directions.
- this transformation matrix T Is a 4-by-4 matrix because the coordinate system for rotation transformation and the coordinate system for translation transformation and scaling transformation are represented in the same single coordinate system. It is called the next coordinate system (Homogeneous Color or dmate).
- the source video signal V Q existing in the XY plane is transformed into the three-dimensional conversion matrix ⁇ . Is converted to the three-dimensional position represented by the three-dimensional object video signal V, by the following perspective transformation processing.
- This perspective transformation processing is to transform the three-dimensional object video signal V, with the perspective transformation matrix P, as shown in FIGS. Is a transformation process that allows the XY plane to be seen through.
- the conversion is to obtain the image of the video signal seen through the XY plane.
- Figure 4 B represents thus the perspective video signal to the XY plane, the 2-dimensional and the object video signal V 2.
- the object video signal V 2 seen through the screen plane 3 on the XY plane is a three-dimensional object on the depth side of the screen plane 3 as viewed from the virtual viewpoint PZ. This is a video image as if the video signal V, exists.
- This perspective transformation matrix P. 'S parameter P z when seen through the three-dimensional conversion video signal V 2 on the XY plane is a perspective Bae Kuti blanking value for applying the perspective. That is, in the case of FIG. 4B, the three-dimensional object video signal V, in the three-dimensional space, is inclined by about 45 ° with respect to the XY plane, and when viewed from the virtual viewpoint PZ, The part that is far away looks small, and the part that is close looks large.
- the transformation position of the three-dimensional object video signal V on the screen plane 3 by the perspective transformation is determined by the distance between the virtual viewpoint PZ and the screen plane 3, and the virtual viewpoint PZ and the three-dimensional object. It changes according to the distance from the virtual video signal V, and the perspective conversion according to the position of the virtual viewpoint PZ is performed by the operator setting the perspective value Pz according to the position of the virtual viewpoint PZ. It can be carried out. Normally, since the position of the viewpoint PZ is the coordinate value “1 16” on the z-axis, the passive value P z is set so that “1/16” is a standard value.
- the transformation matrix Tobj for obtaining a two-dimensional object video signal V a from the matrix is a three-dimensional transformation matrix T Q and a perspective transformation matrix P.
- the image processing apparatus using the special effect device of the present invention writes the two-dimensional source video signal VQ supplied from the outside to the frame memory 12 once, and By supplying the two-dimensional read address (X s , Y s ) calculated by the read address generation circuit 14 to the video signal read from the frame memory 12, On the other hand, spatial image conversion (three-dimensional image conversion) desired by the operator can be performed. Therefore, the source video signal V stored in the frame memory 12. , And the object video signal V 2 read from the frame memory 12 are two-dimensional data. That is, in ⁇ this two-dimensional readout completion de Les (X s, Ys) is a three-dimensional space Above z-axis data is not used.
- ⁇ 33 ⁇ 21 22 ⁇ 231 ⁇ (4)
- the two-dimensional position base-vector on the full Remume mode Li 1 2 [chi Micromax Upsilon Micromax] is expressed in the same coordinate system, base click preparative Le [X m y m H. ⁇ It can be expressed as.
- the Monitasuku rie down 5 position on the 5 base-vector [X S Y s] you expressed by homogeneous coordinate system can be represented as vector preparative Le [X 6 y 6 1].
- the parameter “H.” in this homogeneous coordinate system is a parameter that represents the scale of the magnitude of the vector and the rate of reduction. Is used as pseudo depth information in the present embodiment. Rice H. Will be described later.
- equation (5) is a relational expression for determining the point on the monitor scan click rie down 2 that corresponds to a point on the full Remume mode Li 1 2 Te matrix T 3 3 Niyotsu.
- the source video signal is stored in the frame memory 12 before conversion, and is stored on the monitor screen 3 obtained by the conversion matrix ⁇ 33.
- the spatial video conversion is performed on the source video signal by determining the point of the frame memory 12 corresponding to the above point by the read address. In other words, when writing to frame memory 12
- the image conversion is performed at the time of reading from the frame memory 12.
- the frame memory 12 Instead of calculating by the equation (5) to find the point on the monitor screen 3 corresponding to the point, find the point on the frame memory 12 corresponding to the point on the monitor screen 3 There is a need. Therefore, by transforming equation (5),
- the position vector of the homogeneous coordinate system on the frame memory 12 [X my m H. Is converted to a two-dimensional position vector [ ⁇ ⁇ ⁇ ⁇ ] on the frame memory 12.
- the parameter “ ⁇ .” Used to represent the two-dimensional position vector [ ⁇ ⁇ ⁇ admir] in the homogeneous coordinate system is the parameter of the homogeneous coordinate system's position vector [X my m ⁇ . Since it is a parameter that represents the scale factor, to convert the position vector of the homogeneous coordinate system to a two-dimensional position vector, the position vector of the homogeneous coordinate system must be converted. If the parameters “X m ” and “y m ” indicating the direction are normalized by the parameter “1-1.” Which indicates the scale of the position vector in the homogeneous coordinate system, good. Therefore, Monitasuku each parameter menu over data "X M" in the two-dimensional position downy click preparative Le on rie down 3 and "Upsilon Micromax" is expressed by the following equation,
- H o It can be expressed as. Monitasuku the homogeneous coordinate system vector preparative Le of the rie down 3 [x s ys 1], in the same when converted into the two-dimensional position vector [X s Ys], the position of the homogeneous coordinate system
- the parameters “X s ” and “y s ” indicating the vector direction are normalized by the parameter “1” indicating the scale factor of the position vector in the homogeneous coordinate system.
- the monitor scan click rie down 3 on a two-dimensional of each parameter "x s" position downy click preparative Le and "Y S" is expressed by the following equation,
- the two-dimensional read address (X M , ⁇ ⁇ ) supplied to the frame memory 12 is given by the following equation from the equation (10).
- (1) can be obtained as a bi 3 xs + b 2 3 ys + baa.
- the read address (X M , ⁇ réelle) supplied to the frame memory 12 is converted into a three-dimensional conversion matrix ⁇ determined by a desired spatial image conversion device of the operator.
- Each parameter (r,, ⁇ r) supplied to the frame memory 12 is converted into a three-dimensional conversion matrix ⁇ determined by a desired spatial image conversion device of the operator.
- the parameter 11 obtained by the expression (40) is used. Is used as depth information.
- the following effects are obtained by using the value of H obtained by the equation (40) instead of using the actual Z coordinate value in the three-dimensional space as the depth information. That is, when calculating the depth information, it is not necessary to calculate the actual Z coordinate value, so that the calculation for one dimension can be omitted. Thus, it is not necessary to use a high-speed processor for three-dimensional conversion, and depth information can be calculated even with a low-speed processor.
- this H Since H is a value required when calculating the two-dimensional read address to be supplied to the frame memories 12 and 13, this H is used. There is no need to perform any special operations to find. Therefore, even faster calculation can be performed.
- the frame memory 1 2, 1 3 of the normalized read add-less (x M / HO, y M ZH.) Means that the Naru rather large, thereby the spatial reading off Remume mode Li 1 2, 1 3
- the interval between addresses increases.
- the space between the spatial readout sampling addresses becomes large, the data read out from the frame memories 12 and 13 is displayed when displayed on the screen surface 55A. The resulting video is reduced.
- Fig. 7 (B) in the address space of frame memories 12 and 13, parameters are set according to the perspective so as to intersect with the specified memory area ER1 without using the perspective.
- Data H When the image data is read out by the read address of the area ER2 where the image is read out, the image projected on the screen surface 55A is projected in perspective as shown in Fig. 7 (A).
- the image data read out from the area ER1 of the frame memories 12 and 13 without using the image data is a spatial readout sampler determined by the same parameter H over the entire area ER1.
- the image is displayed in the area ERIX on the screen surface 55A as a non-perspective image.
- the pixel data of the frame memories 12 and 13 are read from the area ER2 where the intervals of the spatial readout sampling addresses are different by the perspective method.
- Parameter H on lean surface 55A In the read sampling address where is large, the image is reduced and the parameter H is set. In a region where the distance between the read sampling addresses becomes large and the interval between the read sampling addresses becomes large, a reduced image is displayed on the screen surface 55A.
- the parameter H Changes in the size of the image as depth information, so that images using perspective can be screened. Can be projected on the surface 55A.
- the shadow coordinate system like the word Lumpur de coordinate system, X s, is defined by three-dimensional orthogonal coordinate system consisting of YS and Z s axis is a coordinate system.
- the plane on which the shadow video signal V shadow is projected is defined as the XY plane of the shadow coordinate system. This is called the shadow plane.
- the direction in which the light source for providing the shadow of the object video signal Vobj exists is defined as the negative direction of the Z axis of the shadow coordinate system.
- the special effects device of the present invention generates a shadow using a point light source mode using a point light source and a shadow light source using a parallel light source. It has a parallel light source mode and can be freely set by the operator. Further, X in the whirlpool de coordinate system, against the Y and Z-axis, X s, the angle of each of the Y s and Z s axis of shadow coordinate system can be O Operator sets an arbitrary angular .
- FIG. 9A and FIG. 9B are the same as FIGS. 4A and 4B, and FIG. 9A is a view from the viewpoint PZ set on the Z axis of the world coordinate system to the XY of the world coordinate system.
- FIG. 9B is a diagram when the plane is viewed, and FIG. 9B is a diagram when the YZ plane in the world coordinate system is viewed from a position in the positive direction of the X axis in the world coordinate system.
- the three-dimensional transformation matrix T is used. 3D converted to 3D spatial position by The object video signal V, is perspective-transformed to the X s Y s plane of shadow coordinates by a perspective transformation matrix PSP ⁇ ⁇ by a point light source.
- This is a video signal seen through the X s Y s plane of the shadow coordinate system when the three-dimensional object video signal V, when viewed from the point light source 90, is viewed from the point light source 90.
- ⁇ Figure 9 beta which means to seek the video signal which is transparent to X s YS plane of shadow coordinate system, to be expressed as a three-dimensional Shah Doubideo signal V 3.
- a detailed description of the perspective transformation matrix PSPOT using the point light source will be described later.
- the three-dimensional shadow video signal V 3 is converted to the perspective transformation matrix ⁇ described above. Is used to perform perspective transformation so as to be seen on the XY plane of world coordinates. This is from a virtual viewpoint PZ on the Z-axis, when viewed three-dimensional sheet catcher Doubideo signal V 3, means to determine the video signal to be transparent to the XY plane of the whirlpool de coordinate system.
- the video signal seen through the XY plane of the world coordinate system is represented as a two-dimensional shadow video signal V 4.
- FIG. 9B The above processing shown in Fig. 9B is summarized.
- conversion processing for the two-dimensional source over scan video signal V 0 obtains a two-dimensional Shah de video signal V 4 are Obujuku preparative video signal V.
- a three-dimensional conversion step for obtaining a three-dimensional object video signal V by performing three-dimensional conversion with the three-dimensional object video signal V, and transforming the three-dimensional object video signal V, with a perspective transformation matrix P SP 0 T using a point light source.
- To obtain a two-dimensional shadow video signal V 4 by seeing through the XY plane of the world coordinate system. Therefore, the two-dimensional source video signal V. From a two-dimensional shadow video signal
- the transformation matrix Tshadow 'for determining V 4 is given by
- the parameter [H s ] of the homogeneous coordinate system is a parameter of the homogeneous coordinate system when the position vector on the frame memory 12 is represented by the homogeneous coordinate system.
- the parameter is a parameter representing the scaling factor of the size of the vector, and is used as pseudo depth information in this embodiment. It will be described later with respect to this "H S".
- the transformation matrix T shadow 'for obtaining the two-dimensional shadow video signal V 4 from the two-dimensional source video signal V 0 is a 4-by-4 transformation matrix, which will be described later. data of the third row and third column) is not substantially used and the frames on the actual three-dimensional transformation matrix having a two-dimensional readout add-less arithmetic required para main Ichita and T 33 shadow '
- the three-dimensional transformation matrix T 33 shadow ' is applied to the position vector [ ⁇ ⁇ ⁇ ' y m 'H s] on the memory 22 to obtain the position on the frame memory 22.
- Vector [X m 'y m ' H s] is converted to a position vector [X sys 1] on monitor screen 3. If the relational expression is described below,
- the scale factor “H S ” of the position vector [x m 'y m '] is the scale factor of the position vector [X s y s ] of the homogeneous coordinate system on the monitor screen 22. Means that the rate is converted to be "1" o
- transformation matrix (T 33 shad ow ') - 1 is the transformation matrix T 33 shadow' is the inverse matrix of.
- FIGS. Figure 1 0 is the X s axis direction of the shadow coordinate system Y s Z s plane Figure derconnection when viewed, the point light source 6 0 3 dimensional Obujeku preparative video V, and the three-dimensional Shah Doubideo V 3 Indicates the positional relationship.
- perspective transformation matrix PSPOT that by this point source, when the light source mode point using a point light source, a conversion matrix for obtaining the three-dimensional Obujiweku preparative Bido V, from the three-dimensional Shah Doubideo V 3.
- FIG. 11A shows a flow of the conversion process for the point light source 60
- FIG. 11B shows a flow of the conversion process for the object video signal.
- step SP1 the position of the point light source 60 represented by the world coordinate system is transformed into the shadow coordinate system by the transformation matrix F.
- the perspective transformation matrix P s will be described later in step SP5.
- 'Is not a perspective transformation matrix in world coordinates, but a perspective transformation matrix in shadow coordinates. Therefore, when the three-dimensional object video signal V, is perspectiveed on the X s Y s plane of the shadow coordinate system by the perspective transformation matrix P so ′, the point light source 60 represented by the world coordinate system is used. The position needs to be converted to a shadow coordinate system.
- this transformation matrix F- ' will be specifically described.
- the rotation angle of the X s axis of the shadow coordinate system with respect to the X axis of the field coordinate system is X
- the rotation angle of the Y s axis of the shadow coordinate system with respect to the Y axis of the world coordinate system is ⁇ Y
- ⁇ of the world coordinate system is Let the rotation angle of the Z s axis of the shadow coordinate system with respect to the axis be ⁇ ⁇ , and let the origin of the shadow coordinate system be (X so, y so, Z so).
- the transformation matrix F— 'from the world coordinate system to the shadow coordinate system the transformation matrix F from the shadow coordinate system to the world coordinate system, which has an inverse matrix relationship, is the product of the rotation matrix and the movement matrix.
- a transformation matrix F from the shadow coordinate system to the world coordinate system is obtained.
- the transformation matrix F from the shadow coordinate system to the world coordinate system is
- the matrix L (X y Z so) is a matrix for translation
- the matrix R x (— x ), the matrix R ⁇ (-0 ⁇ ), and the matrix R z (- ⁇ z ) are rotation matrices
- the row system UL (-Xso, one YZso) is a matrix for translation
- step SP2 the position of the point light source 90 is moved to the position of the virtual point light source 91 on the Zs axis by the translation matrix T KS — '.
- the reason for this is that, in order to obtain the 3D shadow video V 3 for the 3D object video V, when viewing the 3D object video V, from the position of the point light source 9 o 0, the 3D object video V, The three-dimensional shadow video V 3 can be obtained by making the video V, see through the X s Y s plane of the shadow coordinate system.
- the point light source to be the viewpoint must be located on the Zs axis. Therefore, the translation matrix T XSYS —! Moves the position of the point light source 90 parallel to the position of the virtual point light source 91 on the Z s axis.
- this translation matrix T XSYS — 1 becomes T It can be expressed as.
- step SP1 and step SP2 the conversion processing for the point light source ends.
- step SP3 as in step SP1, the three-dimensional object video signal V, represented in the world coordinate system, is transformed into the shadow coordinate system by the transformation matrix F1 '.
- the perspective transformation matrix P s used in step SP5 described later. 'Is not a perspective transformation matrix in the world coordinate system, but a perspective transformation matrix in the shadow coordinate system. Therefore, the perspective transformation matrix P s .
- the three-dimensional object video V is seen through the X s Ys plane of the shadow coordinate system, and the three-dimensional object video V, represented by the world coordinate system, is transformed into the shadow coordinate system. Need to be converted to In step SP4, as in step SP2, as shown in FIG.
- the three-dimensional object video signal V is converted to the X s Ys plane of the shadow coordinate system by the translation matrix T XSYS — 1 .
- the translated video signal is represented as a virtual three-dimensional object video signal V, '.
- the translation matrix T XSYS — 1 so that the relative positional relationship between the video signal V, and the virtual object video signal V, 'relative to the virtual point light source 91 does not change.
- step SP5 the perspective transformation matrix P s is obtained .
- step SP5 the perspective transformation matrix P s is obtained .
- step SP5 the perspective transformation matrix P s is obtained .
- step SP5 the perspective transformation matrix P s is obtained .
- step SP5 the perspective transformation matrix P s is obtained .
- step SP5 the perspective transformation matrix P s is obtained .
- step SP5 the perspective transformation matrix P s is obtained .
- step SP5 the perspective transformation matrix P s is obtained .
- V 3 ′ the video signal seen through the X s Y s plane of the shadow coordinate system.
- This virtual three-dimensional shadow video signal V 3 ′ is, when the virtual three-dimensional object video signal V, ′ is viewed from the virtual point light source 91 with the virtual point light source 91 as a viewpoint, s The video signal seen through the Ys plane.
- this perspective transformation matrix P s . 'I the perspective transformation matrix P shown in equation (2). From the relationship between and the viewpoint PZ, it can be considered that the viewpoint at the time of the fluoroscopy is at the position of the virtual point light source 91, that is, at the position of (0, 0, Z! _).
- the perspective transformation matrix P s is obtained by replacing “P z ” with “— 1 Z z L ”. 'Is obtained.
- the virtual three-dimensional shadow video signal V 3 ′ is moved in parallel to the X s Y s plane of the shadow coordinate system using the translation matrix T xsvs .
- it will be expressed as 3-dimensional Shah Doubideo signal V 3 video signals that have been translated.
- Figure 10 the three-dimensional shadow video signal V 3 has a point light source 90 as a viewpoint, and when the three-dimensional object video signal V, is viewed from the position of the point light source 90, the three-dimensional shadow video signal V 3 a video signal which is transparent to X s Ys plane.
- the reason for this movement is that in step SP 4, the three-dimensional object and the video signal V, were translated by the translation matrix T xsys- ', so that the translation matrix T XSYS 1 This is to undo the parallel movement processing by.
- the translation matrix T XSYS — 'and the translation matrix T XSYS have an inverse relationship, so the translation matrix T XSYS is
- step SP 7 converted by the transformation matrix F represented by Equation (4 2), a 3-dimensional shadow video signal V 3 represented by shadow coordinate system, the whirl de coordinate system.
- a three-dimensional shadow video signal V 3 represented by a coordinate value in the world coordinate system can be obtained.
- the processing shown in the flow of Fig. 11B is summarized.
- the processing for obtaining the three-dimensional shadow video signal in the world coordinate system from the three-dimensional object video signal V in the world coordinate system is performed by converting the three-dimensional object video signal V, in the world coordinate system from the shadow coordinate system.
- Step (SP3) and in the shadow coordinate system, project the 3D object video signal onto the Xs Ys plane of the shadow coordinate system to project the 3D shadow video signal in the shadow coordinate system.
- SP 4 3-5 and 3-6 and a 3D shadow in the shadow coordinate system ⁇ ⁇ Converting the video signal from the shadow coordinate system to the world coordinate system (SP7).
- PT is a transformation matrix F- ', a row shift matrix T XSYS - 1, and a perspective transformation matrix P s . ', The translation matrix T XSYS- ', and the transformation matrix F.
- this transformation matrix T shadow ' is a matrix of 4 rows and 4 columns, but a matrix excluding the components in the Z-axis direction (3rd row and 3rd column) as in equation (4).
- the matrix T 33 shadow' T 33 shadow of the inverse matrix of (T 33 shadow ') - one of the para main Ichita the following equation: bb 1 2 'b 1 3 '
- FIG. 12A and 12B are the same as FIGS. 9A and 9B, and FIG. 12A is a view from the viewpoint PZ set on the Z-axis of the world coordinate system.
- FIG. 12B is a view when the plane is viewed, and FIG. 12B is a view when the YZ plane in the world coordinate system is viewed from the position in the positive direction of the X axis in the world coordinate system.
- a three-dimensional transformation matrix T The 3D object video signal V, which is converted to a 3D spatial position, is projected onto the X s Y s plane of the shadow coordinates by the perspective transformation matrix ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ with a parallel light source Is done.
- the X s Y s perspective video signal to the plane of the shadow coordinate system would represent by a three-dimensional Shah Doubideo signal V 5.
- the directional light based on the perspective transformation matrix P PARA is the three-dimensional object video signal V, and the perspective transformation, a transformation matrix for obtaining the three-dimensional Shah Doubideo signal V 5.
- three-dimensional Shah Doubideo signal V 5 is a perspective conversion matrix described earlier [rho. Is projected onto the XY plane of the world coordinate system. This means that when viewing the three-dimensional shadow video signal V 5 from the virtual viewpoint PZ on the Z axis, a video signal seen through the XY plane of the world coordinate system is obtained.
- Figure 1 2 B is a video signal which is transparent to the XY plane of the whirlpool de coordinate system, to be expressed as a two-dimensional Shah Doubi de old signal V 6.
- 3D conversion step for obtaining a 3D object video signal V, by performing a 3D transformation by the 3D object video signal V, and converting the 3D object video signal V, into a shadow coordinate system by a perspective transformation matrix P PARA using a parallel light source
- T shadow " T. ⁇ P PA RA ⁇ P o ⁇ (60)
- shadow signal generator 2 0 read ⁇ de-less generation circuit 2 4 respectively read ⁇ de-less and position downy click preparative Le supplied from the (X M ⁇ Upsilon Micromax ⁇ ) and [monitored with ⁇ ⁇ ' ⁇ "' scan click rie down 3 ⁇ dress and position base-vector in on the respective (X s
- FIG. 13A shows the flow of the conversion process for the parallel light source 70
- FIG. 13B shows the flow of the conversion process for the three-dimensional object video signal V ,.
- step SP11 the coordinates of the parallel light source 70 defined by the spherical coordinates in the world coordinate system are converted to the orthogonal coordinates in the world coordinate system.
- the position of a parallel light source is generally expressed in a spherical coordinate system rather than in a rectangular coordinate system.
- the spherical coordinate system is a coordinate system in which the position of a parallel light source is represented by “radius (r)”, “latitude (a)”, and “longitude ( ⁇ )”.
- Figure 14 1 shows the relationship between rectangular coordinates and spherical coordinates in the world coordinate system. As shown in Fig.
- the relationship between the rectangular coordinate system and the spherical coordinate system is that the reference for latitude () is the ii direction of the Y axis and the reference for longitude is the XY plane.
- the equatorial plane of the spherical coordinate coincides with the XY plane of the rectangular coordinate
- the direction of latitude 0 (rad) and longitude 0 (rad) coincides with the minus direction of the Y axis.
- the position of the collimated light source 70 defined by spherical coordinates is (r, a, ⁇ ), and the position of the collimated light source converted to rectangular coordinates is ( ⁇ ⁇ _, y L, z L), the light source position (XL, y L, z L ) is
- the light source position (r, ⁇ , ⁇ ) of the spherical coordinate system set by the operator is substituted into this equation (61).
- the light source position (XL, yL, Z! _) Converted into the rectangular coordinates can be obtained.
- step SP12 the coordinates of the parallel light source are transformed from the first coordinate system to the shadow coordinate system by the transformation matrix F- '.
- the transformation matrix F one 1, since as described in step SP 1, description is omitted.
- Shadow coordinate system the position of the converted light source (x i_ ', y L' , z L ') and when, homogeneous coordinates source base click preparative Le of in the world coordinate system expressed in [XL y L z L 1] and the vector of the light source in the shadow coordinate system represented by the homogeneous coordinate system [XL L y L L z L L
- step SP13 the position of the light source in rectangular coordinates in the shadow ⁇ coordinate system (X, y, yL ', z') obtained in step SP12 is expressed in spherical coordinates in the shadow coordinate system.
- Ei 14B is a diagram showing the relationship between the rectangular coordinates and the spherical coordinates in the shadow coordinate system. As shown in Fig. 14B, the relationship between the rectangular coordinate system and the spherical coordinate system in the shadow coordinate system is such that the reference of the latitude (ar s ) is the negative direction of the Y s axis and the reference of the longitude ( ⁇ s ). And the X s Y s plane are doing.
- X s of the equatorial plane is orthogonal coordinates of the spherical coordinates - matches Y s plane, latitude 0 (rad), the direction of ⁇ 0 (rad) matches the minus direction of the Y s axis.
- step SP 14 the position (r ′, a ′, ⁇ ′) of the parallel light source obtained in step SP 13 is calculated by using the rotation matrix R z (Ichi '). ) Rotates one "" (rad) around the ⁇ s axis of the shadow target system.
- the position of the parallel light source after the rotation process can be expressed as ( ⁇ ', 0, ⁇ ').
- the light source rotated by the rotation matrix R z ( ⁇ ⁇ ') is represented as a virtual collimated light source 71. By rotating the position of the collimated light source ⁇ 0 in this manner, the light source shown in Fig. 13 is obtained.
- step SP 17 the observable video signal V, is perspectiveed on the X s Y s plane of the shadow coordinate system by the perspective transformation matrix P so '.
- the rotation matrix R z (- ⁇ ') is a rotation matrix around the Z s axis
- the rotation matrix R z () is
- step SP15 similarly to step SP11, the three-dimensional object video signal V, represented in the world coordinate system is transformed into the shadow coordinate system by the transformation matrix F '.
- the perspective transformation matrix P s which will be described later, is similar to the processing for the parallel light source described in step SP 11. This is because ⁇ is not a perspective transformation matrix in the world coordinate system, but a perspective transformation matrix in the shadow coordinate system. If the 3D object video V, is to be seen through the X s Ys plane of the shadow coordinate system, each pixel position of the 3D object video V, represented by the world coordinate system, is shadowed. Need to convert to coordinate system.
- step SP 16 the object video signal V, converted to the shadow coordinate system in step SP 15, is rotated by one “” (rad) around the Z axis by the rotation matrix R s (-'). This is because, as shown in FIG. 15, in step SP 14, the position (r ′, ⁇ ′, ⁇ ) of the parallel light source 70 is determined by the rotation matrix R z (— “”).
- the object video signal V has to be rotated to correspond to the rotation process of the parallel light source 70, since ') has been rotated about the ⁇ axis — “' (rad).
- the three-dimensional object video signal that is rotated (rad) around the Z s axis by the rotation matrix R 2 (-a ') is converted into the virtual three-dimensional object video signal V, ". Therefore, the relative position of the three-dimensional object video signal V and the parallel light source 70 with respect to the origin of the shadow coordinate system, and the virtual three-dimensional object video signal V with respect to the origin of the shadow target system , ⁇ and the virtual parallel light source 71 are exactly the same.
- FIG. 14A is a drawing that three-dimensionally represents the positional relationship between the virtual three-dimensional object video signal V, ′ and the virtual three-dimensional shadow video signal V 5 ′′
- the virtual object video signal V, 'J- Let a pixel point with (x., Y.
- step S ⁇ 18 virtual shadow video signal V 5 ⁇ ⁇ is rotated around Z s axis by rotation matrix R z ⁇ 1 ).
- FIG 5 depicts a rotational movement video signals as a three-dimensional sheet catcher Doubideo signal V 5.
- the three-dimensional shadow video signal V 5 is a video signal obtained by seeing the three-dimensional object video signal V, through the parallel light source 70 into the X s Y s plane of the shadow coordinate system. It is. The reason for moving this way
- step SP 16 the rotation matrix R z (— “') gives the third order This is because, since the original object video signal V, has been rotationally moved, the rotational movement processing by the rotational matrix R z ⁇ -a ') is restored. In other words, since the rotation matrix R z ( -ar ) and the rotation matrix R z ( ⁇ ') have an inverse matrix relationship, the rotation matrix R z ( ⁇ ') is
- step SP 1 9 converted by the transformation matrix F represented by Equation (4 2), a 3-dimensional shadow video signal V 5 represented by shadow coordinate system, the whirl de coordinate system.
- a three-dimensional shadow video signal V5 represented by the coordinate values in the world coordinate system can be obtained.
- the perspective transformation matrix P PARA is a transformation matrix F _ ′, a rotation matrix R z (—), and a perspective transformation matrix P s . ⁇ , the rotation matrix R z ) and the transformation matrix F— 1.
- T shadow " ⁇ . ⁇ P P ARA ⁇ P o
- the calculation method is exactly the same as the calculation shown in (14).
- a shadow coordinate system for defining a shadow plane on which a shadow is projected for an object video signal is set.
- the special effect device of the present invention has an origin setting mode for automatically setting the origin of the shadow coordinates.
- the operator sets the source video signal V. Specify a point above. 3D transformation of this specified point
- the object is converted into a three-dimensional space by the matrix T Q , and the corresponding point on the object video signal Vobj converted into the three-dimensional space is set as the origin of the shadow coordinate system.
- the origin of the shadow coordinate system is set at a point on the three-dimensional object video signal Vobj, and as a result, the three-dimensional object video signal Vobj exists on the shadow plane. become.
- the source video signal V Let the upper right point be a, the upper left point be b, the lower left point be c, and the lower right point be d, and the corresponding point on the 3D object video signal V ob j be a ' , b ', c', and d '. Also, the source video signal V.
- the source video signal V is output by the operator.
- the case where the above point d is specified is explained as an example.
- the corresponding point on the observable video signal V obj obtained by transforming the above point d (X d , y d , 0) by the three-dimensional transformation matrix T o is represented by d ′ (X c ′, y d ′, z d '). This point, d (x d , yd, 0) and d '(
- Equation (4 2) and the origin of Shah de coordinate system is a path lame one other mobile matrix L represented by the formula (4 7) (X s., YSO, ZSO), a in Equation (7 4) connexion obtained (x d ', y d' , z d ') by substituting, 3-dimensional objects Tobideo signal V, the origin of the shadow coordinate system to a point above is set.
- the shadow coordinate system is set so that the three-dimensional object video signal V, exists in the shadow plane in the three-dimensional space. Accordingly, the special effect device of the present invention can obtain a natural effect such that the shadow of an object existing on the ground is projected on the ground by the light from the sun.
- the ⁇ key generator 5 ⁇ ⁇ ⁇ ⁇ will be described with reference to FIG.
- the real shadow generator 50 includes a gain control circuit 500, a horizontal LPF 501, a vertical LPF 502, and a real shadow control unit 503 as a whole. Also, the real shadow control section 503 includes a gain characteristic of a gain control circuit 500 described later, and horizontal and vertical
- ROM 504 which stores table data indicating the filtering characteristics of 01 and 502.
- the gain control circuit 500 is a circuit that controls a gain given to a shadow key signal (# 4 , # 6) supplied from the frame memory 23.
- Vertical LPF 5 0 2 is a horizontal LPF 5 0 Shah synchronizing first signal from 1 ( ⁇ 4, ⁇ 6) mouth one path off I filter in the vertical direction of the frequency component of (LPF).
- the real-shadow controller 503 receives a parameter ⁇ used as depth information in the present embodiment from the read address generation circuit 24 ⁇ and stores it in R ⁇ 504.
- the gain control circuit 500 and the horizontal and vertical PFs 501 and 502 are controlled based on predetermined gain characteristics and filtering characteristics, respectively.
- the predetermined gain characteristic is data that results in the intended gain characteristic
- the filtering characteristic is data that results in the intended filtering characteristic.
- the final image to be obtained is such that the further away the shadow S from the object 0 is from the object ⁇ , the thinner and blurred the shadow S itself is, as shown in FIG. 19 ( ⁇ ). is there.
- the gain characteristics (GAI ⁇ ) indicating the shading of the shadow S are shown in Fig. 19 (B).
- the depth information As parameter H is large Kunar used, the gain is lowered against Shah Douki signal (K 4, K G), as para menu over data H is rather small, the gain for the Shah Douki signal (K 4, KG) Can be raised. In other words, the brightness decreases as the shadow S moves away from the object 0.
- the characteristic data shown in FIG. 19 (, ⁇ ) is shown in FIG. 18.
- the table data consisting of the lame signal and the gain data is shown in FIG. It is stored in R 0 ⁇ 504 in the control unit 503.
- the blur amount (softness) of the shadow S that is, the filtering characteristic (FILTER) of the one-pass filter is as shown in FIG. 19 (C).
- the filtering characteristic (FILTER) of the one-pass filter As shown in Fig. 19 (C), as the parameter Hs increases, the low-pass bands of the horizontal and vertical low-pass filters 501 and 502 become narrower, and the parameter Hs increases. H s hands horizontally and vertically as the is rather small lowpass off I filter 5 0 1 5 0 of each low frequency 2 pass full I Rutagafu rats, i.e. wider. That is, the further away the shadow S is from the object ⁇ , the more the outline of the shadow S is blurred.
- VB (OUT) KBVB + - represented by (1 K B) KAVA ⁇ ⁇ (7 6), combined output such as V B (0 UT) is obtained.
- the first video signal V A in the case where the second video signal V B is above (disk near rie down), priority signal to the composite video signal V A (0U ⁇ ) ⁇ 0 ⁇ Taking into account, the composite video signal corresponding to the first video signal V A is
- the second video signal V B, prioritization Li Ti signal when the first video signal VA is above can be represented by using the priority signal Ho A and (1 one H. A). Therefore, when the first video signal V A is above the second video signal V B and the priority signal (111 H 0A ) is considered for V A (0 U ), The output of V B is
- V B (OUT) X (K B V B + (1- K B) K A V A ⁇ (1 ⁇ H OA)
- V 0 U ⁇ ⁇ 0 U ⁇ V A (0 U ⁇ ) X + V B (0 UT) X (8 1)
- the first and second video signals V A and V B to E Li other than E Ria that image corresponding is displayed Ryo is, using the key signal K a and K b of the first and second video signals VA and V B (1- K a) - so can be defined in the form of a product such as (1 K N), the video signal V Alpha Or the key signal OUT for the area where either VB or
- K OUT 1-(1-KA) (1 K B ) (83)
- the combiner 22 of the special effect device of the present invention has two pieces of image information, that is, depth information II in the XYZ space behind the screen surface 3A shown in FIG. 20 (A). And two video signals of images intersect each other while extending obliquely so as to have a H s, Sunawa Acquired Bujiweku preparative video signal V 2 and Shah de video signal (point source mode at the time of V 4, directional light mode time for V 6) de, respectively the key signal K 2 (FIG. 2 0 (B)) and K 4 (point source mode when the kappa 4, when directional light mode is K s) (Fig. 2 0 (C) while keys Lee in g by), priority signals of two images each part Ho a and (1 one H. a) (Fig. 2 0 (D) Figure based on and FIG. 2 0 (E)) 2 1 Are synthesized using the configuration of
- the prioritization Li Ti signal H OA is information for indicating the display of a Priority for Obujeku preparative video signal V?
- Shah Doubideo signal V 4 or V 6
- II 0A 1 when the priority of Obuji E click preparative video signal V 2 is 1 0 0 Bruno.
- Is a Ichise emissions Bok Shah Doubideo signal (V 4 or V 6) is not displayed at all. That is, it can be said that the object video signal V 2 is opaque.
- H OA Obujiweku Tobideo signal V 2 when the 0.5 is a semi-transparent, so that the sheet catcher Doubideo signal V 4 are show through.
- the object video signal V 2 is displayed 50%, since Shah Doubideo signal (V 4 or V 6) is displayed 50%, Obujiweku preparative bi de O signals V 2 and Shah Doubideo signal (V 4 or V 6 ) will be displayed.
- Figure 2 1 shows a configuration of co Npaina 3 0 as a whole, and the first video signal combining unit 4 1 for calculating the synthesis ratio of the object video signal V 2, Shah Doubideo signal (V 4 or V 6)
- a second video signal synthesizing section 42 for calculating a synthesizing ratio
- a key signal synthesizing section 43 for forming a key signal for the object video signal V 2 and the shadow video signal (V 4 or V 6 ); and an object video signal V 2 and shadow video signal (V 4 or V R) and co Nbaina 3 0 synthesized composite output unit 4 for outputting 4 and the ply o utility signal generating circuit 4 8 Metropolitan a is configured.
- the first video signal synthesizing section 41 includes a “1” coefficient circuit 49, an “one-K ′ 4 (or one-K ′ 6 )” coefficient circuit 50, a synthesizing circuit 45, and multiplication circuits 46, 4. Consists of seven.
- the combining circuit 45 calculates the following equation based on the first, second and third input data D 1, D 2 and D 3.
- the output data D4 is supplied to multiplication circuits 46 and 47, and the multiplication circuit 46 receives the output data D4 and the object signal ⁇ 2 input to the compiler 30.
- output D 4 X kappa 2 is obtained, and the output D 4 X kappa 2 and object video signal V 2 is input to the multiplier 4 7 is al, an output D 4 X ⁇ 2 XV 2 is obtained. Therefore, the output data S 11 output from the first video signal combining unit 41 is
- the second video signal combining unit 4 3, "1 one H 0A" coefficient circuit 5 2 "1” and the coefficient circuit 5 3 "1 one K 2" coefficient circuit 5 4 and the same operation as (7 5) It comprises a synthesis circuit 51 to be executed, and multiplication circuits 152 and 153.
- the input data D1, D2, and D3 input to the synthesis circuit 51 are respectively the “ 111H0A “ output from the " 111H0A " coefficient circuit 51 and the " 111H0A “ output from the "1” coefficient circuit. and “1” output, "1 - K 2" coefficient circuit 5 4 - “since 1 kappa 2" is output, output data Isseki D 4 output from the synthesizing circuit 5 1, ⁇ (1 - ⁇ ⁇ ) + ⁇ ⁇ ⁇ (1- ⁇ 2) ⁇ .
- the multiplication circuit 5 5 is expressed as “(1 ⁇ ′ 4 (or K ′ 6 )) "From the coefficient circuit 5 0" (1 - K '4 (or kappa' 6)) "and output” (1 - kappa 2) "from the coefficient circuit 5 4" (1 one kappa 2) "output and is given, - outputs "(1 one ⁇ 2) ⁇ (1 K ' 4 ( or K' 6)).” "1 one (1 - ⁇ 2) ⁇ ( 1 - K '4 ( or kappa' 6))" operation circuit 5 6
- the combined output unit 4 4 "1 one (1 - ⁇ 2) ⁇ ( 1 - ⁇ '4 ( or K'6))" is converted to a fraction in a reverse circuit 5 7 an output, the multiplier circuit 5 8
- the composite video signal V is obtained by multiplying the sum by the sum output of the adder circuit 59. From combiner 30 to mixer 4
- the adder circuit 59 is provided with the combined output data S 11 and S 12 of the first and second video signal combiners 41 and 42, and thus the combined video signal V. Is
- V o ((H OAK 2 + (1- H OA) - ( ⁇ - ⁇ '4 ( or K' 6)) ⁇ ⁇ 2 ⁇ V + (1- ⁇ ⁇ ) ⁇ / 4 ( or K '6) + ⁇ ⁇ -(1- ⁇ 2 ) ⁇ '4
- the mixed video signal V ' miK ( V ⁇ in the parallel light source mode) and the mixed key signal K' mi K (K "in the parallel light source mode) actually output from the combiner 30 are (8 9) Expression — , (88).
- the images I and A are the depth information H.
- the video signals V 2 and V 4 (or V 6 ) representing the first and second images ⁇ and A are key signals K 2 and K ′ 4 ( Or keying processing by ⁇ '6).
- Depth information of image ⁇ Is depth information H where image 0 is closer to screen 3A than image ⁇ .
- object video signal priority signal so as to output V 2 H.
- A (FIG. 20 (D)) is generated in the priority signal generation circuit 48.
- the output range W 1 and Shah de Ubideo signal V 4 in the range of W 3 have the depth information H s closer image 0 to disk rie down surface 3 A (or V 6)
- the priority signal to perform is calculated as (11- H0A ) (Fig. 20 (E)).
- the object video in the high priority ranges W2 and W4 of the object video 0, the object video is projected on the screen surface 3A and the shadow video A is displayed.
- the shadow image A is displayed on the screen surface 3A.
- the priority signal generating circuit 48 is configured as shown in FIG.
- Obujeku preparative video signal V 2 and Shah Doubideo signal is input No. V 4 (or V 6 ) depth information H.
- H s (FIG. 23 (A)) are received by a subtraction circuit 65, and the subtraction output S 21 (2H.1 H s ) (FIG. 23 (B)) is applied to a multiplication circuit 66.
- the limiter 68 limits the value of the multiplication output S 23 to a range of +0.5 0.5 as shown in FIG. 23 (C), and thus the difference of the depth information.
- the limiter output S24 is ( I. H A ) Gives the value of G.
- the priority signal generation circuit 48 outputs the priority signal H 0A whose value switches in the range of 1 to 0.
- the priority signal H 0A is the depth information H of the first and second video images A and A.
- Hs the slope varies according to the magnitude of the difference.
- the priority signal H 0A does not suddenly switch to 1 to 0 (or 0 to 1). Images 0 and A are seen through so that they overlap each other (Fig. 20 (G)). In other words, Since image ⁇ and image A are mixed and displayed, image 0 and image A
- the mixing ratio of the image I and the image I gradually changes, so that a display without discomfort can be performed.
- the width of the boundary area and the way of changing the image can be adjusted to the extent required by the operator by adjusting the value of the gain output S22 of the gain register 67.
- the combiner 22 is a depth information synthesis circuit with a NAM mix circuit configuration.
- the composite depth information H is selected by selecting depth information of the images I and A (representing the position of the image closer to the screen surface 3A). As the ZH S sent from the co Nbaina 2 2.
- a mixed video signal (V ' mi ⁇ in point light source mode, V ⁇ mi ⁇ in parallel light source mode) and a mixed key signal (K' mix in point light source mode) In the parallel light source mode, K ⁇ mi )) is expressed by the above-mentioned equations (89) and (88), respectively.
- V OUT ⁇ ' MI K V MIK + (1 — K') V BK
- V OUT V MIford+ ( ⁇ — ⁇ ') V BK
- the real shadow generator 50 controls the gain of the output real shadow signal (K'4 in the point light source mode, '6' in the parallel light source mode).
- K'4 the gain of the output real shadow signal
- V. UT ⁇ H OA 2 + (1-H OA) K 2 ⁇ V 2
- V "OUT ⁇ H o AK 2 + (1-H OA) K 2 ⁇ V 2
- V OUT H OAK 2 V 2 + ⁇ (1— H. A ) + H 0A (1-K 2 ) ⁇ V 4
- both the point light source mode and the parallel light source mode are parts other than H 0AK 2 V 2 GMBH
- Doubideo signal (V 4 or V 6) are output 1 0 ⁇ %.
- the shadow video signal is black on the tube and surface, and in this case it will be dark black and projected on the monitor screen.
- the operator operates a three-dimensional pointing device, keys, and the like provided on the control panel 5 to calculate a read address used in the special effect device of the present invention. Enter each parameter to be set.
- the necessary parameter menu over data to the calculation of the read add-less, Pasupeku te I blanking value [rho Zeta, X s axis of shadow coordinate system, the rotation of each of the Y s axis and Z s axis Angles ⁇ x , 0 ⁇ , ⁇ z), the origin of the shadow coordinate system (x s , y so, z so), the type of light source indicating whether it is a parallel light source or a point light source, and the position of the light source is ( ⁇ ⁇ _, y L, z L) or (r, ⁇ , ⁇ ) and the like.
- the CPU 8 receives these information from the control panel 5.
- the parameters are received and read in real time and reflected in the calculation of the address.
- the CPU 8 monitors a change in a parameter supplied from the control panel 5 at a frame cycle, and calculates a read address based on the supplied parameter. Because of the parameters (bubc ⁇ , b, ⁇ b 33 ') are calculated in the frame cycle. Therefore, these parameters can be changed in real time in the frame period according to the operation of the operator, and can be read out in real time according to the changed parameters.
- the address is calculated.
- the CPU 8 can also store these parameters in the RAM 7 for each frame as set values.
- the monitor screen 3 displays the source video signal V. Is displayed.
- the operator operates the three-dimensional pointing device provided on the control panel 5 to generate the source video signal V.
- Command 3D image conversion operation When a three-dimensional image conversion is instructed by the operator, the CPU 8 generates a three-dimensional conversion matrix T specified by the operator. Is the parameter one another, r ⁇ r 33, i ⁇ ., The z and s receiving co emission control panel 5 or al, reflects these parameters Ichita the operation of reading add-less in Li Alta Lee beam Let it. Specifically, the CPU 8 monitors a change in these parameters supplied from the control panel 5 at a frame cycle, and reads a read address based on the supplied parameters. Parameters for counting (bub aa, b, ⁇ b
- the read address generation circuit 14 of the object signal generation unit 10 is configured as follows. ? 11 11 Receives the parameters 1 1 1 to 1) 33 from 8 and receives the screen address (X s , Y s) from the screen address generation circuit 9 and obtains the equation (13) and based on the (1 4), Obuji two click preparative signal read add-less (chi Micromax, Upsilon ”) to be generated in the frame period.
- the generated read address (chi Micromax, Upsilon Micromax) is Frame memory for video signal 12 and frame memory for key signal
- the object video signal V 2 is outputted from the frame memory 12, and the object key signal ⁇ 2 is outputted from the frame memory 13.
- the read address generation circuit 24 of the shadow signal generation section 20 receives the parameters b and -b 33 ′ from the CPU 8 and receives the parameters from the screen address generation circuit 9.
- receiving a rie N'a dress (X s, Ys), based on the formula (5 8) and (5 9) the read address (X M ', Y M' ) full rate-time cycle for shadow signal Generated by
- the generated read addresses ( ⁇ ⁇ ′, ⁇ personally′) are supplied to the frame memory 22 for the video signal and the frame memory 23 for the key signal, respectively.
- the frame memory 22 outputs the shadow video signal V 4
- the frame memory 23 outputs the shadow key signal ⁇ 4. Is forced.
- the shadow signal output from the gain control circuit 500 is horizontal
- LPF 501 is then input to the vertical LPF 502.
- Li Arusha dough controller 5 0 3 based on the value of H s used as depth information in the present embodiment to be input is stored in the R ⁇ Micromax 5 0 4 of Riarusha dough controller 5 0 3, from a table consisting of H s and off I filter coefficient data (see Fig. 1 9 C) issued reads the corresponding filter coefficient data and supplies the full I filter coefficient data in the horizontal LPF 5 0 1.
- the horizontal LPF 501 multiplies the input shadow key signal by the filter coefficient data from the real shadow controller 503 and outputs the result.
- Li Arusha dough controller 5 0 3 is based on the H s input, are stored in the R 0 M 5 0 4 of Li Arusha dough controller 5 ⁇ 3, H s and off I filter coefficients
- the corresponding filter coefficient data is read from the table including the data (see FIG. 19C), and the read filter coefficient data is supplied to the vertical LPF 502.
- the vertical PF 502 multiplies the shadow signal from the horizontal LPF 501 by the filter coefficient data read from the real shadow controller 503, and finally the real shadow generator 5 and outputs 0 real Shah synchronization - signal K '4 and to outputs. Therefore, as shown in FIG.
- the data of the shadow S near object 0 is Since the filter coefficient data multiplied by the object ⁇ ⁇ becomes larger, the contour becomes clear. Then, as the distance from the object increases, the value of the filter coefficient data to be multiplied becomes smaller, so that the data of the shadow S gradually becomes less contoured (blurred).
- the contour cannot be shown to be gradually blurred on the drawing, the shadow is gradually blurred as it moves away from the object.
- Co Nbaina 3 when the object signal generation unit 1 0 receives the old Bujiwe click preparative video signal V 2 and Obujiweku Toki first signal K 2 together, shea catcher du signal generator 2 0 from Shah Doubideo signal V 4 ⁇ beauty It receives the real signal K 4 ′ and generates a mixed video signal V mix ′ and a mixed key signal K mi K ′ based on the equation (a).
- the mixer 40 includes an externally supplied background video signal V BK and a mixed video signal V mi spiritsoutput from the combiner 30.
- CPU 8 is supplied from copolyesters emissions collected by filtration Rupaneru 5 Changes in these parameters are monitored in real time in the frame cycle. And a parameter (! For calculating the read address based on the supplied parameters! , ⁇ ! ⁇ , B, -b 33 ') are calculated at the frame period. Therefore, these parameters can be changed in real time in the frame cycle in accordance with the operation of the operator, and the read out data can be read out in real time in accordance with the changed parameters. The address is calculated.
- CPU 8 receives the parameters! ",! ⁇ ! ⁇ Calculates each parameter b ⁇ ⁇ ⁇ ⁇ 33 of the three-dimensional conversion matrix T 33 — 1 represented by equation (8) based on 33 , ⁇ . Specifically, equation (2 8) to formula (3 7), Bruno,. ra Ichita ⁇ ⁇ ⁇ ⁇ 33, by substituting " ⁇ ⁇ . iz and s, Bruno. Lame one! Can be obtained. Also, the CPU 8 receives the three-dimensional conversion matrix T. Para menu over data r,, ⁇ r 33, i X. Si ⁇ . SL z. S, and parameters x about Shah de coordinates, 0 ⁇ , ⁇ z, X s. , Y s .
- the generated read add-less ( ⁇ ⁇ , ⁇ ⁇ ) is off Remume mode for full Remume mode Li 1 2 and the key signal for bi de O signals Are supplied to the memory 13 respectively.
- an object video signal V 2 is output from the frame memory 12, and an object video signal K 2 is output from the frame memory 13.
- the shadow signal output from the gain control circuit 500 is input to the horizontal LPF 501 and then to the vertical LPF 502.
- Riarusha dough controller 5 0 3 based on the value of H s which need use as depthwise information in this embodiment to be input, stored in the R 0 Micromax 5 0 4 of Li Arusha dough controller 5 0 3 are, from Ruteichi Bull such from H s and the filter coefficient data (see Fig. 1 9 C) corresponding filter coefficient data Read and supply this filter coefficient data to the horizontal LPF 501.
- the horizontal LPF 501 multiplies the input shadow key signal by the filter coefficient data from the real shadow controller 503 and outputs the result.
- Li Arusha de controller 5 0 3 based on the H s input, re Arusha dough controller 5 0 3 R ⁇ M 5 0 4, the stored, H s and off I filter
- the corresponding filter coefficient data is read from the table including the coefficient data (see Fig. 19C), and the read filter coefficient data is supplied to the vertical LPF 502.
- the vertical LPF 502 multiplies the shadow key signal from the horizontal LPF 501 by the filter coefficient data read from the real shadow controller 503, and finally the rear shadow generator 5 output as Li Arusha Douki signal K '6 to output Y. Therefore, as shown in FIG. 19 (1), the contour of the shadow S data in the vicinity of the object becomes sharp because the filter coefficient data multiplied by the object becomes large. Then, as the distance from the object 0 increases, the value of the filter coefficient data to be multiplied becomes smaller, so that the data of the shadow S gradually becomes unsharpened (blurred).
- the contour cannot be shown as gradually blurring in the drawing, the shadow gradually blurs as it moves away from the object.
- the combiner 30 receives the object video signal V 2 and the object key signal K 2 from the object signal generator 10, and also receives the shadow video signal V 6 and the real signal from the shadow signal generator 20. It receives the dowkey signal K 6 ′ and generates a mixed video signal V middy ⁇ and a mixed key signal K mi K ′′ based on equation (b).
- the mixer 40 outputs a background video signal V BK supplied from the outside and a mixed video signal V mi K * output from the combiner 30. And the mixed key signal K mi K ′, and generates an output video signal V 0 UT ”based on the equation (d).
- a gain characteristic according to the depth information is controlled, and a filtering characteristic according to the depth information is controlled, so that a shadow for a more current object is generated, and an image of the shadow is generated.
- the object image and the package image are combined with each other, so with a simple configuration and simple processing, an object image that aims at a more realistic shadow according to the distance from the object image can be created at high speed. This has the effect that it can be added.
- the image special effect device for the object and the shadow can be used to create a more realistic shadow by a simple operation without forming a desired image by a separate operation. Can be synthesized.
- the special effect device of the present invention can be used in a case where a special effect image is generated in a broadcast station image processing device.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Circuits (AREA)
Description
明 細 書
特殊効果装置及び特殊効果方法 技術分野
本発明は、 画像処理装置に関し、 特に 3次元的に画像変換され たォブジ ク ト ビデオ信号に対して適切なシャ ドウをつけること によつて立体感を得る特殊効果装置に関するものである。 背景技術
映像特殊効果装置と しては、 例えば図 1 に示すようなものがあ る。 図 1 Aは、 映像特殊効果装置の効果の 1つを示す説明図、 図 1 Bは、 このような効果を実現することができる映像特殊効果装 置の構成図である。
図 1 Aに示すように、 図 1 Bに示される映像特殊効果装置は、 ォブジヱク ト 〇から疑似的な影 I Sを生成し、 ォブジヱク ト 0と 疑似的な影 I Sとを合成するものである。 こ こで、 オブジェク ト とは特殊効果を施す処理対象の映像のことであり、 オブジェク ト 映像信号とは特殊効果の処理対象となる映像信号のことである。
図 1 Bに示される映像特殊効果装置は、 入力端子 1 0 3を介し て供給されるバッ クグラ ン ド信号 B Gから入力端子 1 0 1を介し て供給されるキー信号 Kを減じ、 この演算結果に入力端子 1 0 0 を介して供給される映像信号 V i を加える混合回路 1 0 2 と、 入 力端子 1 0 1 を介して供給されるキ一信号 Kを記憶するメモリ 1 0 4 と、 このメ モ リ 1 0 4上に記憶されるキー信号 Kを X , Y方 向のア ド レス操作によりその位置を変えさせて疑似影信号 I Sを 生成する操作部 1 0 5 と、 メ モ リ 1 0 4から疑似影信号 I Sから 、 疑似影信号 I Sと入力端子 1 0 1を介して供給されるキ一信号 Kとの重なる部分を減ずるォ一バーァンダ一回路 1 0 6 と、 混合
回路 1 0 2からの混合信号 M I Xから、 オーバ一ア ンダー回路 1
0 6からのオーバーアンダー処理済み出力 K Z I Sを減じ、 この 減算結果に入力端子 1 0 8を介して供給されるカラーマツ ト信号 を加え、 出力端子 1 0 9からの出力信号 O U Tとして出力する混 合回路 1 0 7 とで構成される。 、
次に、 図 1 Aを参照して、 図 1 Bに示される映像特殊効果装置 の動作について説明する。
入力端子 1 0 0を介して、 オブジェク ト映像信号 V i が供給さ れる。 これは、 図 1 Aに示すォブジヱク ト 0に対応する。 入力端 子 1 0 1を介して供給されるキー信号 Kは、 オブジェク ト映像信 号 V i をキ一ィ ングするためのキ一信号 Kである。 混合回路 1 0 2 は、 バッ クグラ ン ド信号 B Gからキ一信号 Kに相当する信号を 減じ、 その位置にオブジェク ト映像信号 V i を加え、 混合信号 M
1 Xを生成する。
一方、 入力端子 1 0 1を介して供給されるキー信号 Kは、 メ モ リ 1 0 4に供給される。
操作部 1 0 5より、 X及び Y方向のア ドレスが変更されると、 操作部 1 0 5は、 メ モ リ 1 0 4におけるキー信号 Kの位置を変更 する。 キー信号 Kはメ モ リ 1 0 4から読み出され、 疑似影信号 I Sと してォ一バ一ア ンダー回路 1 0 6に供給される。 こ こで、 疑 似影信号 I Sの画面は、 図 1 Aに示す疑似的な影 Iがオブジェク ト 0によつて隠れていない画像となる。 ォ一バ一ァンダ一回路 1 0 6にはキ一信号 K及び疑似影信号 I Sが供給される。 オーバー ァンダー回路 1 0 6は、 疑似影信号 I Sからキ一信号と疑似影信 号 I Sとの重なる部分だけを減ずる。 オーバーアンダー回路 1 0
6からのオーバーァンダ一処理出力 K Z I Sは、 図 1 Aに示す疑 似的な影 I Sに相当する。
オーバー Zァンダー処理出力 K Z I S及び混合信号 M I Xは、
夫々混合回路 1 0 7 に供給される。 混合回路 1 0 7においては、 混合回路 1 0 2からの混合信号 M I Xから、 オーバー Zア ンダー 回路 1 0 6からのオーバー Zア ンダー処理出力 K Z I Sが減じら れ、 この減算結果に入力端子 1 0 8を介して供給される力 ラーマ ッ ト信号が加えられ、 この加算結果が出力信号〇 U T して出力 端子 1 0 9から出力される。 この出力信号は図 1 Aに示す画像全 てである。
ところで、 図 1 Aに示す疑似的な影 I は単にォブジエタ ト 〇か ら生成したキ一信号をずらしただけのものである。 つまり、 図 1 Aに示す疑似的な影付きの画像は、 2次元的な画像である。 従つ て、 現実の影により近づけるためには、 3次元的な画像とする必 要がある。 この場合、 オブジェク トに対して回転した影を生成し 、 オブジェク ト とこの影を合成する必要がある。 このためには、 オブジェク ト用の映像特殊効果装置、 影用の映像特殊効果装置を 夫々 1台ずつ用意し、 ォブジヱク ト及び影の夫々の回転軸を変え てから合成する必要がある。 この場合に、 要求されるオペレーシ ョ ン技術は、 別々の映像特殊効果装置で生成した画像の合成であ るから、 非常に高度なものとなる。
更に、 現実の影はォブジニク トからの距離が遠く なればなるほ ど、 影の輪郭がボケ、 且つ影の色が薄く なる。 従って、 現実の影 と同じような影を特殊効果により付加したいといった要望を満足 させるためには、 ォブジェク 卜からの距離に応じた処理を行わな ければならない。 しかしながら、 現時点においては映像特殊効果 装置でこのような処理を簡単に行う ことは非常に困難である。 勿 論、 3 ン ピュ ータグラ フ ィ ッ ク スの技術を用いれば、 現実の影に 非常に近い影の画像を生成することは可能である。 しかしながら 、 コ ン ピュータグラ フ ィ ッ ク スは 1枚の画像の生成に膨大な時間 が費やされる。 従って、 コ ン ピュータグラフィ ックスを用いて放
送及びォ一サ リ ング等のような間断無く入力される画像の処理を 行う ことはほとんど不可能である。 発明の開示
この発明の特殊効果装置は、 ビデオ信号が示す物体 該物体に 対する影とに対して特殊効果処理を施す特殊効果装置において、 物体の影の画像の利得を制御する利得制御手段と、 上記影の画像 を濾波する濾波手段と、 上記影の奥行情報に応じて上記利得制御 手段の利得を制御するとともに、 上記影の奥行情報に応じて上記 濾波手段の濾波特性を制御する制御手段と、 上記制御手段により 制御されて出力される上記物体の影の画像と、 上記物体の画像と 、 上記物体の背景となる画像とを合成する合成手段と、 を有する ものである。
この発明の特殊効果装置は、 上記制御手段は、 上記奥行情報に 応じた利得特性データと、 濾波特性データとが記憶された記憶手 段を有し、 上記制御手段は、 上記記憶手段に記憶された利得特性 データに応じて上記利得制御手段の利得を制御するとともに上記 記憶手段に記憶された濾波特性データに応じて上記濾波手段の瀘 波特性を制御するものである。
この発明の特殊効果装置は、 上記濾波手段は、 ロ ーパス フ ィ ル 夕から構成されているものである。
この発明の特殊効果装置は、 入力されるソ ースビデオ信号に対 して特殊効果処理を施す特殊効果装置において、 上記ソ—スビデ ォ信号に対して第 1 の画像変換処理を行い目的画像を示すォブジ ェク 信号を生成するォブジェク ト信号生成手段と、 上記ソ一ス ビデオ信号に対して第 2の画像変換処理を行い上記目的画像に対 応するシャ ドウ信号を生成するシャ ドウ信号生成手段と、 上記ォ ブジェク ト信号生成手段から出力されるォブジェク ト信号と、 上
記シャ ドウ ビデォ信号生成部から出力される シャ ドウ信号とが入 力されて、 上記オブジェク ト信号と上記シャ ドウ信号と、 上記ソ —スビデオ信号に対応するバッ クグラゥ ンド信号とを合成して出 力ビデオ信号を出力する合成手段とを備え、 上記シャ ドウ信号生 成手段には、 上記ソースビデオ信号に対応する上記シャ、ドウ信号 に対して利得を制御する利得制御手段と、 上記シャ ドウ信号を濾 波する瀘波手设と、 上記シャ ドウ信号に対応する奥行き情報を生 成する奥行き情報生成手段と、 該奥行き情報生成手段からの奥行 き情報に基づいて上記利得制御手段の利得を制御するとともに該 奧行き情報に基づいて上記濾波手段の濾波特性を制御する制御芋 段とを有するものである。
この発明の特殊効果装置は、 上記シャ ドウ信号生成手段に入力 されるシャ ドウ信号は、 上記利得制御手段に入力されて利得が制 御されたシャ ドウ信号と して出力され、 該利得が制御されたシャ ドゥ信号は上記瀘波手段に入力されて濾波されて上記濾波手段か らシャ ドウ信号と して出力されるものである。
この発明の特殊効果装置は、 上記瀘波手段は、 ロ ーパスフ ィ ル 夕から構成されているものである。
この発明の特殊効果装置は、 上記制御手段は、 上記奥行き情報 生成手段からの上記奥行き情報に応じた利得特性データと瀘波特 性データの記憶された記憶手段を有し、 該利得特性データと該濾 波特性データとを該記憶手段から上記奥行き情報に応じてそれぞ れ上記利得制御手段と上記濾波手段に供給するものである。
この発明の特殊効果装置は、 上記オブジェク ト信号生成手段に は、 入力される上記ソ ースビデオ信号を記憶する記憶手段と、 該 記憶手段に記憶された上記ソ一スビデオ信号を所定の単位で読み 出せるよう読出しァ ド レスを発生する読出しァ ド レス発生手段と を有し、 上記第 1の画像変換処理は上記読出しア ド レスによって
上記メモ リ手段から読み出された上記ォブジ ク ト ビデオ信号が 目的画像となって処理されるものである。
この発明の特殊効果装置は、 上記シャ ドウビデオ信号生成手段 には、 入力される上記ソ ースビデオ信号を記憶する記憶手段と、 上記記憶手段に記憶された上記ソ ースビデオ信号を所定の単位で 読み出す読出しァ ドレスを発生する読出しァ ド レス発生手段とを 有し、 上記第 2の画像変換処理は上記読出しア ド レスによって上 記メ モ リ手段から読み出された上記シャ ドウドデ才信号が上記目 的画像に対応するシャ ドウ信号として出力されるよう処理される ものである。
この発明の特殊効果装置は、 上記合成手段は、 上記ォブジェク ト信号生成手段からの上記ォブジ ク ト信号と上記シャ ドウ信号 生成手段から上記シャ ドウ信号とが入力されて、 入力される上記 各信号を合成して混合信号を出力する第 1 の合成手段と、 上記混 合手段と上記バッ クグラ ン ド信号とが入力されて、 出力ビデオ信 号を出力する第 2の合成手段からなるものである。
この発明の特殊効果装置は、 入力されるソースビデオ信号と該 ソ ース ビデォ信号に対応するソ ースキー信号とに対して特殊効果 処理を施す特殊効果装置において、 上記ソース ビデオ信号と上記 ソ ースキー信号とが入力されて、 第 1の画像変換処理を行い目的 画像を示すォブジヱク ト ビデォ信号とォブジヱク トキ一信号とを 生成するオブジェク ト信号生成手段と、 上記ソ ースビデオ信号と 上記ソ ースキー信号とが入力されて、 第 2 の画像変換処理を行い 上記目的画像に対応するシャ ドゥビデオ信号と リ アルシャ ドウキ 一信号を生成するシャ ドウ信号生成手段と、 上記オブジェク ト信 号生成手段から出力されるオブジェク ト ビデオ信号とォブジュク トキ一信号とが入力されるとともに、 上記シャ ドウ信号生成手段 からの上記シャ ドウビデオ信号と上記リ アルシャ ドウキ一信号と
が入力され、 さ らに上記ソ一スビデオ信号に対応するバッ クグラ ゥ ン ド信号とが入力されて、 入力された上記各信号を合成して出 力ビデオ信号を生成して出力する合成手段と、 を有し、 上記シャ ドゥ信号生成手段には、 入力される上記ソ一スキー信号に対し上 記目的画像に対応する シャ ドウキー信号を生成する シャ ドウキ一 信号生成手段と、 該シャ ドウキー信号生成手段から出力されるシ ャ ドウキー信号に対し利得を制御する利得制御手段と、 上記シャ ドウキー信号を濾波する濾波手段と、 上記シャ ドウ信号に対応す る奥行き情報を生成する奥行き情報生成手段と、 該奥行き情報生 成手段からの該奥行き情報に基づいて上記利得制御手段の利得を 制御するとともに該奥行き情報に基づいて上記濾波手段の濾波特 性を制御する制御手段とを有するものである。
この発明の特殊効果装置は、 上記濾波手段は、 ロ ーパス フ ィ ル 夕から構成されているものである。
この発明の特殊効果装置は、 上記シャ ドウ信号生成手段の上記 シャ ドウキー信号生成手段から出力されるシャ ドウキー信号は、 上記利得制御手段で利得が制御されたシャ ドウキー信号として出 力され、 利得が制御されたシャ ドウキー信号は上記濾波手段に入 力されて、 瀘波特性が制御されてリ アルシャ ドウキ一信号として 出力されるものである。
この発明の特殊効果装置は、 上記シャ ドウ信号発生部の上記制 御手段は、 上記奥行き情報生成手段からの上記奥行き情報に応じ た利得特性データと濾波特性データとが記憶された記憶手段を有 し、 該利得特性データと該濾波特性データとを上記奥行き情報に 応じ tそれぞれ上記利得制御手段と上記濾波手段に供給するもの でめる。
この発明の特殊効果装置は、 上記合成手段は、 上記ォブジェク ト信号生成手段からの上記ォブジェク トビデオ信号と上記ォブジ
ク トキ一信号とが入力されるとともに、 上記シャ ドゥ信号生成 手段からの上記シャ ドウビデオ信号と上記リ アルシャ ドウキ一信 号とが入力されて、 入力される上記各信号を合成して混合ビデオ 信号と混合キー信号を生成する第 1の合成手段と、 上記第 1 の合 成手段からの混合ビデオ信号と混合キー信号及び上記バックグラ ゥ ン ド信号とが入力されて上記出力ビデオ信号を生成する第 2の 合成手段とを有するものである。
この発明の特殊効果装置は、 上記ォブジェク ト信号生成手段に は、 上記ソ 一スビデオ信号を記憶するための第 1 のメ モ リ手段と 上記ソ 一スキー信号を記憶するための第 2のメ モ リ手段と、 上記 第 1のメ モ リ手段と上記第 2のメ モ リ手段とにそれぞれ記憶され た上記ソ一スビデオ信号と上記ソ一スキー信号とを上記それぞれ のメ モ リ手段から読み出すための読出しァ ド レスを発生して上記 第 1のメ モ リ手段と上記第 2のメ モ リ手段とに該読出しア ド レス を供給する読出しア ド レス発生手段とを有し、 上記第 1の画像変 換処理は上記読出しァ ドレスによって上記第 1 のメ モ リ手段と上 記第 2のメ モ リ手段とから読み出されたそれぞれ上記ォブジェク ト ビデオ信号と上記ォブジュク トキー信号とが上記目的画像とし て出力されるものである。
この発明の特殊効果装置は、 上記シャ ドウ信号生成手 I殳には、 上記ソ ースビデオ信号を記憶するための第 3の記憶手段と上記ソ —スキー信号を記憶するための第 4のメモ リ手段と、 上記第 3の メ モ リ手段と上記第 4 のメ モリ手段とにそれぞれ記憶された上記 ソースビデオ信号と上記ソ一スキー信号とを上記それぞれのメモ リ手段から読み出すための読出しァ ド レスを発生して上記第 3の メモ リ手段と上記第 4のメ モ リ手段とに該読出しァ ドレスを供給 する読出しア ドレス発生手段とを有し、 上記第 2の画像変換処理 は、 上記読出しア ド レスによつて上記第 3のメ モ リ手段と上記第
4のメ モ リ手段とからそれぞれ読み出された上記シャ ドウビデオ 信号と上記シャ ドウキー信号が出力されて上記シャ ドウビデオ信 号が上記目的画像に対応するシャ ドウビデオ信号として出力され る処理を行なう ものである。
この発明の特殊効果方法は、 入力されるビデオ信号が^す物体 と該物体に対する影とに対して特殊効果処理を施す特殊効果方法 において、 上記物体の影を示す画像の利得を制御する利得ステッ プと、 上記影の画像を瀘波する濾波ステップと、 上記影の奥行き 情報に応じて上記利得ステップの利得を制御するとともに、 上記 影の奥行き情報に応じて上記濾波ステップの瀘波特性を制御する 制御ステップと、 上記制御ステップにより制御されて出力される 上記物体の影の画像と、 上記物体の画像と、 上記物体の背景とな る画像とを合成して出力ビデオ信号を出力する合成ステップとか らなるものである。
この発明の特殊効果方法は、 上記制御ステップは、 記憶手段に 記憶された上記奥行き情報に応じた利得特性データによって上記 利得ステップで上記利得が制御されるとともに、 上記記憶手段に 記憶された上記奥行き情報に応じた瀘波特性データによって上記 濾波ステップで上記影の画像を瀘波するものである。
この発明の特殊効果方法は、 入力されるソースビデオ信号に対 して特殊効果処理を行なう特殊効果方法において、 上記ソース ビ デォ信号に対して第 1の画像変換処理を行って目的画像を示すォ ブジヱク ト信号を生成するォブジヱク ト信号生成ステップと、 上 記ソ ースビデオ信号に対して第 2の画像変換処理を行って上記目 的画 に対応するシャ ドウ信号を生成するシャ ドウ信号生成ステ ップと、 上記ォブジェク ト信号と、 上記シャ ドウ信号と、 上記ソ ースビデオ信号に対応するバッ クグラウン ド信号とが入力されて 、 入力された上記各信号を合成して出力ビデオ信号を出力する合
成ステップと、 を有し、 上記シャ ドゥ信号ステップには、 上記ソ ―スビデオ信号に対応する上記シャ ドウ信号に対して利得を制御 する利得制御ステップと、 上記シャ ドウ信号を濾波する瀘波ステ ップと、 上記シャ ドウ信号に対応する奥行き情報を生成する奥行 き情報生成ステ ッ プと、 該奥行き情報生成ステ ッ プから、の上記奥 行き情報に基づいて上記利得制御ステップの利得を制御するとと もに上記奥行き情報に基づいて上記濾波ステップの濾波特性を制 御する制御ステップとを有するものである。
この発明の特殊効果方法は、 入力されるソ ースビデオ信号に対 して第 1の画像変換処理を行い目的画像を示すオブジェク ト信号 を生成するォブジ ク ト信号生成ステツプと、 上記ソ ースビデォ 信号に対して第 2の画像変換処理を行い上記目的画像に対応する シャ ドウ信号を生成する シャ ドゥ信号生成ステップと、 上記ォブ ジェク ト信号生成ステップで生成されるォブジヱク ト信号と、 上 記シャ ドウビデオ信号生成ステップで生成されるシャ ドウ信号と が入力されて、 上記オブジェク ト信号と上記シャ ドウ信号と、 上 記ソ一スビデオ信号に対応するバックグラウン ド信号とを合成し て出力ビデオ信号を出力する合成ステップとを備え、 上記シャ ド ゥ信号生成ステップには、 上記ソ ースビデオ信号に対応する上記 シャ ドウ信号に対して利得を制御する利得制御ステ ッ プと、 上記 シャ ドゥ信号を濾波する濾波ステップと、 上記シャ ドゥ信号に対 応する奥行き情報を生成する奥行き情報生成ステツプと、 該奥行 き情報生成ステップからの奥行き情報に基づいて上記利得制御ス テップの利 ί导を制御するとともに該奥行き情報に基づいて上記濾 波ス ^ップの濾波特性を制御する制御ステップとを有する特殊効 果方法において、 上記瀘波ステ ッ プは、 口一パスフ ィ ルタ により 行なう ものである。
この発明の特殊効果方法は、 上記制御ステ ッ プは、 上記奥行き
情報生成ステップからの上記奥行き情報に応じた利得特性データ と濾波特性データの記憶された記憶ステップを有し、 該利得特性 データと該濾波特性データとを該記憶ステップから上記奥行き情 報に応じてそれぞれ上記利得制御ステップと上記濾波ステ ッ プに 供給するものである。
この発明の特殊効果方法は、 上記ォブジ ク ト信号生成ステツ プには、 入力される上記ソ ースビデオ信号を記憶する記憶ステッ プと、 該記憶ステップで記憶された上記ソ ースビデオ信号を所定 の単位で読み出せるよう読出しア ドレスを発生する読出しァ ド レ ス発生ステップとを有し、 上記第 1 の画像変換処理は上記読出し ア ド レスによつて上記記憶ステップから読み出された上記ォブジ - ク ト ビデオ信号が目的画像となって処理されるものである。
この発明の特殊効果方法は、 上記シャ ドウ ビデオ信号生成ステ ップには、 入力される上記ソ ース ビデオ信号を記憶する記憶ステ ップと、 上記記憶ステップで記憶された上記ソースビデオ信号を 所定の単位で読み出す読出しア ドレスを発生する読出しァ ド レス 発生ステ ッ プとを有し、 上記第 2 の画像変換処理は上記読出しァ ドレスによつて上記メ モリ手段から読み出された上記シャ ドウビ デォ信号が上記目的画像に対応するシャ ドウ信号として出力され るよう処理されるものである。
この発明の特殊効果方法は、 上記合成ステップは、 上記才ブジ ヱク ト信号生成ステップからの上記ォブジヱク ト信号と上記シャ ドゥ信号生成ステップからの上記シャ ドウ信号とが入力されて、 入力される上記各信号を合成して混合信号を出力する第 1の合成 ステップと、 上記混合信号と上記バックグラウ ン ド信号とが入力 されて、 出力ビデオ信号を出力する第 2の合成ステップからなる ものである。
この発明の特殊効果方法は、 入力されるソ ースビデオ信号と該
ソ ースビデオ信号に対応するソースキー信号とに対して特殊効果 処理を施す特殊効果方法において、 上記ソースビデオ信号と上記 ソ一スキー信号とが入力されて、 第 1の画像変換処理を行い目的 画像を示すォブジュク ト ビデオ信号とォブジェク トキ一信号とを 生成する才ブジヱク ト信号生成ステツプと、 上記ソ ース、ビデォ信 号と上記ソ一スキー信号とが入力されて、 第 2の画像変換処理を 行い上記目的画像に対応するシャ ドウビデオ信号と リ アルシャ ド ゥキー信号を生成するシャ ドウ信号生成ステップと、 上記ォブジ ヱク ト信号生成ステップから出力されるォブジヱク トビデオ信号 とオブジェク トキ一信号とが入力されるとともに、 上記シャ ドウ 信号生成ステップからの上記シャ ドウビデオ信号と上記リ アルシ ャ ドウキー信号とが入力され、 さらに上記ソースビデオ信号に対 応するバッ クグラ ウ ン ド信号とが入力されて、 入力された上記各 信号を合成して出力ビデオ信号を生成して出力する合成ステップ と、 を有し、 上記シャ ドウ信号生成ステ ッ プには、 入力される上 記ソースキー信号に対し上記目的画像に対応するシャ ドウキ一信 号を生成する シャ ドウキー信号生成ステ ッ プと、 該シャ ドウキ一 信号生成ステップから出力されるシャ ドウキー信号に対し利得を 制御する利得制御ステップと、 上記シャ ドウキー信号を濾波する 瀘波ステ ッ プと、 上記シャ ドウ信号に対応する奥行き情報を生成 する奥行き情報生成ステップと、 該奥行き情報生成ステップから の該奥行き情報に基づいて上記利得制御ステップの利得を制御す るとともに該奧行き情報に基づいて上記濾波ステップの瀘波特性 を制御する制御ステップとを有するものである。
この発明の特殊効果方法は、 上記濾波ステ ッ プは、 口 一パス フ ィ ルタ によ り行なう ものである。
この発明の特殊効果方法は、 上記シャ ドウ信号生成ステ ッ プの 上記シャ ドウキー信号生成ステップから出力されるシャ ドウキー
信号は、 上記利得制御ステップで利得が制御されたシャ ドウキー 信号として出力され、 利得が制御されたシャ ドウキー信号は上記 濾波ステップに入力されて、 瀘波特性が制御されてリアルシャ ド ゥキ一信号として出力されるものである。
この発明の特殊効果方法は、 上記シャ ドウ信号発生ス、テツプの 上記制御ステップは、 上記奥行き情報生成ステップからの上記奥 行き情報に応じた利得制御デ一タと濾波特性データとが記憶され た記憶ステップを有し、 該利得特性データと該濾波特性データと を上記奥行き情報に応じてそれぞれ上記利得制御ステップと上記 濾波ステップに供給する特殊効果方法。
この発明の特殊効果方法は、 上記合成ステップは、 上記ォブジ ヱク ト信号生成ステップからの上記ォブジヱク ト ビデオ信号と上 記オブジェク トキ一信号とが入力されるとともに、 上記シャ ドゥ 信号生成ステップからの上記シャ ドウビデオ信号と上記リ アルシ ャ ドウキー信号とが入力されて、 入力される上記各信号を合成し て混合ビデオ信号と混合キー信号を生成する第 1の合成ステップ と、 上記第 1の合成ステツプからの混合ビデオ信号と混合キー信 号及び上記バッ クグラ ゥ ン ド信号とが入出されて上記出力ビデオ 信号を生成する第 2の合成ステップとを有するものである。
この発明の特殊効果方法は、 上記ォブジェク ト信号生成ステツ プには、 上記ソ ースビデオ信号を記憶するための第 1のメ モリス テツプと上記ソ ースキー信号を記憶するための第 2のメ モ リ ステ ッ プと、 上記第 1 のメ モ リ ステ ッ プと上記第 2 のメ モ リ ステ ツ プ とにそれぞれ記憶された上記ソ ースビデオ信号と上記ソ ースキ一 信号 を上記それぞれのメ モ リステップから読み出すための読出 しア ドレスを発生して上記第 1のメ モ リ ステツプと上記第 2のメ モ リ ステ ッ プとに該読み出すァ ド レスを供給する読出しァ ド レス 発生ステップとを有し、 上記第 1の画像変換処理は上記読出しァ
ド レスによつて上記第 1のメ モ リステップと上記第 2のメ モリス テップとから読み出されたそれぞれ上記ォブジニク ト ビデオ信号 と上記ォブジ ク トキ一信号とが上記目的画像と して出力される ものである。
この発明の特殊効果方法は、 上記シャ ドウ信号生成ステップに は、 上記ソースビデオ信号を記憶するための第 3の記憶ステップ と上記ソ一スキー信号を記憶するための第 4のメ モ リ ステ ッ プと 、 上記第 3のメモ リステップと上記第 4のメ モ リステップとにそ れぞれ記憶された上記ソ 一スビデオ信号と上記ソースキー信号と を上記それぞれのメ モ リ ステップから読み出すための読出しア ド レスを発生して上記第 3のメ モ リステップと上記第 4のメモ リ ス テツプとに該読出しア ドレスを供給する読出しア ドレス発生ステ ップとを有し、 上記第 2の画像変換処理は、 上記読出しア ド レス によって上記第 3のメ モ リステップと上記第 4のメ モ リステップ とからそれぞれ読み出された上記シャ ドゥビデオ信号と上記シャ ドゥキー信号が出力されて上記シャ ドウビデオ信号が上記目的画 像に対応するシ ャ ドウビデオ信号として出力される処理を行なう ものである。
本発明は、 影の画像を生成する影生成手段と、 影を付ける対象 であるォブジヱク ト画像、 上記影の画像、 バッ クグラウン ドの画 像を合成する合成手段と、 上記比 X Z yに応じた利得特性データ と、 濾波特性データの記憶された記憶手段と、 上記影の画像の利 得を制御する利得制御手段と、 上記影の画像の濾波する瀘波手段 と、 上記影の画像と上記ォブジェク トの画像との距離 Xと、 仮想 的な光源と上記ォブジユタ 卜の画像との距離 yとの比 x Z yを求 め、 当該比 X Z yに応じた上記利得特性に応じて上記利得制御手 段における利得を制御すると共に、 当該比 x Z yに応じた上記瀘 波特性に応じて上記濾波手段における濾波特性を制御する制御手
段とを有するものである。
比 X Z yに応じた利得特性に応じて上記利得制御手段における 利得が制御されると共に、 比 x Z yに応じた濾波特性に応じて濾 波手段における濾波特性が制御され、 より現実の影に近い影の画 像が生成され、 当該影の画像と、 オブジェク ト画像と、 バッ クグ ラウ ン ドの画像が合成される。 図面の簡単な説明
図 1 は、 背景技術を説明するための図である。
図 2 は、 本発明の特殊効果装置の全体構成を示すためのブ口 ッ ク図である。
図 3は、 本発明の特殊効果装置において定義されるワ ールド座 標系を説明するための図である。
図 4は、 オブジェク ト ビデオ信号を得るための変換処理を説明 するための図である。
図 5 は、 ォブジヱク ト ビデオ信号に対応するフ レームメ モ リ上 のア ド レス と、 モニタ ス ク リ ー ン上とのア ド レス との関係を表す 図である。
図 6 は、 パラメ ータ Ηの意味を示すためのモニタスク リ一ン面 上とフ レ ー ムメ モ リ上との画素データの配列を示す図である。
図 Ί は、 遠近法を用いたときのフ レームメ モ リ のア ドレス空間 を示すための図である。
図 8は、 ワ ールド座標系とシャ ドウ座標系との関係を示す概念 図である。
図 は、 点光源モー ド時において、 シャ ドウビデオ信号を得る ための変換処理を説明するための図及びシャ ドウビデオ信号に対 応する フ レ ー ムメ モ リ 上のァ ド レス とモニタ ス ク リ ー ン面上での ア ド レス との関係を示す図である。
図 1 0 は、 点光源モ一 ド時において、 3次元ォブジ ク トビデ ォ信号から 3次元シャ ドウビデオ信号を得るための透視変換処理 を説明するための図である。
図 1 1 は、 点光源及び 3次元ォブジ二ク トビデオ信号を得るた めの変換処理の手順を示すフローである。
図 1 2 は、 平行光源モ一 ド時において、 シャ ドウビデオ信号を 得るための変換処理を説明するための図である。
図 1 3は、 平行光源及び 3次元ォブジ ク ト ビデオ信号に対す る変換処理の手順を示すフローである。
図 1 4は、 ワ ール ド座標系及びシャ ドウ座標系における、 球面 座標と直交座標との関係を夫々示すための図である。
図 1 5 は、 平行光源モー ド時において、 3次元ォブジェク ト ビ デ才信号から 3次元シャ ドウビデオ信号を得るための透視変換処 理を説明するための図である。
図 1 6 は、 仮想 3次元ォブジ二ク トビデオ信号から仮想 3次元 シャ ドウビデオ信号を得るための透視変換処理を説明するための 図である。
図 1 7 は、 シャ ドウ座標系の原点を自動的に設定する原点設定 モ一 ドを説明するための図である。
図 1 8は、 リ アルシャ ドウ発生器の構成を示す図である。
図 1 9 は、 目的とする画像を示す図及びパラメ ータ Hと利得及 び瀘波特性との関係を示す図である。
図 2 0 は、 交差する 2つの画像の合成処理を説明するための図 、の る。
図 2 1 は、 コ ンバイナの詳細構成を示すブロ ック図である。 図 2 2は、 図 2 1のプライ オ リティ信号発生回路の詳細構成を 示すブ α ッ ク図である。
図 2 3は、 図 2 2のプライオ リティ信号発生回路の動作の説明
に供する信号波形図である。 発明を実施するための最良の形態
( 1 ) 全体構成
まず、 図 2を参照して、 本発明の特殊効果装置 1の構成を説明 する。
C U P 8は、 この特殊効果装置 1の全ての回路を制御するため のプロセッサである。 C P U 8は、 オペレータがコ ン ト ロールパ ネル 5を操作することによって得られた各パラメ 一タを、 イ ンタ フ ェース回路 ( I Z F ) 5 a及びデータバスを介して受け取り、 このパラメ 一タに基づいて各回路を制御する。 このコ ン ト ロール パネル 5からは、 パースペクティ ブ値 P z 、 シャ ドウ座標系の X
S 軸、 Y S 軸及び Z S 軸の夫々の回転角 ( <9 X , θ V , Θ 、 シャ ドウ座標系の原点 ( x s o, y so, z so) 、 平行光源であるか 点光源であるかを示す光源の種類、 点光源の位置 ( x L , y ζ し ) 、 平行光源の位置 ( r, α , β ) 、 3次元変換に関するパ ラメ 一夕 r u ~ r 33, 1 X , 1 γ , 1 z 及び sが入力される。 尚 、 各パラメ ータについては後述する。 また、 C P U 8は、 コ ン ト 口一ルパネル 5から入力されるこれらのパラメ ータを受け取り、 これらのノ、。ラメ ータを リ アルタイ ムに読み出しア ドレスの演算に 反映させる。 具体的には、 C P U 8は、 コ ン ト ロールパネル 5か ら供給されるパラメ ータの変化をフレーム周期で監視し、 且つ、 供給されたパラメ ータに基づいて読み出しァ ドレスを演算するた めのパラ メ ータ (!^ 〜ゎ;^、 b , 〜 b 33' 、 b , 〜 b 33" ) をフ レーム周期で演算してい.る。 よって、 オペレータの操作に 応じてフ レー A周期でこれらのパラメ ータをリ アルタ イ ムに可変 することができ、 そして、 その可変されたパラメ 一タに応じて、 リ アルタ イ ムにソースビデオ信号に対して特殊効果を施すことが
できる。
尚、 本発明の特殊効果装置は、 コ ン ト ロールパネル 5から光源 の種類を入力することによって、 点光源と平行光源の中から所望 の光源を選択することができるようになつている。 以下の説明に おいて、 点光源によってォブジヱク トのシャ ドウを生成するモ一 ドを点光源モ一ドと呼び、 平行光源によつてォブジヱク トのシャ ドウを生成するモー ドを平行光源モー ドと呼ぶことにする。
また、 C P U 8は、 プログラムメモリ として設けられた R OM (Read Only Memory) 6 に記憶されたプログラムに基づいて、 各 回路の制御を行うと共に、 読み出しア ド レスの溃算を行う。 また
、 同様に、 ワークメモ リ と して設けられた R AM (Random Acces s Memory) 7 に記憶されたデータに基づいて、 各回路の制御を行 うと共に、 読み出しア ド レスの演算を行う。
ォブジヱク ト信号生成部 1 0は、 外部からソ ースビデオ信号 V 0 を受け取り、 このソースビデオ信号 V。 を 3次元変換処理して
、 2次元のオブジェク ト ビデオ信号 V 3 を生成する。 また、 ォブ ジェク ト信号生成部 1 0 は、 ソースビデオ信号 V。 をキーイ ング するためのソ ースキ一信号 K D を受け取り、 ソ ースビデオ信号と 同じようにソ 一スキー信号 K。 を 3次元変換処理して、 オブジェ ク トキ一信号 K 2 を生成する。 具体的には、 このォブジヱク ト信 号生成部 1 0 は、 ソ ースビデオ信号 V。 を一時的に記憶するため のフ レームメ モ リ 1 2 と、 このソースビデオ信号をキ一イ ングす るためのソ 一スキー信号 Κ。 を一時的に記憶するためのフ レーム メ モ リ 1 3 と、 フ レームメ モ リ 1 2及びフ レームメ モ リ 1 3に対 して、 3次元変換操作に対応して演算された読み出しア ド レス (
ΧΜ , YM ) を供給するための読み出しア ドレス発生回路 1 4と を有している。
フ レームメ モ リ 1 2は、 供給されたソースビデオ信号 V。 を一
時的に記憶するためのメ モ リである。 このフ レームメ モ リ 1 2 に は、 図示しない書き込みア ドレス発生回路からのシーケンシャル な書き込みア ドレスが供給されるので、 このフレームメ モ リ 1 2 には、 供給されたソ ースビデオ信号 V。 が変形せずにそのまま記 憶される。 また、 このフレームメ モ リ 1 2には、 読み出、しァ ドレ ス発生回路 1 4から 3次元変換操作に対応して演算された読み出 しア ド レス ( Χ Μ , Υ Μ ) が供給されるので、 フ レームメ モ リ 1 2からは、 フ レーム毎に 3次元変換処理されたォブジ ク ト ビデ ォ信号 V 2 が出力される。 出力されたォブジェク ト ビデオ信号 V 2 は、 ミ キサ 3 0 に送出される。
フ レーム メ モ リ 1 3は、 ソ ースビデオ信号 V 0 をキーイ ングす るためのソ一スキー信号 K。 を一時的に記憶するためのメモ リで ある。 このフ レームメ モ リ 1 3 は、 フ レームメ モ リ 1 2 に供給さ れたシーケンシャルな書き込みァ ドレスと同じ書き込みァ ドレス が供給されるので、 ソースビデオ信号 V。 と同様に、 このフ レー ムメモ リ 1 3には、 供給されたソ一スキー信号 Κ。 が変形せずに そのまま記憶される。 また、 フ レームメ モ リ 1 3には、 フ レーム メ モ リ 1 2 に供給された読み出しア ドレスと同じア ドレス ( Χ Μ , Υ Μ ) が供給されるので、 フ レームメ モ リ 1 3からは、 3次元 変換されたオブジェク トビデオ信号 V 2 と同じように 3次元変換 されたオブジェク トキ一信号 Κ 2 が出力される。 出力されたォブ ジヱク トキ一信号 Κ 2 は、 コ ンバイナ 3 0に送出される。
読み出しァ ドレス発生回路 1 4は、 ス ク リ ー ンア ドレス発生回 路 9からシーケ ン シ ャ ルに供給.されるモ二タスク リー ン 3上での ア ド レス ( X S , Y S ) と、 C P U 8によつて演算された画像変 換行列のハ°ラメ 一タ b 〜 b 3 3とに基づいて、 フ レームメ モ リ 1 2及びフ レームメ モ リ 1 3に対して供給する読み出しア ド レス ( Χ Μ , Y M ) を生成する。 この読み出しア ド レス発生回路 1 4内
での具体的な演算は後述する。
以上がォブジェク ト信号生成部 1 0の構成である。 次にシャ ド ゥ信号生成部 2 0の構成について説明する。
シャ ドウ信号生成部 2 0は、 シャ ドゥビデオ信号とシャ ドゥキ 一信号を生成するための回路である。 まず、 点光源モー、ドが選択 されている場合は、 このシャ ドウ信号生成部 2 0は、 外部から供 給されたソ ースビデオ信号 V。 を受け取り、 影の色にマツ ト処理 されたソ ースビデオ信号を 3次元変換処理して、 シャ ドウビデオ 信号 V 4 を生成する。 また、 シャ ドウ信号生成部 2 0は、 ソ ース ビデオ信号をキーイ ングするためのソ一スキー信号 K。 を受け取 り、 シャ ドウビデオ信号 V 4 と同じように 3次元変換処理して、 シャ ドウキ一信号 Κ 4 を生成する。 平行光源モー ドが選択されて いる場合には、 このシャ ドウ信号生成部 2 0 は、 外部から供給さ れたソ ースビデオ信号 V。 を受け取り、 影の色にマツ ト処理され たソ ースビデオ信号を 3次元変換処理して、 シャ ドウビデオ信号 V 6 を生成する。 また、 シャ ドウ信号生成部 2 0は、 ソースビデ ォ信号をキ一ィ ングするためのソースキ一信号 Κ。 を受け取り、 シャ ド ウ ビデオ信号 V 6 と同じように 3次元変換処理して、 シャ ドウキー信号 K s を生成する。 具体的には、 このシャ ドウ信号生 成部 2 0 は、 ォブジェク ト信号生成部 1 0 と同じような回路構成 からなり、 ソ ースビデオ信号 V。 をマツ ト処理するカ ラ一マツ ト 発生回路 2 1 と、 マッ ト処理されたソ ースビデオ信号を一時的に 記憶するためのフ レームメ モ リ 2 2 と、 ソースキー信号 K。 を一 時的に記憶するためのフ レー厶メ モ リ 2 3と、 フ レームメ モ リ 2 2及びフ レームメ モ リ 2 3に対して、 演算された読み出しァ ド レ スを供給するための読み出しァ ド レス発生回路 2 4 とを有してい カラーマツ ト発生回路 2 1 は、 ソースビデオ信号 V 0 をマッ ト
処理することによって、 ソ ースビデオ信号 V。 の色を影を色らし くするための回路である。 最も簡単な例では、 ソ ースビデオ信号
V。 の彩度及び輝度のレベルを下げることによって、 ソースビデ ォ信号の色が影の色 (黒色) に近く なる。
フレームメ モ リ 2 2は、 マッ ト処理されたソースビデ、ォ信号を 一時的に記憶するためのメ モ リである。 このフレームメ モ リ 2 2 には、 図示しない書き込みァ ド レス発生回路からのシーケン シ ャ ルな書き込みァ ドレスが供給されるので、 このフ レームメ モ リ 2 2には、 マツ ト処理されたソ ースビデオ信号が画像変形されずに そのまま記憶される。 点光源モー ド時には、 このフ レームメ モ リ
2 には、 読み出しア ドレス発生回路 2 4から 3次元変換操作及 び点光源に基づいて演算された読み出しア ド レス ( X M ' , Y M ' ) が供給されるので、 このフ レームメモリ 2 2からは、 3次元 変換されたシャ ドウビデオ信号 V 4 が出力される。 平行光源モー ド時には、 このフ レームメ モ リ 2 2 には、 読み出しァ ドレス発生 回路 2 4から 3次元変換操作及び平行光源に基づいて演算された 読み出しア ドレス ( Χ Μ 〃 , Υ Μ " ) が供給されるので、 このフ レームメ モ リ 2 2からは、 3次元変換されたシャ ドゥビデオ信号 V 6 が出力される。
フ レーム メ モ リ 2 '3は、 ソ ースビデオ信号 V n をキーイ ングす るためのソ ースキー信号 K。 を一時的に記憶するためのメモリで ある。 このフ レームメ モ リ 2 3 には、 フレームメ モ リ 2 2 に供給 されたシーケンシャルな書き込みァ ド レス と同じァ ド レスが供給 されるので、 このフ レームメ モ リ 2 3には、 供給されたソ ースキ —信号 。 が画像変換されずにそのまま記憶される。 点光源モー ド時には、 フ レームメ モ リ 2 3には、 フ レームメ モ リ 2 2に供給 された読み出しア ド レス と同じア ド レス ( X M ' , Υ Μ ' ) が供 給されるので、 このフ レームメ モ リ 2 3からは、 3次元変換され
たシャ ドゥビデオ信号 V 4 と同じように 3次元変換されたシャ ド ゥキー信号 K 4 が出力される。 平行光源モー ド時には、 フ レーム メ モ リ 2 3 には、 フ レームメ モ リ 2 2に供給された読み出しア ド レス と同じア ド レス ( Χ Μ 〃 , Υ Μ 〃 ) が供給されるので、 この フ レームメ モ リ 2 3からは、 3次元変換されたシャ ドウ ビデオ信 号 V 6 と同じように 3次元変換されたシャ ドウキー信号 K 6 が出 力される。
読み出しア ド レス発生回路 2 4は、 フ レームメ モ リ 2 2及びフ レームメ モ リ 2 3に対して供絵する読み出しァ ド レスを生成する ための回路である。 点光源モー ド時には、 ス ク リ ー ンア ド レス発 生回路 9からシーケ ンシャ ルに供給されるモニタ ス ク リ ー ン 3上 でのァ ド レス ( X s , Ys ) と、 C P U 8によつて演算された画 像変換行列のパラメ ータ b , 〜 b 33' とに基づいて、 読み出し ア ド レス ( X M ' , Y M ' ) を生成する。 平行光源モ一ド時には 、 ス ク リ ー ンア ド レス発生回路 9からシーケ ンシャ ルに供給され るモニタ ス ク リ ー ン 3上でのア ド レス ( X S , Ys ) と、 C P U 8によつて演算された画像変換行列のパラメ ータ b , 〜 b 33〃 とに基づいて、 読み出しア ド レス ( X M 〃 , Y M " ) を生成する 。 尚、 この読み出しア ドレス発生回路 2 4における具体的な演算 は後述する。
リ アルシャ ドウ信号発生器 5 0はフ レームメ モ リ 2 3から出力 されるシャ ドウキー信号 (点光源モー ド時には K 4 , 平行光源モ ー ド時には Κ 6 ) が入力されて、 この入力されたシャ ドウ信号に 対し、 より現実的な影を生成するためのリアルシャ ドウキー信号 (点^;源モー ド時は Κ 4 ' 、 平行光源モード時は Κ 6 ' ) を出力 する。 このリ アルシャ ドウ信号発生器 5 0の詳細は後述する。
以上がシャ ドウビデオ信号生成部 2 0 ' の構成である。
ス ク リ ー ンア ド レス発生回路 9 は、 モニタ ス ク リ ー ン 3のスク
リ ーン面全体を、 ラスタスキャ ンの順に対応する順に了 ドレッ シ ングするための回路である。 具体的には、 内部において発生され た水平同期信号及び垂直同期信号に基づいて、 ス ク リ ーンァ ド レ ス ( X s , Y s ) が生成される。
コ ンパイ ナ 3 0 は、 オブジェク ト信号生成部 1 0 と シャ ドウ信 号生成部 2 0から供給された信号を混合するための回路である。 点光源モー ド時には、 コ ンパイナ 3 0は、 ォブジヱク ト信号生成 部 1 0から出力されたオブジェク トビデオ信号 V 3 及びオブジェ ク トキ一信号 K 2 を受け取るとともに、 シャ ドウ信号生成部 2 0 から出力されたシャ ドウビデオ信号 V 4 及びリ アルシャ ドウキ一 信号 K ' を受け取って、 ォブジヱタ トビデオ信号 V 2 とシャ ド ゥビデオ信号 V 4 とを混合した混合ビデオ信号 V M I X ' と、 ォブ ジヱク トキ一信号 K 2 と リ アルシャ ドウキ一信号 Κ 4 ' とを混合 - した混合キ一信号 ΚΜ Ι Χ ' とを生成する。 具体的には、 混合ビデ ォ信号 V M I X ' 及び混合キー信号 KMI X ' は、 次式
V„I X ' = K 2 V 2 + ( 1 - K 2 ) Κ' V
K MIX ' = 1 - ( 1 - Κ 2 ) ( 1 一 Κ '
と表すことができる。 また、 平行光源モー ド時には、 ォブジェク ト信号生成部 1 0から出力されたオブジェク ト ビデオ信号 V 2 及 びォブジヱ ク トキー信号 Κ 2 を受け取るとともに、 シャ ドウ信号 生成部 2 0から出力されたシャ ドウビデオ信号 V 及びリ アルシ ャ ドウキー信号 K ' 6 を受け取って、 ォブジヱク ト ビデ才信号 V 2 とシャ ドウビデオ信号 V 6 とを混合した混合ビデオ信号 V M I X " と、 ォブジヱク トキ一信号 K 2 と リ アルシャ ドウキー信号 K ' 6 と^混合した混合キ一信号 K MI X 〃 とを生成する。 具体的には
、 混合ビデオ信号 V M I X 〃 及び混合キ—信号 KM I X " は、 次式 V ' - K 2 V 2 + ( 1 - K 2 ) K/ 6 V 6
K " = 1 - ( 1 - K 2 ) ( 1 — K ' 6 ) · ' · · ( b )
と表すことができる。 コ ンバイナ 3 0の詳細については後述する ミ キサ 4 0 は、 コ ンバイナ 3 0から出力された混合ビデオ信号 及び混合キー信号と外部から供給されたバックグラゥ ン ドビデオ 信号 V BKを混合するための回路である。 点光源モー ド時、には、 ミ キサ 3 0から出力された混合ビデオ信号 VMIX ' 及び混合キ一信 号 K M I X ' を受け取ると共に、 外部から供給されたバッ クグラウ ン ドビデオ信号 V BKを受け取り、 混合キ一信号 K M I X ' に基づい て、 混合ビデオ信号 V MIX ' とバッ クグラウ ン ドビデオ信号 V BK とを混合し、 ァゥ 卜プッ ト ビデオ信号 V 0UT ' を生成する。 具体 的には、 このァゥ ト プッ ト ビデオ信号 V O U T ' は、 次式、
V 0 U T = K M I X V M I X + ( 1 — M I X ) \ B K · · - · ( C ) と表すことができる。 点光源モー ド時には、 ミ キサ 3 0から出力 された混合ビデオ信号 VMIX " 及び混合キ一信号 KM I X ' を受け 取ると共に、 外部から供給されたバックグラウ ン ドビデオ信号 V
BKを受け取り、 混合キー信号 K M I X 〃 に基づいて、 混合ビデオ信 号 VMIX " とバッ クグラ ウ ン ドビデオ信号 V BKとを混合し、 ァゥ トプッ ト ビデオ信号 V 0UT " を生成する。 具体的には、 このァゥ トプッ ト ビデオ信号 V。UT ' は、 次式、
V O U T" - K M I X' V M i x " + ( 1 - K M I X" ) V B K '· ·· ( d ) と表すことができる。 生成されたァゥ トプッ ト ビデオ信号 V ουτ
' 又は V。UT ' は、 外部に出力されると共に、 モニタ ス ク リ ー ン 3に表示される。
( 2 ) ワ ール ド座標系の定義
ます、 図 3を参照しながら、 本発明の説明で使用されるワール ド座標系について説明する。 このワ ール ド座標系とは、 X, Υ及 び Ζ軸からなる 3次元の直交座標系のことである。 すなわち図 3 に示すように、 X軸及びこれに直交する Υ軸で定義される Χ Υ平
面上にス ク リ ー ン面 3が存在するものとして、 X軸をス ク リ ー ン 面 3の水平 (左右) 方向と定義し、 Y軸をス ク リ ー ン面 3の垂直 (上下) 方向と定義する。
また、 ス ク リ ー ン面 3の奥行方向を、 X Y平面に直交する Z軸 の正方向と定義し、 ス ク リ ー ン面 3 の手前側、 すなわち、、 ス ク リ 一ン面を見る視点 P Zが存在する側を Z軸の負方向と定義する。
さ らに、 ス ク リ ー ン面 3の中心が当該 X軸、 Y軸、 Z軸でなる ワールド座標系の原点と一致するものと定義する。
X軸にはス ク リ ー ン領域の内部 (原点) から左右外部方向に向 かって連続した仮想的な座標値が設定されており、 ス ク リ ー ン領 域内の X軸には、 視点 P Zからス ク リ 一ン面 3を見て左側からお 側に亘つて 「 一 4」 から 「+ 4」 の間の仮想的な座標値が設定さ れている。
また Y軸にはス ク リ ー ン領域の内部 (原点) から上下外部方向 に向かって連続した仮想的な座標値が設定されており、 ス ク リ 一 ン領域内の Y軸には、 視点 P Zからス ク リーン面 3を見て下側か ら上側に亘つて 「 一 3」 から 「 + 3」 の間の仮想的な座標値が設 定されている。
さ らに、 オペ レータの視点位置 P Zは、 Z軸上において、 その 座標値が 「 一 1 6」 となる位置に仮想的に設定されている。
( ) ォブジェク ト ビデオ信号を生成するための変換処理の説明 まず、 図 4 A及び図 4 Bを参照しながら、 ソースビデオ信号 V □ からォブジ ク ト ビデオ信号 V 2 を生成する変換処理を説明す まず、 2次元のデータであるソ ースビデオ信号 V。 は、 画像変 換されずにそのままの状態でフ レームメ モ リ 1 2に記憶される。 従って、 図 4 A及び図 4 Bに示すように、 ソ ースビデオ信号 V。 は、 ワ ール ド座標系の X Y平面上に存在することにより、 当該 X
Y平面に存在するスク リ ーン面 8上にソ ースビデオ信号 V。 の画 像が表示される。
因みに図 4 Αは、 ワールド座標系の 3次元座標で表される空間 において、 Z軸上の視点 P Zから、 X Y平面を見た状態を示して おり、 言い換えると、 ス ク リ ー ン面 3に表示される映像 現して いる。 また、 図 4 Bは、 ワール ド座標系の 3次元座標で表される 空間において、 Y軸の正側の視点位置から X Z平面を見た状態を 示している。 よって、 X Y平面に存在するソ ースビデオ信号 V 0 は、 スク リ ーン面 3 と重なっている。
かかるソ ースビデオ信号 V。 に対して、 オペレータがコ ン ト 口 ールパネルの操作子を操作することによってワールド座標空間で の 3次元画像変換処理が施される。 すなわち、 各フ レームごとに 設定されるパラメ ータからなる 3次元変換行列 T。 を、 オペレー タの操作によつてソ ースビデオ信号 V。 の各画素に施すことによ り、 ソ ースビデオ信号 V。 を 3次元的な空間位置に変換する。 図 4 Βにおいては、 この 3次元画像変換処理されたビデオ信号を、 3次元ォブジヱク ト ビデ才信号 V , として表すことにする。 図 4 Α及び図 4 Βの場合の 3次元変換は、 ソ ースビデオ信号 V。 を X 軸を回転中心と して約 4 5 ° 回転し、 さらに Z軸の正方向に平行 移動した場合の一例である。
3次元変換に用いられる 3次元変換行列 T Q は、 次式、
Γ 1! Γ 1 2 0
Γ 2 1 Γ 2 2 2 3 0
T o = ( 1 )
r 3 1 I 3 2 0
1 X 1 Y 1 s というように表される。 この 3次元変換行列 Τ。 に使用される変 換パラ メ 一タ Γ , , Γ ^は、 ソ ースビデオ信号 V。 を、 X軸回り
、 Y軸回り及び z軸回りに回転させるための要素、 ソースビデオ 信号 V。 を X軸方向、 Y軸方向及び Z軸方向にスケールを夫々拡 大 Z縮小させるための要素、 及び、 ソ ースビデオ信号 V。 を、 X 軸方向、 Y軸方向及び z軸方向に夫々スキューさせるための要素 等を含むパラメ 一タであって、 ノ、。ラメ 一タ 1 x , 1 Y , 、 1 z は、
X軸, Y軸及び Z軸方向にソ ースビデオ信号を夫々平行移動させ るための要素を含んだパラメ ータであって、 パラメ ータ Sは、 ソ ースビデオ信号 V。 全体を、 3次元の夫々の軸方向に、 一様に拡 大 Z縮小させるための要素を含んだパラメ 一タである。
尚、 この変換行列 T。 は、 回転変換等の座標系と平行移動変換 及び拡大縮小変換の座標系とを同じ 1つの座標系内で表現してい るので、 4行 4列の行列となり、 一般的には、 これを同次座標系 ( H omog e n e o u s C o or d m a t e ) と称している。
かく して、 X Y平面に存在するソースビデオ信号 V Q が、 3次 元変換行列 Τ。 によって 3次元才ブジヱク ト ビデオ信号 V , で示 される 3次元的な位置に変換されると、 次の透視変換処理に移る ο
この透視変換処理とは、 図 4 Α及び図 4 Βに示すように、 3次 元ォブジヱク ト ビデオ信号 V , を、 透視変換行列 P。 によって、 X Y平面に透視させる変換処理のことである。 言い換えると、 Z 軸上の仮想視点 P Zから 3次元オブジェク ト ビデオ信号 V , を見 たとき、 X Y平面に透視されるビデオ信号のィ メ 一ジを求める変 換である。 図 4 Bでは、 このように X Y平面に透視されたビデオ 信号を、 2次元のオブジェク ト ビデオ信号 V 2 と表している。 図 4 Bの場合、 X Y平面上のスク リ ーン面 3に透視されたオブジェ ク ト ビデオ信号 V 2 は、 仮想視点 P Zから見てスク リ ー ン面 3の 奥行き側にあたかも 3次元ォブジ ク トビデォ信号 V , が存在す るかのようなビデオイ メ ージである。
の透視変換行列 P。 は、 次式、
1 0 0 0
0 1 0 0
P ( 2 )
0 0 0 P z
0 0 0 1
によつて表される。 この透視変換行列 P。 のパラメ ータ P z は、 3次元変換ビデオ信号 V 2 を X Y平面上に透視する際に、 遠近法 を適用するためのパースぺクティ ブ値である。 すなわち図 4 Bの 場合、 3次元空間における 3次元ォブジヱク ト ビデオ信号 V , は 、 X Y平面に対して約 4 5 ° 傾いた状態であり、 これを仮想視点 P Zから見ると、 当該仮想視点 P Zからの距離が遠い部分は小さ く見え、 近い部分は大き く見える。 従ってパースペクティ ブを示 すパラ メ ータ P z を用いることにより、 X Y平面に透視される 2 次元のォブジヱク ト ビデオ信号 V 2 は、 3次元空間にある 3次元 ォブジヱク ト ビデオ信号 V , を仮想視点 P Zからの距離に応じて 変換したものとなる。
3次元ォブジヱク ト ビデオ信号 V , の透視変換によるスク リ ー ン面 3上への変換位置は、 仮想視点 P Zとス ク リ ーン面 3との距 離、 及び、 仮想視点 P Zと 3次元オブジェク トビデオ信号 V , と の距離に応じて変化するものであり、 仮想視点 P Zの位置に応じ てパースぺクティ ブ値 P z をオペレータが設定することにより、 仮想視点 P Zの位置に応じた透視変換を行う ことができる。 通常 、 視点 P Zの位置が z軸の座標値 「一 1 6」 であることから、 パ 一スぺクティ ブ値 P z は 「 1 / 1 6」 が標準値となるように設定 されている。
以上のように、 ソ ースビデオ信号 V。 から 2次元のォブジェク ト ビデオ信号 V 2 を生成するための変換処理は、 3次元変換行列 T o によってソ ースビデオ信号 V Q から 3次元ォブジヱク トビデ
ォ信号 V , を得るための空間的画像変換ステ ッ プと、 当該空間的 画像変換ステツプによつて得られた 3次元ォブジヱク トビデオ信 号 V , を透視変換行列 P。 によって 2次元のォブジヱク トビデオ 信号 V 2 に変換する透視変換ステップとから構成される。 従って 、 ソ ースビデオ信号 V。 から 2次元のオブジェク ト ビデオ信号 V a を得るための変換行列 Tobj は、 3次元変換行列 T Q と透視変 換行列 P。 との乗算式として、 次式、
Tobj = T 0 · P 0
によつて表される。
こ こで、 本発明の特殊効果装置を用いた画像処理装置は、 外部 から供給された 2次元のソ ースビデオ信号 V Q を、 一旦、 フ レー ムメ モ リ 1 2 に書込み、 このフ レームメ モ リ 1 2に対して、 読み 出しア ド レス発生回路 1 4において演算された 2次元の読み出し ア ド レス ( X s , Ys ) を供給することにより、 当該フ レームメ モリ 1 2から読み出されるビデオ信号に対してオペレータが所望 とする空間画像変換 ( 3次元画像変換) を施すことができる。 従 つてフ レームメ モ リ 1 2に記憶されるソ ースビデオ信号 V。 、 及 び、 フ レームメ モ リ 1 2から読み出されるォブジェク トビデオ信 号 V 2 は、 共に、 2次元のデータである。 つま り、 この 2次元の 読み出し了 ド レス (Xs , Ys ) の涫算においては、 3次元空間
上の z軸方向のデータは、 実質的に使用されない。
従って、 ( 3 ) 式の Z軸方向の成分を演算するための 3行目及 び 3列目のパラメ ータは、 フ レームメ モ リ 1 2 に対する読み出し ァ ドレスを演算する際には必要とされない。
従って、 実際の 2次元の読み出し了 ドレスの演算に必要なパラ メ ータを有した 3次元変換行列を T 33とすると、 当該行列 T33は
、 ( 3 ) 式から 3行目及び 3列目のパラメ ータを除いた次式、
Γ ΐ〗 Γ ΐ 2 Γ ΐ 31 Ζ
丄 33 = Γ 21 22 Γ 231 Ζ ( 4 )
1 X Υ 1 2 Ρ Ζ + S
によって表すことができる。
こ こで、 フ レームメ モ リ 1 2上の位置ベク ト ルと、 モニタ ス ク リ ー ン 8上の位置べク トルとの関係について説明する。
図 5 Λにおいて、 フ レー厶メ モ リ 1 2上の 2次元のア ド レスを ( Χ Μ , Υ Μ ) 及び位置ベク ト ルを 〔Χ Μ ΥΜ 〕 と し、 モニタ ス ク リ ー ン 3上のァ ド レスを (Xs , Y s ) 及び位置べク ト ルを [Xs Y s 〕 とする。 このフ レームメ モ リ 1 2上の 2次元の位 置べク トル 〔 Χ Μ ΥΜ 〕 を、 同次座標系で表現すると、 べク ト ル 〔 X m y m H。 〕 と表すことができる。 またモニタスク リ ー ン 5 5上の位置べク トル 〔XS Ys ] を同次座標系で表現す ると、 ベク ト ル 〔 X 6 y 6 1〕 と表すことができる。
なお、 この同次座標系のパラメ ータ 「H。 」 は、 べク トルの大 きさの拡大及び縮小率を表すパラ メ ータであって、 この H。 の値 を本実施例においては、 疑似的な奥行き情報と して使用している 。 こめ H。 に関しては後述する。
かく してフ レームメ モ リ 1 2上の位置ベク トル 〔 X m y m H Q 〕 に対して、 3次元変換行列 T 33を作用させることによって
、 フ レームメ モ リ 1 2上の位置べク トル 〔 X m y m H。 〕 が
モニタ ス ク リ ー ン 3上の位置べク トル 〔 X s y s 1〕 に変換 される。 従って、 フ レームメ モ リ 1 2上の位置べク トル 〔 X m y m H。 :] とモニタ ス ク リ ー ン 3上の位置ベク ト ル 〔 x s y s 1〕 との関係式は、 次式、
C X s y s 1 ] = C X n, y m H。 〕 · T 3 3 · · · ' ( 5 ) によつて表すことができる。
なお、 フ レームメ モ リ 1 2上の位置ベク ト ル 〔 X m y m H 。 〕 において使用されている同次座標系のパラメ ータ 「H。 」 及 び、 モニタスク リ ー ン 8上の位置べク ト ル 〔 X s y s 1〕 に おいて使用されている同次座標系のパラメ ータ 「 1 」 との関係は
、 3次元変換行列 T 3 3によって、 フ レームメ モ リ 1 2上の 2次元 の位置べク ト ル 〔 X m y m 〕 が、 モニタス ク リ ー ン 3上の 2次 元の位置べク ト ル 〔 X s y s 〕 に変換され、 フ レームメ モ リ 1 2上の 2次元の位置べク ト ル 〔 x m y m ] の拡大縮小率 「H。 」 が、 モニタスク リ ーン 3上の同次座標系の位置べク トル 〔 X s y s 〕 の拡大縮小率 「 1 」 となるように変換されることを表し ている。
このように、 ( 5 ) 式は、 フ レームメ モ リ 1 2上の点に対応す るモニタ ス ク リ ー ン 2上の点を行列 T 3 3によつて求める関係式で ある。 こ こで、 特殊効果装置を用いた画像処理装置では、 ソ 一ス ビデオ信号を変換前の状態でフレームメモ リ 1 2に記憶し、 変換 行列 Τ 3 3によって得られたモニタスク リ ーン 3上の点に対応する フ レームメ モ リ 1 2の点を読み出しア ド レスによって措定するこ とにより、 ソ ースビデオ信号に対して空間的な画像変換を施すよ うになされている。 つまり、 フ レームメ モ リ 1 2に書き込む際に
、 画像変換が行なわれるのではなくて、 フ レームメ モ リ 1 2から 読み出される際に、 画像変換が行なわれる。
このような画像処理装置においては、 フ レームメ モ リ 1 2上の
点に対応するモニタスク リ ーン 3上の点を求めるような ( 5 ) 式 による演算を行うのではなく 、 モニタスク リ ー ン 3上の点に対応 するフ レームメ モ リ 1 2上の点を求める必要がある。 従って ( 5 ) 式を変換して、 次式、
C X m y m H o = L x s y s 1〕 · Τ33— 1 ·' ·· 、 6 ) によつて表される関係式を用いることにより、 モニタスク リ ーン 3上の点に対応するフ レームメ モ リ 1 2上の点を求めることがで きる。 よって、 この式 ( 6 ) に従って、 モニタスク リ ー ン 3上の 位置べク ト ル 〔 X s y s 1 〕 が指定されると、 変換行列 T33 一'によってフ レームメ モ リ F M上の位置べク ト ル 〔 x m y m H。 〕 が溃算される。 因みに、 この変換行列 T33— ' は、 変換行 列 Τ 33の逆行列である。
次に、 フ レームメ モ リ F M上の 2次元の位置べク ト ル 〔ΧΜ Υ Μ 〕 を求めるために、 変換行列 Τ33及び逆行列 Τ33- 1を以下の ようにする。 すなわち、 変換行列 Τ 33の各要素を、
a , Si I 2 a 1 3
a 2 & 22 α 23 ( 7 ) a 3 3 32 33
とおき、 逆行列 T のパラメ 一タを、 次式.
X 33 1 =
( 8 ) a
但し b
d e t (T 33)
のようにおく とにする。
( 8 ) 式を ( 6 ) 式に代入して、 次式、
〔 X m y m H。 〕
= C b i i x s + b 2 1 y s + b a ,
b 1 2 X S 4- b 22 y S + b 32
b , 3 x s + b 23 y s + b 33〕 · · · · ( 9 ) となる。 よって、 次式、
X m = b i , X s + b 2 1 y S + b 3 I
y m = b [ 2 X S + b 22 y S + b 32 · · · · ( 1 0 )
H o = b I 3 X S + b 23 y S + b 33
の関係式が得られる。
こ こで、 フ レームメ モ リ 1 2上の同次座標系の位置べク ト ル 〔 X m y m H。 〕 を、 フ レームメ モ リ 1 2上の 2次元の位置べク ト ル 〔ΧΜ ΥΜ 〕 に変換する場合について説明する。
2次元の位置べク ト ル 〔ΧΜ Υ„ 〕 を同次座標系で表すときに 使用するパラメ ータ 「Η。 」 は、 同次座標系の位置べク ト ル 〔 X m y m } の拡大縮小率を表すパラ メ 一タであることから、 同次座 標系の位置べク トルを 2次元の位置べク トルに変換するためには 、 同次座標系の位置べク ト ルの方向を示すパラ メ ータ 「 X m 」 及 び 「 y m 」 を、 同次座標系の位置べク ト ルの拡大縮小率を表すパ ラメ ータ 「 1-1。 」 で正規化すれば良い。 従って、 モニタスク リ ー ン 3上の 2次元の位置べク ト ルの各パラ メ ータ 「 XM 」 及び 「Υ Μ 」 は、 次式、
X m
ズ M =
H 0
y m
YM = ( 1 1 )
H o
と表すことができる。 モニタスク リ ー ン 3上の同次座標系のベク ト ル 〔 x s y s 1〕 を、 2次元の位置ベク トル 〔 X s Ys 〕 に変換する場合についても同様にして、 同次座標系の位置べク ト ルの方向を示すパラ メ 一タ 「 X s 」 及び 「 y s 」 を、 同次座標系 の位置べク ト ルの拡大縮小率を表すパラメ ータ 「 1 」 で、正規化す れば良い。 従って、 モニタ ス ク リ ー ン 3上の 2次元の位置べク ト ルの各パラメ ータ 「 x s 」 及び 「YS 」 は、 次式、
X s = X s
Y s = y s ·· ·· ( 1 2 )
と表すことができる。
よって、 フ レームメ モ リ 1 2に対して供給される 2次元の読み 出しア ド レス ( X M , ΥΜ ) は ( 1 0 ) 式から、 次式、
X
Μ ―
H o
b ! 1 X s 4- b 2 1 y s + b 3 1
b 1 3 X S + b 23 y S + b 33
b , I x s + b 2 1 y s + b 3 1
1 3 ) b I 3 X S b 2 3 y s + b
y
Y
H o
b x + b 2 2 y s -I- b 32
b 1 3 X S + b 23 Υ S + b 33
b I 2 x s + b 22 y s 4- b 32
( 1 ) b i 3 x s + b 23 y s + b a a と して求めることができる。
次に T 33— 'の各パラメ 一タ b u b ^を求める。
a 3 2 3. 23 + fi 2 2 3. 3
b 11 ( 1 5 )
W ,
a 32 a 1 3一 l 12 a 23
b I 2 ― ( 1 6 )
W I
a 22 a. 13 + a l 2 a
b , ( 1 7 )
w 1
a 3 I S 23― 3- 21 a 33
b 2 I ( 1 8 )
w
一 a a + a a 33
b 22 = ( 1 9 )
W ,
w , b 3 3 ( 2 3 )
W , になる o ただし、
W 1 ~ ― 3. 2 3 S 3 1 α. 1 3 + d 2 1 α 32 S 1 3 + 3 1 2 cl 3 I CI 23
― tl l l S 3 2 3 23 ― ii I 2 cl 21 3. 33 + S 1 I 3. 22 S 33
• · · · ( 2 4 ) である o ここで、 a u〜a 33の値は ( 7 ) 式の関係から、
a , i — 1 1 , Ά 1 2 — T 1 2, a 1 3 = 1 3 Ρ ζ ·· ·· 2, D )
3. 21 = 2 1 , a 22— Γ 22, £1 2 3— Γ 2β Ρ ζ ·· ·· ( 2 6 ) a 31 = 1 χ , a 32= 1 y , a 33= l z Ρ ζ + s - - - - ( 2 7 ) であるから、 これを ( 1 5 ) 式〜 ( 2 4 ) 式に代入することによ 、
+ Γ 2 1 1 y Γ 1 3 P Z
Γ I 2 1 Γ 2 3 i Z
一 Γ Γ 2 3 P Z
~ Γ , 2 Γ 2 ! ( 1 Z P Z + S )
+ r , , r 2 2 ( l z P z + s ) -- ( 3 7
と表すことができる。
かく して、 ( 2 8 ) 式〜 ( 3 7 ) 式の値を ( 1 8 ) 式及び ( 1 4 ) 式に代入することにより、 フ レームメ モ リ 1 2 に供給される
読み出しア ド レス ( X M , Υ Μ ) は、
X Μ — C { - 1 X 23 P z + r 22 ( l z P z + s ) } X
Η 0
+ { 1 3P Z + Γ , 2 ( 1 ζ Ρ ζ + s ) } Υ s
+ (一 r 13Ρ ζ + r 12 r 23Ρ ζ ) ] · - ·· ( 3 8 )
Υ C { 1 χ Ρ ζ 一 2 I ( 1 ζ Ρ ζ + s ) } X
Η
+ { - 1 χ + r ( 】 ζ Ρ + s ) } Υ
+ { Γ 2 1 Γ 1 3 Ρ - r 1 1 r Ρ ζ } 〕 ( 3 9 として与えられる。 ただし、 II。 は次式、
H o = ( ― 2 2 X + r 2 1 】 y ) A S
+ \. 1 2 1 X Γ 1 1 1 y ノ
+ (― r l 2 r 2 1 + r i i r 22) …- ( 0 )
である。 よつてフ レーム メ モ リ 1 2 に供給される読み出しァ ド レ ス ( X M 、 Υ„ ) を、 オペ レータの所望の空間的画像変換装置に よつて決定される 3次元変換行列 Τ。 の各パラメ ータ ( r , ,〜 r
33, 1 X , 1 y , 1 z 及び s ) 、 及び、 予め設定されるパラメ 一 タであるパ—スぺクティ ブ値 P z を用いて表すことができる。
従って ( 6 ) 式〜 ( 4 0 ) 式に対して、 モニタスク リ ーン 3の ラスタスキャ ン順に対応するようにアドレッ シングするスク リ ー ンア ド レス ( X s , Y s ) を供給すると、 その供給されたスク リ — ンァ ド レス に対応したフ レームメ モ リ 1 2上における読み出し ア ド レス ( X M , Y M ) を、 順に演算することができる。
HU述したように、 本実施例においては、 ( 4 0 ) 式によつて求 められたパラメ 一タ 11。 の値を奥行き情報として使用している。
なぜなら、 3次元変換した際の実際の 3次元空間の Ζ ^標値とこ
の H。 とが比例するからである。
このように奥行き情報として 3次元空間の実際の Zの座標値を 使用するのではなく、 ( 4 0 ) 式で求められた Hの値を使用する ことによって以下の効果を有する。 すなわち、 奥行き情報を演算 する場合に、 実際の Z座標値を演算する必要がないので、 1次元 分の演算を省略することができることになる。 これによつて、 3 次元変換用の高速なプロセッサを使用する必要がなく、 速度の遅 いプロセッサを使用しても奥行き情報を演算することができる。 さ らに、 この H。 はフ レームメ モ リ 1 2, 1 3に供給する 2次元 読み出しァ ドレスを演算するときに必要とされる値であるので、 この H。 を求めるために特別な演算をする必要はないのである。 従って、 さ らに高速な浪算を行う ことができる。
このようにして求められたパラメ ータ H α の意味は図 6 ( Β ) に示すよ う にス ク リ ー ン面 5 5 Α上の空間サンプ リ ングア ド レス ( X s , y s ) の間隔、 すなわちス ク リ ー ン面 5 5 A上の画素の 間隔を、 「 1 」 としたとき、 図 6 ( A ) に示すように、 フ レーム メ モ リ 1 2 , 1 3の読み出し空間のサ ンプリ ングア ド レス ( X , y ) の間隔が値 「H。 」 であることを意味する。 なお、 図 6 ( A ) , 6 ( B ) において、 〇はフ レームメ モ リ に記憶されたデータ 、 Xは読み出しア ド レスポイ ン ト を示す。
そこで、 奥行き情報 Η。 と してのパラメ ータ H。 の値が大きく なったときは ( 1 3 ) 式及び ( 1 4 ) 式において正規化されたフ レームメ モ リ 1 2 , 1 3の読み出しア ド レス ( x M Z H。 , y M Z H。 ) の値が小さ く なる。 このようにフ レームメ モ リ 1 2, 1 3の読み出しァ ドレスの間隔が小さ く なると、 ス ク リ ー ン面 5 5
A上に展開される画素数が多く なるこ とによ り、 このス ク リ ー ン 面上 5 5 A上に映し出される映像が拡大される結果になる。
これに対して、 ノ、。ラ メ 一タ Hが小さ くなると、 フ レームメ モ リ
1 2 , 1 3の正規化された読み出しア ド レス ( x M / H O , y M Z H。 ) が大き く なることを意味し、 これによりフ レームメ モ リ 1 2 , 1 3の空間的な読み出しア ド レスの間隔が大き く なる。 と ころが、 空間的な読み出しサンプリ ングァ ドレスの間隔が大き く なると、 フ レームメ モ リ 1 2, 1 3から読み出したデ一、タをスク リ ーン面 5 5 A上に表示したとき、 映し出される映像は縮小され る結果となる。
例えば図 7 ( B ) に示すようにフ レームメ モ リ 1 2 , 1 3のァ ドレス空間において、 遠近法を用いないで指定したメモ リ エ リ ア E R 1 と交差するように、 遠近法に従ってパラメ ータ H。 を異な らせた領域 E R 2の読み出しァ ド レスによって画像データを読み 出したとき、 ス ク リ ー ン面 5 5 A上に映し出される映像は、 図 7 ( A ) に示すように、 遠近法を用いないでフ レームメ モ リ 1 2 , 1 3の領域 E R 1から読み出した画像データは、 領域 E R 1全体 に亘つて同一のパラメ ータ Hによつて決る空間的な読み出しサ ン プ リ ングア ド レスによ って読み出されることによ って、 ス ク リ ー ン面 5 5 A上に遠近法によらない画像として領域 E R I Xに表示 される。
これに対してフ レームメ モ リ 1 2, 1 3の画素データを、 遠近 法によ り空間的な読み出しサ ンプ リ ングァ ドレスの間隔が相違す る領域 E R 2から読み出した画像データは、 ス ク リ ー ン面 5 5 A 上においてパラメ ータ H。 が大きい読み出しサンプリ ングァ ドレ スの部分においては縮小されるような画像となり、 かつパラメ一 タ H。 が小さ く なり読み出しサンプリ ングァ ドレスの間隔が大き く なる領域においては、 ス ク リ ー ン面 5 5 A上に縮小された画像 が映し出されることになる。
このようにしてパラメ 一タ H。 は、 その大きさの変化が奥行き 情報として機能することにより、 遠近法を用いた画像をスク リ一
ン面 5 5 A上に映し出させることができる。
( 4 ) シャ ドウ座標系の説明
次に、 図 8を参照しながらシャ ドウ座標系について説明する。 シャ ドウ座標系とは、 ワ ール ド座標系と同様に、 X s , Y S 及び Z s 軸からなる 3次元の直交座標系によって定義される、座標系で ある。 図 8に示すように、 ォブジェク ト ビデオ信号 V ob j に対し て付与されるシャ ドウをシャ ドウビデォ信号 V shadowとすると、 シャ ドウビデオ信号 V shadowが投影される面をシャ ドウ座標系の X Y面とし、 これをシャ ドゥ面と称する。 ォブジヱク トビデオ信 号 V obj のシャ ドウを付与するための光源の存在する方向をシャ ドウ座標系の Z軸の負方向とする。 以下に説明するように、 本発 明の特殊効果装置は、 この光源として、 点光源を使用してシャ ド ゥを生成する点光源モー ドと、 平行光源を使用してシャ ドウを生 成する平行光源モー ドとを有し、 オペレータが自由に設定するこ とができる。 また、 このワール ド座標系の X, Y及び Z軸に対す る、 シャ ドウ座標系の X s , Y s 及び Z s 軸の夫々の角度は、 ォ ペレータが任意に角度を設定することができる。
( 5 ) 点光源モー ド時のシャ ドウビデオ信号を生成するための変 換処理の説明
まず、 図 9 A及び図 9 Bを參照しながら、 点光源モー ドのとき において、 ソ ースビデオ信号を変換してシャ ドウビデオ信号 V 4 を得るための変換処理について説明する。 尚、 図 9 A及び図 9 B は、 図 4 A及び図 4 Bと同じように、 図 9 Aは、 ワ ール ド座標系 の Z軸上に設定された視点 P Zからヮールド座標系の X Y平面を 見たときの図であって、 図 9 Bは、 ワールド座標系の X軸の正方 向の位置からワールド座標系の Y Z平面を見たときの図である。
まず、 先に図 4 A及び図 4 Bを用いて説明したように、 3次元 変換行列 T。 によって、 3次元の空間的位置に変換された 3次元
オブジェク ト ビデオ信号 V , は、 点光源による透視変換行列 P S P ο τによってシャ ドウ座標の X s Y s 平面へ透視変換される。 これ は、 点光源 9 0を視点としたときに、 点光源 9 0から、 3次元ォ ブジエク ト ビデオ信号 V , を見た時に、 シャ ドウ座標系の X s Y s 平面に透視されるビデオ信号を求めることを意味する ς 図 9 Β においては、 シャ ドウ座標系の X s Y S 平面に透視されたビデオ 信号を、 3次元シャ ドウビデオ信号 V 3 として表すことにする。 この点光源による透視変換行列 P S P O Tの詳しい説明については、 後述する。
次に、 3次元シャ ドウビデオ信号 V 3 を、 先に説明した透視変 換行列 Ρ。 によって、 ワール ド座標の X Y平面に透視されるよう に透視変換する。 これは、 Z軸上の仮想視点 P Zから、 3次元シ ャ ドウビデオ信号 V 3 を見た時に、 ワール ド座標系の X Y平面に 透視されるビデオ信号を求めることを意味する。 図 9 Bにおいて は、 ワール ド座標系の X Y平面に透視されたビデオ信号を、 2次 元のシャ ドウビデオ信号 V 4 として表すことにする。
図 9 Bに示される以上の処理をまとめる。 点光源モー ドのとき において、 2次元のソ ース ビデオ信号 V 0 から 2次元のシャ ドゥ ビデオ信号 V 4 を求めるための変換処理は、 ォブジュク ト ビデオ 信号 V。 を 3次元変換行列 T。 によって 3次元変換して 3次元ォ ブジェク ト ビデオ信号 V , を得るための 3次元変換ステップと、 この 3次元ォブジ二ク トビデオ信号 V , を、 点光源による透視変 換行列 P S P 0 Tによってシャ ドウ座標系の X s Y s 平面に透視して 3次元シャ ドウビデオ信号 V 3 を得るための透視変換ステップと 、 この 3次元シャ ドウビデオ信号 V 3 を、 透視変換行列 Ρ。 によ つてワール ド座標系の X Y平面に透視して、 2次元のシャ ドウビ デォ信号 V 4 を得るためのステップとから構成される。 よって、 2次元のソ一スビデオ信号 V。 から 2次元のシャ ドウビデオ信号
V 4 を求めるための変換行列 Tshadow' は、 次式、
Γ shadow' = T 0 - P S P OT * P o ·· ·· 4 1 )
と表すことができる。
ここで、 フ レームメ モ リ 2 2上の位置ベク トルと、 モニタスク リ ーン 3上の位置べク トルとの関係について説明する。 、
フ レームメ モ リ 1 2上の位置べク トルとモニタスク リ ーン 3上 での位置べク トルとの関係と同じょうに図 9 Cについて、 フ レー ム メ モ リ 2 2上の 2次元のア ド レスを (XM ' 、 YM ' ) 及び位 置ベク ト ル 〔 Χ Μ ' ΥΜ ' 〕 と し、 モニタスク リ ーン 3上のア ド レスを ( X s 、 Y s ) 及び位置べク トルを 〔X S Ys 〕 とする。 このフ レームメ モ リ 2 2上の 2次元の位置べク ト ル 〔 X M ' YM ' 〕 を同次座標系で表現すると、 〔 x m ' y m ' Hs ' 〕 と表す ことができる。 また、 モニタスク リ ーン 5 5上での位置ベク トル 〔X S Y s 〕 を同次座標系で表現すると、 ぺク トル 〔 x s y s 1 〕 と表すことができる。
ここで、 この同次座標系のパラメ ータ 〔 H s 〕 は、 フレームメ モ リ 1 2上の位置べク トルを同次座標系で表現したときの同次座 標系のパラ メ ータ と同様に、 ベタ トルの大きさの拡大縮小率を表 すパラメ 一夕であって、 本実施例においては擬似的な奥行き情報 と して使用する。 この 「HS 」 に関しては後述する。
2次元のソ ースビデオ信号 V 0から 2次元のシャ ドウビデオ信 号 V 4を得るための変換行列 T shadow' は後述するが 4行 4列の 変換行列であつて 3次元空間上の Z軸方向 ( 3行目及び 3列目) のデータは実質的に使用されず、 実際の 2次元読出しア ド レスの 演算 必要なパラ メ 一タを有した 3次元変換行列を T 33shadow' とするフ レーム メ モ リ 2 2上の位置べク トル 〔 χ ·η ' y m ' H s 〕 に対して、 この 3次元変換行列 T 33shadow' を作用させること によって、 フ レームメ モ リ 2 2上の位置べク ト ル 〔 X m ' y m '
H s 〕 がモニタスク リ ーン 3上の位置べク ト ル 〔 X s y s 1 〕 に変換される。 以下に関係式を記述すると、
C X s y s 1〕 = [ X m ' y m ' Hs 〕 · Τ shadow'
·· ·· ( 5 ) , と表すことができる。
なお、 フ レーム メ モ リ 2 2上の位置べク トル 〔 X m ' y m ' H s 〕 において使用されている同次座標系のパラメ ータ 「HS 」 及 び、 モニタス ク リ ー ン 5上の位置ベク トル 〔 X s y s 1 〕 におい て使用されているパラメ ータ 「 1 」 との関係は、 3次元変換行列 T 33shadowによって、 フレームメ モ リ 2 2 , 2 3上の 2次元位置 ベク トル 〔 X m ' y m ' ] が、 モニタスク リ ーン 2 2上の 2次元 位置べク ト ル 〔 X s y s 〕 に変換され、 フ レーム メ モ リ 2 2上の 2次元の位置べク ト ル 〔 x m ' y m ' 〕 の拡大縮小率 「HS 」 が 、 モニタスク リ ー ン上 2 2上の同次座標系の位置べク トル 〔 X s y s 〕 の拡大縮小率 「 1 」 となるように変換されることを意味す る o
このように、 ( 5 ) ' 式はフ レーム メ モ リ 2 2上の点に対応す るモニタ ス ク リ ー ン 2上の点を行列 T 33shadow' によつて求める 閲係式である。 フ レームメ モ リ 1 2上の読み出しの際と同様、 こ こでも変換行列 T 33stiadow' によって得られたモニタスク リ ーン
3上の点に対応するフ レーム メ モ リ 2 2上の点を読出しァドレス によつて指定することにより、 マツ ト処理されたソ ースビデオ信 号に対して空問的な画像変換を施すようになつている。 つまり、 フ レーム メ モ リ 2 2上に書き込む際に画像変換が行なわれるので はなく、 フ レーム メ モ リ 2 2から読み出される際に、 画像変換が なわれる。
モニタスク リ ー ン 3上の点に対応するフ レームメ モ リ 2 2上の 点を求めるには、 次式、
[ m ' y m ' Hs 〕 = [ x s y s 1〕 ♦ ( T 33shado ' ) -1
·· ·· ( 6 ) ' で表現される。 よってこの式に従って、 モニタ ス ク リ ー ン 3上の 位置べク ト ル 〔 X s y s 1〕 が指定されると、 変換行列に (T 33 shadow' ) — 'よってフ レームメ モ リ 2 2上の位置べク トノレ 〔 x m
' y m ' Hs ] が演算される。 ちなみにこの変換行列 (T33shad ow' ) - 1は変換行列 T 33shadow' の逆行列である。
次に、 図 1 0及び図 1 1を参照して、 点光源を使用したときの 点光源による透視変換行列 P S P O Tについて説明する。 図 1 0は、 シャ ドウ座標系の X s 軸方向から Ys Z s 平面を見た時の図であ つて、 点光源 6 0 と 3次元ォブジェク ト ビデオ V , と 3次元シャ ドウビデオ V 3 との位置関係を示している。 尚、 この点光源によ る透視変換行列 P S P O Tは、 点光源を使用した点光源モードの時に 、 3次元ォブジヱク ト ビデォ V , から 3次元シャ ドウビデオ V 3 を求めるための変換行列である。
図 1 1 Aは、 点光源 6 0 に対する変換処理のフロ ーを示し、 図 1 1 Bはオブジェク ト ビデオ信号に対する変換処理のフ口一を示 している。
まず、 図 1 1 Λを参照して点光源 6 0に対する変換処理のフ口 —を説明する。
ステ ッ プ S P 1 では、 変換行列 F によって、 ワールド座標系 で示される点光源 6 0の位置をシャ ドゥ座標系に変換する。 この 理由は、 後のステップ S P 5で説明する透視変換行列 P s。' は、 ワールド座標での透視変換行列ではなく て、 シャ ドウ座標系での 透視変換行列であるからである。 よって、 透視変換行列 P so' に よって、 3次元オブジェク ト ビデオ信号 V , をシャ ドウ座標系の X s Y s 平面に透視させる場合には、 ワール ド座標系で表される 点光源 6 0の位置をシャ ドウ座標系に変換する必要がある。
ここで、 この変換行列 F—'に関して具体的に説明する。 まず、 ヮールド座標系の X軸に対するシャ ドウ座標系の X s 軸の回転角 を X 、 ワールド座標系の Y軸に対するシャ ドウ座標系の Ys 軸 の回転角度を ^ Y 、 ワールド座標系の Ζ軸に対するシャ ドゥ座標 系の Z s 軸の回転角度を ^ ζ 、 シャ ドウ座標系の原点を、( X so, y so, Z so) とする。 ここで、 ワールド座標系からシャ ドウ座標 系への変換行列 F—'に対して、 逆行列の関係にあるシャ ドウ座標 系からワールド座標系への変換行列 Fは、 回転行列と移動行列の 積で簡単に表現できるので、 まず、 シャ ドウ座標系からワールド 座標系への変換行列 Fを求めることにする。 このシャ ドウ座標系 からワールド座標系への変換行列 Fは、 次式、
F = R x(d> χ) ♦ R ν(/? v) · R z(^ z) ♦ L (x so, y s o » Z so]
·· ·· ( 4 2 ) と表すことができる 但し、 行列 R x ( 0 、 行列 R Y ( 0 v ) 及び行列 R ζ ( Θ ) は、 回転のための行列であって、
1 0 0 0
0 cos θ χ s i η χ 0
R x ( 0 x) = ( 4 3 )
0 -s i π χ cos θ χ 0
0 0 0 1 cos 0 γ 0 -s i η ^ γ 0
0 1 0 0
R Υ ( θ ν) ( 4 ) sin 0 0 cos 0 γ 0
0 0 0 1 cos θ s i η ^ 0 0
s i η ^ cos 0 0 0
R ζ ( θ ζ) ( 4 5 )
0 0 1 0
0 0 0 1
と表すことができる。 また行列 L ( X y Z so) は、 平行 移動のための行列であって、 次式
0 0 0
1 0 0
L ( X y 2 s o) = ( 4 6 )
0 1 0
y z 1 と表すことができる。
よって、 シャ ドウ座標系から X o o 1· ワ ール ド座標系への変換行列 Fと 、 ワール ド座標系からシャ ドウ座標系への変換行列 F— 'とは逆行 列の関係にあるので、 変換行列 F— 1は、
F -'= L ( X s o, y s o, z s o) R x-' (^ x)
• R Y-1 ( ) ♦ R : ' ( z)
- L (- x y so, - z s o) - R x(- 0 x)
• R v(- Y) · R z (- Θ z)
·· ·· ( 4 7 )
と表すことができる。 但し、 行列 R x (— x ) 、 行列 R γ (- 0 ν ) 及び行列 R z (- θ z ) は、 回転のための行列であって、
COS (-^ γ) 0 -s i n (- (9 Y) 0
0 1 0 0
R v (- ) ( 4 9 ) s i n ( - Y) 0 cos (- (9 Y) 0
と表すことができる。 また、 行歹 UL (- X s o, 一 Y Z s o ) は、 平行移動のための行列であって、
1 0 0 0
0 1 0 0
L (- X y o ) ( 5 1 )
0 0 1 0
-z. 1 と表すことができる。
ステップ S P 2では、 図 1 0に示すように、 平行移動行列 TKS —'によって、 点光源 9 0の位置を、 Z s 軸上の仮想点光源 9 1 の位置に移動する。 この理由は、 3次元オブジェク ト ビデオ V , に対する 3次元シャ ドゥビデオ V 3 を求めるためには、 点光源 9 o 0の位置から、 3次元オブジェク ト ビデオ V , を見たときに、 3 次元ォブジヱク ト ビデオ V , をシャ ドウ座標系の X s Y s 平面に 透視させることによって 3次元シャ ドウビデオ V 3 を得ることが できる。 但しこの透視変換処理を行うためには、 視点とされる点 光源が Z s 軸上に位置する必要がある。 よって、 平行移動行列 T XSYS—!によって、 点光源 9 0の位置を、 Z s 軸上の仮想点光源 9 1 の位置に平行移動する。
ステップ S P 1及びステップ S P 2によって、 点光源に対する 変換処理は終了する。
次に、 図 1 1 Bを参照して 3次元才ブジヱク トビデオ信号 V , から 3次元シャ ドウビデオ信号 V 3 を生成するための透視変換行 列 P S P O Tについて説明する。
ステップ S P 3では、 ステップ S P 1 と同様に、 変換行列 F一 ' によって、 ワールド座標系で示される 3次元ォブジヱク トビデオ 信号 V , をシャ ドウ座標系に変換する。 この理由は、 後述するス テツプ S P 5 において使用される透視変換行列 P s。' は、 ワール ド座標系での透視変換行列ではなくて、 シャ ドウ座標系での透視 変換行列であるためである。 よって、 透視変換行列 P s。' によつ て、 3次元ォブジェク ト ビデオ V , をシャ ドウ座標系の X s Ys 平面に透視させる場合には、 ワールド座標系で表される 3次元ォ ブジェク ト ビデオ V , をシャ ドウ座標系に変換する必要がある。 ステップ S P 4では、 ステップ S P 2 と同様に、 図 1 0に示す ように、 平行移動行列 TXSYS— 1によって、 3次元ォブジヱク ト ビ デォ信号 V , を、 シャ ドウ座標系の Xs Ys 平面に平行に移動す る。 図 1 0では、 平行移動されたビデオ信号を仮想 3次元ォブジ ェク ビデオ信号 V , ' と表すことにする。 このように平行移動 する理由は、 ステップ S P 2で、 平行移動行列 T XSYS— 'によつて 、 点光源 9 0の位置を、 Z s 軸上の仮想光源 9 1 に位置するよう に平行移動したので、 この点光源 9 0に対する 3次元ォブジェク
ト ビデオ信号 V , の相対的な位置関係と、 仮想点光源 9 1 に対す る仮想ォブジェク ト ビデオ信号 V , ' の相対的な位置関係とが変 化しないように、 平行移動行列 TXSYS— 1によって、 3次元ォブジ ク ト ビデオ信号 V , も平行移動する必要があるからである。 次に、 ステ ッ プ S P 5では、 透視変換行列 P s。' によ、つて、 仮 想 3次元ォブジヱク ト ビデオ信号 V , ' を、 シャ ドウ座標系の X s Ys 平面に透視させる。 図 1 0では、 シャ ドゥ座標系の X s Y s 平面に透視されたビデオ信号を、 仮想 3次元シャ ドウビデオ信 号 V 3 ' と表すことにする。 この仮想 3次元シャ ドウビデオ信号 V 3 ' は、 仮想点光源 9 1を視点として、 仮想点光源 9 1から仮 想 3次元ォブジヱク ト ビデオ信号 V , ' を見たときに、 シャ ドウ 座標系の X s Ys 平面に透視されるビデオ信号である。
具体的には、 この透視変換行列 P s。' は、 式 ( 2 ) で示される 透視変換行列 P。 と視点 P Zとの関係から、 透視する際の視点が 仮想点光源 9 1 の位置、 即ち、 ( 0 , 0, Z !_ ) の位置にあると 考えれば良いので、 式 ( 2 ) において、 「 P z 」 を 「— 1 Z z L 」 に置き換えることによって透視変換行列 P s。' が得られる。 よ つて、 透視変換行列 P s。' は、
と表すことができる。
次に'、 ステ ッ プ S P 6では、 平行移動行列 Txsvsによつて、 仮 想 3次元シャ ドウビデオ信号 V 3 ' を、 シャ ドウ座標系の Xs Y s 平面に平行に移動する。 図 1 0では、 平行移動されたビデオ信 号を 3次元シャ ドウビデオ信号 V 3 と表すことにする。 図 1 0か
らもわかるように、 3次元シャ ドウビデオ信号 V 3 は、 点光源 9 0を視点と し、 点光源 9 0の位置から 3次元ォブジェク ト ビデオ 信号 V , を見たときに、 シャ ドウ座標系の Xs Ys 平面に透視さ れるビデオ信号である。 このように移動する理由は、 ステップ S P 4で、 平行移動行列 Txsys-'によつて、 3次元ォブジ、ェク ト ビ デォ信号 V , を平行移動したので、 その平行移動行列 T XSYS 1に よる平行移動処理を元に戻すためである。
ここで、 平行移動行列 TXSYS— 'と平行移動行列 TXSYSは、 逆行 列の関係にあるので、 平行移動行列 TXSYSは、
次に、 ステップ S P 7において、 式 ( 4 2 ) によって示される 変換行列 Fによって、 シャ ドウ座標系で表される 3次元シャ ドウ ビデオ信号 V 3 を、 ワール ド座標系に変換する。 これによつて、 ワールド座標系の座標値で示される 3次元シャ ドウビデオ信号 V 3 を得ることができる。
図 1 1 Bのフ ローに示される処理をまとめる。 ワ ール ド座標系 の 3次元ォブジヱク ト ビデオ信号 V , からワールド座標系の 3次 元シャ ドウビデオ信号を求めるための処理は、 3次元ォブジヱク ト ビデオ信号 V , をワ ールド座標系からシャ ドウ座標系に変換す るステップ ( S P 3 ) と、 シャ ドウ座標系において、 3次元ォブ ジヱク ト ビデオ信号をシャ ドウ座標系の Xs Ys 面に投影してシ ャ ドウ座標系の 3次元シャ ドウビデオ信号を生成するステップ ( S P 4 , 3 ? 5及び3 ? 6 ) と、 シャ ドウ座標系の 3次元シャ ド
ゥビデオ信号を、 シャ ドウ座標系からワールド座標系に変換する ステップ ( S P 7 ) とから構成される。
従って、 ワールド座標系の 3次元ォブジヱク ト ビデオ信号 V , からヮ一ルド座標系の 3次元シャ ドゥビデオ信号を求めるための 点光源による透視変換行列 P S。PTは、 変換行列 F -'と、 行移動 行列 TXSYS- 1と、 透視変換行列 P s。' と、 平行移動行列 TXSYS -' と、 変換行列 F の乗算式で表すことができるので、 次式
丄〕 S P O T^ F * T X S Y S * I s ο * Γ S YS * F ·· ·· 、 J J ) と表すことができる。
よって、 この変換行列 P S0PTを式 ( 4 1 ) に代入すると、 点光 源モー ドのときに、 2次元のソ 一スビデオ信号から 2次元のシャ ドウビデオ信号 V 4 を求めるための変換行列 Tshadow' は、
Γ shadow' = Τ。 · P · P o
= T 0 * F * T X Y S ~ ' * P s o ' ♦ T X Y s ' ♦ F 1 * V
·· ·· ( 5 6 ) と表すことができる。
ここで、 この変換行列 Tshadow' に基づいて、 シャ ドウビデオ 信号 V 4 をフ レームメ モ リ 2 2から読み出すための読み出しア ド レスを演算する方法は、 式 ( 3 ) に示される行列 Tobj に基づい て、 ォブジヱク ト ビデオ信号 V 2 をフ レームメ モ リ 1 2から読み 出すための読み出しア ド レス (XM , ΥΜ ) を求める演算方法と 全く同様である。 つまり、 式 ( 3 ) から式 ( 1 4 ) に示される演 算と全く 同様の演算方法である。
具体的には、 この変換行列 T shadow' は、 4行 4列の行列であ るの 、 式 ( 4 ) と同様に、 Z軸方向の成分 ( 3行目及び 3列目 ) を除いた行列を T 33shadow' とし、 この行列 T 33shadow' の逆 行列の ( T 33shadow') - 1の各パラ メ 一タを、 次式、
b b 1 2' b 1 3 '
(T 33shadow') * ' = b 21' b 22' b 23' · · · · ( 5 7 )
b 3 b 32 ' b 33' とおく。 また、 シャ ドゥ信号発生部 2 0 の読み出しア ド、レス発生 回路 2 4から供給される読み出しア ドレスを ( X M ' , Y M ' ) とする。 式 ( 3 ) から式 ( 1 4 ) に至るまでの演算方法を参照す ると、 この読み出しア ド レス ( Χ Μ ' , Υ Μ ' ) は、 次式、
と表すことができる。 ただし lis は次式、
H s = b 13' X + b 23 Ys 4· b 33 '
よって、 フ レームメ モ リ 2 2に供給される読み出しア ド レス ( X M ' , Y M ' ) を、 オペレータの所望の空間的画像変換処理に よつて決定される 3次元変換行列 Τ。 の各パラメ ータ ( r , ,〜 r 33、 1 1 γ , y ζ 及び s ) 、 及び、 予め設定されるパラメ ― タであるパースぺクティ ブ値 Ρ ζ 、 点光源の位置 ( x L , y
Ζ ) 、 シャ ドウ座標系の各軸の回転角 ( χ , 0 V , 0 、 シャ ドウ座標系の原点の位置 ( x s。, y s。, z s。) を用いて表す ことができる。
従って ( 6 ) 式〜 ( 4 0 ) 式に対して、 モニタ ス ク リ ー ン 3の ラスタスキヤ ン順に対応するようにア ドレツ シ ングするためのス ク リ ー ンア ド レス ( X s , Ys ) を供給すると、 その供給された ス ク リ ー ンア ド レスに対応したフ レームメ モ リ 2 2上における読 み出しア ド レス ( Χ Μ ' , Υ Μ ' ) を、 順に演算することができ
る。 これによつて、 2次元のオブジェク ト ビデオ信号 V 2 に対応 した 2次元のシャ ドウビデオ信号 Vヽ を生成することができる。 ( 6 ) 平行光源モ一 ド時において、 シャ ドウビデオ信号を生成す るための変換処理の説明。
まず、 図 1 2 A及び図 1 2 Bを参照しながら、 平行光 piを使用 した平行光源モ一 ドの時に、 3次元ォブジヱク 卜 ビデオ信号 V , から 3次元シャ ドウビデオ信号 V 5 を求めるための変換処理につ いて説明する。 尚、 図 1 2 A及び図 1 2 Bは、 図 9 A及び図 9 B と同じように、 図 1 2 Aは、 ワールド座標系の Z軸上に設定され た視点 P Zからワールド座標系の X Y平面を見たときの図であつ て、 図 1 2 Bは、 ワール ド座標系の X軸の正方向の位置からヮー ルド座標系の Y Z平面を見たときの図である。
まず、 3次元変換行列 T。 によって、 3次元の空間的位置に変 換された 3次元才ブジ ク ト ビデオ信号 V , は、 平行光源による 透視変換行列 Ρ Ρ Λ Β Αによって、 シャ ドウ座標の X s Y s 平面へ投 影される。 図 1 2 Bにおいては、 シャ ドウ座標系の X s Y s 平面 に透視されたビデオ信号を、 3次元シャ ドウビデオ信号 V 5 とし て表すことになる。 この平行光源による透視変換行列 P P A R Aは、 3次元オブジェク ト ビデオ信号 V , を透視変換して、 3次元シャ ドウビデオ信号 V 5 を求めるための変換行列である。
次に、 3次元シャ ドウビデオ信号 V 5 は、 先に説明した透視変 換行列 Ρ。 によって、 ワール ド座標系の X Y平面に投影される。 これは、 Z軸上の仮想視点 P Zから、 3次元シャ ドウビデオ信号 V 5 を見た時に、 ワールド座標系の X Y平面に透視されるビデオ 信号を求めることを意味する。 図 1 2 Bにおいては、 ワール ド座 標系の X Y平面に透視されたビデオ信号を、 2次元のシャ ドウビ デ才信号 V 6 として表すことにする。
図 1 3 Bのフ口一に示される以上の処理をまとめる。 平行光源
モー ドにおいて、 2次元のソースビデオ.信号 V。 から 2次元のシ ャ ドウビデオ信号 V 6 を求めるための変換処理は、 ソ ースビデオ 信号 V。 を 3次元変換行列 T。 によって 3次元変換して 3次元ォ ブジヱク ト ビデオ信号 V , を得るための 3次元変換ステップと、 この 3次元ォブジヱク ト ビデオ信号 V , を、 平行光源に る透視 変換行列 P PARAによってシャ ドウ座標系の X s Ys 平面に透視し て 3次元シャ ドウビデオ信号 V 5 を得るための透視変換ステップ と、 この 3次元シャ ドウビデオ信号 V 5 を、 透視変換行列 P。 に よってワールド座標系の X Y平面に透視して、 2次元のシャ ドゥ ビデオ信号 V c を得るためのステップとから構成される。 よって
、 2次元のソ ースビデオ信号 V。 から 2次元のシャ ドウビデオ信 号 V 6 を求めるための変換行列 Tshadow〃 は、 次式、
T shadow" = T。 · P PAR A · P o ·· ·· ( 6 0 )
と表すことができる。
平行光源モ一 ド時のフ レームメ モ リ 2 2上の位置べク ト ルとモ 二タスク リ ー ン 3上の位置べク トルの関係について、 前述した光 源モー ド時の関係と同様にシャ ドウ信号発生部 2 0の読出しァ ド レス発生回路 2 4から供給される読出しァド レス及び位置べク ト ルをそれぞれ ( X M 〃 ΥΜ 〃 ) 及び 〔ΧΜ ' Υ„ ' としモニタ ス ク リ ー ン 3上でのァ ドレス及び位置べク トルをそれぞれ (X s
Y s ) 及び 〔 X s Y s 〕 と したときに、 フ レームメ モ リ 2 2及び モニタスク リ ー ン 3上の位置べク トルをそれぞれ同次座標系で表 現するとそれぞれ 〔 x m " y m " Hs 〕 及び 〔 x s y s 1〕 と表 現される。
2 元のソ ースビデオ信号 V 0から 2次元のシャ ドウビデオ信 号 V 4を得るための、 実際の 2次元ァ ドレス読出しの演算に必要 なパラメ ータを有した変換行列を後述するが T 33shadow〃 と表現 したときに、 このフ レームメ モ リ 2 2上の同次座標系位置べク ト
ル 〔 x m " y m 〃 H s 〕 及びモニタ ス ク リ ーン 3上の同次座標系 位置ベク ト ル 〔 X s y s 1〕 の闋係は以下のように表現される。
〔 X s y s 1 〕 = 〔 X m " y H s 〕' · T 33shadow'
·· ·· ( 5 ) ' したがって、 モニタ ス ク リ ー ン 3上の点に対応する フ 、レームメ モ リ 2 2上の点を求めるためには
〔 x m " y H s 〕 = [ x s y s 1 〕 · (T 33shadow' ) - '
·· ·· ( 6 ) ' によって、 求めることができる。
次に、 図 1 3から図 1 6を参照して、 平行光源を使用した時の 平行光源による透視変換行列 P PARAについて説明する。
図 1 3 Aは、 平行光源 7 0 に対する変換処理のフロ ーを示し、 図 1 3 Bは、 3次元ォブジェク ト ビデオ信号 V , に対する変換処 理のフ口一を示している。
まず、 図 1 3 Aを参照しながら、 平行光源 7 0 に対する変換処 理のフ口一を説明する。
ステ ッ プ S P 1 1では、 ワ ールド座標系における球面座標によ つて定義されている平行光源 7 0の座標を、 ワ ール ド座標系の直 交座標に変換する。 平行光源の位置は、 直交座標系で表すより も 、 球面座標系で表すほうが一般的である。 球面座標系とは、 平行 光源の位置を 「半径 ( r ) 」 、 「緯度 ( a ) 」 及び 「経度 ( β ) 」 で表す座標系である。 図 1 4 Αは、 ワールド座標系において、 直交座標と球面座標の関係を示した図である。 図 1 2 Aに示すよ うに、 直交座標系と球面座標系の関係は、 緯度 ( ) の基準を Y 軸の ii方向とし、 経度の基準を X Y平面としている。 つまり、 球 面座標の赤道面が直交座標の X Y平面に一致し、 緯度 0 ( r a d ) 、 経度 0 ( r a d ) の方向が Y軸のマイナス方向に一致する。 よって、 球面座標で定義された平行光源 7 0の位置を ( r , a ,
β ) 、 直交座標に変換された平行光源の位置を ( χ ι_ , y L , z L ) とすると、 この光源位置 ( X L , y L , z L ) は、 ·· '· (り 1 )
と表すことができる。 よって、 球面座標で定義された光源の位置 を直交座標に変換するためには、 この式 ( 6 1 ) に、 オペレータ によって設定された球面座標系の光源位置 ( r , α, β ) を代入 することによって、 直交座標に変換された光源位置 ( X L , y L , Z !_ ) を求めることができる。
ステップ S P 1 2では、 変換行列 F— 'によつて、 平行光源の座 標をヮ一ルド座標系からシャ ドウ座標系に変換する。 変換行列 F 一 1については、 ステップ S P 1で説明したので、 説明は省略する 。 シャ ドウ座標系に変換された光源の位置を ( x i_ ' , y L ' , z L ' ) とすると、 同次座標系であらわしたワールド座標系での 光源のべク ト ル 〔 X L y L z L 1〕 と、 同次座標系であらわした シャ ドウ座標系での光源のベク トル 〔 X L ' y L ' z L '
1 〕 と、 変換行列 F— 1との関係は、 次式、
C L ' y L z L 1〕
= [ X L y L z L n ♦ F - ' ·· ·· ( 6 2 ) と表すことができる。
ステッ プ S P 1 3では、 ステップ S P 1 2で求められたシャ ド ゥ座標系における直交座標での光源の位置 ( X し ' , y L ' , z ' ) を、 シャ ドウ座標系における球面座標で表すように変換す る。 Ei 1 4 Bは、 シャ ドウ座標系での直交座標と球面座標との関 係を示すための図である。 図 1 4 Bに示すように、 シャ ドウ座標 系における直交座標系と球面座標系の関係は、 緯度 (ar s ) の基 準を Y s 軸の負方向と し、 経度 ( β s ) の基準を X s Y s 平面と
している。 つまり、 球面座標の赤道面が直交座標の X s - Y s 平面 に一致し、 緯度 0 ( r a d ) 、 柽度 0 ( r a d ) の方向が Y s 軸 のマイ ナス方向に一致する。
よって、 シャ ドウ座標系における直交座標で表された光源の位 置 ( X ι_ ' , y z L ' ) と、 球面座標で表された光源の位 置 ( r ' , α' , β ' ) との関係は、
r ' =Sqrt { ( X + ( y ) 2 + ( z
a ' = tan" 1 (— L ' , y L ')
β ' =sin- 1 (— z L ' , r )
·· '· ( 6 3 ) によって表される。 よって、 ステップ S P 1 2で求められた光源 の位置 ( X y L ' , z ' ) を、 この式 ( 6 3 ) に代入す ることによって、 平行光源 7 0の位置を、 シャ ドウ座標系におけ る球面座標で表すことができる。
次に、 ステップ S P 1 4では、 図 1 5に示すように、 回転行列 R z (一ひ' ) によって、 ステップ S P 1 3で求められた平行光 源の位置 ( r ' , a' , β ' ) を、 シャ ドウ豳標系の Ζ s 軸の回 りに一 " ' ( r a d ) 回転する。 つまり、 回転処理後の平行光源 の位置は ( Γ ' , 0, β ' ) と表すことができる。 図 1 3では、 回転行列 R z {~ α' ) によって回転された光源を仮想平行光源 7 1 と して表す。 このように平行光源 Ί 0の位置を回転すること によって、 図 1 3に示すように、 平行光源 Ί 1の光束は、 Ys Z s 平面に平行になる。 このように、 平行光源 7 1の高速を Y s Z s に平行になるように回転変換する理由は、 後述するステップ S P 1 7 において、 ォブジユタ ト ビデオ信号 V , を、 透視変換行列 P s o ' によってシャ ドウ座標系の X s Ys 平面に透視させる際に 、 入射する平行光源の光束が Y s Z s 平面に平行であると、 3次 元ォブジェク ト ビデオ信号を X s Y s 平面に透視させたとしても
、 Xs 軸方向の座標値が変化しないので、 ォブジェク ト ビデ才信 号を Xs Ys 平面に透視させるための透視変換行列 P s。〃 が非常 に簡単に表せるからである。
具体的には、 回転行列 R z ( - α ' ) は Z s 軸回りの回転行列 であるので、 回転行列 R z ( ) は、
( 6 4 ) と表すことができる。
ステ ッ プ S P 1 1, ステ ッ プ S P 1 2 , ステ ッ プ S P 1 3及び ステ ッ プ S P 1 4によって、 平行光源 7 0に対する変換処理は終 了する。
次に、 図 1 3 Bを参照して、 平行光源を使用した平行光源モー ドのときに、 3次元ォブジヱク ト ビデオ信号 V , から 3次元シャ ドゥビデオ信号 V 5 を生成するための透視変換行列 P PARAについ て説明する。
ステップ S P 1 5では、 ステップ S P 1 1 と同様に、 変換行列 F 'によって、 ワ ール ド座標系で示される 3次元ォブジヱク ト ビ デォ信号 V , をシャ ド ウ座標系に変換する。 この理由は、 ステツ プ S P 1 1 で説明した平行光源に対する処理と同様に、 後述する 透視変換行列 P s。〃 は、 ワールド座標系における透視変換行列で はなくて、 シャ ドウ座標系における透視変換行列であるためであ る。 ^つて、 3次元ォブジヱク ト ビデオ V , をシャ ドゥ座標系の X s Ys 平面に透視させる場合には、 ワール ド座標系で表される 3次元ォブジ ク ト ビデオ V , の各画素位置をシャ ドゥ座標系に 変換する必要がある。
ステップ S P 1 6では、 ステップ S P 1 5でシャ ドヴ座標系に 変換されたオブジェク ト ビデオ信号 V , を、 回転行列 R s {- ' ) によって、 Z軸の回りに一 "' ( r a d ) 回転する。 この理 由は、 図 1 5に示すように、 ステップ S P 1 4において、 回転行 列 R z (— " ' ) によつて平行光源 7 0の位置 ( r ' , α' , β
' ) を、 Ζ軸の回りに— " ' ( r a d ) 回転したので、 その平行 光源 7 0の回転処理と対応するように、 ォブジェク ト ビデオ信号 V , を、 回転する必要があるからである。 尚、 図 1 5 に示すよう に、 回転行列 R 2 {- a' ) によって Z s 軸の回りに— ( r a d ) 回転された 3次元ォブジニク ト ビデオ信号を、 仮想 3次元 ォブジヱク ト ビデオ信号 V , " と表すことにする。 よって、 シャ ドウ座標系の原点に対する、 3次元ォブジヱク ト ビデオ信号 V , と平行光源 7 0の相対的な位置閲係と、 シャ ドウ趣標系の原点に 対する、 仮想 3次元ォブジェク ト ビデオ信号 V , 〃 と仮想平行光 源 7 1の相対的な位置関係は、 全く同じである。
次に、 ステ ッ プ S P 1 7において、 透視変換行列 P s によつ て、 仮想 3次元ォブジヱク ト ビデオ信号 V , 〃 を、 シャ ドゥ座標 系の X s Ys 平面に透視する。 図 1 6 A及び図 1 6 Bを参照しな がら、 この透視変換行列を説明する。 まず、 図 1 5, 図 1 6 A及 び図 1 6 Bに示すように、 仮想ォブジェク ト ビデォ信号 V , " を
、 透視変換行列 P s。〃 によって X s Ys 平面に透視したビデオ信 号を、 仮想 3次元シャ ドウビデオ信号 V 5 ' と表すことにする。 図 1 4 Aは、 この仮想 3次元オブジェク トビデオ信号 V , ' と、 仮想 3次元シャ ドウビデオ信号 V 5 " との位置関係を 3次元的に '表している図面であって、 図 1 4 Bは、 X s 軸の正方向から Y s Z s 平面を見たときの仮想 3次元ォブジヱク ト ビデオ信号 V , " と、 仮想 3次元シャ ドウビデオ信号 V 5 〃 との位置閲係を表して いる図面である。 ここで、 仮想ォブジェク トビデオ信号 V , ' J-
のある画素点を ( x。 , y。 , ¾。 ) と し、 この画素 ( 。 , y o , z Q ) を透視変換行列 P s。〃 によって Xs Ys 平面に透視し た仮想シャ ドウビデオ信号 V 5 上の画素点を ( X s , y s , z s ) とすると、 図 1 6 Bに示される幾何学的な関係から、
X s = X 0
y s = y o + z 0 cot β '
z s - 0 ·· ·· ( 6 5 ) という関係が成り立つことが分かる。 また、 仮想ォブジェク ト ビ デォ信号 V , 〃 上の点 ( x。 , y Q , z。 ) と、 仮想シャ ドウビ デォ信号 V 5 上の点 ( x s , y s , z s ) 及び透視変換行列 P s。 " との関係式は、 次式
し X s y s z s 1 〕 = し x 0 y o z o 1 〕 · P so' ·· ·· ^ 6 6 ) によつて表すことができる。 よって、 式 ( 6 5 ) と式 ( 6 6 ) と から、
1 0 0 0
0 1 0- 0
P s o '
0 cot β ' 1 0
0 0 0 1 ( 6 7 ) と表すことができる。
次に、 ステップ S Ρ 1 8において、 回転行列 R z { 1 ) によ つて、 仮想シャ ドウビデオ信号 V 5 〃 を Z s 軸の回りに回転移動 する。 図 1 5 においては、 回転移動されたビデオ信号を 3次元シ ャ ドウビデオ信号 V 5 として表している。 図 1 5からもわかるよ うにぐ 3次元シャ ドウビデオ信号 V 5 は、 3次元ォブジュク ト ビ デォ信号 V , を、 平行光源 7 0 によってシャ ドウ座標系の X s Y s 平面に透視したビデオ信号である。 このように移動する理由は
、 ステ ッ プ S P 1 6で、 回転行列 R z (— "' ) によって、 3次
元オブジェク ト ビデオ信号 V , を回転移動したので、 その回転行 列 R z { - a ' ) による回転移動処理を元に戻すためである。 つまり、 回転行列 Rz { - a r ) と回転行列 Rz { α ' ) とは 、 逆行列の関係にあるので、 回転行列 R z { α ' ) は、
( 6 8 ) と表すことができる。
つぎに、 ステップ S P 1 9では、 式 ( 4 2 ) によって示される 変換行列 Fによって、 シャ ドウ座標系で表される 3次元シャ ドウ ビデオ信号 V 5 を、 ワール ド座標系に変換する。 これによつて、 ワールド座標系の座標値で示される 3次元シャ ドウビデオ信号 V 5 を得ることができる。
図 1 3 Bのフ ローに示される処理をまとめると、 ワ ール ド座標 系の 3次元ォブジヱク ト ビデオ信号 V , からワールド座標系の 3 次元シャ ドウビデオ信号 V 5 を求めるための処理は、 3次元ォブ ジヱク ト ビデオ信号 V , をワールド座標系からシャ ドウ座標系に 変換するステ ッ プ ( S P 1 5 ) と、 シャ ドウ座標系において、 3 次元ォブジェク ト ビデオ信号をシャ ドウ座標系の Xs Ys 面に投 影してシャ ドウ座標系の 3次元シャ ドウビデオ信号を生成するス テ ツプ ( S P 1 ΰ, S Ρ 1 7及び S Ρ 1 8 ) と、 シャ ドウ座標系 の 3次元シャ ドゥビデオ信号を、 シャ ドウ座標系からワール ド座 標系に変換して、 ワールド座標系の 3次元シャ ドウビデオ信号 V 5 を得るためのステ ッ プ ( S P 1 9 ) とから構成される。
従って、 ワール ド座標系の 3次元ォブジヱク トビデオ信号 V , からワール ド座標系の 3次元シャ ドウビデオ信号 V 5 を求めるた
めの透視変換行列 P PARAは、 変換行列 F _'と、 回転行列 R z (— ) と、 透視変換行列 P s。〃 と、 回転行列 R z ) と、 変 換行列 F— 1の乗算式で表すことができるので、 次式
P PARA = F - ' ♦ R a { - ') - P so' · R z ( ) · F
·· -· ( 6 9 ) と表すことができる。
よって、 この変換行列 P PARAを式 ( 6 0 ) に代入すると、 平行 光源モー ドのときに、 2次元のソ一スビデオ信号から 2次元のシ ャ ドウビデオ信号 V 4 を求めるための変換行列 Tshadow〃 は、
T shadow" = Τ。 · P P ARA · P o
二 T。♦ F - ' · R — · P s · R z (« ') · F · P
·· ·· ( 7 0 ) と表すことができる。
ここで、 この変換行列 Tshadow〃 に基づいて、 2次元のシャ ド ゥビデオ信号 V 6 をフ レームメ モ リ 2 2から読み出すための読み 出しア ド レスを演算する演算方法は、 式 ( 3 ) に示される行列 T obj に基づいて、 2次元のォブジヱク トビデオ信号 V 2 をフ レー 厶メ モ リ 1 2から読み出すための読み出しア ド レス ( X M , Υ Μ ) を求める潢算方法と全く同様である。 つまり、 式 ( 3 ) から式
( 1 4 ) に示される溃算と全く同様の演算方法である。
具体的には、 この行列 T shadow" は、 4行 4列の行列であるの で、 式 ( 4 ) と同様に、 Z軸方向の成分 ( 3行目及び 3列目) を 除いた行列を T 33shadow〃 とし、 この変換行列 T 33shadow〃 の逆 行列 (T 33shadow" ) 一 1の各パラメ ータを、 次式
1 Γ b i 2 b I a
( T 33snadow" ) b 2 I b 22 ' b
b a i b 32 ' b ( 7 1 とおく。 また、 シャ ドウ信号発生部 2 0の読み出しア ドレス発生— -
回路 2 4から供給される読み出しアドレスを (Χ Μ " , Y M ' ) とする。 式 ( 3 ) から式 ( 1 4 ) に至るまでの演算方法を参照す ると、 この読み出しア ド レス ( X M 〃 , Υ Μ " ) は、 次式、 b X s + b 21 Ys + b 31
X ( 7 2 )
b X s + b 23 Ys + b 33 b X s + b 22〃 Y s + b
Y M " = ( 7 2 ')
b :' X s + b 23 Ys + b 33 と表すことができる。 ただし、 Hs ' は
H s = b X s + b 23 Y s + b 33 "
よって、 フ レームメ モ リ 2 2に供給される読み出しア ド レス ( X M " , Υ Μ 〃 ) を、 オペレータの所望の空間的画像変換処理に よつて決定される 3次元変換行列 T。 の各パラメ ータ ( Γ ι 1〜 Γ
33. 1 X , 1 V , 1 2 及び S ) 、 及び、 予め設定されるパラメ 一 タであるパースぺクティ ブ値 Ρ 2 、 点光源の位置 ( X L , y L , z t_ ) 、 シャ ドウ座標系の各軸の回転角 ( χ , Θ V , Θ シャ ド ウ座標系の原点の位置 ( X s。, y so, z s。;) を用いて表す ことができる。
従って ( 6 ) 式〜 ( 4 0 ) 式に对して、 モニタスク リーン 3の ラスタスキヤ ン顺に対応するようにァ ドレツ シ ングするためのス ク リ ー ンア ド レス ( X s , Ys ) を供給すると、 その供給された ス ク リ ー ンア ド レスに対応したフ レームメ モ リ 2 2上における読 み出しア ド レス ( X M 〃 , Y„ " ) を、 順に演算することができ る。 これによつて、 2次元のオブジェク ト ビデオ信号 V 2 に対応 した 2次元のシャ ドウビデオ信号 V 6 を生成することができる。
( 7 ) シャ ドウ座標系の設定に関する説明
先に説明したように、 ォブジヱク ト ビデオ信号に対するシャ ド ゥが投影されるシャ ドゥ面を規定するためのシャ ドゥ座標系を設
定するためには、 ワール ド座標系の X軸、 Y軸及び Z軸に対する シャ ドウ座標系の Xs 軸、 Ys 軸及び Z s 軸の夫々の回転角
X , 0 γ , θ z 、 、 つ—)レド座標系の原点に対するシャ ドウ座標 系の原点位置 ( X S。, y so, Z so) の設定が必要である。 本発明 の特殊効果装置においては、 前述したように、 オペレータが任意 にシャ ド ウ座標系の X s 軸、 Ys 軸及び Z s 軸の各回転角及びシ ャ ドウ座標系の原点を設定するようになっている。 式 ( 4 2 ) 及 び式 ( 4 7 ) に対して、 各軸の回転角 ( <9 χ , θ V , ^ z ) 及び 原点の座標 ( x s。, y so, z s。) が代入される。 しかし、 このよ うにシャ ドウ座標系の原点としてオペレータが適当な位置を設定 すると、 図 1 5 Aに示すように、 3次元変換されたォブジヱク ト ビデオ信号 V , と 3次元シャ ドウビデオ信号 V 5 とが、 空間的に 離れてしまう ことがある。 このようなことが起こる理由は、 3次 元オブジェク ト ビデオ信号 V , が、 シャ ドウ面上に存在していな い、 つまり、 言い換えると、 シャ ドゥ面上に 3次元ォブジヱク ト ビデオ信号 V , が存在するように、 シャ ドウ面を設定することが できていないという ことである。 もちろん、 オペレータが、 図 1 7 Aに示されるようなシャ ドウ面を望んでいるのであれば問題は 無い。 しかし、 光源からの光によって、 地面上に存在する、 ある 物体に対してシャ ドウが付られるような効果を得るためには、 こ の地面をシャ ドゥが投影されるシャ ドウ面として設定する必要が ある。 つまり、 空間的に、 3次元ォブジヱク ト ビデオ信号 V , が シャ ドウ面上に存在するように、 シャ ドウ座標系の原点を設定す る必要がある。 そのために、 本発明の特殊効果装置は、 シャ ドウ 座標 の原点を自動的に設定するための原点設定モー ドを有して いる。
この原点設定モー ドとは、 まず、 オペレータがソ ースビデオ信 号 V。 上のある点を指定する。 この指定された点を、 3次元変換
行列 T Q によって ' 3次元空間上に変換し、 その 3次元空間上に変 換されたオブジェク ト ビデオ信号 Vobj 上の対応する点を、 シャ ドウ座標系の原点とする。 これによつて、 3次元ォブジヱク ト ビ デォ信号 Vobj 上の点にシャ ドウ座標系の原点が設定されるので 、 結果的に、 3次元オブジェク ト ビデオ信号 Vobj がシャ ドウ面 上に存在することになる。
具体的には、 図 1 7 Bに示されるように、 ソ ースビデオ信号 V 。 の右上の点を a、 左上の点を b、 左下の点を c、 及び、 右下の 点を dと し、 これに対応する 3次元ォブジヱク ト ビデォ信号 V ob j 上の点を、 a ' , b ' , c ' 及び d ' とする。 また、 そのソ ー スビデオ信号 V。 の 4点を a, b , c及び dの夫々の座標を、 ( X a , y a , 0 ) 、 ( x b , y b , 0 ) 、 ( x c , y c , 0 ) 及 び ( x d , y d , 0 ) とし、 3次元ォブジヱク ト ビデオ信号 V ob j 上の点 a ' , b ' , c ' 及び ά ' の夫々の座標を、 ( x a ' , y a ' , z a ' ) ( x b ' , y b ' , z b ' ) 、 ( x c ' , y c ' , z c ' ) 及び ( x d ' , y d ' , z d ' ) とする。
次に、 オペレータによって、 ソ ースビデオ信号 V。 上の点 dが 指定された場合を例にあげ説明する。 オペレータによつて指定さ れたソ ースビデオ信号 V。 上の点 d ( X d , y d , 0 ) を、 3次 元変換行列 T o によって変換したォブジヱタ ト ビデオ信号 V obj 上の対応する点は、 d ' ( X c ' , y d ' , z d ' ) である。 こ ζ?、 点、 d ( x d , y d , 0 ) と, d ' (
' ) とを、 夫々、 同次座標系のべク トルであらわすと、 べク トル
C d y d 0 1 〕 、 ベク ト ル 〔 x d ' y„ ' z d ' 1 〕 なるので、 これらのベク トルと、 3次元変換行列 T。 との 闋係は、 次式、
C x ό' y ά' z A ' 1 〕 [ d y d 0 1 ] T
C x d y d 0 1〕
-… ( 7 3 ) と表すことができる。
よって、 この式 ( 7 3 ) により、
X d ' 二 { τ 1 1 X d + r 2 1 y d + 1 x ) / S
y d ' = ( r 1 2 x o + r 22 y d + 1 Y ) / s
z d ' = ( r 1 3 x o + r 2 a y d + l z ) / s · · · * ( 7 4 ) という関係式が成り立つ。
よって、 式 ( 4 2 ) 及び式 ( 4 7 ) に示される移動行列 Lのパ ラメ 一タであるシャ ドゥ座標系の原点 ( X s。, y s o, z s o ) に、 式 ( 7 4 ) によつて得られた ( x d ' , y d ' , z d ' ) を代入 することによって、 3次元オブジェク トビデオ信号 V , 上の点に シャ ドウ座標系の原点が設定される。 つまり、 3次元空間上で、 3次元ォブジェク ト ビデオ信号 V , がシャ ドウ面上に存在するよ うに、 シャ ドウ座標系が設定されたことになる。 これによつて、 本発明の特殊効果装置は、 太陽からの光によって、 地上に存在す る物体の影が地面上に投影されるような自然な効果を得ることが できる。
( 8 ) リ アルシャ ドウ発生器 5 0 の説明
こ こでフ レームメ モ リ 2 3から出力される シャ ドウキー信号 ( 点光猄モー ド時は K 4 、 平行光源モー ド時は Κ 6 ) が入力されて 、 このキー信号に対してリ アルなシャ ドウ、 すなわち濃淡とぼか しを生成して出力する リアルシ ャ ドウキ一信号 (点光源モ一ド時 は Κ 4 ' 、 平行光源モ一ド時は Κ 6 ' ) を出力する リ アルシャ ド 一-
ゥキー発生器 5 ϋ について、 図 1 8を參照しながら説明する。
リ アルシャ ドウ発生器 5 0は全体として、 利得制御回路 5 0 0 、 水平 L P F 5 0 1、 垂直 L P F 5 0 2及びリ アルシャ ドウ制御 部 5 0 3からなる。 またこのリアルシャ ドウ制御部 5 0 3には後 述する利得制御回路 5 0 0の利得特性と、 水平及び垂直、 L P F 5
0 1, 5 0 2の濾波特性とを示すテーブルデータが格納されてい る、 R OM 5 0 4からなる。
利得制御回路 5 0 0 は、 フ レームメ モ リ 2 3から供給されるシ ャ ドウキー信号 (Κ 4 , Κ 6 ) に対して与える利得を制御する回 路である。 水平し P F 5 0 1 は、 利得制御回路 5 0 0からのシャ ドウキー信号 (Κ 4 , Κ 6 ) の水平方向の周波数成分に対する口 —パス フ ィ ルタ ( L P F ) である。 垂直 L P F 5 0 2 は、 水平 L P F 5 0 1 からのシャ ドウキ一信号 (Κ 4 , Κ6 ) の垂直方向の 周波数成分の口一パス フ ィ ルタ (L P F) である。 リ アルシャ ド ゥ制御部 5 0 3は、 読み出しア ド レス発生回路 2 4からの本実施 例で奥行き情報と して使用するパラ メ ータ Ηが入力されて R〇Μ 5 0 4に記憶されている、 所定の利 特性及び濾波特性に基づい て夫々利得制御回路 5 0 0及び水平、 垂直し P F 5 0 1 , 5 0 2 を制御する。 こ こで、 所定の利得特性とは、 結果的に意図した利 得特性となるデータであり、 濾波特性とは結果的に意図した瀘波特 性となるデータである。
本実施例において最終的に得たい画像は図 1 9 (Λ) に示すよ うにォブジ ク ト 0に対する影 Sがォブジェク ト〇から離れれば 離れる程、 影 S 自体が薄くかつぼやけるようにすることである。
尚、 この影は作図の都合上グラデイ エ一シヨ ンが滑らかに変化し ていないが、 実際には非常に滑らかに変化する。
この影 Sの濃淡を示す、 利得特性 (G A I Ν) は図 1 9 (B) に示している。 この図 1 9 ( B ) に示すように奥行き情報として 一 -
使用するパラメ ータ Hが大き くなるにつれて、 シャ ドウキー信号 ( K 4 , K G ) に対する利得は下げられ、 パラ メ ータ Hが小さ く なるにつれて、 シャ ドウキー信号 (K 4 , K G ) に対する利得は 上げられる。 つまり、 影 Sがオブジェク ト 0から離れれば離れる 程輝度が低く なる。 こ こで前述したようにこの図 1 9 (、Β ) に示 される特性となる、 ノ、 "ラメ 一夕 Ηと利得データとからなるテ一ブ ルデータは図 1 8に示す、 リ アルシャ ドウ制御部 5 0 3内の R 0 Μ 5 0 4 に格納されている。
また影 Sのぼかし量 (ソ フ ト ネス) 、 即ち口 一パス フ ィ ルタの 濾波特性 ( F I L T E R ) は、 図 1 9 ( C ) に示されるようにな る。 この図 1 9 ( C ) に示すようにパラメ ータ H s が大きく なる につれて水平および垂直ロ ーパス フ ィ ルタ 5 0 1及び 5 0 2の各 低域の通過帯域が狭く なり、 パラ メ ータ H s が小さ く なるにつれ て水平及び垂直ローパス フ ィ ルタ 5 0 1, 5 0 2 の各低域の通過 フ ィ ルタがフ ラ ッ ト 、 即ち広くなる。 つまり、 影 Sがォブジェク ト 〇から離れれば離れる程、 影 Sの輪郭等がぼける。 この図 1 9 ( C ) に示される特性となる、 パラ メ ータ H s と通過帯域を可変 とするフ ィ ルタ係数データとからなるテープルデ一タは、 前述し たように図 1 8に示すリ アルシャ ドウ制御部の R〇 M 5 0 4に格 納されている。 尚、 図 1 8に示される水平、 垂直口一パスフ ィ ル タ 5 0 1 , 5 0 2 に対し図 1 9 ( C ) に示される特性データが 1 種類用いられる。 水平口一パスフ ィ ルタ 5 0 1を用いるというの は、 水平方向において周波数成分の高い成分が通過できないとい う ことであるから、 周波数の高い成分が少なければ少ない程、 輪 郭等がはっきり しなくなる。 垂直方向においても同様である。
( 9 ) コ ンバイナ 3 0の説明
次にコ ンバイナ 3 0に閲して、 図 2 0を参照して説明するが、 その前にコ ンパイナ 3 0の一般的な合成理論に関し説明すること
にする。
一般に 2つのビデオ信号 V A 及び V B を、 それぞれキ一信号 K A 及び K B に基づいて、 奥行情報 H 0Aによって決められる優先順 位に従って合成しようとする場合について説明する。 第 1のビデ ォ信号 VA に対して、 第 2のビデオ信号 V B が上にある (スク リ 一ンに近い) 場合の合成式は、
V A (0 UT) - K A V A + ( 1 - K A ) K B V B ·· ·· ( 7 5 ) で表され、 V 0 (0 UT)のような'合成出力が得られる。
同様にして第 2の映像信号 V B に対して、 第 1の映像信号 V A が上にある場合の合成式は、
V B (OUT) = K B V B + ( 1 — K B ) K A V A ·· ·· ( 7 6 ) で表され、 V B (0 UT)のような合成出力が得られる。
第 1のビデオ信号 V A に対して、 第 2のビデオ信号 V B が上に ある (スク リ ーンに近い) 場合において、 合成ビデオ信号 VA (0U τ)に対してプライオ リティ信号 Η 0Αを考慮すると、 第 1のビデオ 信号 V A に対応する合成ビデオ信号は、 次式
V A (0 UT) X ― V A (OUT) H oA · · · · ( 7 / )
のように表すことができ、 ( 7 7 ) 式に ( 7 5 ) 式を代入するこ とにより、 次式
νΑ (ουτ) χ- { K AV A+ ( 1 - K A) K BV B} Η ΟΑ·· ·· ( 7 8 ) と表すことができる。
第 2の映像信号 V B に対して、 第 1の映像信号 V A が上にある 場合のプライオ リ ティ信号は、 プライオ リティ信号 Ho Aを用いて ( 1 一 H。A) と表すことができる。 従って、 第 2の映像信号 V B に対して、 第 1 の映像信号 V A が上にある場合において、 V A (0 U 丁)に対してプライオ リティ信号 ( 1 一 H0A) を考慮すると、 V B の出力は、 次式
V B (0 UT) X ― V B (0 U T) 、 1 ― Η θΑノ ·· ·· ( 7 9 )
のように表すことができ、 これに ( 3 2 ) 式を代入することによ 、
V B (OUT) X = ( K B V B + (1- K B ) K A V A } (1~ H OA)
·· ·· ( 8 0 ) のように表すことができる。
そこで、 最終的な合成ビデオ出力 V。UT を、 次式
V 0 U Τ Κ 0 U Τ = V A (0 U Τ) X + V B (0 UT) X ·· ·· ( 8 1 )
のように合成されたキー信号 K OUT によってキ一ィ ング処理すれ ば、 当該最終的な合成ビデオ出力 V。UT は、 次式
V A (OUT) X + V B (0 U T ) X
V OUT = · · ·· ( 8 2 )
A 0 υ τ
となる。
ところで、 第 1及び第 2のビデオ信号 V A 及び V B に対応する 映像が表示されるェ リァ以外のェ リ 了 (すなわちビデオ信号 V A 又は V B のどちらも表示されていないヱ リァ) が、 第 1及び第 2 のビデオ信号 V A 及び V B のキー信号 Ka 及び K b を用いて ( 1— K A ) ( 1 — K N ) のような積の形で定義できるので、 ビデオ 信号 V Α 又は V B のいずれかが表示されるェ リ ァについてのキー 信号 OUT は
K OUT = 1 - ( 1 - K A ) ( 1 一 K B ) ·· ·· ( 8 3 )
によつて表すことができる。
従って ( 7 7 ) 式に ( 7 8 ) 式、 ( 8 0 ) 式及び ( 8 3 ) 式を 代入すれば、 最終的に得られる合成ビデオ出力 V ουτ は、
V 0 u ' ( { K A V A + ( 1 - K A ) K B V B } H OA
+ { K B V B + ( 1 - K B ) K A V A } ( 1 - II ΟΛ)
1
( { H OAK A + ( 1 - H OA) ( 1 - K ) く } V A
+ { ( 1 - H OA) K B + H OA ( 1 — K ) K } V B )
1
X ( 8 4 )
1 一 ( 1 一 K A ) ( 1 - K B ) のようになる。 よって ( 8 3 ) 式 ( 8 4 ) 式で表わされたキー信 号 Κ。υτ と合成ビデオ出力 V 0UT が混合キ一信号 K ' mi„ 、 混合 ビデオ信号 V ' miK と して、 コ ンパイナ 3 0から出力される。
本発明の特殊効果装置のコ ンバイナ 2 2は、 2つの画像情報、 すなわち図 2 0 ( A ) に示すスク リ ーン面 3 Aの背後の X Y Z空 間において、 それぞれ奥行情報 II。 及び Hs を有するように斜め に延長しながら互いに交差する 2つの映像のビデオ信号、 すなわ ち才ブジヱク ト ビデオ信号 V 2 及びシャ ドゥビデオ信号 (点光源 モー ド時は V 4 、 平行光源モー ド時は V 6 ) について、 それぞれ キー信号 K 2 (図 2 0 (B ) ) 及び K 4 (点光源モー ド時は Κ 4 、 平行光源モー ド時は K s ) (図 2 0 ( C ) ) によってキ一イ ン グすると共に、 2つの映像の各部のプライオ リティ信号 Ho A及び ( 1 一 H。A) (図 2 0 ( D ) 及び図 2 0 ( E ) ) に基づいて図 2 1 の構成を用いて合成する。
ここで、 プライオ リ ティ信号 H OAとは、 ォブジェク ト ビデオ信 号 V ? のシャ ドウビデオ信号 (V 4 又は V 6 ) に対する表示の優 先度を示すための情報である。 例えば、 II 0A= 1の時は、 ォブジ ェク ト ビデオ信号 V 2 の優先度は 1 0 0 ノ、。一セ ン 卜であっては、 シャ ドウビデオ信号 (V 4 又は V 6 ) は全く表示されない。 即ち ォブジェク ト ビデオ信号 V 2 は、 不透明であると言える。 H OA =
0. 5の時はォブジヱク トビデオ信号 V 2 は半透明であって、 シ ャ ドウビデオ信号 V 4 が透けて表示されることになる。 つまり、 オブジェク ト ビデオ信号 V 2 が 5 0 %表示され、 シャ ドウビデオ 信号 (V 4 又は V 6 ) が 5 0 %表示されるので、 ォブジヱク ト ビ デォ信号 V 2 とシャ ドウビデオ信号 ( V 4 又は V 6 ) とが混ざり 合ったビデオ信号が表示されることになる。
図 2 1 は全体と してコ ンパイナ 3 0の構成を示し、 オブジェク ト ビデオ信号 V 2 の合成比率を演算する第 1映像信号合成部 4 1 と、 シャ ドウビデオ信号 (V 4 又は V 6 ) の合成比率を演算する 第 2映像信号合成部 4 2 と、 オブジェク ト ビデオ信号 V 2 及びシ ャ ドウビデオ信号 (V 4 又は V 6 ) に対するキー信号を形成する キー信号合成部 4 3 と、 ォブジヱク トビデオ信号 V 2 と シャ ドウ ビデオ信号 (V 4 又は V R ) とを合成して出力する合成出力部 4 4 とプライ オ リティ信号発生回路 4 8とからコ ンバイナ 3 0は構 成される。
第 1映像信号合成部 4 1 は、 「 1 」 係数回路 4 9 と 「 1 一 K' 4 (または 1 一 K' 6 ) 」 係数回路 5 0 と合成回路 4 5 と掛算回 路 4 6, 4 7から構成されている。
合成回路 4 5 は、 第 1, 第 2及び第 3の入力データ D 1 , D 2 及び D 3に基づいて次式
D 4 = D l x D 2 + ( 1 - D 1 ) x D 3 …- ( 8 5 ) の演算を執行することにより出力データ D 4が得られる。 実際に 入力されるデータ D 1, D 2及び D 3はブラィオ リティ信号発生 回路から出力されるプライオ リティ信号 H0Aと、 「 1 」 係数回路 から ώ 「 1 」 出力と 「 1 — K ' 4 (または 1 — Κ ' 6 ) 」 係数回 路 5 0からの 「 1 — K' 4 (または 1 一 K' 6 ) 」 出力とが入力 されるので、 合成回路 4 5から出力される出力データ D 4は、 {
Η θΑ+ ( 1 - Η ΟΑ) · ( 1 - Κ ' 4 (または Κ ' 6 ) ) } となる
。 さ らにこの出力データ D 4は掛算回路 4 6及び 4 7 に供給され 、 掛算回路 4 6 はこの出力データ D 4とコ ンパイナ 3 0に入力さ れるォブジェク トキ一信号 Κ 2 とが入力されて出力 D 4 X Κ 2 が 得られ、 さ らにこの出力 D 4 X Κ 2 とオブジェク ト ビデオ信号 V 2 とが掛算 4 7 に入力され、 出力 D 4 X Κ 2 X V 2 が得られる。 したがって、 第 1映像信号合成部 4 1から出力される出力データ S 1 1 は次式
S 1 1 { Η θΑ+ ( 1 Η 0 A)
. ( 1 - K ' (または K ' 6 ) ) } K 2 - V 2
·· ·· ( 8 6 ) によって表される。
また第 2映像信号合成部 4 3は、 「 1 一 H 0A」 係数回路 5 2 と 「 1 」 係数回路 5 3 と 「 1 一 K 2 」 係数回路 5 4 と ( 7 5 ) 式と 同じ演算を実行する合成回路 5 1 と、 掛算回路 1 5 2及び 1 5 3 から構成されている。
合成回路 5 1 に入力される入力データ D l, D 2及び D 3はそ れぞれ 「 1 一 H 0A」 係数回路 5 1からの 「 1 一 H 0A」 出力と、 「 1 」 係数回路からの 「 1 」 出力と、 「 1 — K 2 」 係数回路 5 4 「 1 - Κ 2 」 出力であるので、 合成回路 5 1から出力される出力デ 一夕 D 4 は、 { ( 1 - Η ΟΑ) + Η ΟΑ · ( 1 - Κ 2 ) } となる。
したがって、 第 2映像信号合成部 4 3の合成出力データ S 1 2 は、
S 1 2 = { ( 1 - Η ΟΑ) + Η ΟΑ · ( 1 — Κ 2 ) } Κ' 4 (また
Κ ' 6 ) - V 4
と表 れる。
またキー信号合成部 4 3は、 掛算回路 5 5 と 「 1 — ( 1 一 Κ 2 ) - ( 1 - Κ ' 4 (または Κ ' 6 ) ) 」 演算回路 5 6から構成さ れている。 掛算回路 5 5は、 「 ( 1 一 Κ' 4 (または K ' 6 ) )
」 係数回路 5 0からの 「 ( 1 — K ' 4 (または Κ ' 6 ) ) 」 出力 と、 「 ( 1 — Κ 2 ) 」 係数回路 5 4からの 「 ( 1 一 Κ 2 ) 」 出力 とが与えられ、 「 ( 1 一 Κ 2 ) · ( 1 — K ' 4 (または K' 6 ) ) 」 を出力する。 「 1 一 ( 1 — Κ 2 ) · ( 1 - K' 4 (または Κ ' 6 ) ) 」 演算回路 5 6 にはこの 「 ( 1 _ Κ 2 ) · ( 1 - Κ ' 4
(または K ' 6 ) ) 」 出力が与えられ、 その出力を次式
1 - ( 1 - Κ 2 ) · ( 1 - Κ' Α (または K' 6 ) )
·· ·· ( 8 8 ) で表されるキー信号 Κ。 と して出力される。 またこの ( 7 8 ) 式 で示されるキー信号 Κ。 はコ ンバイナ 3 0からの出力信号として 次段のミ キサ 4 0 に出力される。
また、 合成出力部 4 4は、 「 1 一 ( 1 — Κ 2 ) ♦ ( 1 — Κ ' 4 (または K ' 6 ) ) 」 出力を逆回路 5 7において分数に変換して 、 乗算回路 5 8に与えることにより、 加算回路 5 9の加算出力と 乗算して合成ビデオ信号 V。 としてコ ンバイ ナ 3 0から ミキサ 4
0 に出力される。
加算回路 5 9 には、 第 1及び第 2映像信号合成部 4 1及び 4 2 の合成出力データ S 1 1及び S 1 2が与えられ、 かく して合成ビ デォ信号 V。 は次式
V o= ( (H OAK 2+ (1- H OA) - (Ι- Κ' 4(または K' 6)) } Κ 2 · V + (1- Η ΟΑ) Κ / 4(または K' 6) + Η ΟΛ - (1- Κ 2) Κ ' 4
(または Κ ' 6 ) } - V 4 (または V 6 ) )
X 1 (1— Κ 2) · ( 1 - Κ' 4(または K ' 6))}
·· ·· ( 8 9 ) によって表される値になる。
したがって、 コ ンバイナ 3 0から実際に出力される混合ビデォ 信号 V ' miK (平行光源モー ド時は V〃 ) と混合キー信号 K ' mi¾ (平行光源モー ド時は K " ) は、 それぞれ ( 8 9 ) 式 —
、 ( 8 8 ) 式で示される。
理論的に求めた ( 8 4 ) 式の合成ビデオ出力の式は、 図 2 1の コ ンバイナ 3 0 において得られる ( 8 9 ) 式の合成ビデオ出力 V 0Aと同じであり、 かく してコ ンバイナ 3 0は ( 7 5 ) 式〜 ( 8 4 ) 式の合成理論を実行するものであると言い得る。
図 2 1のコ ンバイナ 3 0において、 図 2 0 ( A) に示すように 、 映像〇及び Aが、 奥行情報 H。 及び Hs をもちながら交差して いるとき、 第 1及び第 2の映像〇及び Aの映像を表わすビデオ信 号 V 2 及び V 4 (又は V 6 ) は、 キー信号 K 2 及び K' 4 (又は Κ' 6 ) によってキーイ ング処理される。
映像〇の奥行情報 Η。 は、 映像 0が映像 Αよりスク リ ーン面 3 Aに近い奥行情報 H。 をもっている範囲 W 2及び W 4において、 オブジェク ト ビデオ信号 V 2 を出力するようなプライオ リティ信 号 H。A (図 2 0 (D) ) をプライオ リティ信号発生回路 4 8にお いて発生させる。
これに対して、 映像 Aのうち、 映像 0よりスク リ ーン面 3 Aに 近い奥行情報 H s をもっている範囲 W 1及び W 3の範囲でシャ ド ゥビデオ信号 V 4 (又は V 6 ) を出力するためのプライオ リティ 信号が ( 1 一 H0A) (図 2 0 (E) ) として求められる。
かく してコ ンバイナ 3 0から合成ビデオ信号 V。 として、 図 2
0 (G) に示すように、 オブジェク ト映像 0のうち優先順位の高 い範囲 W 2及び W 4において、 ォブジヱク ト映像〇がスク リーン 面 3 A上に映出されると共に、 シャ ドウ映像 Aのうち奥行情報 H s の優先順位が高い範囲 W 1及び W 3において、 シャ ドウ映像 A がスク リ ーン面 3 A上に表示される。
次に、 このプライオ リティ信号に関して説明する。 この実施例 の場合、 プラ イ オ リ ティ信号発生回路 4 8は図 2 2に示すように
、 入力されるォブジェク ト ビデオ信号 V 2 及びシャ ドウビデオ信
号 V 4 (又は V 6 ) の奥行情報 H。 及び Hs (図 2 3 (A) ) を 、 減算回路 6 5 に受け、 その減算出力 S 2 1 (二 H。 一 Hs ) ( 図 2 3 (B) ) が乗算回路 6 6においてゲイ ン レジスタ 6 7から 供給されるゲイ ン信号 S 2 2 (- G) と乗算された後、 その乗算 出力 S 2 3 ( = ( H。 一 H s ) G ) (図 2 3 ( B ) ) が、リ ミ ッタ
6 8に与えられる。
ここでゲイ ン信号 S 2 2 ( = G) は、 図 2 3 (B ) に示すよう に、 減算出力 (ト I。 一 Hs ) の傾斜 (すなわち、 合成奧行比率の 変化率) を変更するような機能をもっている。
リ ミ ッタ 6 8は、 図 2 3 (C ) に示すように、 乗算出力 S 2 3 の値を + 0. 5 0. 5の範囲に制限するもので、 かく して奥 行情報の差が大きい範囲において、 レベルが + 0. 5又は— 0. 5 になり、 かつ奥行情報の差が + 0. 5〜一 0. 5の範囲にある とき、 リ ミ ッ タ出力 S 2 4が ( ίΐ。 一 H A ) Gの値を呈する。 当該リ ミ ッタ出力 S 2 4は、 加算回路 6 9においてォフセ ッ ト レジスタ 7 0から与えられるオ フセ ッ ト信号 S 2 5 (= L。 ) を 加算され、 その加算出力が、 図 2 2 (D) に示すように、 値が 1 〜 0の範囲で切り換わるプライォ リティ信号 H 0Aと してプライ才 リティ信号発生回路 4 8から出力される。
図 2 2のブラィオ リティ信号発生回路 4 8において、 第 1及び 第 2の映像〇及び Λについて、 両者が交差しているときには、 当 該交差している点の近傍の範囲 W 2 3 (図 2 3 (D) ) において 、 プライ オ リティ信号 H 0Aは第 1及び第 2の映像〇及び Aの奥行 情報 H。 及び Hs の差の大きさに従う傾斜で変化する。
従って当該交差する点の近傍の範囲 W 2 3においては、 プライ オ リティ信号 H0Aが急激に 1〜 0 (又は 0〜 1 ) に切り換わらな いので、 当該近傍範囲 W 2 3の画像は、 映像 0及び Aに互いに重 なるように透けて見える状態になる (図 2 0 (G) ) 。 つま り、
映像〇と映像 Aとが混ざりあって表示されるので、 映像 0と映像
Aとが交差している近傍では、 緩やかに映像〇と映像 Λとの混合 割合が変化していくので、 違和感の無い表示を行なう ことができ る。
かく して第 1及び第 2の映像 0及び Aが交差している、点の近傍 の範囲 W 2 3において映像〇及び Aが柔らかく変化するような特 殊効果画像上の効果を得ることができ、 しかも当該境界領域の幅 及び映像の変化の仕方は、 ゲイ ンレジスタ 6 7のゲイ ン出力 S 2 2の値を調整することにより、 オペレータが必要とする程度に調 整することができる。
コ ンバイ ナ 2 2 は N AM ミ ッ クス回路構成の奥行情報合成回路
1 5 4を有し、 映像〇及び Aの奥行情報 (ス ク リ ー ン面 3 Aに近 い方の映像の位置を表わす) を選択して合成奥行情報 H。 ZHS と してコ ンバイナ 2 2から送出する。
コ ンパイナ 3 0から出力される混合ビデオ信号 (点光源モ一 ド 時は V' mi„ , 平行光源モ一 ド時は V〃 mi„ ) と混合キー信号 ( 点光源モー ド時は K' m i x 、 平行光源モー ド時は K〃 mi„ ) はそ れぞれ上述した ( 8 9 ) 式、 及び ( 8 8 ) 式で示される。 ミキサ
4 0は入力される混合ビデオ信号及び混合キ一信号と、 バックグ ラ ウ ン ド信号 V ' BKとが入力されて最終的に出力ビデオ信号 V' OUT が出力される。 従って、 ミキサ 4 0から出力される出力ビデ ォ信号 V' 。υτ は、 式 ( 8 8 ) 及び式 ( 8 9 ) を式 (C ) 及び式
(D) に代入することで得られる。 すなわち点光源モード時は、
V OUT = Κ' MI K V MIK + ( 1 — K' ) V BK
= {HOAK 2 + ( 1 - HOA) ( I —K' 4 ) K 2 } V 2
+ { ( 1 - HOA) KR 4+ HOA ( 1 - K 2) K' 4 } V 2 + ( 1 - Κ' 4 ) ( 1 _K 2 ) V ΒΚ·· -· ( 9 0 ) ―
また平行光源モー ド時の出力ビデオ信号 V〃 。UT は、
V OUT = V MI„ + ( Ι — Κ' ) V BK
= { H OAK 2 + ( 1 - H OA) ( 1 — K' 6 ) K 2 } V 2
+ { (1- H OA) K ' 6 + H OA(1- K 2) K / 6 } V 2
+ ( 1 - Κ ' 6 ) ( 1 - K 2 ) V Β κ · · · ·、 ( 9 1 ) と表現される。
こ こで リ アルシャ ドウ発生器 5 0 によって、 出力される リ アル シャ ドウキ一信号 (点光源モー ド時は K' 4 、 平行光源モー ド時 は ' 6 ) の利得が制御されて、 利得が ϋ %のとき、 点光源モー ド時は、 K ' 4 = 0、 平行光源モー ド時は、 K ' G = 0 となるの で式 ( 9 0 ) 及び式 ( 9 1 ) は、 それぞれ、
V 。UT = { H OA 2 + ( 1 - H OA) K 2 } V 2
+ ( 1 一 K 2 ) V BK
= K 2 V 2 + ( 1 一 K 2 ) V BK ·· ·· ( 9 2 )
V " OUT = { H o A K 2 + ( 1 - H OA) K 2 } V 2
+ ( 1 - K 2 ) V BK
= K 2 V 2 + ( 1 - K 2 ) V BK ·· · · ( 9 3 ) となる。 この場合、 上式 ( 9 2 ) 及び ( 9 3 ) から点光源モー ド 時、 平行光源モー ド時の出力ビデオ信号は、 K 2 V 2 の部分以外 は、 ( 1 — K 2 ) V BKとなり、 リ アルシャ ドウキ一信号の利得が 低いとノ ッ ク グラ ン ド信号 V B Kが略 1 0 0 %出力される。
また、 リ アルシャ ドウ発生器 5 0 によって、 リ アルシャ ドウキ 一信号の利得が 1 0 0 %のときは、 点光源モー ド時は、 K ' 4 == 1、 平行光源モー ド時は Κ'. 6 = 1 となるので式 ( 9 0 ) 及び式 ( 1 ) は、 それぞれ、
V OUT= H OAK 2V 2+ { (1— H。A) + H 0A(1 - K 2)} V 4
- H OAK 2V 2 + (1- H OAK 2 ) V 4 ·· ·· ( 9 4 )
V " ουτ= H OAK 2V 2+ { (1- H OA) + H OA (1- K 2) } V 6
= H OAK 2V 2+ (1- H OAK 2 ) V 6 · · · · ( 9 5 ) となる、 この場合点光源モー ド時、 平行光源モー ド時ともに H 0A K 2 V 2 以外の部分は、 シャ ドウビデオ信号 (V 4 または V 6 ) が 1 0 ϋ %出力される。 通常、 シャ ドウビデオ信号は管、面上にお いて黒色となるので、 この場合には濃い黒色となってモニタ画面 上に映し出されることになる。
( 1 0 ) 特殊効果装置の動作及び効果の説明
次に、 この特殊効果装置の動作を簡単に説明する。
まず、 オペレータは、 コ ン ト π—ルパネル 5に設けられた 3次 元ポイ ンテ ィ ングデバイ スやキー等を操作して、 本発明の特殊効 果装置で使用される読み出しア ドレスの演算に必要とされる各パ ラ メ 一タを入力する。 こ こで、 この読み出しア ド レスの演算に必 要なパラ メ ータ とは、 パースペク テ ィ ブ値 Ρ Ζ 、 シャ ドウ座標系 の X s 軸、 Y s 軸及び Z s 軸の夫々の回転角 Θ x , 0 γ , Θ z ) 、 シャ ドウ座標系の原点 ( x s。, y so, z so) 、 平行光源であ るか点光源であるかを示す光源の種類、 その光源の位置 ( Χ ι_ , y L , z L ) 又は ( r , α, β ) 等である。 また、 シャ ドゥ座標 系の原点を自動設定するモードが指定されている場合には、 ソ一 スビデオ信号の 4隅の点 ( a〜 d ) のうちのどれが指定されてい るかを示すデータが、 コ ン ト ロ ールパネル 5から入力される。 まず、 光源の種類と して、 点光源が指定された場合を例にあげ 説明する。
C P U 8は、 コ ン ト ロ ールパネル 5から入力されるこれらのノヽ。 ラメ ータを受け取り、 リ アルタイ 厶に読み出しア ドレスの演算に 反映させる。 具体的には、 C P U 8は、 コ ン ト ロ ールパネル 5か ら供給されるパラメ 一タの変化をフレーム周期で監視し、 且つ、 供給されたパラメ 一タに基づいて読み出しアドレスを演算するた
めのパラメ ータ ( b u b c^, b , 〜 b 33' ) をフ レーム周期 で演算している。 よって、 オペレータの操作に応じてフ レーム周 期でこれらのパラメ 一タをリ アルタイムに可変することができ、 そして、 その可変されたパラメ ータに応じて、 リ アルタ イ ムに読 み出しア ドレスが演算される。 また、 C P U 8は、 これらのパラ メ ータを、 設定値としてフ レーム毎に R AM 7 に記憶することも できる。 尚、 この段階では、 オペレータは、 ソ ースビデオ信号 V 0 に対して 3次元画像変換の指示を行っていないので、 モニタ ス ク リ ー ン 3には、 ソースビデオ信号 V。 が表示されている。
次に、 オペレータは、 コ ン ト ロ ールパネル 5に設けられた 3次 元ボイ ンティ ングデバィス等を操作することによって、 ソースビ デォ信号 V。 に対して 3次元の画像変換操作を指令する。 ォペ レ —タによって 3次元の画像変換が指令されると、 C P U 8は、 ォ ペ レ一タが指定した 3次元変換行列 T。 の各パラメ 一タである、 r 〜 r 33、 i χ . 、 z 及び sをコ ン ト ロールパネル 5か ら受け取り、 これらのパラメ 一タをリ アルタ イ ムに読み出しア ド レスの演算に反映させる。 具体的には、 C P U 8は、 コ ン ト 口 一 ルパネル 5から供給されるこれらのパラメ 一タの変化をフレーム 周期で監視し、 且つ、 供給されたパラメ ータに基づいて読み出し ア ド レスを浪算するためのパラメ ータ ( b u b aa, b , ~ b
33' ) をフ レーム周期で演算している。 次に、 C P U 8は、 受け 取ったパラメ ータ r u r a^ £ x ヽ ί γ £ ζ 及び sに基づい て、 式 ( 8 ) で表される 3次元変換行列 T 33 'の各パラメ ータ b , ,〜 b 3 3を演算する。 具体的には、 式 ( 2 8 ) 〜式 ( 3 7 ) に、 ノヽ。ラ メ 一タ Γ , , Γ Β ^ ί χ . £ v . £ z 及び s を代入する こ と によって、 ノ、"ラメ 一タ b , ,〜 b 33を求めることができる。 また、 C P U 8 は、 受け取った 3次元変換行列 T。 のパラ メ ータ r Μ〜
Γ 33. i x . i v . ί τ 、 S及び、 シャ ドウ座標に関するパラ メ '
ータ θ ヽ 0 ν . θ ζ . χ s o. y s。、 z s。、 及び、 光源に関する ノ、。ラ メ 一タ X L 、 y し 、 z L を受け取り、 これらのノ、°ラ メ 一タ に 基づいて、 式 ( 5 7 ) に表される 3次元変換行列 (T33shadow' ) —'の各パラメ ータ b , 〜 b 33' を演算する。 C P U 8は、 演 算したパラメ ータ b , ,〜 b 33を、 オブジェク ト信号生^部 1 0の 読み出しア ド レス発生回路 1 4に供給し、 渲算したパラ メ 一タ b . 〜 b 33' を、 シャ ドウ信号生成部 2 0の読み出しア ド レス発 生回路 2 4 に供給する。
ォブジェク ト信号生成部 1 0の読み出しァ ド レス発生回路 1 4 は、 。? 11 8からパラメ 一タ 1 1 1~ 1) 33を受取るとともに、 スク リ ー ンア ド レス発生回路 9からス ク リ ー ンア ド レス (Xs , Y s ) とを受け取り、 式 ( 1 3 ) 及び ( 1 4 ) に基づいて、 ォブジ二 ク ト信号用の読み出しア ド レス (ΧΜ , Υ„ ) をフ レーム周期で 生成する。 生成された読み出しア ドレス (ΧΜ , ΥΜ ) は、 ビデ ォ信号用のフ レームメ モ リ 1 2及びキー信号用のフ レームメ モ リ
1 3に夫々供給され、 その結果として、 フ レームメ モ リ 1 2から はォブジヱク ト ビデオ信号 V 2 が出力され、 フ レームメ モ リ 1 3 からはォブジェク トキ一信号 Κ2 が出力される。
一方、 シャ ドウ信号生成部 2 0の読み出しァ ドレス発生回路 2 4は、 C P U 8からパラ メ ータ b , - b 33' を受け取るととも に、 ス ク リ ー ンア ド レス発生回路 9からスク リ ー ンア ドレス (X s , Ys ) とを受け取り、 式 ( 5 8 ) 及び ( 5 9 ) に基づいて、 シャ ドウ信号用の読み出しア ドレス (XM ' , YM ' ) をフ レー ム周期で生成する。 生成された読み出しア ド レス (ΧΜ ' , Υ„ ' ) は、 ビデオ信号用のフ レームメ モ リ 2 2及びキー信号用のフ レームメ モ リ 2 3に夫々供給され、 その結果として、 図 7 Βに示 すように、 フ レームメ モ リ 2 2からはシャ ドウビデオ信号 V 4 が 出力され、 フ レームメ モ リ 2 3からはシャ ドウキー信号 Κ 4 が出
力される。 フ レームメ モ リ 2 3から出力されたシャ ドウキ一信号 K 4 が入力される リ アルシャ ドウ発生器 5 0において、 リ アルシ ャ ドウ制御部 5 0 3力 パラメ 一タ H s に基づいて R O M 5 0 4に 格納されている、 パラ メ ータ H s と利得デ一タからなるテーブル 1から対応する利得データを読み取り当該利得データを、利得制御 回路 5 0 0 に供給する。 従って、 利得制御回路 5 0 0は、 リ アル シャ ドウ制御部 5 0 3から供給される利得データに応じた利得を 、 入力されるシャ ドウキ一信号 K 4 に対して与える。 リアルシャ ドゥ制御部は以上の処理を繰り返し行なう。
利得制御回路 5 0 0から出力される シャ ドウキ一信号は、 水平
L P F 5 0 1ついで垂直 L P F 5 0 2に入力される。 リ アルシャ ドウ制御部 5 0 3は、 入力される本実施例で奥行情報として用い られる H s の値に基づいて、 リアルシャ ドウ制御部 5 0 3の R 〇 Μ 5 0 4に記憶されている、 H s とフ ィ ルタ係数データからなる テーブルから (図 1 9 C参照) 対応するフィルタ係数データを読 出し、 このフ ィ ルタ係数データを水平 L P F 5 0 1 に供給する。 水平 L P F 5 0 1 は、 入力されるシャ ドウキー信号にリアルシャ ドウ制御部 5 0 3からのフィルタ係数データを乗じて出力する。 ついで、 リ アルシャ ドウ制御部 5 0 3は、 入力される H s に基づ いて、 リ アルシャ ドウ制御部 5 ϋ 3の R 0 M 5 0 4に記憶されて いる、 H s とフ ィ ルタ係数データとからなるテーブルから (図 1 9 C参照) 対応するフ ィ ルタ係数データを読出し、 この読み出さ れたフィルタ係数データを垂直 L P F 5 0 2に供給する。 垂直し P F 5 0 2 は、 水平 L P F 5 0 1からのシャ ドウキ一信号にリァ ルシャ ドウ制御部 5 0 3からの読み出されたフィルタ係数データ を乗じて、 最終的に リ アルシャ ドウ発生器 5 0で出力する リ アル シャ ドウキ—信号 K ' 4 と して出力する。 したがって、 図 1 9 A に示されるように、 ォブジヱク ト 0の近傍の影 Sのデータは、 ォ
ブジェク ト 〇に近く乗じられるフ ィ ルタ係数データが大きく なる 'ので、 輪郭がはっきりする。 そして、 ォブジヱク ト〇から遠ざか るにつれて、 乗じられるフィルタ係数データの値が小さ く なつて いくので、 影 Sのデータは徐々に輪郭のはつきり しないものにな つていく (ぼやけていく) 。
なお、 作図上輪郭が徐々にぼける様子を示すことができないが 、 実際にはォブジェク トから遠ざかるにつれて影は徐々にぼけて いく。
コ ンバイナ 3 0 は、 オブジェク ト信号生成部 1 0から才ブジヱ ク ト ビデオ信号 V 2 及びォブジヱク トキ一信号 K 2 を受け取ると ともに、 シ ャ ドゥ信号生成部 2 0からシャ ドウビデオ信号 V 4 及 びリ アルシャ ドウキ一信号 K 4 ' を受け取り、 式 ( a ) に基づい て、 混合ビデオ信号 V m i x ' と混合キー信号 K mi K ' とを生成す る。 ミ キサ 4 0 は、 外部から供給されたバックグラ ン ドビデオ信 号 V BKと、 コ ンバイナ 3 0から出力された混合ビデオ信号 V mi„
' 及び混合キ—信号 K m i >< ' を受け取り、 式 ( c ) に基づいて、 アウ トプッ ト ビデオ信号 V O UT ' を生成する。
次に、 光源として、 平行光源が指定された場合について説明す る。
C P U 8は、 まず、 コ ン ト ロールパネル 5から、 シャ ドウ座標 の各軸に関するパラメ 一タ ( ^ X 、 0 、 Q 1 、 ヽ シャ ドウ座標 の原点に関するパラメ ータ ( x s。、 y s o. z so) 及び、 平行光源 に関するパラメ ータ ( r、 、 β ) を受け取る。 また、 コ ン ト σ ールパネル 5 に設けられた 3次元ボイ ンティ ングデバイ スの操作 状態に基づいて、 C P U 8は、 コ ン ト ロ ールパネル 5から、 3次 元変換行列 T。 のパラ メ 一タ r 1 1〜 r 33、 £ X ί 、 £ z 、 s を受け取る。 C P U 8は、 コ ン ト ロ ールパネル 5から供給される これらのパラメ 一夕の変化をフレーム周期でリ アルタイ厶で監視
し、 且つ、 供給されたパラメ 一タに基づいて読み出しナ ド レスを 演算するためのパラメ ータ (!)! ,〜!^ , b , ― b 33' ) をフ レーム周期で演算している。 よって、 オペレータの操作に応じて フ レーム周期でこれらのパラメ 一夕をリ アルタイ 厶に可変するこ とができ、 そして、 その可変されたパラメ ータに応じて、 リ アル タ イ ムに読み出しア ド レスが演算される。
次に、 C P U 8は、 受け取ったパラメ ータ ! " ,!〜! · 33、 ヽ i γ 、 i z 及び sに基づいて、 式 ( 8 ) で表される 3次元変換行 列 T 33— 1の各パラ メ ータ b ^〜ゎ 33を演算する。 具体的には、 式 ( 2 8 ) 〜式 ( 3 7 ) に、 ノ、。ラ メ 一タ Τ· Η〜 Γ 33、 " Ά Υ . i z 及び sを代入することによって、 ノ、。ラメ 一タ わ ,,〜! を求 めることができる。 また、 C P U 8は、 受け取った 3次元変換行 列 T。 のパラ メ ータ r , , 〜 r 33、 i X . Si γ . SL z . s、 及び、 シャ ドゥ座標に関するパラメ ータ x 、 0 γ , Θ z , X s。、 y s。 、 z s。及び、 光源に関するパラ メ ータ r、 、 9を受け取り、 こ れらのパラ メ ータ に基づいて、 式 ( 7 1 ) に表される 3次元変換 行列 ( T 33shadow〃 ) -'の各パラメ ータ b , 〜 b 33" を演算す る。 C P U 8は、 演算したパラメ 一タ b , ,〜 b 33を、 才ブジェク ト信号生成部 1 0の読み出しァ ド レス発生回路 1 4に供給し、 演 算したパラ メ ータ b , 〜 b 33 " を、 シャ ドウ信号生成部 2 0の 読み出しア ドレス発生回路 2 4に供給する。
オブジェク ト信号生成部 1 0の読み出しァ ドレス発生回路 1 4 は、 C P U 8からパラメ ータ b ,,〜 b 33を受け取るとともに、 ス ク リ ー ンア ド レス発生回路 9からス ク リ ー ンア ドレス (X s 、 Y s ) を受け取り、 式 ( 1 3 ) 及び ( 1 4 ) に基づいて、 ォブジ ヱク ト信号用の読み出しア ド レス (ΧΜ , ΥΜ ) をフ レーム周期 で生成する。 生成された読み出しア ド レス (ΧΜ , ΥΜ ) は、 ビ デォ信号用のフ レームメ モ リ 1 2及びキー信号用のフ レームメ モ
リ 1 3に夫々供給され、 その結果として、 フ レームメ モ リ 1 2か らはォブジヱク ト ビデオ信号 V 2 が出力され、 フ レームメ モ リ 1 3からはォブジュク トキ一信号 K 2 が出力される。
—方、 シャ ドウ信号生成部 2 0の読み出しァ ド レス発生回路 2 4は、 C P U 8からパラ メ ータ b , ,〃 〜 b 3 3 ff を受け取、るととも に、 ス ク リ ー ンア ド レス発生回路 9からス ク リ ー ンア ド レス ( X s , Y s ) とを受け取り、 式 ( 7 2 ) 及び ( 7 2 ) に基づいて、 シャ ドウ信号用の読み出しア ド レス ( X M " , Y M ' ) をフ レー ム周期で生成する。 生成された読み出しァ ド レス ( X M 〃 , Y M 〃 ) は、 ビデオ信号用のフレームメ モ リ 2 2及びキ一信号用のフ レームメ モ リ 2 3に夫々供給され、 その結果として、 図 1 4 Bに 示すように、 フ レームメ モ リ 2 2からはシャ ドウビデオ信号 V 6 が出力され、 フ レームメ モ リ 2 3からはシャ ドウキ一信号 K 8 が 出力される。
フ レームメ モ リ 2 3から出力されるシャ ドウキー信号 K 8 が入 力される リ アルシャ ドウ発生器 5 0において、 リアルシャ ドウ制 御部 5 ϋ 3がパラメ 一タ H s に基づいて R 0 Μ 5 0 4に格納され ている、 パラメ ータと利得データからなるテーブルから対応する 利得データを読み取り当該利得データを利得制御回路 5 0 ϋに供 給する。 従って、 利得制御回路 5 0 0はリアルシャ ドウ制御部 5 0 3から供給される利得データに応じた利得を入力されるシャ ド ゥキー信号に対して与える。
利得制御回路 5 0 0から出力される シャ ドウキ一信号は、 水平 L P F 5 0 1ついで垂直 L P F 5 0 2に入力される。 リアルシャ ドウ制御部 5 0 3は、 入力される本実施例で奧行き情報として用 いられる H s の値に基づいて、 リ アルシャ ドウ制御部 5 0 3の R 0 Μ 5 0 4に記憶されている、 H s とフィルタ係数データからな るテ一ブルから (図 1 9 C参照) 対応するフィルタ係数データを
読み出し、 このフ ィ ルタ係数データを水平 L P F 5 0 1 に供給す る。 水平 L P F 5 0 1 は、 入力される シャ ドウキー信号に リ アル シャ ドウ制御部 5 0 3からのフィルタ係数データを乗じて出力す る。 ついで、 リ アルシャ ドゥ制御部 5 0 3は、 入力される H s に 基づいて、 リ アルシャ ドウ制御部 5 0 3の R 〇 M 5 0 4、に記憶さ れている、 H s とフ ィ ルタ係数データとからなるテーブルから ( 図 1 9 C参照) 対応するフィルタ係数データを読み出し、 この読 み出されたフ ィルタ係数データを垂直 L P F 5 0 2に供給する。 垂直 L P F 5 0 2 は、 水平 L P F 5 0 1からのシャ ドウキー信号 にリ アルシャ ドウ制御部 5 0 3からの読み出されたフ ィ ルタ係数 データを乗じて、 最終的にリ アルシャ ドウ発生器 5 ϋで出力する リ アルシャ ドウキー信号 K ' 6 として出力する。 したがって、 図 1 9 Αに示されるように、 ォブジヱク ト〇の近傍の影 Sのデータ は、 オブジェク ト 〇に近く乗じられるフ ィルタ係数データが大き く なるので、 輪郭がはつきりする。 そして、 オブジェク ト 0から 遠ざかるにつれて、 乗じられるフィルタ係数データの値が小さ く なっていくので、 影 Sのデータは徐々に輪郭のはつきり しないも のになつていく (ぼやけていく) 。
なお、 作図上輪郭が徐々にぼける様子を示すことができないが 、 実際にはオブジェク トから遠ざかるにつれて影は徐々にぼけて
(/ヽぐ o
コ ンバイナ 3 0は、 ォブジヱク ト信号生成部 1 0からォブジヱ ク ト ビデオ信号 V 2 及びォブジヱク トキ一信号 K 2 を受け取ると もに、 シャ ドウ信号生成部 2 0からシャ ドウビデオ信号 V 6 及び リ アルシャ ドウキー信号 K 6 ' を受け取り、 式 ( b ) に基づいて 、 混合ビデオ信号 V m i„ 〃 と混合キー信号 K m i K " とを生成する 。 ミ キサ 4 0 は、 外部から供給されたバッ クグラ ン ドビデオ信号 V B Kと、 コ ンバイナ 3 0から出力された混合ビデオ信号 V m i K *
及び混合キー信号 K m i K ' を受け取り、 式 ( d ) に基づいて、 了 ゥ トプッ ト ビデオ信号 V 0 U T " を生成する。
( 1 1 ) 本発明の効果
本発明によれば、 奥行情報に応じた利得特性が制御されるとと もに、 奥行情報に応じた濾波特性が制御されて、 より現 に近い ォブジヱク 卜に対する影が生成され、 この影の画像とオブジェク ト画像とパッ クグラ ン ド画像が合成されるので、 簡単な構成で、 かつ簡単な処理で、 ォブジェク ト画像からの距離に応じたより現 実に近い影を目的とするォブジェク ト画像に高速に付加すること ができるという効果がある。
さ らに、 オブジェク ト用及び影用のそれぞれ映像特殊効果装置 で、 別々のオペ レーシ ョ ンにより所望の画像を構成することなく 、 簡単なオペレー シ ョ ンにより、 より現実に近い影を才ブジヱク トに合成することができる。
さらに、 オペレータのパラメ 一タにより所望の画像が生成され るので、 コ ンピュータグラフィ ックスのように所望の画像生成に 膨大な時間をかける必要がない、 という効果がある。 産業上の利用可能性
この発明の特殊効果装置は、 放送局用画像処理装置において、 特殊効果画像を生成する場合等に利用できる。
Claims
1 . ビデオ信号が示す物体と該物体に対する影とに対して特殊効 果処理を施す特殊効果装置において、
物体の影の画像の利得を制御する利得制御手段と、
上記影の画像を濾波する濾波手段と、
上記影の奥行情報に応じて上記利得制御手段の利得を制御す るとともに、 上記影の奥行情報に応じて上記濾波手段の瀘波特 性を制御する制御手段と、
上記制御手段により制御されて出力される上記物体の影の画 像と、 上記物体の画像と、 上記物体の背景となる画像とを合成 する合成手段と、
を有する特殊効果装置。
2 . 請求項 2 に記載の特殊効果装置において、
上記制御手段は、 上記奥行情報に応じた利得特性データと、 濾波特性データとが記憶された記憶手段を有し、
上記制御手段は、 上記記憶手段に記憶された利得特性データ に応じて上記利得制御手段の利得を制御するとともに上記記憶 手段に記憶された濾波特性データに応じて上記濾波手段の濾波 特性を制御する特殊効果装置。
3 . 請求項 1 に記載の特殊効果装置において、
上記濾波手段は、 ロ ーパスフィルタから構成されている特殊 効果装置。
4 . 入力されるソ ースビデオ信号に対して特殊効果処理を施す特 殊効果装置において、
上記ソ ースビデオ信号に対して第 1の画像変換処理を行い目 的画像を示すオブジェク ト信号を生成するォブジェク ト信号生 成手段 、
上記ソ ースビデオ信号に対して第 2の画像変換処理を行い上
記目的画像に対応するシャ ドウ信号を生成するシャ ドウ信号生 成手段と、
上記ォブジェク ト信号生成手段から出力されるオブジェク ト 信号と、 上記シャ ドウビデオ信号生成部から出力されるシャ ド ゥ信号とが入力されて、 上記オブジェク ト信号と上記シャ ドウ 信号と、 上記ソ 一スビデオ信号に対応するバッ クグラ ウ ン ド信 号とを合成して出力ビデオ信号を出力する合成手段とを備え、 上記シャ ドウ信号生成手段には、 上記ソースビデオ信号に対 応する上記シャ ドウ信号に対して利得を制御する利得制御手段 と、 上記シャ ドウ信号を濾波する濾波手段と、 上記シャ ドウ信 号に対応する奥行き情報を生成する奥行き情報生成手段と、 該 奥行き情報生成手段からの奥行き情報に基づいて上記利得制御 手段の利得を制御するとともに該奥行き情報に基づいて上記濾 波手段の濾波特性を制御する制御手段とを有する特殊効果装置 。
5 . 請求項 4に記載の特殊効果装置において、
上記シャ ドウ信号生成手段に入力されるシャ ドウ信号は、 上 記利得制御手段に入力されて利得が制御されたシャ ドウ信号と して出力され、 該利得が制御されたシャ ドウ信号は上記濾波手 段に入力されて濾波されて上記濾波手段からシャ ドウ信号とし て出力される特殊効果装置。
6 . 請求項 4 に記載の特殊効果装置において、
上記濾波手段は、 口一パスフィルタから構成されている特殊 効果装置。
7 . 請 項 4に記載の特殊効果装置において、
上記制御手段は、 上記奥行き情報生成手段からの上記奥行き 情報に応じた利得特性データと濾波特性データの記憶された記 憶手段を有し、 該利得特性データと該濾波特性データとを該記
憶手段から上記奥行き情報に応じてそれぞれ上記利得制御手段 と上記濾波手段に供給する特殊効果装置。
8 . 請求項 4に記載の特殊効果装置において、
上記ォブジェ ク ト信号生成手段には、 入力される上記ソ ース ビデオ信号を記憶する記憶手段と、 該記憶手段に記憶 れた上 記ソ ースビデオ信号を所定の単位で読み出せるよう読出し了 ド レスを発生する読出しア ド レス発生手段とを有し、 上記第 1 の 画像変換処理は上記読出しア ド レスによって上記メ モ リ手段か ら読み出された上記ォブジ ク ト ビデオ信号が目的画像となつ て処理される特殊効果装置。
9 . 請求項 4 に記載の特殊効果装置において、
上記シャ ドゥビデオ信号生成手段には、 入力される上記ソ一 スビデオ信号を記憶する記憶手段と、 上記記憶手段に記憶され た上記ソ ース ビデオ信号を所定の単位で読み出す読出しァ ド レ スを発生する読出しア ド レス発生手段とを有し、 上記第 2の画 像変換処理は上記読出しァ ド レスによって上記メ モリ手 ¾から 読み出された上記シャ ドゥビデオ信号が上記目的画像に対応す る シャ ドウ信号と して出力されるよう処理される特殊効果装置 ο
10. 上記合成手段は、 上記オブジェク ト信号生成手段からの上記 ォブジュク ト信号と上記シャ ドウ信号生成手段から上記シャ ド ゥ信号とが入力されて、 入力される上記各信号を合成して混合 信号を出力する第 1の合成手段と、 上記混合手段と上記バッ ク グラ ン ド信号とが入力されて、 出力ビデオ信号を出力する第 2 の合成手段からなる特殊効果装置。
11. 入力されるソースビデオ信号と該ソースビデオ信号に対応す るソ一スキー信号とに対して特殊効果処理を施す特殊効果装置 において、
上記ソ 一スビデオ信号と上記ソ 一スキー信号とが入力されて
、 第 1の画像変換処理を行い目的画像を示すオブジェク ト ビデ ォ信号とォブジ ク トキ一信号とを生成するォブジュク ト信号 生成手段と、
上記ソースビデオ信号と上記ソ一スキー信号とが入 されて
、 第 2 の画像変換処理を行い上記目的画像に対応する シャ ドウ ビデオ信号と リ アルシャ ドウキ一信号を生成するシャ ドウ信号 生成手段と、
上記オブジェク ト信号生成手段から出力されるオブジェク ト ビデオ信号とオブジェク トキ一信号とが入力されるとともに、 上記シャ ドウ信号生成手段からの上記シャ ドウビデオ信号と上 記リ アルシャ ドゥキ一信号とが入力され、 さらに上記ソ 一ス ビ デォ信号に対応するバッ クグラウ ンド信号とが入力されて、 入 力された上記各信号を合成して出力ビデオ信号を生成して出力 する合成手段と、 を有し、
上記シ ャ ドウ信号生成手段には、 入力される上記ソ ースキー 信号に対し上記目的画像に対応するシャ ドウキー信号を生成す る シャ ドウキー信号生成手段と、 該シャ ドウキ一信号生成手段 から出力される シャ ドウキー信号に対し利得を制御する利得制 御手段と、 上記シャ ドウキー信号を濾波する濾波手段と、 上記 シャ ドウ信号に対応する奥行き情報を生成する奥行き情報生成 手段と、 該奧行き情報生成手段からの該奥行き情報に基づいて 上記利得制御手段の利得を制御するとともに該奧行き情報に基 づいて上記濾波手段の濾波特性を制御する制御手段とを有する 特殊 ¾果装置。
12. 請求項 12に記載の特殊効果装置において、
上記濾波手段は、 ロ ーパスフィルタから構成されている特殊 効果装置。
13. 請求項 12に記載の特殊効果装置において、
上記シ ャ ドウ信号生成手段の上記シャ ドウキー信号生成手段 から出力される シャ ドウキー信号は、 上記利得制御手段で利得 が制御されたシ ャ ドウキ一信号として出力され、 利得が制御さ れたシャ ドウキ一信号は上記濾波手段に入力されて、 蹿波特性 が制御されてリ アルシャ ドウキー信号として出力される特殊効 果装置。
14. 請求項 12に記載の特殊効果装置において、
上記シャ ドウ信号発生部の上記制御手段は、 上記奥行き情報 生成手段からの上記奥行き情報に応じた利得特性データと濾波 特性データとが記憶された記憶手段を有し、 該利得特性データ と該濾波特性データとを上記奥行き情報に応じてそれぞれ上記 利得制御手段と上記瀘波手段に供給する特殊効果装置。
15. 請求項 12に記載の特殊効果装置において、
上記合成手段は、 上記オブジェク ト信号生成手段からの上記 オブジェク ト ビデオ信号と上記ォブジヱク トキ一信号とが入力 されるとともに、 上記シャ ドウ信号生成手段からの上記シャ ド ゥビデオ信号と上記リ アルシャ ドウキ一信号とが入力されて、 入力される上記各信号を合成して混合ビデオ信号と混合キ一信 号を生成する第 1の合成手段と、 上記第 1の合成手段からの混 合ビデオ信号と混合キー信号及び上記バックグラ ウ ン ド信号と が入力されて上記出力ビデオ信号を生成する第 2の合成手段と を有する特殊効果装置。
16. 請求項 12に記載の特殊効果装置において、
上記ォブジェク ト信号生成手段には、 上記ソ ースビデオ信号 を記憶するための第 1のメ モ リ手段と上記ソ 一スキー信号を記 憶するための第 2のメ モ リ手段と、 上記第 1のメ モ リ手段と上 記第 2のメ モ リ手段とにそれぞれ記憶された上記ソ 一スビデオ
信号と上記ソ一スキー信号とを上記それぞれのメモ リ手段から 読み出すための読出しア ドレスを発生して上記第 1のメ モ リ手 段と上記第 2 のメ モ リ手段とに該読出しァ ド レスを供給する読 出しア ド レス発生手段とを有し、 上記第 1 の画像変換処理は上 記読出しア ド レスによつて上記第 1のメ モ リ手段と上、己第 2の メ モ リ手段とから読み出されたそれぞれ上記ォブジエタ トビデ ォ信号と上記ォブジェク トキ一信号とが上記目的画像として出 力される特殊効果装置。
17. 請求項 12に記載の特殊効果装置において、
上記シャ ドウ信号生成手段には、 上記ソースビデオ信号を記 憶するための第 3の記憶手段と上記ソ ースキ一信号を記憶する ための第 4 のメ モ リ手段と、 上記第 3のメ モ リ手段と上記第 4 のメ モ リ手段とにそれぞれ記憶された上記ソ ース ビデオ信号と 上記ソ ースキー信号とを上記それぞれのメモ リ手段から読み出 すための読出しア ドレスを発生して上記第 3のメモ リ手段と上 記第 4 のメ モ リ手段とに該読出しア ドレスを供給する読出しァ ド レス発生手段とを有し、 上記第 2の画像変換処理は、 上記読 出しア ド レスによつて上記第 3のメ モ リ手段と上記第 4のメ モ リ手段とからそれぞれ読み出された上記シャ ドゥビデオ信号と 上記シャ ドウキ一信号が出力されて上記シャ ドウビデオ信号が 上記目的画像に対応するシャ ドウビデオ信号として出力される 処理を行なう特殊効果装置。
18. 入力されるビデオ信号が示す物体と該物体に対する影とに対 して特殊効果処理を施す特殊効果方法において、
上記物体の影を示す画像の利得を制御する利得ステップと、 上記影の画像を濾波する濾波ステップと、
上記影の奥行き情報に応じて上記利得ステップの利得を制御 するとともに、 上記影の奥行き情報に応じて上記濾波ステップ
の濾波特性を制御する制御ステップと、
上記制御ステップにより制御されて出力される上記物体の影 の画像と、 上記物体の画像と、 上記物体の背景となる画像とを 合成して出力ビデオ信号を出力する合成ステップとからなる特 殊効果方法。
19. $青求項 18に記載の特殊効果方法において、
上記制御ステップは、 記憶手段に記憶された上記奥行き情報 に応じた利得特性データによって上記利得ステップで上記利得 が制御されるとともに、 上記記憶手段に記憶された上記奥行き 情報に応じた濾波特性データによつて上記瀘波ステップで上記 影の画像を濾波する特殊効果方法。
20. 入力されるソ ースビデオ信号に対して特殊効果処理を行なう 特殊効果方法において、
上記ソ 一スビデオ信号に対して第 1の画像変換処理を行って 目的画像を示すォブジ タ ト信号を生成するォブジェク ト信号 生成ステツプと、
上記ソ ースビデオ信号に対して第 2の画像変換処理を行って 上記目的画像に対応するシャ ドウ信号を生成するシャ ドウ信号 生成ステツプと、
上記ォブジヱク ト信号と、 上記シャ ドウ信号と、 上記ソース ビデオ信号に対応するバッ クグラウン ド信号とが入力されて、 入力された上記各信号を合成して出力ビデオ信号を出力する合 成ステップと、 を有し、
上記シ ャ ドウ信号ステ ッ プには、 上記ソ ースビデオ信号に対 応する上記シャ ドウ信号に対して利得を制御する利得制御ステ ップと、 上記シャ ドウ信号を濾波する濾波ステップと、 上記シ ャ ドウ信号に対応する奥行き情報を生成する奥行き情報生成ス テツプと、 該奥行き情報生成ステップからの上記奥行き情報に
基づいて上記利得制御ステップの利得を制御するとともに上記 奥行き情報に基づいて上記濾波ステップの濾波特性を制御する 制御ステップとを有する特殊効果方法。
21. 入力されるソ ースビデオ信号に対して第 1の画像変換処理を 行い目的画像を示すォブジェク ト信号を生成するォブジ ク ト 信号生成ステップと、
上記ソ ースビデオ信号に対して第 2の画像変換処理を行い上 記目的画像に対応するシャ ドウ信号を生成するシャ ドウ信号生 成ステ ップと、
上記ォブジヱク ト信号生成ステップで生成されるォブジェク ト信号と、 上記シャ ドゥビデオ信号生成ステツプで生成される シャ ドウ信号とが入力されて、 上記オブジェク 卜信号と上記シ ャ ドウ信号と、 上記ソースビデオ信号に対応するバッ クグラウ ン ド信号とを合成して出力ビデオ信号を出力する合成ステップ とを備え、
上記シ ャ ドウ信号生成ステップには、 上記ソ一スビデオ信号 に対応する上記シャ ドウ信号に対して利得を制御する利得制御 ステップと、 上記シャ ドゥ信号を濾波する濾波ステップと、 上 記シャ ドゥ信号に対応する奥行き情報を生成する奥行き情報生 成ステッ プと、 該奥行き情報生成ステップからの奥行き情報に 基づいて上記利得制御ステップの利得を制御するとともに該奥 行き情報に基づいて上記濾波ステップの瀘波特性を制御する制 御ステップとを有する特殊効果方法において、
上記濾波ステップは、 ロ ーパスフィ ルタにより行なう特殊効 果方法。
22. 請求項 21に記載の特殊効果方法において、
上記制御ステップは、 上記奥行き情報生成ステップからの上 記奥行き情報に応じた利得特性データと濾波特性データの記憶
された記憶ステップを有し、 該利得特性データと該濾 特性デ 一夕とを該記憶ステップから上記奥行き情報に応じてそれぞれ 上記利得制御ステップと上記濾波ステップに供給する特殊効果 方法。
23. 請求項 2 1に記載の特殊効果方法において、
上記ォブジニク ト信号生成ステップには、 入力される上記ソ —ス ビデオ信号を記憶する記憶ステ ッ プと、 該記憶ステ ッ プで 記憶された上記ソ ース ビデオ信号を所定の単位で読み出せるよ う読出しア ドレスを発生する読出しア ドレス発生ステップとを 有し、 上記第 1 の画像変換処理は上記読出しア ド レスによって 上記記憶ステップから読み出された上記オブジェク ト ビデオ信 号が目的画像となつて処理される特殊効果方法。
24. 請求項 2 ]に記載の特殊効果方法において、
上記シ ャ ドウビデオ信号生成ステ ッ プには、 入力される上記 ソ ース ビデオ信号を記憶する記憶ステ ッ プと、 上記記憶ステツ プで記憶された上記ソ ースビデオ信号を所定の単位で読み出す 読出しァ ドレスを発生する読出しァ ド レス発生ステップとを有 し、 上記第 2 の画像変換処理は上記読出しア ド レスによって上 記メモリ手段から読み出された上記シャ ドウビデオ信号が上記 目的画像に対応するシャ ドウ信号として出力されるよう処理さ れる特殊効果方法。
25. 請求項 21に記載の特殊効果方法において、
上記合成ステップは、 上記ォブジュク ト信号生成ステップか らの上記ォブジェク ト信号と上記シャ ドウ信号生成ステップか らの上記シャ ドウ信号とが入力されて、 入力される上記各信号 を合成して混合信号を出力する第 1の合成ステ ッ プと、 上記混 合信号と上記バックグラウ ンド信号とが入力されて、 出力ビデ ォ信号を出力する第 2の合成ステップからなる特殊効果方法。
26. 入力される ソ ースビデオ信号と該ソース ビデオ信号に対応す るソ ースキー信号とに対して特殊効果処理を施す特殊効果方法 において、
上記ソ 一ス ビデオ信号と上記ソースキー信号とが入力されて 、 第 1の画像変換処理を行い目的画像を示すォブジェク トビデ ォ信号とォブジ ク 卜キ一信号とを生成するォブジェク ト信号 生成ステツプと、
上記ソ ース ビデオ信号と上記ソ一スキー信号とが入力されて 、 第 2 の画像変換処理を行い上記目的画像に対応する シャ ドウ ビデオ信号と リ アルシャ ドウキー信号を生成する シャ ドウ信号 生成ステツプと、
上記ォブジヱク ト信号生成ステツプから出力されるォブジェ ク ト ビデオ信号とォブジェク トキー信号とが入力されるととも に、 上記シャ ドウ信号生成ステップからの上記シャ ドウビデオ 信号と上記リ アルシャ ドウキー信号とが入力され、 さらに上記 ソ ースビデオ信号に対応するバックグラゥ ン ド信号とが入力さ れて、 入力された上記各信号を合成して出力ビデオ信号を生成 して出力する合成ステ ッ プと、 を有し、
上記シャ ドゥ信号生成ステップには、 入力される上記ソ 一ス キー信号に対し上記目的画像に対応するシャ ドウキー信号を生 成する シャ ドウキー信号生成ステ ッ プと、 該シャ ドウキー信号 生成ステップから出力されるシャ ドウキー信号に対し利得を制 御する利得制御ステップと、 上記シャ ドウキー信号を 1 [波する 濾波ステップと、 上記シャ ドウ信号に対応する奥行き情報を生 成する奥行き情報生成ステ ッ プと、 該奥行き情報生成ステ ッ プ からの該奥行き情報に基づいて上記利得制御ステ ッ プの利得を 制御するとともに該奥行き情報に基づいて上記濾波ステップの 濾波特性を制御する制御ステップとを有する特殊効果方法。
27. 請求項 26に記載の特殊効果方法において、
上記濾波ステ ップは、 口一パスフ ィ ルタにより行なう特殊効 果方法。
28. 請求項 26に記載の特殊効果方法において、
上記シャ ド ゥ信号生成ステ ッ プの上記シャ ドウキー信号生成 ステップから出力される シャ ドウキー信号は、 上記利得制御ス テップで利得が制御されたシャ ドウキー信号として出力され、 利得が制御されたシャ ドウキ一信号は上記濾波ステ ッ プに入力 されて、 濾波特性が制御されてリ アルシャ ドウキー信号として 出力される特殊効果方法。
29. 請求項 26に記載の特殊効果方法において、
上記シャ ドウ信号発生ステ ッ プの上記制御ステ ッ プは、 上記 奥行き情報生成ステ ッ プからの上記奥行き情報に応じた利得制 御データ と瀘波特性データとが記憶された記憶ステップを有し 、 該利得特性データと該瀘波特性データとを上記奥行き情報に 応じてそれぞれ上記利得制御ステップと上記濾波ステップに供 給する特殊効果方法。
30. 請求項 26に記載の特殊効果方法において、
上記合成ステップは、 上記ォブジェク ト信号生成ステップか らの上記ォブジェク ト ビデオ信号と上記ォブジエタ トキ一信号 とが入力されるとともに、 上記シャ ドウ信号生成ステップから の上記シャ ドウビデオ信号と上記リアルシャ ドウキー信号とが 入力されて、 入力される上記各信号を合成して混合ビデオ信号 と混合キ一信号を生成する第 1 の合成ステ ッ プと、 上記第 1の 合成ステップからの混合ビデオ信号と混合キ一信号及び上記バ ッ クグラ ウ ン ド信号とが入出されて上記出力ビデオ信号を生成 する第 2の合成ステップとを有する特殊効果方法。
31. 請求項 26に記載の特殊効果方法において、
上記ォブジェク ト信号生成ステップには、 上記ソ—スビデオ 信号を記憶するための第 1のメモリステツプと上記ソ一スキー . 信号を記憶するための第 2 のメ モ リ ステ ッ プと、 上記第 1 のメ モ リステップと上記第 2のメモリステップとにそれぞれ記憶さ れた上記ソースビデオ信号と上記ソースキー信号とを上記それ ぞれのメモ リ ステツプから読み出すための読出しア ドレスを発 生して上記第 1 のメ モ リ ステ ツプと上記第 2 のメ モ リ ステ ッ プ とに該読み出すァ ドレスを供給する読出しア ド レス発生ステツ プとを有し、 上記第 1の画像変換処理は上記読出しア ドレスに よって上記第 1 のメモ リステップと上記第 2のメ モリステップ とから読み出されたそれぞれ上記オブジェク ト ビデオ信号と上 記オブジェク トキ一信号とが上記目的画像と して出力される特 殊効果方法。
32. 請求項 26に記載の特殊効果方法において、
上記シャ ドウ信号生成ステップには、 上記ソースビデオ信号 を記憶するための第 3の記憶ステツプと上記ソ一スキー信号を 記憶するための第 4のメ モ リステップと、 上記第 3のメ モリス テップと上記第 4のメ モ リ ステツプとにそれぞれ記憶された上 記ソ一スビデオ信号と上記ソ一スキー信号とを上記それぞれの メ モ リ ステップから読み出すための読出しア ドレスを発生して 上記第 3のメ モ リ ステ ッ プと上記第 4のメ モ リ ステ ッ プとに該 読出しア ドレスを供給する読出しァ ドレス発生ステップとを有 し、 上記第 2の画像変換処理は、 上記読出しア ド レスによって 上記第 3のメ モ リ ステップと上記第 4のメ モ リステップとから そ ぞれ読み出された上記シャ ドウビデオ信号と上記シャ ドウ キー信号が出力されて上記シャ ドウビデオ信号が上記目的画像 に対応するシャ ドウビデオ信号として出力される処理を行なう 特殊効果方法。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP1997/001249 WO1998046011A1 (fr) | 1997-04-10 | 1997-04-10 | Dispositif a effet special et procede de generation d'effet special |
| GB9827227A GB2329312A (en) | 1997-04-10 | 1997-04-10 | Special effect apparatus and special effect method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP1997/001249 WO1998046011A1 (fr) | 1997-04-10 | 1997-04-10 | Dispositif a effet special et procede de generation d'effet special |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO1998046011A1 true WO1998046011A1 (fr) | 1998-10-15 |
Family
ID=14180397
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP1997/001249 Ceased WO1998046011A1 (fr) | 1997-04-10 | 1997-04-10 | Dispositif a effet special et procede de generation d'effet special |
Country Status (2)
| Country | Link |
|---|---|
| GB (1) | GB2329312A (ja) |
| WO (1) | WO1998046011A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008219615A (ja) * | 2007-03-06 | 2008-09-18 | Matsushita Electric Ind Co Ltd | 特殊効果装置 |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040131276A1 (en) * | 2002-12-23 | 2004-07-08 | John Hudson | Region-based image processor |
| US7242778B2 (en) | 2003-04-08 | 2007-07-10 | Gennum Corporation | Hearing instrument with self-diagnostics |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6359276A (ja) * | 1986-08-29 | 1988-03-15 | Nec Corp | シヤド−回路 |
| JPH01144869A (ja) * | 1987-12-01 | 1989-06-07 | Nec Corp | シャドー回路 |
| JPH01293078A (ja) * | 1988-05-20 | 1989-11-27 | Nec Corp | テレビジョンデジタルビデオエフェクト装置 |
| JPH0259982A (ja) * | 1988-08-26 | 1990-02-28 | Nippon Telegr & Teleph Corp <Ntt> | 立体形状データ生成装置 |
| JPH04227171A (ja) * | 1990-12-29 | 1992-08-17 | Nec Corp | テレビジョン映像信号処理装置 |
| JPH04315274A (ja) * | 1991-04-12 | 1992-11-06 | Sony Corp | 画像変換装置 |
| JPH0554151A (ja) * | 1991-08-22 | 1993-03-05 | Brother Ind Ltd | 立体図形処理装置 |
| JPH05207364A (ja) * | 1992-01-27 | 1993-08-13 | Nec Corp | 映像特殊効果装置 |
| JPH0793585A (ja) * | 1993-09-22 | 1995-04-07 | Dainippon Screen Mfg Co Ltd | 画像の影付け方法 |
-
1997
- 1997-04-10 WO PCT/JP1997/001249 patent/WO1998046011A1/ja not_active Ceased
- 1997-04-10 GB GB9827227A patent/GB2329312A/en not_active Withdrawn
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6359276A (ja) * | 1986-08-29 | 1988-03-15 | Nec Corp | シヤド−回路 |
| JPH01144869A (ja) * | 1987-12-01 | 1989-06-07 | Nec Corp | シャドー回路 |
| JPH01293078A (ja) * | 1988-05-20 | 1989-11-27 | Nec Corp | テレビジョンデジタルビデオエフェクト装置 |
| JPH0259982A (ja) * | 1988-08-26 | 1990-02-28 | Nippon Telegr & Teleph Corp <Ntt> | 立体形状データ生成装置 |
| JPH04227171A (ja) * | 1990-12-29 | 1992-08-17 | Nec Corp | テレビジョン映像信号処理装置 |
| JPH04315274A (ja) * | 1991-04-12 | 1992-11-06 | Sony Corp | 画像変換装置 |
| JPH0554151A (ja) * | 1991-08-22 | 1993-03-05 | Brother Ind Ltd | 立体図形処理装置 |
| JPH05207364A (ja) * | 1992-01-27 | 1993-08-13 | Nec Corp | 映像特殊効果装置 |
| JPH0793585A (ja) * | 1993-09-22 | 1995-04-07 | Dainippon Screen Mfg Co Ltd | 画像の影付け方法 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008219615A (ja) * | 2007-03-06 | 2008-09-18 | Matsushita Electric Ind Co Ltd | 特殊効果装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| GB2329312A (en) | 1999-03-17 |
| GB9827227D0 (en) | 1999-02-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3840663B2 (ja) | 画像処理装置及び方法 | |
| JP3107452B2 (ja) | テクスチャマッピング方法およびその装置 | |
| US6249289B1 (en) | Multi-purpose high resolution distortion correction | |
| US6434277B1 (en) | Image processing apparatus and method, and medium therefor | |
| US5357599A (en) | Method and apparatus for rendering polygons | |
| JP7235875B2 (ja) | リアルタイムの3d可視化を備えた点群カラー化システム | |
| JPWO1997018667A1 (ja) | 特殊効果装置、画像処理方法及びシャドウ生成方法 | |
| AU2019226134B2 (en) | Environment map hole-filling | |
| JPH0634748A (ja) | レーダ信号表示装置 | |
| US20070139408A1 (en) | Reflective image objects | |
| US6441864B1 (en) | Video signal processing device and method employing transformation matrix to generate composite image | |
| US20200302579A1 (en) | Environment map generation and hole filling | |
| EP2595040A1 (en) | Information processing device, method of processing information, and program | |
| US5268677A (en) | Reduced viewport for graphics display | |
| RU2427918C2 (ru) | Метафора двумерного редактирования для трехмерной графики | |
| WO1998046011A1 (fr) | Dispositif a effet special et procede de generation d'effet special | |
| JP3278501B2 (ja) | 画像処理装置および方法 | |
| US20030169272A1 (en) | Image generation apparatus and method thereof | |
| JP2973413B2 (ja) | コンピュータグラフィックスの照度計算方法及び表示装置 | |
| JP3066035B2 (ja) | 計算機図形処理表示装置制御システムのためのテクスチャマッピング技法 | |
| JPS6346584A (ja) | 高速ホングシェ−ジング装置及びその方法 | |
| JP3967036B2 (ja) | 画像合成装置 | |
| JPWO1998046011A1 (ja) | 特殊効果装置及び特殊効果方法 | |
| JP3351805B2 (ja) | 映像信号の発生方法 | |
| JP2005293616A (ja) | 画像合成装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| AK | Designated states |
Kind code of ref document: A1 Designated state(s): GB JP US |
|
| ENP | Entry into the national phase |
Ref country code: GB Ref document number: 9827227 Kind code of ref document: A Format of ref document f/p: F |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 09202258 Country of ref document: US |