[go: up one dir, main page]

WO1998046011A1 - Special effect apparatus and special effect method - Google Patents

Special effect apparatus and special effect method Download PDF

Info

Publication number
WO1998046011A1
WO1998046011A1 PCT/JP1997/001249 JP9701249W WO9846011A1 WO 1998046011 A1 WO1998046011 A1 WO 1998046011A1 JP 9701249 W JP9701249 W JP 9701249W WO 9846011 A1 WO9846011 A1 WO 9846011A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
shadow
video signal
filtering
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP1997/001249
Other languages
French (fr)
Japanese (ja)
Inventor
Kazuhiro Maruyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to PCT/JP1997/001249 priority Critical patent/WO1998046011A1/en
Priority to GB9827227A priority patent/GB2329312A/en
Publication of WO1998046011A1 publication Critical patent/WO1998046011A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2622Signal amplitude transition in the zone between image portions, e.g. soft edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/275Generation of keying signals

Definitions

  • the present invention relates to an image processing device, and more particularly to a special effect device that obtains a three-dimensional effect by applying an appropriate shadow to an object video signal that is three-dimensionally image-converted.
  • FIG. 1A is an explanatory diagram showing one of the effects of the video special effect device
  • FIG. 1B is a configuration diagram of a video special effect device capable of realizing such effects.
  • the video special effect device shown in FIG. 1B generates a pseudo shadow IS from an object, and combines the object 0 and the pseudo shadow IS.
  • the object is a video to be processed to apply a special effect
  • the object video signal is a video signal to be processed by the special effect.
  • the video special effect device shown in FIG. 1B subtracts the key signal K supplied via the input terminal 101 from the background signal BG supplied via the input terminal 103, and calculates the result of this operation.
  • a mixing circuit 102 for adding a video signal V i supplied via an input terminal 100 to the input terminal 100; a memory 104 for storing a key signal K supplied via an input terminal 101;
  • An operation unit 105 for generating a pseudo-shadow signal IS by changing the position of the key signal K stored in the memory 104 by operating an address in the X and Y directions; From 104 the pseudo shadow signal IS is mixed with an over-verter one circuit 106 that reduces the overlapping part of the pseudo shadow signal IS and the key signal K supplied via the input terminal 101. From the mixed signal MIX from the circuit 102, the overunder circuit 1
  • a mixing circuit that subtracts the over-under processed output KZIS from 06, adds the color matte signal supplied via the input terminal 108 to the subtraction result, and outputs the result as the output signal OUT from the output terminal 109. It consists of 107. ,
  • An object video signal V i is supplied via an input terminal 100. This corresponds to object 0 shown in FIG. 1A.
  • the key signal K supplied via the input terminal 101 is a key signal K for keying the object video signal Vi.
  • the mixing circuit 102 subtracts the signal corresponding to the key signal K from the background signal BG, adds the object video signal Vi to the position, and adds the mixed signal M
  • the key signal K supplied through the input terminal 101 is supplied to the memory 104.
  • the operation unit 105 changes the position of the key signal K in the memory 104.
  • the key signal K is read from the memory 104 and is supplied to the over-under circuit 106 as a pseudo shadow signal IS.
  • the screen of the pseudo shadow signal IS is an image in which the pseudo shadow I shown in FIG. 1A is not hidden by the object 0.
  • the keyer signal K and the pseudo-shade signal IS are supplied to the inverter circuit 106.
  • the overunder circuit 106 subtracts only the overlapping portion of the key signal and the pseudo shadow signal IS from the pseudo shadow signal IS.
  • the overhander processing output KZIS from 6 corresponds to the pseudo shadow IS shown in FIG. 1A.
  • Over-Znder processing output KZIS and mixed signal MIX are Each is supplied to the mixing circuit 107.
  • the over-Z under-processing output KZIS from the over-Z under-circuit 106 is subtracted from the mixed signal MIX from the mixing circuit 102, and the input terminal 10
  • the power cutout signal supplied via 8 is added, and the addition result is output from the output terminal 109 as an output signal ⁇ UT.
  • This output signal is the entire image shown in FIG. 1A.
  • the pseudo shadow I shown in Fig. 1A is simply a shift of the key signal generated from the object ⁇ . That is, the pseudo-shaded image shown in FIG. 1A is a two-dimensional image. Therefore, in order to get closer to the actual shadow, it is necessary to use a three-dimensional image. In this case, it is necessary to generate a rotated shadow for the object and combine the shadow with the object. For this purpose, it is necessary to prepare one video special effect device for the object and one video special effect device for the shadow, and change the rotation axes of the object and the shadow before combining. In this case, the required operation technology is very advanced because it is the synthesis of images generated by different video special effect devices.
  • a special effect device is a special effect device for performing a special effect process on an object indicated by a video signal and a shadow on the object, wherein the gain control means controls a gain of an image of a shadow of the object; Filtering means for filtering the image, control means for controlling the gain of the gain control means in accordance with the shadow depth information, and controlling the filtering characteristics of the filtering means in accordance with the shadow depth information; and Means for synthesizing an image of the shadow of the object controlled and output by the means, an image of the object, and an image serving as a background of the object.
  • control means has a storage means for storing gain characteristic data according to the depth information and filtering characteristic data, and the control means is stored in the storage means.
  • the gain of the gain control means is controlled in accordance with the gain characteristic data
  • the filtering characteristic of the filtering means is controlled in accordance with the filtering characteristic data stored in the storage means.
  • the filtering means includes a low-pass filter.
  • a special effect device is a special effect device for performing a special effect process on an input source video signal.
  • the special effect device performs a first image conversion process on the source video signal to indicate an object image.
  • Object signal generating means for generating a shadow signal; and shadow signal generating means for performing a second image conversion process on the source video signal to generate a shadow signal corresponding to the target image.
  • the shadow signal output from the shadow video signal generation unit is input, and the object signal, the shadow signal, and the background signal corresponding to the source video signal are combined and output.
  • Synthesizing means for outputting an output video signal wherein the shadow signal generating means includes: gain control means for controlling a gain of the shadow and dough signals corresponding to the source video signal; and the shadow signal , A depth information generating means for generating depth information corresponding to the shadow signal, and a gain of the gain control means based on the depth information from the depth information generating means. And a control stage for controlling the filtering characteristics of the filtering means based on the depth information.
  • the shadow signal input to the shadow signal generating means is output to the gain control means as a shadow signal whose gain is controlled, and the gain is controlled.
  • the shadow signal thus input is input to the filtering means, is filtered, and is output from the filtering means as a shadow signal.
  • the filtering means includes a low-pass filter.
  • control means has storage means for storing gain characteristic data and filtering characteristic data corresponding to the depth information from the depth information generating means,
  • the filtering characteristic data is supplied from the storage means to the gain control means and the filtering means in accordance with the depth information, respectively.
  • the object signal generating means may include a storage means for storing the input source video signal, and the source video signal stored in the storage means may be read out in a predetermined unit.
  • Read address generating means for generating a read address, wherein the first image conversion process is performed by the read address.
  • the object video signal read from the memory means is processed as a target image.
  • the shadow video signal generation means includes a storage means for storing the input source video signal, and a readout unit for reading the source video signal stored in the storage means in a predetermined unit.
  • a read address generating means for generating a dress, and wherein the second image conversion processing is such that the shadow signal read from the memory means by the read address is used as the target image. Is processed to be output as a shadow signal corresponding to.
  • the synthesizing unit may be configured to receive the object signal from the object signal generating unit and the shadow signal from the shadow signal generating unit, and to input each of the signals. And a second synthesizing unit that receives the mixing unit and the background signal and outputs an output video signal. .
  • the special effects device is a special effects device for performing special effects processing on an input source video signal and a source key signal corresponding to the source video signal.
  • An object signal generating means for performing a first image conversion process to generate an object video signal and an object key signal indicating a target image, and the source video signal and the source key signal are input.
  • a shadow signal generating means for performing a second image conversion process to generate a shadow video signal and a real shadow signal corresponding to the target image, and an object output from the object signal generating means
  • the video signal and the object signal are input and the shadow signal generating means
  • the shadow video signal and the real shadow signal Synthesizing means for inputting a background signal corresponding to the source video signal, synthesizing the input signals, generating an output video signal, and outputting the output video signal.
  • the shadow signal generating means includes: a shadow key signal generating means for generating a shadow key signal corresponding to the target image with respect to the input so-called ski key signal; and the shadow key signal generating means.
  • Gain control means for controlling the gain of the shadow key signal output from the means, filtering means for filtering the shadow key signal, depth information generating means for generating depth information corresponding to the shadow signal, The gain of the gain control means is controlled based on the depth information from the depth information generating means, and the filtering characteristic of the filtering means is controlled based on the depth information. And control means for performing the operation.
  • the filtering means includes a low-pass filter.
  • the shadow key signal output from the shadow key signal generation means of the shadow signal generation means is output as a shadow key signal whose gain is controlled by the gain control means, and
  • the controlled shadow key signal is inputted to the above-mentioned filtering means, and the filtering characteristic is controlled and outputted as a real shadow signal.
  • the control means of the shadow signal generator has storage means for storing gain characteristic data and filtering characteristic data corresponding to the depth information from the depth information generating means. Then, the gain characteristic data and the filtering characteristic data are supplied to the gain control means and the filtering means, respectively, in accordance with the depth information.
  • the synthesizing means may include the object video signal from the object signal generating means and the object video signal.
  • the shadow video signal from the shadow signal generating means and the real shadow signal are input, and the input signals are combined to produce a mixed video signal.
  • 2 combining means for combining the mixed video signal, the mixed key signal and the background signal from the first synthesizing means, and generating the output video signal.
  • the object signal generating means may include first memory means for storing the source video signal and second memory means for storing the source key signal.
  • the source video signal and the source key signal stored in the first memory means and the second memory means, respectively, from the respective memory means.
  • Read address generating means for generating the read address to supply the read address to the first memory means and the second memory means.
  • the object video signal and the object key signal read from the first memory means and the second memory means, respectively, by the read address are used for the above purpose. Appear as an image It is intended to be.
  • the shadow signal generating means may include a third storage means for storing the source video signal and a fourth memory means for storing the source key signal. And a read address for reading the source video signal and the source key signal stored in the third memory means and the fourth memory means, respectively, from the respective memory means. And a read address generating means for supplying the read address to the third memory means and the fourth memory means, and the second image conversion processing comprises: The third memory means and the second memory means The above-mentioned shadow video signal and the above-mentioned shadow key signal read out from the memory means 4 are output, and the above-mentioned shadow video signal is output as a shadow video signal corresponding to the above-mentioned target image. is there.
  • the special effect method according to the present invention is a special effect method for performing a special effect process on an object formed by an input video signal and a shadow of the object, wherein a gain step for controlling a gain of an image showing the shadow of the object is provided.
  • the gain is controlled in the gain step by gain characteristic data corresponding to the depth information stored in a storage unit, and the depth stored in the storage unit.
  • the filtering step the shadow image is filtered by the filtering characteristic data corresponding to the information.
  • the special effect method is a special effect method for performing a special effect process on an input source video signal, wherein the first image conversion process is performed on the source video signal to indicate a target image.
  • the shadow signal step includes a gain control step of controlling a gain of the shadow signal corresponding to the source video signal, and a filtering step of filtering the shadow signal.
  • a depth information generating step for generating depth information corresponding to the shadow signal, and controlling the gain of the gain control step based on the depth information from the depth information generating step. And a control step of controlling the filtering characteristics of the filtering step based on the depth information.
  • the special effect method includes an object signal generation step of performing a first image conversion process on an input source video signal to generate an object signal indicating a target image; A shadow signal generation step of performing a second image conversion process to generate a shadow signal corresponding to the target image, an object signal generated in the object signal generation step, and the shadow video signal The shadow signal generated in the generation step is input, and the object signal, the shadow signal, and the background signal corresponding to the source video signal are combined to output an output video signal.
  • a gain control step for controlling the gain of the signal a filtering step for filtering the shadow signal, a depth information generation step for generating depth information corresponding to the shadow signal, and a depth information generation step.
  • the above-mentioned filtering step is performed by a one-pass filter.
  • control step may include: A step of storing gain characteristic data and filtering characteristic data according to the depth information from the information generating step, wherein the gain characteristic data and the filtering characteristic data are stored in accordance with the depth information from the storing step. These are supplied to the gain control step and the filtering step, respectively.
  • the object signal generating step includes: a storage step of storing the input source video signal; and the source video signal stored in the storage step in a predetermined unit.
  • a read address generating step for generating a read address so that the read address can be read out, and the first image conversion processing is performed by the object read out from the storage step by the read address.
  • the video signal is processed as a target image.
  • the shadow video signal generation step includes: a storage step of storing the input source video signal; and the source video signal stored in the storage step.
  • a read address generation step for generating a read address to be read in a predetermined unit, wherein the second image conversion processing is performed by the memory read out from the memory means by the read address.
  • the video signal is processed so as to be output as a shadow signal corresponding to the target image.
  • the object signal from the smart signal generating step and the shadow signal from the shadow signal generating step are input and input.
  • a first combining step of combining the above signals to output a mixed signal, and a second combining step of receiving the mixed signal and the background signal and outputting an output video signal. is there.
  • the special effect method comprises the steps of: In a special effect method in which a special effect process is performed on a source key signal corresponding to a source video signal, the source video signal and the source key signal are input, a first image conversion process is performed, and a target image is processed.
  • a source signal generation step for generating an object video signal and an object key signal to be shown and the source, the video signal, and the source key signal are input, and a second image conversion process is performed.
  • a shadow video signal generating step for generating a shadow video signal and a real shadow key signal corresponding to the target image, and an object video signal and an object key signal output from the object signal generating step are input.
  • a key signal and a background signal corresponding to the source video signal are input, and the input signals are synthesized to generate and output an output video signal; and
  • a gain control step for controlling the gain of the shadow key signal output from the shadow key signal generation step;
  • a filtering step for filtering the shadow key signal; and generating depth information corresponding to the shadow signal.
  • the filtering step is performed by a one-pass filter.
  • the special effect method according to the present invention includes a shadow key output from the shadow key signal generation step in the shadow signal generation step.
  • the signal is output as a shadow key signal whose gain has been controlled in the gain control step, and the shadow key signal whose gain has been controlled is input to the filtering step where the filtering characteristic is controlled and the real shadow key signal is output. It is output as a signal.
  • the gain control data and the filtering characteristic data corresponding to the depth information from the depth information generation step are stored.
  • a special effect method comprising a storage step, wherein the gain characteristic data and the filtering characteristic data are supplied to the gain control step and the filtering step, respectively, according to the depth information.
  • the synthesizing step in the synthesizing step, the object video signal and the object key signal from the object signal generating step are input and the shadow signal generating step is performed.
  • the object signal generating step includes a first memory step for storing the source video signal and a second memory step for storing the source key signal. And the source video signal and the source key signal stored in the first memory step and the second memory step, respectively, from the respective memory steps.
  • the object video signal and the object signal read from the first memory step and the second memory step, respectively, are output as the target image by the address. It is something.
  • a third storage step for storing the source video signal and a fourth memory step for storing the source key signal are included.
  • the shadow video signal and the shadow key read from the third memory step and the fourth memory step by the read address, respectively are used.
  • a signal is output and the shadow video signal is output as a shadow video signal corresponding to the target image.
  • the present invention provides a shadow generating means for generating a shadow image, a synthesizing means for synthesizing an object image to which a shadow is to be applied, the above-mentioned shadow image, and a background image.
  • Gain characteristic data storage means for storing filtering characteristic data; gain control means for controlling the gain of the shadow image; filtering means for filtering the shadow image; and the shadow image and the object.
  • the ratio xZy between the distance X from the image of the object and the distance y between the virtual light source and the image of the object is determined, and the gain control method is performed according to the gain characteristic according to the ratio XZy.
  • the gain in the gain control means is controlled in accordance with the gain characteristic in accordance with the ratio XZy, and the filtering characteristic in the filtering means is controlled in accordance with the filtering characteristic in accordance with the ratio xZy.
  • An image of a close shadow is generated, and the shadow image, the object image, and the background image are combined.
  • FIG. 1 is a diagram for explaining the background art.
  • FIG. 2 is a block diagram showing the entire configuration of the special effect device of the present invention.
  • FIG. 3 is a diagram for explaining a world coordinate system defined in the special effect device of the present invention.
  • FIG. 4 is a diagram for explaining a conversion process for obtaining an object video signal.
  • FIG. 5 is a diagram showing the relationship between the address on the frame memory corresponding to the object video signal and the address on the monitor screen.
  • FIG. 6 is a diagram showing an array of pixel data on the monitor screen and in the frame memory for indicating the meaning of the parameter ⁇ .
  • Figure 2 is a diagram showing the address space of the frame memory when the perspective method is used.
  • FIG. 8 is a conceptual diagram showing the relationship between the world coordinate system and the shadow coordinate system.
  • FIG. 6 is a diagram showing a relationship with an address on a plane.
  • FIG. 10 is a diagram for explaining a perspective transformation process for obtaining a three-dimensional shadow video signal from a three-dimensional object video signal in the point light source mode.
  • FIG. 11 is a flowchart showing a procedure of a conversion process for obtaining a point light source and a three-dimensional object video signal.
  • FIG. 12 is a diagram for explaining a conversion process for obtaining a shadow video signal in the parallel light source mode.
  • FIG. 13 is a flowchart showing a procedure of a conversion process for a parallel light source and a three-dimensional object video signal.
  • FIG. 14 is a diagram for illustrating a relationship between spherical coordinates and rectangular coordinates in a world coordinate system and a shadow coordinate system, respectively.
  • FIG. 15 is a diagram for explaining a perspective transformation process for obtaining a three-dimensional shadow video signal from a three-dimensional object video signal in the parallel light source mode.
  • FIG. 16 is a diagram for explaining a perspective transformation process for obtaining a virtual three-dimensional shadow video signal from a virtual three-dimensional object video signal.
  • FIG. 17 is a diagram for explaining an origin setting mode for automatically setting the origin of the shadow coordinate system.
  • FIG. 18 is a diagram showing a configuration of a real shadow generator.
  • FIG. 19 is a diagram showing a target image and a diagram showing the relationship between parameter H and gain and filtering characteristics.
  • FIG. 20 is a diagram for explaining the combining process of two intersecting images.
  • FIG. 21 is a block diagram showing the detailed configuration of the combiner.
  • FIG. 22 is a block diagram showing a detailed configuration of the priority signal generating circuit of FIG. 21.
  • FIG. 4 is a signal waveform diagram provided for FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • the CUP 8 is a processor for controlling all the circuits of the special effect device 1.
  • the CPU 8 receives each parameter obtained by operating the control panel 5 by the operator via the interface circuit (IZF) 5a and the data bus, and based on this parameter. To control each circuit. From this control panel 5, the perspective value P z , X in the shadow coordinate system
  • the parameters are read out in real time and reflected in the calculation of the address.
  • the CPU 8 monitors the change of the parameter supplied from the control panel 5 at a frame cycle. And parameters for calculating the read address based on the supplied parameters (! ⁇ To ⁇ ; ⁇ , b, ⁇ B 33 ', b, ⁇ b 33 ") frame period is not calculated. Ru a. Therefore, varying these parameters to re Alta Lee beam at full rate A period in response to operation of the operator And apply real-time special effects to the source video signal according to the changed parameters. it can.
  • the special effect device of the present invention allows a desired light source to be selected from a point light source and a parallel light source by inputting the type of the light source from the control panel 5.
  • a point light source mode the mode in which an object shadow is generated by a point light source. I will call it.
  • the CPU 8 controls each circuit and calculates a read address based on a program stored in a ROM (Read Only Memory) 6 provided as a program memory. Also, a ROM (Read Only Memory) 6 provided as a program memory. Also, a ROM (Read Only Memory) 6 provided as a program memory. Also, a ROM (Read Only Memory) 6 provided as a program memory. Also, a ROM (Read Only Memory) 6 provided as a program memory. Also,
  • each circuit is controlled and a read address is calculated.
  • RAM Random Access Memory
  • the object signal generator 10 receives the source video signal V 0 from the outside, and receives the source video signal V 0. Is converted to 3D
  • the object signal generator 10 To produce a two-dimensional object video signal V 3. Also, the object signal generator 10 outputs the source video signal V. It receives the source key signal K D for keying, and receives the source key signal K in the same way as the source video signal. Is subjected to three-dimensional conversion processing to generate an object key signal K 2 . Specifically, the object signal generation unit 10 generates the source video signal V. Frame memory 12 for temporarily storing data, and a soft key signal ⁇ for keying this source video signal. Frame memory 13 for temporarily storing data, and read addresses calculated for frame memory 12 and frame memory 13 corresponding to the three-dimensional conversion operation. (
  • Frame memory 12 is the supplied source video signal V. One It is a memory for storing it temporarily.
  • the frame memory 12 is supplied with a sequential write address from a write address generation circuit (not shown), so that the supplied source video signal V is supplied to the frame memory 12. Is stored as it is without deformation.
  • a read address ( ⁇ ,, ⁇ ⁇ ) calculated in accordance with the three-dimensional conversion operation is supplied from the read and address generation circuit 14 to the frame memory 12.
  • the object video signal V 2 that has been subjected to the three-dimensional conversion processing for each frame is output from the frame memory 12.
  • the output object video signal V 2 is sent to the mixer 30.
  • Frame memory 13 is a source key signal K for keying the source video signal V 0. This is a memory for temporarily storing data.
  • the same write address as the sequential write address supplied to the frame memory 12 is supplied.
  • the frame memory 13 receives the supplied sousky signal ⁇ . Is stored as it is without deformation.
  • the full Remume mode Li 1 3 frame Note Li 1 2 is supplied to the same address as the read address ( ⁇ ⁇ , ⁇ ⁇ ) so is supplied from the full Remume mode Li 1 3 3D transformed object Toki first signal kappa 2 the same as converted 3-dimensional and object Tobideo signal V 2 which is output.
  • the outputted object signal # 2 is sent to the combiner 30.
  • Read ⁇ address generating circuit 1 supplied from the scan click rie N'a dress generating circuits 9 in Sequence emission sheet catcher Le.
  • Lean add-less X S, Y S
  • the read add-supplied to the full Remume mode Li 1 2 and full Remume mode Li 1 3 Generate the address ( ⁇ ⁇ , Y M ).
  • This read address generation circuit 14 The specific calculation in will be described later.
  • the shadow signal generation unit 20 is a circuit for generating a shadow video signal and a shadow signal.
  • the shadow signal generator 20 outputs the source video signal V supplied from the outside.
  • the shadow signal generator 20 generates a source key signal K for keying the source video signal.
  • the receive Ri just as with three-dimensional conversion processing Shah Doubideo signal V 4, to generate a shut synchronizing first signal kappa 4.
  • the shadow signal generator 20 outputs the source video signal V supplied from the outside.
  • the shadow signal generation unit 20 generates a source key signal for keying the source video signal. And performs a three-dimensional conversion process in the same manner as the shadow video signal V 6 to generate a shadow key signal K s.
  • the shadow signal generation section 20 has a circuit configuration similar to that of the object signal generation section 10 and includes the source video signal V.
  • Memory 23 for temporarily storing data, and reading for supplying the calculated read address to the frame memory 22 and the frame memory 23.
  • the color matte generation circuit 21 has an address generation circuit 24 and a source video signal V0. By processing the source video signal V. This is a circuit to make the color of the shadow into a shadow. In the simplest case, the source video signal
  • the frame memory 22 is a memory for temporarily storing the source video signal and the matte-processed signal. Since a sequential write address from a write address generator (not shown) is supplied to the frame memory 22, the matte-processed software is supplied to the frame memory 22. Source video signal is stored as it is without image deformation. In the point light source mode, this frame memory
  • the 2 reads address generating circuit 2 4 from the three-dimensional conversion operation ⁇ beauty point light source is calculated on the basis of the read-out add-less (X M ', YM') because is supplied, the frame memory 2 2 from, Shah Doubideo signal V 4 which has been converted 3D is output.
  • the read address (2 ⁇ ,, ⁇ ⁇ ) calculated from the read address generation circuit 24 based on the three-dimensional conversion operation and the parallel light source is stored in the frame memory 22. Since this is supplied, the frame memory 22 outputs a three-dimensionally converted shadow video signal V 6.
  • Frame memory 2'3 is the source key signal K for keying the source video signal Vn. This is a memory for temporarily storing data. Since the same address as the sequential write address supplied to the frame memory 22 is supplied to the frame memory 23, the supplied address is supplied to the frame memory 23. Sawski — signal. Are stored as they are without image conversion. In the point light source mode, the frame memory 23 is supplied with the same address (XM ', ⁇ ⁇ ') as the read address supplied to the frame memory 22. From frame memory 23, three-dimensional conversion is performed. In the same manner as the shadow video signal V 4 , a three-dimensionally converted shadow key signal K 4 is output.
  • the same address ( ⁇ ⁇ ,, ⁇ ⁇ ⁇ ) as the read address supplied to the frame memory 22 is supplied to the frame memory 23.
  • the frame memory 23 outputs a three-dimensionally converted shadow key signal K 6 in the same manner as the three-dimensionally converted shadow video signal V 6 .
  • the read address generation circuit 24 is a circuit for generating a read address to be applied to the frame memory 22 and the frame memory 23.
  • scan click rie N'a monitor scan from de-less onset raw circuit 9 is supplied to the sequencer Nsha Torque rie down 3 on at the ⁇ de-less (X s, Y s) and, in the CPU 8 parameter b of Yotsute computed images transformation matrix, 'based on the read add-less (X M' ⁇ b 33, YM ') to generate a.
  • the real shadow signal generator 50 receives a shadow key signal (K 4 in the point light source mode and ⁇ 6 in the parallel light source mode) output from the frame memory 23, and receives the input shadow signal. outputs a; (when source mode is kappa 4 ', directional light mode kappa 6' point ⁇ ) against the dough signal, more realistic shadow Riarusha Douki signal for generating a. Details of the real shadow signal generator 50 will be described later.
  • the above is the configuration of the shadow video signal generation unit 20 ′.
  • the screen address generation circuit 9 is used for the monitor screen 3 screen. This is a circuit for dressing the entire lean surface in the order corresponding to the raster scan order. Specifically, a screen address (X s, Y s) is generated based on the internally generated horizontal synchronization signal and vertical synchronization signal.
  • the compiler 30 is a circuit for mixing signals supplied from the object signal generator 10 and the shadow signal generator 20.
  • the compiler 30 receives the object video signal V 3 and the object key signal K 2 output from the object signal generator 10, and outputs the object video signal V 2 and the object key signal K 2 from the shadow signal generator 20.
  • mixed bidet O signal V MIX 'and mixed key signal K MI X' the following equation
  • Vache IX ' K 2 V 2 + (1-K 2 ) ⁇ ' V
  • the object video signal V 2 and the object key signal # 2 output from the object signal generator 10 are received, and the shadow video signal output from the shadow signal generator 20 is received. It receives signals V and Li Arushi catcher Douki signal K '6, Obujiweku preparative bidet and old signals V 2 and Shah Doubideo signal V 6 and the mixture was mixed video signal V mIX ", Obujiweku Toki first signal K 2 and Li Arusha Douki Generate a mixed key signal K MI X ⁇ mixed with the signal K '6.
  • K " 1-(1-K 2) (1 — K '6) ⁇ ' ⁇ ⁇ (b) It can be expressed as.
  • Mixer 4 which will be described later in detail co Nbaina 3 0 0 is a circuit for mixing the supplied Bakkugurau down Dobideo signal V BK from the mixed video signal and mixed key signal and an external output from the co Nbaina 3 0 is there. In the point light source mode, it receives the mixed video signal V MIX ′ and the mixed key signal K MIX ′ output from the mixer 30 and receives the externally supplied background video signal V BK . The mixed video signal V MIX ′ and the background video signal V BK are mixed based on the mixed key signal K MIX ′ to generate an output video signal V 0UT ′. More specifically, this output video signal VOUT 'is given by the following equation:
  • V 0 UT KMIX VMIX + (1 — MIX) ⁇ BK ⁇ ⁇ ⁇ ⁇ ⁇ (C)
  • This world coordinate system is a three-dimensional rectangular coordinate system composed of the X, ⁇ , and ⁇ axes.
  • the ⁇ plane defined by the X axis and the ⁇ axis orthogonal thereto Assuming that the screen surface 3 exists on the surface, the X axis is defined as the horizontal (left / right) direction of the screen surface 3, and the Y axis is vertical (up / down) of the screen surface 3. ) Direction is defined.
  • the depth direction of the screen surface 3 is defined as the positive direction of the Z axis orthogonal to the XY plane, and the front side of the screen surface 3, that is, the screen surface is viewed.
  • the side where the viewpoint PZ exists is defined as the negative direction of the Z axis.
  • the center of the screen plane 3 matches the origin of the world coordinate system including the X axis, the Y axis, and the Z axis.
  • Virtual coordinate values are set on the X-axis that are continuous from the inside (origin) of the screen area to the left and right sides, and the X-axis in the screen area has the viewpoint PZ
  • the virtual coordinate values between "1 4" and "+4" are set from left to right when viewing the screen surface 3 from.
  • virtual coordinate values that are continuous from the inside (origin) of the screen area in the vertical and external directions are set on the Y axis, and the Y axis in the screen area is provided with a viewpoint.
  • Virtual coordinates between “13” and “+3” are set from below to above when viewing the screen surface 3 from PZ.
  • the operator's viewpoint position P Z is virtually set on the Z axis at a position where its coordinate value is “1 16”.
  • the conversion processing for generating an object video signal V 2 from a source video signal V ⁇ will be described with reference to FIGS. 4A and 4B.
  • the source video signal V which is two-dimensional data. Is stored in the frame memory 12 as it is without image conversion. Therefore, as shown in FIGS. 4A and 4B, the source video signal V. Is on the XY plane of the world coordinate system, Source video signal V on screen 8 present in the Y plane. Image is displayed.
  • FIG. 4 (a) shows a state where the XY plane is viewed from the viewpoint PZ on the Z axis in the space represented by the three-dimensional coordinates of the world coordinate system.
  • the displayed image appears.
  • FIG. 4B shows a state where the XZ plane is viewed from the viewpoint position on the positive side of the Y axis in a space represented by three-dimensional coordinates in the world coordinate system. Therefore, the source video signal V 0 existing on the XY plane overlaps the screen surface 3.
  • Such source video signal V Such source video signal V.
  • the operator operates the controls on the control panel to perform 3D image conversion processing in the world coordinate space. That is, a three-dimensional conversion matrix T consisting of parameters set for each frame.
  • the source video signal V by operating the operator.
  • the source video signal V is applied to each pixel. Is converted to a three-dimensional spatial position.
  • the video signal subjected to the three-dimensional image conversion processing is represented as a three-dimensional object video signal V ,.
  • the source video signal V is used for the three-dimensional conversion in the cases of Figs. This is an example in which is rotated about 45 ° about the X-axis as the center of rotation, and further translated in the positive direction of the Z-axis.
  • the three-dimensional transformation matrix T Q used for three-dimensional transformation is
  • the source video signal V is a parameter including elements for translating the source video signal in the X-axis, Y-axis, and Z-axis directions, respectively. This is a parameter that includes elements for uniformly enlarging and reducing the size of the whole in each of the three-dimensional axial directions.
  • this transformation matrix T Is a 4-by-4 matrix because the coordinate system for rotation transformation and the coordinate system for translation transformation and scaling transformation are represented in the same single coordinate system. It is called the next coordinate system (Homogeneous Color or dmate).
  • the source video signal V Q existing in the XY plane is transformed into the three-dimensional conversion matrix ⁇ . Is converted to the three-dimensional position represented by the three-dimensional object video signal V, by the following perspective transformation processing.
  • This perspective transformation processing is to transform the three-dimensional object video signal V, with the perspective transformation matrix P, as shown in FIGS. Is a transformation process that allows the XY plane to be seen through.
  • the conversion is to obtain the image of the video signal seen through the XY plane.
  • Figure 4 B represents thus the perspective video signal to the XY plane, the 2-dimensional and the object video signal V 2.
  • the object video signal V 2 seen through the screen plane 3 on the XY plane is a three-dimensional object on the depth side of the screen plane 3 as viewed from the virtual viewpoint PZ. This is a video image as if the video signal V, exists.
  • This perspective transformation matrix P. 'S parameter P z when seen through the three-dimensional conversion video signal V 2 on the XY plane is a perspective Bae Kuti blanking value for applying the perspective. That is, in the case of FIG. 4B, the three-dimensional object video signal V, in the three-dimensional space, is inclined by about 45 ° with respect to the XY plane, and when viewed from the virtual viewpoint PZ, The part that is far away looks small, and the part that is close looks large.
  • the transformation position of the three-dimensional object video signal V on the screen plane 3 by the perspective transformation is determined by the distance between the virtual viewpoint PZ and the screen plane 3, and the virtual viewpoint PZ and the three-dimensional object. It changes according to the distance from the virtual video signal V, and the perspective conversion according to the position of the virtual viewpoint PZ is performed by the operator setting the perspective value Pz according to the position of the virtual viewpoint PZ. It can be carried out. Normally, since the position of the viewpoint PZ is the coordinate value “1 16” on the z-axis, the passive value P z is set so that “1/16” is a standard value.
  • the transformation matrix Tobj for obtaining a two-dimensional object video signal V a from the matrix is a three-dimensional transformation matrix T Q and a perspective transformation matrix P.
  • the image processing apparatus using the special effect device of the present invention writes the two-dimensional source video signal VQ supplied from the outside to the frame memory 12 once, and By supplying the two-dimensional read address (X s , Y s ) calculated by the read address generation circuit 14 to the video signal read from the frame memory 12, On the other hand, spatial image conversion (three-dimensional image conversion) desired by the operator can be performed. Therefore, the source video signal V stored in the frame memory 12. , And the object video signal V 2 read from the frame memory 12 are two-dimensional data. That is, in ⁇ this two-dimensional readout completion de Les (X s, Ys) is a three-dimensional space Above z-axis data is not used.
  • ⁇ 33 ⁇ 21 22 ⁇ 231 ⁇ (4)
  • the two-dimensional position base-vector on the full Remume mode Li 1 2 [chi Micromax Upsilon Micromax] is expressed in the same coordinate system, base click preparative Le [X m y m H. ⁇ It can be expressed as.
  • the Monitasuku rie down 5 position on the 5 base-vector [X S Y s] you expressed by homogeneous coordinate system can be represented as vector preparative Le [X 6 y 6 1].
  • the parameter “H.” in this homogeneous coordinate system is a parameter that represents the scale of the magnitude of the vector and the rate of reduction. Is used as pseudo depth information in the present embodiment. Rice H. Will be described later.
  • equation (5) is a relational expression for determining the point on the monitor scan click rie down 2 that corresponds to a point on the full Remume mode Li 1 2 Te matrix T 3 3 Niyotsu.
  • the source video signal is stored in the frame memory 12 before conversion, and is stored on the monitor screen 3 obtained by the conversion matrix ⁇ 33.
  • the spatial video conversion is performed on the source video signal by determining the point of the frame memory 12 corresponding to the above point by the read address. In other words, when writing to frame memory 12
  • the image conversion is performed at the time of reading from the frame memory 12.
  • the frame memory 12 Instead of calculating by the equation (5) to find the point on the monitor screen 3 corresponding to the point, find the point on the frame memory 12 corresponding to the point on the monitor screen 3 There is a need. Therefore, by transforming equation (5),
  • the position vector of the homogeneous coordinate system on the frame memory 12 [X my m H. Is converted to a two-dimensional position vector [ ⁇ ⁇ ⁇ ⁇ ] on the frame memory 12.
  • the parameter “ ⁇ .” Used to represent the two-dimensional position vector [ ⁇ ⁇ ⁇ admir] in the homogeneous coordinate system is the parameter of the homogeneous coordinate system's position vector [X my m ⁇ . Since it is a parameter that represents the scale factor, to convert the position vector of the homogeneous coordinate system to a two-dimensional position vector, the position vector of the homogeneous coordinate system must be converted. If the parameters “X m ” and “y m ” indicating the direction are normalized by the parameter “1-1.” Which indicates the scale of the position vector in the homogeneous coordinate system, good. Therefore, Monitasuku each parameter menu over data "X M" in the two-dimensional position downy click preparative Le on rie down 3 and "Upsilon Micromax" is expressed by the following equation,
  • H o It can be expressed as. Monitasuku the homogeneous coordinate system vector preparative Le of the rie down 3 [x s ys 1], in the same when converted into the two-dimensional position vector [X s Ys], the position of the homogeneous coordinate system
  • the parameters “X s ” and “y s ” indicating the vector direction are normalized by the parameter “1” indicating the scale factor of the position vector in the homogeneous coordinate system.
  • the monitor scan click rie down 3 on a two-dimensional of each parameter "x s" position downy click preparative Le and "Y S" is expressed by the following equation,
  • the two-dimensional read address (X M , ⁇ ⁇ ) supplied to the frame memory 12 is given by the following equation from the equation (10).
  • (1) can be obtained as a bi 3 xs + b 2 3 ys + baa.
  • the read address (X M , ⁇ réelle) supplied to the frame memory 12 is converted into a three-dimensional conversion matrix ⁇ determined by a desired spatial image conversion device of the operator.
  • Each parameter (r,, ⁇ r) supplied to the frame memory 12 is converted into a three-dimensional conversion matrix ⁇ determined by a desired spatial image conversion device of the operator.
  • the parameter 11 obtained by the expression (40) is used. Is used as depth information.
  • the following effects are obtained by using the value of H obtained by the equation (40) instead of using the actual Z coordinate value in the three-dimensional space as the depth information. That is, when calculating the depth information, it is not necessary to calculate the actual Z coordinate value, so that the calculation for one dimension can be omitted. Thus, it is not necessary to use a high-speed processor for three-dimensional conversion, and depth information can be calculated even with a low-speed processor.
  • this H Since H is a value required when calculating the two-dimensional read address to be supplied to the frame memories 12 and 13, this H is used. There is no need to perform any special operations to find. Therefore, even faster calculation can be performed.
  • the frame memory 1 2, 1 3 of the normalized read add-less (x M / HO, y M ZH.) Means that the Naru rather large, thereby the spatial reading off Remume mode Li 1 2, 1 3
  • the interval between addresses increases.
  • the space between the spatial readout sampling addresses becomes large, the data read out from the frame memories 12 and 13 is displayed when displayed on the screen surface 55A. The resulting video is reduced.
  • Fig. 7 (B) in the address space of frame memories 12 and 13, parameters are set according to the perspective so as to intersect with the specified memory area ER1 without using the perspective.
  • Data H When the image data is read out by the read address of the area ER2 where the image is read out, the image projected on the screen surface 55A is projected in perspective as shown in Fig. 7 (A).
  • the image data read out from the area ER1 of the frame memories 12 and 13 without using the image data is a spatial readout sampler determined by the same parameter H over the entire area ER1.
  • the image is displayed in the area ERIX on the screen surface 55A as a non-perspective image.
  • the pixel data of the frame memories 12 and 13 are read from the area ER2 where the intervals of the spatial readout sampling addresses are different by the perspective method.
  • Parameter H on lean surface 55A In the read sampling address where is large, the image is reduced and the parameter H is set. In a region where the distance between the read sampling addresses becomes large and the interval between the read sampling addresses becomes large, a reduced image is displayed on the screen surface 55A.
  • the parameter H Changes in the size of the image as depth information, so that images using perspective can be screened. Can be projected on the surface 55A.
  • the shadow coordinate system like the word Lumpur de coordinate system, X s, is defined by three-dimensional orthogonal coordinate system consisting of YS and Z s axis is a coordinate system.
  • the plane on which the shadow video signal V shadow is projected is defined as the XY plane of the shadow coordinate system. This is called the shadow plane.
  • the direction in which the light source for providing the shadow of the object video signal Vobj exists is defined as the negative direction of the Z axis of the shadow coordinate system.
  • the special effects device of the present invention generates a shadow using a point light source mode using a point light source and a shadow light source using a parallel light source. It has a parallel light source mode and can be freely set by the operator. Further, X in the whirlpool de coordinate system, against the Y and Z-axis, X s, the angle of each of the Y s and Z s axis of shadow coordinate system can be O Operator sets an arbitrary angular .
  • FIG. 9A and FIG. 9B are the same as FIGS. 4A and 4B, and FIG. 9A is a view from the viewpoint PZ set on the Z axis of the world coordinate system to the XY of the world coordinate system.
  • FIG. 9B is a diagram when the plane is viewed, and FIG. 9B is a diagram when the YZ plane in the world coordinate system is viewed from a position in the positive direction of the X axis in the world coordinate system.
  • the three-dimensional transformation matrix T is used. 3D converted to 3D spatial position by The object video signal V, is perspective-transformed to the X s Y s plane of shadow coordinates by a perspective transformation matrix PSP ⁇ ⁇ by a point light source.
  • This is a video signal seen through the X s Y s plane of the shadow coordinate system when the three-dimensional object video signal V, when viewed from the point light source 90, is viewed from the point light source 90.
  • ⁇ Figure 9 beta which means to seek the video signal which is transparent to X s YS plane of shadow coordinate system, to be expressed as a three-dimensional Shah Doubideo signal V 3.
  • a detailed description of the perspective transformation matrix PSPOT using the point light source will be described later.
  • the three-dimensional shadow video signal V 3 is converted to the perspective transformation matrix ⁇ described above. Is used to perform perspective transformation so as to be seen on the XY plane of world coordinates. This is from a virtual viewpoint PZ on the Z-axis, when viewed three-dimensional sheet catcher Doubideo signal V 3, means to determine the video signal to be transparent to the XY plane of the whirlpool de coordinate system.
  • the video signal seen through the XY plane of the world coordinate system is represented as a two-dimensional shadow video signal V 4.
  • FIG. 9B The above processing shown in Fig. 9B is summarized.
  • conversion processing for the two-dimensional source over scan video signal V 0 obtains a two-dimensional Shah de video signal V 4 are Obujuku preparative video signal V.
  • a three-dimensional conversion step for obtaining a three-dimensional object video signal V by performing three-dimensional conversion with the three-dimensional object video signal V, and transforming the three-dimensional object video signal V, with a perspective transformation matrix P SP 0 T using a point light source.
  • To obtain a two-dimensional shadow video signal V 4 by seeing through the XY plane of the world coordinate system. Therefore, the two-dimensional source video signal V. From a two-dimensional shadow video signal
  • the transformation matrix Tshadow 'for determining V 4 is given by
  • the parameter [H s ] of the homogeneous coordinate system is a parameter of the homogeneous coordinate system when the position vector on the frame memory 12 is represented by the homogeneous coordinate system.
  • the parameter is a parameter representing the scaling factor of the size of the vector, and is used as pseudo depth information in this embodiment. It will be described later with respect to this "H S".
  • the transformation matrix T shadow 'for obtaining the two-dimensional shadow video signal V 4 from the two-dimensional source video signal V 0 is a 4-by-4 transformation matrix, which will be described later. data of the third row and third column) is not substantially used and the frames on the actual three-dimensional transformation matrix having a two-dimensional readout add-less arithmetic required para main Ichita and T 33 shadow '
  • the three-dimensional transformation matrix T 33 shadow ' is applied to the position vector [ ⁇ ⁇ ⁇ ' y m 'H s] on the memory 22 to obtain the position on the frame memory 22.
  • Vector [X m 'y m ' H s] is converted to a position vector [X sys 1] on monitor screen 3. If the relational expression is described below,
  • the scale factor “H S ” of the position vector [x m 'y m '] is the scale factor of the position vector [X s y s ] of the homogeneous coordinate system on the monitor screen 22. Means that the rate is converted to be "1" o
  • transformation matrix (T 33 shad ow ') - 1 is the transformation matrix T 33 shadow' is the inverse matrix of.
  • FIGS. Figure 1 0 is the X s axis direction of the shadow coordinate system Y s Z s plane Figure derconnection when viewed, the point light source 6 0 3 dimensional Obujeku preparative video V, and the three-dimensional Shah Doubideo V 3 Indicates the positional relationship.
  • perspective transformation matrix PSPOT that by this point source, when the light source mode point using a point light source, a conversion matrix for obtaining the three-dimensional Obujiweku preparative Bido V, from the three-dimensional Shah Doubideo V 3.
  • FIG. 11A shows a flow of the conversion process for the point light source 60
  • FIG. 11B shows a flow of the conversion process for the object video signal.
  • step SP1 the position of the point light source 60 represented by the world coordinate system is transformed into the shadow coordinate system by the transformation matrix F.
  • the perspective transformation matrix P s will be described later in step SP5.
  • 'Is not a perspective transformation matrix in world coordinates, but a perspective transformation matrix in shadow coordinates. Therefore, when the three-dimensional object video signal V, is perspectiveed on the X s Y s plane of the shadow coordinate system by the perspective transformation matrix P so ′, the point light source 60 represented by the world coordinate system is used. The position needs to be converted to a shadow coordinate system.
  • this transformation matrix F- ' will be specifically described.
  • the rotation angle of the X s axis of the shadow coordinate system with respect to the X axis of the field coordinate system is X
  • the rotation angle of the Y s axis of the shadow coordinate system with respect to the Y axis of the world coordinate system is ⁇ Y
  • ⁇ of the world coordinate system is Let the rotation angle of the Z s axis of the shadow coordinate system with respect to the axis be ⁇ ⁇ , and let the origin of the shadow coordinate system be (X so, y so, Z so).
  • the transformation matrix F— 'from the world coordinate system to the shadow coordinate system the transformation matrix F from the shadow coordinate system to the world coordinate system, which has an inverse matrix relationship, is the product of the rotation matrix and the movement matrix.
  • a transformation matrix F from the shadow coordinate system to the world coordinate system is obtained.
  • the transformation matrix F from the shadow coordinate system to the world coordinate system is
  • the matrix L (X y Z so) is a matrix for translation
  • the matrix R x (— x ), the matrix R ⁇ (-0 ⁇ ), and the matrix R z (- ⁇ z ) are rotation matrices
  • the row system UL (-Xso, one YZso) is a matrix for translation
  • step SP2 the position of the point light source 90 is moved to the position of the virtual point light source 91 on the Zs axis by the translation matrix T KS — '.
  • the reason for this is that, in order to obtain the 3D shadow video V 3 for the 3D object video V, when viewing the 3D object video V, from the position of the point light source 9 o 0, the 3D object video V, The three-dimensional shadow video V 3 can be obtained by making the video V, see through the X s Y s plane of the shadow coordinate system.
  • the point light source to be the viewpoint must be located on the Zs axis. Therefore, the translation matrix T XSYS —! Moves the position of the point light source 90 parallel to the position of the virtual point light source 91 on the Z s axis.
  • this translation matrix T XSYS — 1 becomes T It can be expressed as.
  • step SP1 and step SP2 the conversion processing for the point light source ends.
  • step SP3 as in step SP1, the three-dimensional object video signal V, represented in the world coordinate system, is transformed into the shadow coordinate system by the transformation matrix F1 '.
  • the perspective transformation matrix P s used in step SP5 described later. 'Is not a perspective transformation matrix in the world coordinate system, but a perspective transformation matrix in the shadow coordinate system. Therefore, the perspective transformation matrix P s .
  • the three-dimensional object video V is seen through the X s Ys plane of the shadow coordinate system, and the three-dimensional object video V, represented by the world coordinate system, is transformed into the shadow coordinate system. Need to be converted to In step SP4, as in step SP2, as shown in FIG.
  • the three-dimensional object video signal V is converted to the X s Ys plane of the shadow coordinate system by the translation matrix T XSYS — 1 .
  • the translated video signal is represented as a virtual three-dimensional object video signal V, '.
  • the translation matrix T XSYS — 1 so that the relative positional relationship between the video signal V, and the virtual object video signal V, 'relative to the virtual point light source 91 does not change.
  • step SP5 the perspective transformation matrix P s is obtained .
  • step SP5 the perspective transformation matrix P s is obtained .
  • step SP5 the perspective transformation matrix P s is obtained .
  • step SP5 the perspective transformation matrix P s is obtained .
  • step SP5 the perspective transformation matrix P s is obtained .
  • step SP5 the perspective transformation matrix P s is obtained .
  • step SP5 the perspective transformation matrix P s is obtained .
  • step SP5 the perspective transformation matrix P s is obtained .
  • V 3 ′ the video signal seen through the X s Y s plane of the shadow coordinate system.
  • This virtual three-dimensional shadow video signal V 3 ′ is, when the virtual three-dimensional object video signal V, ′ is viewed from the virtual point light source 91 with the virtual point light source 91 as a viewpoint, s The video signal seen through the Ys plane.
  • this perspective transformation matrix P s . 'I the perspective transformation matrix P shown in equation (2). From the relationship between and the viewpoint PZ, it can be considered that the viewpoint at the time of the fluoroscopy is at the position of the virtual point light source 91, that is, at the position of (0, 0, Z! _).
  • the perspective transformation matrix P s is obtained by replacing “P z ” with “— 1 Z z L ”. 'Is obtained.
  • the virtual three-dimensional shadow video signal V 3 ′ is moved in parallel to the X s Y s plane of the shadow coordinate system using the translation matrix T xsvs .
  • it will be expressed as 3-dimensional Shah Doubideo signal V 3 video signals that have been translated.
  • Figure 10 the three-dimensional shadow video signal V 3 has a point light source 90 as a viewpoint, and when the three-dimensional object video signal V, is viewed from the position of the point light source 90, the three-dimensional shadow video signal V 3 a video signal which is transparent to X s Ys plane.
  • the reason for this movement is that in step SP 4, the three-dimensional object and the video signal V, were translated by the translation matrix T xsys- ', so that the translation matrix T XSYS 1 This is to undo the parallel movement processing by.
  • the translation matrix T XSYS — 'and the translation matrix T XSYS have an inverse relationship, so the translation matrix T XSYS is
  • step SP 7 converted by the transformation matrix F represented by Equation (4 2), a 3-dimensional shadow video signal V 3 represented by shadow coordinate system, the whirl de coordinate system.
  • a three-dimensional shadow video signal V 3 represented by a coordinate value in the world coordinate system can be obtained.
  • the processing shown in the flow of Fig. 11B is summarized.
  • the processing for obtaining the three-dimensional shadow video signal in the world coordinate system from the three-dimensional object video signal V in the world coordinate system is performed by converting the three-dimensional object video signal V, in the world coordinate system from the shadow coordinate system.
  • Step (SP3) and in the shadow coordinate system, project the 3D object video signal onto the Xs Ys plane of the shadow coordinate system to project the 3D shadow video signal in the shadow coordinate system.
  • SP 4 3-5 and 3-6 and a 3D shadow in the shadow coordinate system ⁇ ⁇ Converting the video signal from the shadow coordinate system to the world coordinate system (SP7).
  • PT is a transformation matrix F- ', a row shift matrix T XSYS - 1, and a perspective transformation matrix P s . ', The translation matrix T XSYS- ', and the transformation matrix F.
  • this transformation matrix T shadow ' is a matrix of 4 rows and 4 columns, but a matrix excluding the components in the Z-axis direction (3rd row and 3rd column) as in equation (4).
  • the matrix T 33 shadow' T 33 shadow of the inverse matrix of (T 33 shadow ') - one of the para main Ichita the following equation: bb 1 2 'b 1 3 '
  • FIG. 12A and 12B are the same as FIGS. 9A and 9B, and FIG. 12A is a view from the viewpoint PZ set on the Z-axis of the world coordinate system.
  • FIG. 12B is a view when the plane is viewed, and FIG. 12B is a view when the YZ plane in the world coordinate system is viewed from the position in the positive direction of the X axis in the world coordinate system.
  • a three-dimensional transformation matrix T The 3D object video signal V, which is converted to a 3D spatial position, is projected onto the X s Y s plane of the shadow coordinates by the perspective transformation matrix ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ with a parallel light source Is done.
  • the X s Y s perspective video signal to the plane of the shadow coordinate system would represent by a three-dimensional Shah Doubideo signal V 5.
  • the directional light based on the perspective transformation matrix P PARA is the three-dimensional object video signal V, and the perspective transformation, a transformation matrix for obtaining the three-dimensional Shah Doubideo signal V 5.
  • three-dimensional Shah Doubideo signal V 5 is a perspective conversion matrix described earlier [rho. Is projected onto the XY plane of the world coordinate system. This means that when viewing the three-dimensional shadow video signal V 5 from the virtual viewpoint PZ on the Z axis, a video signal seen through the XY plane of the world coordinate system is obtained.
  • Figure 1 2 B is a video signal which is transparent to the XY plane of the whirlpool de coordinate system, to be expressed as a two-dimensional Shah Doubi de old signal V 6.
  • 3D conversion step for obtaining a 3D object video signal V, by performing a 3D transformation by the 3D object video signal V, and converting the 3D object video signal V, into a shadow coordinate system by a perspective transformation matrix P PARA using a parallel light source
  • T shadow " T. ⁇ P PA RA ⁇ P o ⁇ (60)
  • shadow signal generator 2 0 read ⁇ de-less generation circuit 2 4 respectively read ⁇ de-less and position downy click preparative Le supplied from the (X M ⁇ Upsilon Micromax ⁇ ) and [monitored with ⁇ ⁇ ' ⁇ "' scan click rie down 3 ⁇ dress and position base-vector in on the respective (X s
  • FIG. 13A shows the flow of the conversion process for the parallel light source 70
  • FIG. 13B shows the flow of the conversion process for the three-dimensional object video signal V ,.
  • step SP11 the coordinates of the parallel light source 70 defined by the spherical coordinates in the world coordinate system are converted to the orthogonal coordinates in the world coordinate system.
  • the position of a parallel light source is generally expressed in a spherical coordinate system rather than in a rectangular coordinate system.
  • the spherical coordinate system is a coordinate system in which the position of a parallel light source is represented by “radius (r)”, “latitude (a)”, and “longitude ( ⁇ )”.
  • Figure 14 1 shows the relationship between rectangular coordinates and spherical coordinates in the world coordinate system. As shown in Fig.
  • the relationship between the rectangular coordinate system and the spherical coordinate system is that the reference for latitude () is the ii direction of the Y axis and the reference for longitude is the XY plane.
  • the equatorial plane of the spherical coordinate coincides with the XY plane of the rectangular coordinate
  • the direction of latitude 0 (rad) and longitude 0 (rad) coincides with the minus direction of the Y axis.
  • the position of the collimated light source 70 defined by spherical coordinates is (r, a, ⁇ ), and the position of the collimated light source converted to rectangular coordinates is ( ⁇ ⁇ _, y L, z L), the light source position (XL, y L, z L ) is
  • the light source position (r, ⁇ , ⁇ ) of the spherical coordinate system set by the operator is substituted into this equation (61).
  • the light source position (XL, yL, Z! _) Converted into the rectangular coordinates can be obtained.
  • step SP12 the coordinates of the parallel light source are transformed from the first coordinate system to the shadow coordinate system by the transformation matrix F- '.
  • the transformation matrix F one 1, since as described in step SP 1, description is omitted.
  • Shadow coordinate system the position of the converted light source (x i_ ', y L' , z L ') and when, homogeneous coordinates source base click preparative Le of in the world coordinate system expressed in [XL y L z L 1] and the vector of the light source in the shadow coordinate system represented by the homogeneous coordinate system [XL L y L L z L L
  • step SP13 the position of the light source in rectangular coordinates in the shadow ⁇ coordinate system (X, y, yL ', z') obtained in step SP12 is expressed in spherical coordinates in the shadow coordinate system.
  • Ei 14B is a diagram showing the relationship between the rectangular coordinates and the spherical coordinates in the shadow coordinate system. As shown in Fig. 14B, the relationship between the rectangular coordinate system and the spherical coordinate system in the shadow coordinate system is such that the reference of the latitude (ar s ) is the negative direction of the Y s axis and the reference of the longitude ( ⁇ s ). And the X s Y s plane are doing.
  • X s of the equatorial plane is orthogonal coordinates of the spherical coordinates - matches Y s plane, latitude 0 (rad), the direction of ⁇ 0 (rad) matches the minus direction of the Y s axis.
  • step SP 14 the position (r ′, a ′, ⁇ ′) of the parallel light source obtained in step SP 13 is calculated by using the rotation matrix R z (Ichi '). ) Rotates one "" (rad) around the ⁇ s axis of the shadow target system.
  • the position of the parallel light source after the rotation process can be expressed as ( ⁇ ', 0, ⁇ ').
  • the light source rotated by the rotation matrix R z ( ⁇ ⁇ ') is represented as a virtual collimated light source 71. By rotating the position of the collimated light source ⁇ 0 in this manner, the light source shown in Fig. 13 is obtained.
  • step SP 17 the observable video signal V, is perspectiveed on the X s Y s plane of the shadow coordinate system by the perspective transformation matrix P so '.
  • the rotation matrix R z (- ⁇ ') is a rotation matrix around the Z s axis
  • the rotation matrix R z () is
  • step SP15 similarly to step SP11, the three-dimensional object video signal V, represented in the world coordinate system is transformed into the shadow coordinate system by the transformation matrix F '.
  • the perspective transformation matrix P s which will be described later, is similar to the processing for the parallel light source described in step SP 11. This is because ⁇ is not a perspective transformation matrix in the world coordinate system, but a perspective transformation matrix in the shadow coordinate system. If the 3D object video V, is to be seen through the X s Ys plane of the shadow coordinate system, each pixel position of the 3D object video V, represented by the world coordinate system, is shadowed. Need to convert to coordinate system.
  • step SP 16 the object video signal V, converted to the shadow coordinate system in step SP 15, is rotated by one “” (rad) around the Z axis by the rotation matrix R s (-'). This is because, as shown in FIG. 15, in step SP 14, the position (r ′, ⁇ ′, ⁇ ) of the parallel light source 70 is determined by the rotation matrix R z (— “”).
  • the object video signal V has to be rotated to correspond to the rotation process of the parallel light source 70, since ') has been rotated about the ⁇ axis — “' (rad).
  • the three-dimensional object video signal that is rotated (rad) around the Z s axis by the rotation matrix R 2 (-a ') is converted into the virtual three-dimensional object video signal V, ". Therefore, the relative position of the three-dimensional object video signal V and the parallel light source 70 with respect to the origin of the shadow coordinate system, and the virtual three-dimensional object video signal V with respect to the origin of the shadow target system , ⁇ and the virtual parallel light source 71 are exactly the same.
  • FIG. 14A is a drawing that three-dimensionally represents the positional relationship between the virtual three-dimensional object video signal V, ′ and the virtual three-dimensional shadow video signal V 5 ′′
  • the virtual object video signal V, 'J- Let a pixel point with (x., Y.
  • step S ⁇ 18 virtual shadow video signal V 5 ⁇ ⁇ is rotated around Z s axis by rotation matrix R z ⁇ 1 ).
  • FIG 5 depicts a rotational movement video signals as a three-dimensional sheet catcher Doubideo signal V 5.
  • the three-dimensional shadow video signal V 5 is a video signal obtained by seeing the three-dimensional object video signal V, through the parallel light source 70 into the X s Y s plane of the shadow coordinate system. It is. The reason for moving this way
  • step SP 16 the rotation matrix R z (— “') gives the third order This is because, since the original object video signal V, has been rotationally moved, the rotational movement processing by the rotational matrix R z ⁇ -a ') is restored. In other words, since the rotation matrix R z ( -ar ) and the rotation matrix R z ( ⁇ ') have an inverse matrix relationship, the rotation matrix R z ( ⁇ ') is
  • step SP 1 9 converted by the transformation matrix F represented by Equation (4 2), a 3-dimensional shadow video signal V 5 represented by shadow coordinate system, the whirl de coordinate system.
  • a three-dimensional shadow video signal V5 represented by the coordinate values in the world coordinate system can be obtained.
  • the perspective transformation matrix P PARA is a transformation matrix F _ ′, a rotation matrix R z (—), and a perspective transformation matrix P s . ⁇ , the rotation matrix R z ) and the transformation matrix F— 1.
  • T shadow " ⁇ . ⁇ P P ARA ⁇ P o
  • the calculation method is exactly the same as the calculation shown in (14).
  • a shadow coordinate system for defining a shadow plane on which a shadow is projected for an object video signal is set.
  • the special effect device of the present invention has an origin setting mode for automatically setting the origin of the shadow coordinates.
  • the operator sets the source video signal V. Specify a point above. 3D transformation of this specified point
  • the object is converted into a three-dimensional space by the matrix T Q , and the corresponding point on the object video signal Vobj converted into the three-dimensional space is set as the origin of the shadow coordinate system.
  • the origin of the shadow coordinate system is set at a point on the three-dimensional object video signal Vobj, and as a result, the three-dimensional object video signal Vobj exists on the shadow plane. become.
  • the source video signal V Let the upper right point be a, the upper left point be b, the lower left point be c, and the lower right point be d, and the corresponding point on the 3D object video signal V ob j be a ' , b ', c', and d '. Also, the source video signal V.
  • the source video signal V is output by the operator.
  • the case where the above point d is specified is explained as an example.
  • the corresponding point on the observable video signal V obj obtained by transforming the above point d (X d , y d , 0) by the three-dimensional transformation matrix T o is represented by d ′ (X c ′, y d ′, z d '). This point, d (x d , yd, 0) and d '(
  • Equation (4 2) and the origin of Shah de coordinate system is a path lame one other mobile matrix L represented by the formula (4 7) (X s., YSO, ZSO), a in Equation (7 4) connexion obtained (x d ', y d' , z d ') by substituting, 3-dimensional objects Tobideo signal V, the origin of the shadow coordinate system to a point above is set.
  • the shadow coordinate system is set so that the three-dimensional object video signal V, exists in the shadow plane in the three-dimensional space. Accordingly, the special effect device of the present invention can obtain a natural effect such that the shadow of an object existing on the ground is projected on the ground by the light from the sun.
  • the ⁇ key generator 5 ⁇ ⁇ ⁇ ⁇ will be described with reference to FIG.
  • the real shadow generator 50 includes a gain control circuit 500, a horizontal LPF 501, a vertical LPF 502, and a real shadow control unit 503 as a whole. Also, the real shadow control section 503 includes a gain characteristic of a gain control circuit 500 described later, and horizontal and vertical
  • ROM 504 which stores table data indicating the filtering characteristics of 01 and 502.
  • the gain control circuit 500 is a circuit that controls a gain given to a shadow key signal (# 4 , # 6) supplied from the frame memory 23.
  • Vertical LPF 5 0 2 is a horizontal LPF 5 0 Shah synchronizing first signal from 1 ( ⁇ 4, ⁇ 6) mouth one path off I filter in the vertical direction of the frequency component of (LPF).
  • the real-shadow controller 503 receives a parameter ⁇ used as depth information in the present embodiment from the read address generation circuit 24 ⁇ and stores it in R ⁇ 504.
  • the gain control circuit 500 and the horizontal and vertical PFs 501 and 502 are controlled based on predetermined gain characteristics and filtering characteristics, respectively.
  • the predetermined gain characteristic is data that results in the intended gain characteristic
  • the filtering characteristic is data that results in the intended filtering characteristic.
  • the final image to be obtained is such that the further away the shadow S from the object 0 is from the object ⁇ , the thinner and blurred the shadow S itself is, as shown in FIG. 19 ( ⁇ ). is there.
  • the gain characteristics (GAI ⁇ ) indicating the shading of the shadow S are shown in Fig. 19 (B).
  • the depth information As parameter H is large Kunar used, the gain is lowered against Shah Douki signal (K 4, K G), as para menu over data H is rather small, the gain for the Shah Douki signal (K 4, KG) Can be raised. In other words, the brightness decreases as the shadow S moves away from the object 0.
  • the characteristic data shown in FIG. 19 (, ⁇ ) is shown in FIG. 18.
  • the table data consisting of the lame signal and the gain data is shown in FIG. It is stored in R 0 ⁇ 504 in the control unit 503.
  • the blur amount (softness) of the shadow S that is, the filtering characteristic (FILTER) of the one-pass filter is as shown in FIG. 19 (C).
  • the filtering characteristic (FILTER) of the one-pass filter As shown in Fig. 19 (C), as the parameter Hs increases, the low-pass bands of the horizontal and vertical low-pass filters 501 and 502 become narrower, and the parameter Hs increases. H s hands horizontally and vertically as the is rather small lowpass off I filter 5 0 1 5 0 of each low frequency 2 pass full I Rutagafu rats, i.e. wider. That is, the further away the shadow S is from the object ⁇ , the more the outline of the shadow S is blurred.
  • VB (OUT) KBVB + - represented by (1 K B) KAVA ⁇ ⁇ (7 6), combined output such as V B (0 UT) is obtained.
  • the first video signal V A in the case where the second video signal V B is above (disk near rie down), priority signal to the composite video signal V A (0U ⁇ ) ⁇ 0 ⁇ Taking into account, the composite video signal corresponding to the first video signal V A is
  • the second video signal V B, prioritization Li Ti signal when the first video signal VA is above can be represented by using the priority signal Ho A and (1 one H. A). Therefore, when the first video signal V A is above the second video signal V B and the priority signal (111 H 0A ) is considered for V A (0 U ), The output of V B is
  • V B (OUT) X (K B V B + (1- K B) K A V A ⁇ (1 ⁇ H OA)
  • V 0 U ⁇ ⁇ 0 U ⁇ V A (0 U ⁇ ) X + V B (0 UT) X (8 1)
  • the first and second video signals V A and V B to E Li other than E Ria that image corresponding is displayed Ryo is, using the key signal K a and K b of the first and second video signals VA and V B (1- K a) - so can be defined in the form of a product such as (1 K N), the video signal V Alpha Or the key signal OUT for the area where either VB or
  • K OUT 1-(1-KA) (1 K B ) (83)
  • the combiner 22 of the special effect device of the present invention has two pieces of image information, that is, depth information II in the XYZ space behind the screen surface 3A shown in FIG. 20 (A). And two video signals of images intersect each other while extending obliquely so as to have a H s, Sunawa Acquired Bujiweku preparative video signal V 2 and Shah de video signal (point source mode at the time of V 4, directional light mode time for V 6) de, respectively the key signal K 2 (FIG. 2 0 (B)) and K 4 (point source mode when the kappa 4, when directional light mode is K s) (Fig. 2 0 (C) while keys Lee in g by), priority signals of two images each part Ho a and (1 one H. a) (Fig. 2 0 (D) Figure based on and FIG. 2 0 (E)) 2 1 Are synthesized using the configuration of
  • the prioritization Li Ti signal H OA is information for indicating the display of a Priority for Obujeku preparative video signal V?
  • Shah Doubideo signal V 4 or V 6
  • II 0A 1 when the priority of Obuji E click preparative video signal V 2 is 1 0 0 Bruno.
  • Is a Ichise emissions Bok Shah Doubideo signal (V 4 or V 6) is not displayed at all. That is, it can be said that the object video signal V 2 is opaque.
  • H OA Obujiweku Tobideo signal V 2 when the 0.5 is a semi-transparent, so that the sheet catcher Doubideo signal V 4 are show through.
  • the object video signal V 2 is displayed 50%, since Shah Doubideo signal (V 4 or V 6) is displayed 50%, Obujiweku preparative bi de O signals V 2 and Shah Doubideo signal (V 4 or V 6 ) will be displayed.
  • Figure 2 1 shows a configuration of co Npaina 3 0 as a whole, and the first video signal combining unit 4 1 for calculating the synthesis ratio of the object video signal V 2, Shah Doubideo signal (V 4 or V 6)
  • a second video signal synthesizing section 42 for calculating a synthesizing ratio
  • a key signal synthesizing section 43 for forming a key signal for the object video signal V 2 and the shadow video signal (V 4 or V 6 ); and an object video signal V 2 and shadow video signal (V 4 or V R) and co Nbaina 3 0 synthesized composite output unit 4 for outputting 4 and the ply o utility signal generating circuit 4 8 Metropolitan a is configured.
  • the first video signal synthesizing section 41 includes a “1” coefficient circuit 49, an “one-K ′ 4 (or one-K ′ 6 )” coefficient circuit 50, a synthesizing circuit 45, and multiplication circuits 46, 4. Consists of seven.
  • the combining circuit 45 calculates the following equation based on the first, second and third input data D 1, D 2 and D 3.
  • the output data D4 is supplied to multiplication circuits 46 and 47, and the multiplication circuit 46 receives the output data D4 and the object signal ⁇ 2 input to the compiler 30.
  • output D 4 X kappa 2 is obtained, and the output D 4 X kappa 2 and object video signal V 2 is input to the multiplier 4 7 is al, an output D 4 X ⁇ 2 XV 2 is obtained. Therefore, the output data S 11 output from the first video signal combining unit 41 is
  • the second video signal combining unit 4 3, "1 one H 0A" coefficient circuit 5 2 "1” and the coefficient circuit 5 3 "1 one K 2" coefficient circuit 5 4 and the same operation as (7 5) It comprises a synthesis circuit 51 to be executed, and multiplication circuits 152 and 153.
  • the input data D1, D2, and D3 input to the synthesis circuit 51 are respectively the “ 111H0A “ output from the " 111H0A " coefficient circuit 51 and the " 111H0A “ output from the "1” coefficient circuit. and “1” output, "1 - K 2" coefficient circuit 5 4 - “since 1 kappa 2" is output, output data Isseki D 4 output from the synthesizing circuit 5 1, ⁇ (1 - ⁇ ⁇ ) + ⁇ ⁇ ⁇ (1- ⁇ 2) ⁇ .
  • the multiplication circuit 5 5 is expressed as “(1 ⁇ ′ 4 (or K ′ 6 )) "From the coefficient circuit 5 0" (1 - K '4 (or kappa' 6)) "and output” (1 - kappa 2) "from the coefficient circuit 5 4" (1 one kappa 2) "output and is given, - outputs "(1 one ⁇ 2) ⁇ (1 K ' 4 ( or K' 6)).” "1 one (1 - ⁇ 2) ⁇ ( 1 - K '4 ( or kappa' 6))" operation circuit 5 6
  • the combined output unit 4 4 "1 one (1 - ⁇ 2) ⁇ ( 1 - ⁇ '4 ( or K'6))" is converted to a fraction in a reverse circuit 5 7 an output, the multiplier circuit 5 8
  • the composite video signal V is obtained by multiplying the sum by the sum output of the adder circuit 59. From combiner 30 to mixer 4
  • the adder circuit 59 is provided with the combined output data S 11 and S 12 of the first and second video signal combiners 41 and 42, and thus the combined video signal V. Is
  • V o ((H OAK 2 + (1- H OA) - ( ⁇ - ⁇ '4 ( or K' 6)) ⁇ ⁇ 2 ⁇ V + (1- ⁇ ⁇ ) ⁇ / 4 ( or K '6) + ⁇ ⁇ -(1- ⁇ 2 ) ⁇ '4
  • the mixed video signal V ' miK ( V ⁇ in the parallel light source mode) and the mixed key signal K' mi K (K "in the parallel light source mode) actually output from the combiner 30 are (8 9) Expression — , (88).
  • the images I and A are the depth information H.
  • the video signals V 2 and V 4 (or V 6 ) representing the first and second images ⁇ and A are key signals K 2 and K ′ 4 ( Or keying processing by ⁇ '6).
  • Depth information of image ⁇ Is depth information H where image 0 is closer to screen 3A than image ⁇ .
  • object video signal priority signal so as to output V 2 H.
  • A (FIG. 20 (D)) is generated in the priority signal generation circuit 48.
  • the output range W 1 and Shah de Ubideo signal V 4 in the range of W 3 have the depth information H s closer image 0 to disk rie down surface 3 A (or V 6)
  • the priority signal to perform is calculated as (11- H0A ) (Fig. 20 (E)).
  • the object video in the high priority ranges W2 and W4 of the object video 0, the object video is projected on the screen surface 3A and the shadow video A is displayed.
  • the shadow image A is displayed on the screen surface 3A.
  • the priority signal generating circuit 48 is configured as shown in FIG.
  • Obujeku preparative video signal V 2 and Shah Doubideo signal is input No. V 4 (or V 6 ) depth information H.
  • H s (FIG. 23 (A)) are received by a subtraction circuit 65, and the subtraction output S 21 (2H.1 H s ) (FIG. 23 (B)) is applied to a multiplication circuit 66.
  • the limiter 68 limits the value of the multiplication output S 23 to a range of +0.5 0.5 as shown in FIG. 23 (C), and thus the difference of the depth information.
  • the limiter output S24 is ( I. H A ) Gives the value of G.
  • the priority signal generation circuit 48 outputs the priority signal H 0A whose value switches in the range of 1 to 0.
  • the priority signal H 0A is the depth information H of the first and second video images A and A.
  • Hs the slope varies according to the magnitude of the difference.
  • the priority signal H 0A does not suddenly switch to 1 to 0 (or 0 to 1). Images 0 and A are seen through so that they overlap each other (Fig. 20 (G)). In other words, Since image ⁇ and image A are mixed and displayed, image 0 and image A
  • the mixing ratio of the image I and the image I gradually changes, so that a display without discomfort can be performed.
  • the width of the boundary area and the way of changing the image can be adjusted to the extent required by the operator by adjusting the value of the gain output S22 of the gain register 67.
  • the combiner 22 is a depth information synthesis circuit with a NAM mix circuit configuration.
  • the composite depth information H is selected by selecting depth information of the images I and A (representing the position of the image closer to the screen surface 3A). As the ZH S sent from the co Nbaina 2 2.
  • a mixed video signal (V ' mi ⁇ in point light source mode, V ⁇ mi ⁇ in parallel light source mode) and a mixed key signal (K' mix in point light source mode) In the parallel light source mode, K ⁇ mi )) is expressed by the above-mentioned equations (89) and (88), respectively.
  • V OUT ⁇ ' MI K V MIK + (1 — K') V BK
  • V OUT V MIford+ ( ⁇ — ⁇ ') V BK
  • the real shadow generator 50 controls the gain of the output real shadow signal (K'4 in the point light source mode, '6' in the parallel light source mode).
  • K'4 the gain of the output real shadow signal
  • V. UT ⁇ H OA 2 + (1-H OA) K 2 ⁇ V 2
  • V "OUT ⁇ H o AK 2 + (1-H OA) K 2 ⁇ V 2
  • V OUT H OAK 2 V 2 + ⁇ (1— H. A ) + H 0A (1-K 2 ) ⁇ V 4
  • both the point light source mode and the parallel light source mode are parts other than H 0AK 2 V 2 GMBH
  • Doubideo signal (V 4 or V 6) are output 1 0 ⁇ %.
  • the shadow video signal is black on the tube and surface, and in this case it will be dark black and projected on the monitor screen.
  • the operator operates a three-dimensional pointing device, keys, and the like provided on the control panel 5 to calculate a read address used in the special effect device of the present invention. Enter each parameter to be set.
  • the necessary parameter menu over data to the calculation of the read add-less, Pasupeku te I blanking value [rho Zeta, X s axis of shadow coordinate system, the rotation of each of the Y s axis and Z s axis Angles ⁇ x , 0 ⁇ , ⁇ z), the origin of the shadow coordinate system (x s , y so, z so), the type of light source indicating whether it is a parallel light source or a point light source, and the position of the light source is ( ⁇ ⁇ _, y L, z L) or (r, ⁇ , ⁇ ) and the like.
  • the CPU 8 receives these information from the control panel 5.
  • the parameters are received and read in real time and reflected in the calculation of the address.
  • the CPU 8 monitors a change in a parameter supplied from the control panel 5 at a frame cycle, and calculates a read address based on the supplied parameter. Because of the parameters (bubc ⁇ , b, ⁇ b 33 ') are calculated in the frame cycle. Therefore, these parameters can be changed in real time in the frame period according to the operation of the operator, and can be read out in real time according to the changed parameters.
  • the address is calculated.
  • the CPU 8 can also store these parameters in the RAM 7 for each frame as set values.
  • the monitor screen 3 displays the source video signal V. Is displayed.
  • the operator operates the three-dimensional pointing device provided on the control panel 5 to generate the source video signal V.
  • Command 3D image conversion operation When a three-dimensional image conversion is instructed by the operator, the CPU 8 generates a three-dimensional conversion matrix T specified by the operator. Is the parameter one another, r ⁇ r 33, i ⁇ ., The z and s receiving co emission control panel 5 or al, reflects these parameters Ichita the operation of reading add-less in Li Alta Lee beam Let it. Specifically, the CPU 8 monitors a change in these parameters supplied from the control panel 5 at a frame cycle, and reads a read address based on the supplied parameters. Parameters for counting (bub aa, b, ⁇ b
  • the read address generation circuit 14 of the object signal generation unit 10 is configured as follows. ? 11 11 Receives the parameters 1 1 1 to 1) 33 from 8 and receives the screen address (X s , Y s) from the screen address generation circuit 9 and obtains the equation (13) and based on the (1 4), Obuji two click preparative signal read add-less (chi Micromax, Upsilon ”) to be generated in the frame period.
  • the generated read address (chi Micromax, Upsilon Micromax) is Frame memory for video signal 12 and frame memory for key signal
  • the object video signal V 2 is outputted from the frame memory 12, and the object key signal ⁇ 2 is outputted from the frame memory 13.
  • the read address generation circuit 24 of the shadow signal generation section 20 receives the parameters b and -b 33 ′ from the CPU 8 and receives the parameters from the screen address generation circuit 9.
  • receiving a rie N'a dress (X s, Ys), based on the formula (5 8) and (5 9) the read address (X M ', Y M' ) full rate-time cycle for shadow signal Generated by
  • the generated read addresses ( ⁇ ⁇ ′, ⁇ personally′) are supplied to the frame memory 22 for the video signal and the frame memory 23 for the key signal, respectively.
  • the frame memory 22 outputs the shadow video signal V 4
  • the frame memory 23 outputs the shadow key signal ⁇ 4. Is forced.
  • the shadow signal output from the gain control circuit 500 is horizontal
  • LPF 501 is then input to the vertical LPF 502.
  • Li Arusha dough controller 5 0 3 based on the value of H s used as depth information in the present embodiment to be input is stored in the R ⁇ Micromax 5 0 4 of Riarusha dough controller 5 0 3, from a table consisting of H s and off I filter coefficient data (see Fig. 1 9 C) issued reads the corresponding filter coefficient data and supplies the full I filter coefficient data in the horizontal LPF 5 0 1.
  • the horizontal LPF 501 multiplies the input shadow key signal by the filter coefficient data from the real shadow controller 503 and outputs the result.
  • Li Arusha dough controller 5 0 3 is based on the H s input, are stored in the R 0 M 5 0 4 of Li Arusha dough controller 5 ⁇ 3, H s and off I filter coefficients
  • the corresponding filter coefficient data is read from the table including the data (see FIG. 19C), and the read filter coefficient data is supplied to the vertical LPF 502.
  • the vertical PF 502 multiplies the shadow signal from the horizontal LPF 501 by the filter coefficient data read from the real shadow controller 503, and finally the real shadow generator 5 and outputs 0 real Shah synchronization - signal K '4 and to outputs. Therefore, as shown in FIG.
  • the data of the shadow S near object 0 is Since the filter coefficient data multiplied by the object ⁇ ⁇ becomes larger, the contour becomes clear. Then, as the distance from the object increases, the value of the filter coefficient data to be multiplied becomes smaller, so that the data of the shadow S gradually becomes less contoured (blurred).
  • the contour cannot be shown to be gradually blurred on the drawing, the shadow is gradually blurred as it moves away from the object.
  • Co Nbaina 3 when the object signal generation unit 1 0 receives the old Bujiwe click preparative video signal V 2 and Obujiweku Toki first signal K 2 together, shea catcher du signal generator 2 0 from Shah Doubideo signal V 4 ⁇ beauty It receives the real signal K 4 ′ and generates a mixed video signal V mix ′ and a mixed key signal K mi K ′ based on the equation (a).
  • the mixer 40 includes an externally supplied background video signal V BK and a mixed video signal V mi spiritsoutput from the combiner 30.
  • CPU 8 is supplied from copolyesters emissions collected by filtration Rupaneru 5 Changes in these parameters are monitored in real time in the frame cycle. And a parameter (! For calculating the read address based on the supplied parameters! , ⁇ ! ⁇ , B, -b 33 ') are calculated at the frame period. Therefore, these parameters can be changed in real time in the frame cycle in accordance with the operation of the operator, and the read out data can be read out in real time in accordance with the changed parameters. The address is calculated.
  • CPU 8 receives the parameters! ",! ⁇ ! ⁇ Calculates each parameter b ⁇ ⁇ ⁇ ⁇ 33 of the three-dimensional conversion matrix T 33 — 1 represented by equation (8) based on 33 , ⁇ . Specifically, equation (2 8) to formula (3 7), Bruno,. ra Ichita ⁇ ⁇ ⁇ ⁇ 33, by substituting " ⁇ ⁇ . iz and s, Bruno. Lame one! Can be obtained. Also, the CPU 8 receives the three-dimensional conversion matrix T. Para menu over data r,, ⁇ r 33, i X. Si ⁇ . SL z. S, and parameters x about Shah de coordinates, 0 ⁇ , ⁇ z, X s. , Y s .
  • the generated read add-less ( ⁇ ⁇ , ⁇ ⁇ ) is off Remume mode for full Remume mode Li 1 2 and the key signal for bi de O signals Are supplied to the memory 13 respectively.
  • an object video signal V 2 is output from the frame memory 12, and an object video signal K 2 is output from the frame memory 13.
  • the shadow signal output from the gain control circuit 500 is input to the horizontal LPF 501 and then to the vertical LPF 502.
  • Riarusha dough controller 5 0 3 based on the value of H s which need use as depthwise information in this embodiment to be input, stored in the R 0 Micromax 5 0 4 of Li Arusha dough controller 5 0 3 are, from Ruteichi Bull such from H s and the filter coefficient data (see Fig. 1 9 C) corresponding filter coefficient data Read and supply this filter coefficient data to the horizontal LPF 501.
  • the horizontal LPF 501 multiplies the input shadow key signal by the filter coefficient data from the real shadow controller 503 and outputs the result.
  • Li Arusha de controller 5 0 3 based on the H s input, re Arusha dough controller 5 0 3 R ⁇ M 5 0 4, the stored, H s and off I filter
  • the corresponding filter coefficient data is read from the table including the coefficient data (see Fig. 19C), and the read filter coefficient data is supplied to the vertical LPF 502.
  • the vertical LPF 502 multiplies the shadow key signal from the horizontal LPF 501 by the filter coefficient data read from the real shadow controller 503, and finally the rear shadow generator 5 output as Li Arusha Douki signal K '6 to output Y. Therefore, as shown in FIG. 19 (1), the contour of the shadow S data in the vicinity of the object becomes sharp because the filter coefficient data multiplied by the object becomes large. Then, as the distance from the object 0 increases, the value of the filter coefficient data to be multiplied becomes smaller, so that the data of the shadow S gradually becomes unsharpened (blurred).
  • the contour cannot be shown as gradually blurring in the drawing, the shadow gradually blurs as it moves away from the object.
  • the combiner 30 receives the object video signal V 2 and the object key signal K 2 from the object signal generator 10, and also receives the shadow video signal V 6 and the real signal from the shadow signal generator 20. It receives the dowkey signal K 6 ′ and generates a mixed video signal V middy ⁇ and a mixed key signal K mi K ′′ based on equation (b).
  • the mixer 40 outputs a background video signal V BK supplied from the outside and a mixed video signal V mi K * output from the combiner 30. And the mixed key signal K mi K ′, and generates an output video signal V 0 UT ”based on the equation (d).
  • a gain characteristic according to the depth information is controlled, and a filtering characteristic according to the depth information is controlled, so that a shadow for a more current object is generated, and an image of the shadow is generated.
  • the object image and the package image are combined with each other, so with a simple configuration and simple processing, an object image that aims at a more realistic shadow according to the distance from the object image can be created at high speed. This has the effect that it can be added.
  • the image special effect device for the object and the shadow can be used to create a more realistic shadow by a simple operation without forming a desired image by a separate operation. Can be synthesized.
  • the special effect device of the present invention can be used in a case where a special effect image is generated in a broadcast station image processing device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)

Abstract

A shadow closer to reality is added to an object image with a high speed with a simple construction and simple processings. A shadow video signal V4 and a shadow key signal K4 are generated by a shadow signal generating unit (20) and the shadow key signal K4 is inputted to a real shadow signal generator (50), which generates a real shadow key by which a more realistic shadow is generated.

Description

明 細 書  Specification

特殊効果装置及び特殊効果方法 技術分野  Special effect device and special effect method

本発明は、 画像処理装置に関し、 特に 3次元的に画像変換され たォブジ ク ト ビデオ信号に対して適切なシャ ドウをつけること によつて立体感を得る特殊効果装置に関するものである。 背景技術  The present invention relates to an image processing device, and more particularly to a special effect device that obtains a three-dimensional effect by applying an appropriate shadow to an object video signal that is three-dimensionally image-converted. Background art

映像特殊効果装置と しては、 例えば図 1 に示すようなものがあ る。 図 1 Aは、 映像特殊効果装置の効果の 1つを示す説明図、 図 1 Bは、 このような効果を実現することができる映像特殊効果装 置の構成図である。  An example of a special video effect device is shown in Fig. 1. FIG. 1A is an explanatory diagram showing one of the effects of the video special effect device, and FIG. 1B is a configuration diagram of a video special effect device capable of realizing such effects.

図 1 Aに示すように、 図 1 Bに示される映像特殊効果装置は、 ォブジヱク ト 〇から疑似的な影 I Sを生成し、 ォブジヱク ト 0と 疑似的な影 I Sとを合成するものである。 こ こで、 オブジェク ト とは特殊効果を施す処理対象の映像のことであり、 オブジェク ト 映像信号とは特殊効果の処理対象となる映像信号のことである。  As shown in FIG. 1A, the video special effect device shown in FIG. 1B generates a pseudo shadow IS from an object, and combines the object 0 and the pseudo shadow IS. Here, the object is a video to be processed to apply a special effect, and the object video signal is a video signal to be processed by the special effect.

図 1 Bに示される映像特殊効果装置は、 入力端子 1 0 3を介し て供給されるバッ クグラ ン ド信号 B Gから入力端子 1 0 1を介し て供給されるキー信号 Kを減じ、 この演算結果に入力端子 1 0 0 を介して供給される映像信号 V i を加える混合回路 1 0 2 と、 入 力端子 1 0 1 を介して供給されるキ一信号 Kを記憶するメモリ 1 0 4 と、 このメ モ リ 1 0 4上に記憶されるキー信号 Kを X , Y方 向のア ド レス操作によりその位置を変えさせて疑似影信号 I Sを 生成する操作部 1 0 5 と、 メ モ リ 1 0 4から疑似影信号 I Sから 、 疑似影信号 I Sと入力端子 1 0 1を介して供給されるキ一信号 Kとの重なる部分を減ずるォ一バーァンダ一回路 1 0 6 と、 混合 回路 1 0 2からの混合信号 M I Xから、 オーバ一ア ンダー回路 1The video special effect device shown in FIG. 1B subtracts the key signal K supplied via the input terminal 101 from the background signal BG supplied via the input terminal 103, and calculates the result of this operation. A mixing circuit 102 for adding a video signal V i supplied via an input terminal 100 to the input terminal 100; a memory 104 for storing a key signal K supplied via an input terminal 101; An operation unit 105 for generating a pseudo-shadow signal IS by changing the position of the key signal K stored in the memory 104 by operating an address in the X and Y directions; From 104 the pseudo shadow signal IS is mixed with an over-verter one circuit 106 that reduces the overlapping part of the pseudo shadow signal IS and the key signal K supplied via the input terminal 101. From the mixed signal MIX from the circuit 102, the overunder circuit 1

0 6からのオーバーアンダー処理済み出力 K Z I Sを減じ、 この 減算結果に入力端子 1 0 8を介して供給されるカラーマツ ト信号 を加え、 出力端子 1 0 9からの出力信号 O U Tとして出力する混 合回路 1 0 7 とで構成される。 、 A mixing circuit that subtracts the over-under processed output KZIS from 06, adds the color matte signal supplied via the input terminal 108 to the subtraction result, and outputs the result as the output signal OUT from the output terminal 109. It consists of 107. ,

次に、 図 1 Aを参照して、 図 1 Bに示される映像特殊効果装置 の動作について説明する。  Next, the operation of the video special effect device shown in FIG. 1B will be described with reference to FIG. 1A.

入力端子 1 0 0を介して、 オブジェク ト映像信号 V i が供給さ れる。 これは、 図 1 Aに示すォブジヱク ト 0に対応する。 入力端 子 1 0 1を介して供給されるキー信号 Kは、 オブジェク ト映像信 号 V i をキ一ィ ングするためのキ一信号 Kである。 混合回路 1 0 2 は、 バッ クグラ ン ド信号 B Gからキ一信号 Kに相当する信号を 減じ、 その位置にオブジェク ト映像信号 V i を加え、 混合信号 M An object video signal V i is supplied via an input terminal 100. This corresponds to object 0 shown in FIG. 1A. The key signal K supplied via the input terminal 101 is a key signal K for keying the object video signal Vi. The mixing circuit 102 subtracts the signal corresponding to the key signal K from the background signal BG, adds the object video signal Vi to the position, and adds the mixed signal M

1 Xを生成する。 Generate 1 X.

一方、 入力端子 1 0 1を介して供給されるキー信号 Kは、 メ モ リ 1 0 4に供給される。  On the other hand, the key signal K supplied through the input terminal 101 is supplied to the memory 104.

操作部 1 0 5より、 X及び Y方向のア ドレスが変更されると、 操作部 1 0 5は、 メ モ リ 1 0 4におけるキー信号 Kの位置を変更 する。 キー信号 Kはメ モ リ 1 0 4から読み出され、 疑似影信号 I Sと してォ一バ一ア ンダー回路 1 0 6に供給される。 こ こで、 疑 似影信号 I Sの画面は、 図 1 Aに示す疑似的な影 Iがオブジェク ト 0によつて隠れていない画像となる。 ォ一バ一ァンダ一回路 1 0 6にはキ一信号 K及び疑似影信号 I Sが供給される。 オーバー ァンダー回路 1 0 6は、 疑似影信号 I Sからキ一信号と疑似影信 号 I Sとの重なる部分だけを減ずる。 オーバーアンダー回路 1 0 When the addresses in the X and Y directions are changed by the operation unit 105, the operation unit 105 changes the position of the key signal K in the memory 104. The key signal K is read from the memory 104 and is supplied to the over-under circuit 106 as a pseudo shadow signal IS. Here, the screen of the pseudo shadow signal IS is an image in which the pseudo shadow I shown in FIG. 1A is not hidden by the object 0. The keyer signal K and the pseudo-shade signal IS are supplied to the inverter circuit 106. The overunder circuit 106 subtracts only the overlapping portion of the key signal and the pseudo shadow signal IS from the pseudo shadow signal IS. Over-under circuit 1 0

6からのオーバーァンダ一処理出力 K Z I Sは、 図 1 Aに示す疑 似的な影 I Sに相当する。 The overhander processing output KZIS from 6 corresponds to the pseudo shadow IS shown in FIG. 1A.

オーバー Zァンダー処理出力 K Z I S及び混合信号 M I Xは、 夫々混合回路 1 0 7 に供給される。 混合回路 1 0 7においては、 混合回路 1 0 2からの混合信号 M I Xから、 オーバー Zア ンダー 回路 1 0 6からのオーバー Zア ンダー処理出力 K Z I Sが減じら れ、 この減算結果に入力端子 1 0 8を介して供給される力 ラーマ ッ ト信号が加えられ、 この加算結果が出力信号〇 U T して出力 端子 1 0 9から出力される。 この出力信号は図 1 Aに示す画像全 てである。 Over-Znder processing output KZIS and mixed signal MIX are Each is supplied to the mixing circuit 107. In the mixing circuit 107, the over-Z under-processing output KZIS from the over-Z under-circuit 106 is subtracted from the mixed signal MIX from the mixing circuit 102, and the input terminal 10 The power cutout signal supplied via 8 is added, and the addition result is output from the output terminal 109 as an output signal 〇UT. This output signal is the entire image shown in FIG. 1A.

ところで、 図 1 Aに示す疑似的な影 I は単にォブジエタ ト 〇か ら生成したキ一信号をずらしただけのものである。 つまり、 図 1 Aに示す疑似的な影付きの画像は、 2次元的な画像である。 従つ て、 現実の影により近づけるためには、 3次元的な画像とする必 要がある。 この場合、 オブジェク トに対して回転した影を生成し 、 オブジェク ト とこの影を合成する必要がある。 このためには、 オブジェク ト用の映像特殊効果装置、 影用の映像特殊効果装置を 夫々 1台ずつ用意し、 ォブジヱク ト及び影の夫々の回転軸を変え てから合成する必要がある。 この場合に、 要求されるオペレーシ ョ ン技術は、 別々の映像特殊効果装置で生成した画像の合成であ るから、 非常に高度なものとなる。  By the way, the pseudo shadow I shown in Fig. 1A is simply a shift of the key signal generated from the object 〇. That is, the pseudo-shaded image shown in FIG. 1A is a two-dimensional image. Therefore, in order to get closer to the actual shadow, it is necessary to use a three-dimensional image. In this case, it is necessary to generate a rotated shadow for the object and combine the shadow with the object. For this purpose, it is necessary to prepare one video special effect device for the object and one video special effect device for the shadow, and change the rotation axes of the object and the shadow before combining. In this case, the required operation technology is very advanced because it is the synthesis of images generated by different video special effect devices.

更に、 現実の影はォブジニク トからの距離が遠く なればなるほ ど、 影の輪郭がボケ、 且つ影の色が薄く なる。 従って、 現実の影 と同じような影を特殊効果により付加したいといった要望を満足 させるためには、 ォブジェク 卜からの距離に応じた処理を行わな ければならない。 しかしながら、 現時点においては映像特殊効果 装置でこのような処理を簡単に行う ことは非常に困難である。 勿 論、 3 ン ピュ ータグラ フ ィ ッ ク スの技術を用いれば、 現実の影に 非常に近い影の画像を生成することは可能である。 しかしながら 、 コ ン ピュータグラ フ ィ ッ ク スは 1枚の画像の生成に膨大な時間 が費やされる。 従って、 コ ン ピュータグラフィ ックスを用いて放 送及びォ一サ リ ング等のような間断無く入力される画像の処理を 行う ことはほとんど不可能である。 発明の開示 Furthermore, the longer the distance of the real shadow from the object is, the blurred the outline of the shadow becomes and the lighter the color of the shadow becomes. Therefore, in order to satisfy the desire to add a shadow similar to a real shadow by a special effect, processing corresponding to the distance from the object must be performed. However, at present, it is extremely difficult to perform such processing easily with a special video effect device. Of course, it is possible to generate an image of a shadow that is very close to the real shadow by using the technology of 3-computer graphics. However, computer graphics take an enormous amount of time to generate a single image. Therefore, it can be released using computer graphics. It is almost impossible to process images that are input without interruption, such as transmission and briefing. Disclosure of the invention

この発明の特殊効果装置は、 ビデオ信号が示す物体 該物体に 対する影とに対して特殊効果処理を施す特殊効果装置において、 物体の影の画像の利得を制御する利得制御手段と、 上記影の画像 を濾波する濾波手段と、 上記影の奥行情報に応じて上記利得制御 手段の利得を制御するとともに、 上記影の奥行情報に応じて上記 濾波手段の濾波特性を制御する制御手段と、 上記制御手段により 制御されて出力される上記物体の影の画像と、 上記物体の画像と 、 上記物体の背景となる画像とを合成する合成手段と、 を有する ものである。  A special effect device according to the present invention is a special effect device for performing a special effect process on an object indicated by a video signal and a shadow on the object, wherein the gain control means controls a gain of an image of a shadow of the object; Filtering means for filtering the image, control means for controlling the gain of the gain control means in accordance with the shadow depth information, and controlling the filtering characteristics of the filtering means in accordance with the shadow depth information; and Means for synthesizing an image of the shadow of the object controlled and output by the means, an image of the object, and an image serving as a background of the object.

この発明の特殊効果装置は、 上記制御手段は、 上記奥行情報に 応じた利得特性データと、 濾波特性データとが記憶された記憶手 段を有し、 上記制御手段は、 上記記憶手段に記憶された利得特性 データに応じて上記利得制御手段の利得を制御するとともに上記 記憶手段に記憶された濾波特性データに応じて上記濾波手段の瀘 波特性を制御するものである。  In the special effect device according to the present invention, the control means has a storage means for storing gain characteristic data according to the depth information and filtering characteristic data, and the control means is stored in the storage means. The gain of the gain control means is controlled in accordance with the gain characteristic data, and the filtering characteristic of the filtering means is controlled in accordance with the filtering characteristic data stored in the storage means.

この発明の特殊効果装置は、 上記濾波手段は、 ロ ーパス フ ィ ル 夕から構成されているものである。  In the special effect device according to the present invention, the filtering means includes a low-pass filter.

この発明の特殊効果装置は、 入力されるソ ースビデオ信号に対 して特殊効果処理を施す特殊効果装置において、 上記ソ—スビデ ォ信号に対して第 1 の画像変換処理を行い目的画像を示すォブジ ェク 信号を生成するォブジェク ト信号生成手段と、 上記ソ一ス ビデオ信号に対して第 2の画像変換処理を行い上記目的画像に対 応するシャ ドウ信号を生成するシャ ドウ信号生成手段と、 上記ォ ブジェク ト信号生成手段から出力されるォブジェク ト信号と、 上 記シャ ドウ ビデォ信号生成部から出力される シャ ドウ信号とが入 力されて、 上記オブジェク ト信号と上記シャ ドウ信号と、 上記ソ —スビデオ信号に対応するバッ クグラゥ ンド信号とを合成して出 力ビデオ信号を出力する合成手段とを備え、 上記シャ ドウ信号生 成手段には、 上記ソースビデオ信号に対応する上記シャ、ドウ信号 に対して利得を制御する利得制御手段と、 上記シャ ドウ信号を濾 波する瀘波手设と、 上記シャ ドウ信号に対応する奥行き情報を生 成する奥行き情報生成手段と、 該奥行き情報生成手段からの奥行 き情報に基づいて上記利得制御手段の利得を制御するとともに該 奧行き情報に基づいて上記濾波手段の濾波特性を制御する制御芋 段とを有するものである。 A special effect device according to the present invention is a special effect device for performing a special effect process on an input source video signal. The special effect device performs a first image conversion process on the source video signal to indicate an object image. Object signal generating means for generating a shadow signal; and shadow signal generating means for performing a second image conversion process on the source video signal to generate a shadow signal corresponding to the target image. An object signal output from the object signal generating means; The shadow signal output from the shadow video signal generation unit is input, and the object signal, the shadow signal, and the background signal corresponding to the source video signal are combined and output. Synthesizing means for outputting an output video signal, wherein the shadow signal generating means includes: gain control means for controlling a gain of the shadow and dough signals corresponding to the source video signal; and the shadow signal , A depth information generating means for generating depth information corresponding to the shadow signal, and a gain of the gain control means based on the depth information from the depth information generating means. And a control stage for controlling the filtering characteristics of the filtering means based on the depth information.

この発明の特殊効果装置は、 上記シャ ドウ信号生成手段に入力 されるシャ ドウ信号は、 上記利得制御手段に入力されて利得が制 御されたシャ ドウ信号と して出力され、 該利得が制御されたシャ ドゥ信号は上記瀘波手段に入力されて濾波されて上記濾波手段か らシャ ドウ信号と して出力されるものである。  In the special effect device according to the present invention, the shadow signal input to the shadow signal generating means is output to the gain control means as a shadow signal whose gain is controlled, and the gain is controlled. The shadow signal thus input is input to the filtering means, is filtered, and is output from the filtering means as a shadow signal.

この発明の特殊効果装置は、 上記瀘波手段は、 ロ ーパスフ ィ ル 夕から構成されているものである。  In the special effect device according to the present invention, the filtering means includes a low-pass filter.

この発明の特殊効果装置は、 上記制御手段は、 上記奥行き情報 生成手段からの上記奥行き情報に応じた利得特性データと瀘波特 性データの記憶された記憶手段を有し、 該利得特性データと該濾 波特性データとを該記憶手段から上記奥行き情報に応じてそれぞ れ上記利得制御手段と上記濾波手段に供給するものである。  In the special effect device according to the present invention, the control means has storage means for storing gain characteristic data and filtering characteristic data corresponding to the depth information from the depth information generating means, The filtering characteristic data is supplied from the storage means to the gain control means and the filtering means in accordance with the depth information, respectively.

この発明の特殊効果装置は、 上記オブジェク ト信号生成手段に は、 入力される上記ソ ースビデオ信号を記憶する記憶手段と、 該 記憶手段に記憶された上記ソ一スビデオ信号を所定の単位で読み 出せるよう読出しァ ド レスを発生する読出しァ ド レス発生手段と を有し、 上記第 1の画像変換処理は上記読出しア ド レスによって 上記メモ リ手段から読み出された上記ォブジ ク ト ビデオ信号が 目的画像となって処理されるものである。 In the special effect device according to the present invention, the object signal generating means may include a storage means for storing the input source video signal, and the source video signal stored in the storage means may be read out in a predetermined unit. Read address generating means for generating a read address, wherein the first image conversion process is performed by the read address. The object video signal read from the memory means is processed as a target image.

この発明の特殊効果装置は、 上記シャ ドウビデオ信号生成手段 には、 入力される上記ソ ースビデオ信号を記憶する記憶手段と、 上記記憶手段に記憶された上記ソ ースビデオ信号を所定の単位で 読み出す読出しァ ドレスを発生する読出しァ ド レス発生手段とを 有し、 上記第 2の画像変換処理は上記読出しア ド レスによって上 記メ モ リ手段から読み出された上記シャ ドウドデ才信号が上記目 的画像に対応するシャ ドウ信号として出力されるよう処理される ものである。  In the special effect device according to the present invention, the shadow video signal generation means includes a storage means for storing the input source video signal, and a readout unit for reading the source video signal stored in the storage means in a predetermined unit. A read address generating means for generating a dress, and wherein the second image conversion processing is such that the shadow signal read from the memory means by the read address is used as the target image. Is processed to be output as a shadow signal corresponding to.

この発明の特殊効果装置は、 上記合成手段は、 上記ォブジェク ト信号生成手段からの上記ォブジ ク ト信号と上記シャ ドウ信号 生成手段から上記シャ ドウ信号とが入力されて、 入力される上記 各信号を合成して混合信号を出力する第 1 の合成手段と、 上記混 合手段と上記バッ クグラ ン ド信号とが入力されて、 出力ビデオ信 号を出力する第 2の合成手段からなるものである。  In the special effect device according to the present invention, the synthesizing unit may be configured to receive the object signal from the object signal generating unit and the shadow signal from the shadow signal generating unit, and to input each of the signals. And a second synthesizing unit that receives the mixing unit and the background signal and outputs an output video signal. .

この発明の特殊効果装置は、 入力されるソースビデオ信号と該 ソ ース ビデォ信号に対応するソ ースキー信号とに対して特殊効果 処理を施す特殊効果装置において、 上記ソース ビデオ信号と上記 ソ ースキー信号とが入力されて、 第 1の画像変換処理を行い目的 画像を示すォブジヱク ト ビデォ信号とォブジヱク トキ一信号とを 生成するオブジェク ト信号生成手段と、 上記ソ ースビデオ信号と 上記ソ ースキー信号とが入力されて、 第 2 の画像変換処理を行い 上記目的画像に対応するシャ ドゥビデオ信号と リ アルシャ ドウキ 一信号を生成するシャ ドウ信号生成手段と、 上記オブジェク ト信 号生成手段から出力されるオブジェク ト ビデオ信号とォブジュク トキ一信号とが入力されるとともに、 上記シャ ドウ信号生成手段 からの上記シャ ドウビデオ信号と上記リ アルシャ ドウキ一信号と が入力され、 さ らに上記ソ一スビデオ信号に対応するバッ クグラ ゥ ン ド信号とが入力されて、 入力された上記各信号を合成して出 力ビデオ信号を生成して出力する合成手段と、 を有し、 上記シャ ドゥ信号生成手段には、 入力される上記ソ一スキー信号に対し上 記目的画像に対応する シャ ドウキー信号を生成する シャ ドウキ一 信号生成手段と、 該シャ ドウキー信号生成手段から出力されるシ ャ ドウキー信号に対し利得を制御する利得制御手段と、 上記シャ ドウキー信号を濾波する濾波手段と、 上記シャ ドウ信号に対応す る奥行き情報を生成する奥行き情報生成手段と、 該奥行き情報生 成手段からの該奥行き情報に基づいて上記利得制御手段の利得を 制御するとともに該奥行き情報に基づいて上記濾波手段の濾波特 性を制御する制御手段とを有するものである。 The special effects device according to the present invention is a special effects device for performing special effects processing on an input source video signal and a source key signal corresponding to the source video signal. , An object signal generating means for performing a first image conversion process to generate an object video signal and an object key signal indicating a target image, and the source video signal and the source key signal are input. Then, a shadow signal generating means for performing a second image conversion process to generate a shadow video signal and a real shadow signal corresponding to the target image, and an object output from the object signal generating means The video signal and the object signal are input and the shadow signal generating means The shadow video signal and the real shadow signal Synthesizing means for inputting a background signal corresponding to the source video signal, synthesizing the input signals, generating an output video signal, and outputting the output video signal. Wherein the shadow signal generating means includes: a shadow key signal generating means for generating a shadow key signal corresponding to the target image with respect to the input so-called ski key signal; and the shadow key signal generating means. Gain control means for controlling the gain of the shadow key signal output from the means, filtering means for filtering the shadow key signal, depth information generating means for generating depth information corresponding to the shadow signal, The gain of the gain control means is controlled based on the depth information from the depth information generating means, and the filtering characteristic of the filtering means is controlled based on the depth information. And control means for performing the operation.

この発明の特殊効果装置は、 上記濾波手段は、 ロ ーパス フ ィ ル 夕から構成されているものである。  In the special effect device according to the present invention, the filtering means includes a low-pass filter.

この発明の特殊効果装置は、 上記シャ ドウ信号生成手段の上記 シャ ドウキー信号生成手段から出力されるシャ ドウキー信号は、 上記利得制御手段で利得が制御されたシャ ドウキー信号として出 力され、 利得が制御されたシャ ドウキー信号は上記濾波手段に入 力されて、 瀘波特性が制御されてリ アルシャ ドウキ一信号として 出力されるものである。  In the special effect device according to the present invention, the shadow key signal output from the shadow key signal generation means of the shadow signal generation means is output as a shadow key signal whose gain is controlled by the gain control means, and The controlled shadow key signal is inputted to the above-mentioned filtering means, and the filtering characteristic is controlled and outputted as a real shadow signal.

この発明の特殊効果装置は、 上記シャ ドウ信号発生部の上記制 御手段は、 上記奥行き情報生成手段からの上記奥行き情報に応じ た利得特性データと濾波特性データとが記憶された記憶手段を有 し、 該利得特性データと該濾波特性データとを上記奥行き情報に 応じ tそれぞれ上記利得制御手段と上記濾波手段に供給するもの でめる。  In the special effect device according to the present invention, the control means of the shadow signal generator has storage means for storing gain characteristic data and filtering characteristic data corresponding to the depth information from the depth information generating means. Then, the gain characteristic data and the filtering characteristic data are supplied to the gain control means and the filtering means, respectively, in accordance with the depth information.

この発明の特殊効果装置は、 上記合成手段は、 上記ォブジェク ト信号生成手段からの上記ォブジェク トビデオ信号と上記ォブジ ク トキ一信号とが入力されるとともに、 上記シャ ドゥ信号生成 手段からの上記シャ ドウビデオ信号と上記リ アルシャ ドウキ一信 号とが入力されて、 入力される上記各信号を合成して混合ビデオ 信号と混合キー信号を生成する第 1の合成手段と、 上記第 1 の合 成手段からの混合ビデオ信号と混合キー信号及び上記バックグラ ゥ ン ド信号とが入力されて上記出力ビデオ信号を生成する第 2の 合成手段とを有するものである。 In the special effect device according to the present invention, the synthesizing means may include the object video signal from the object signal generating means and the object video signal. In addition to the input of the cutout signal, the shadow video signal from the shadow signal generating means and the real shadow signal are input, and the input signals are combined to produce a mixed video signal. First synthesizing means for generating the mixed video signal, the mixed key signal and the background signal from the first synthesizing means, and generating the output video signal. And 2 combining means.

この発明の特殊効果装置は、 上記ォブジェク ト信号生成手段に は、 上記ソ 一スビデオ信号を記憶するための第 1 のメ モ リ手段と 上記ソ 一スキー信号を記憶するための第 2のメ モ リ手段と、 上記 第 1のメ モ リ手段と上記第 2のメ モ リ手段とにそれぞれ記憶され た上記ソ一スビデオ信号と上記ソ一スキー信号とを上記それぞれ のメ モ リ手段から読み出すための読出しァ ド レスを発生して上記 第 1のメ モ リ手段と上記第 2のメ モ リ手段とに該読出しア ド レス を供給する読出しア ド レス発生手段とを有し、 上記第 1の画像変 換処理は上記読出しァ ドレスによって上記第 1 のメ モ リ手段と上 記第 2のメ モ リ手段とから読み出されたそれぞれ上記ォブジェク ト ビデオ信号と上記ォブジュク トキー信号とが上記目的画像とし て出力されるものである。  In the special effect device according to the present invention, the object signal generating means may include first memory means for storing the source video signal and second memory means for storing the source key signal. The source video signal and the source key signal stored in the first memory means and the second memory means, respectively, from the respective memory means. Read address generating means for generating the read address to supply the read address to the first memory means and the second memory means. In the image conversion processing, the object video signal and the object key signal read from the first memory means and the second memory means, respectively, by the read address are used for the above purpose. Appear as an image It is intended to be.

この発明の特殊効果装置は、 上記シャ ドウ信号生成手 I殳には、 上記ソ ースビデオ信号を記憶するための第 3の記憶手段と上記ソ —スキー信号を記憶するための第 4のメモ リ手段と、 上記第 3の メ モ リ手段と上記第 4 のメ モリ手段とにそれぞれ記憶された上記 ソースビデオ信号と上記ソ一スキー信号とを上記それぞれのメモ リ手段から読み出すための読出しァ ド レスを発生して上記第 3の メモ リ手段と上記第 4のメ モ リ手段とに該読出しァ ドレスを供給 する読出しア ドレス発生手段とを有し、 上記第 2の画像変換処理 は、 上記読出しア ド レスによつて上記第 3のメ モ リ手段と上記第 4のメ モ リ手段とからそれぞれ読み出された上記シャ ドウビデオ 信号と上記シャ ドウキー信号が出力されて上記シャ ドウビデオ信 号が上記目的画像に対応するシャ ドウビデオ信号として出力され る処理を行なう ものである。 In the special effect device of the present invention, the shadow signal generating means may include a third storage means for storing the source video signal and a fourth memory means for storing the source key signal. And a read address for reading the source video signal and the source key signal stored in the third memory means and the fourth memory means, respectively, from the respective memory means. And a read address generating means for supplying the read address to the third memory means and the fourth memory means, and the second image conversion processing comprises: The third memory means and the second memory means The above-mentioned shadow video signal and the above-mentioned shadow key signal read out from the memory means 4 are output, and the above-mentioned shadow video signal is output as a shadow video signal corresponding to the above-mentioned target image. is there.

この発明の特殊効果方法は、 入力されるビデオ信号が^す物体 と該物体に対する影とに対して特殊効果処理を施す特殊効果方法 において、 上記物体の影を示す画像の利得を制御する利得ステッ プと、 上記影の画像を瀘波する濾波ステップと、 上記影の奥行き 情報に応じて上記利得ステップの利得を制御するとともに、 上記 影の奥行き情報に応じて上記濾波ステップの瀘波特性を制御する 制御ステップと、 上記制御ステップにより制御されて出力される 上記物体の影の画像と、 上記物体の画像と、 上記物体の背景とな る画像とを合成して出力ビデオ信号を出力する合成ステップとか らなるものである。  The special effect method according to the present invention is a special effect method for performing a special effect process on an object formed by an input video signal and a shadow of the object, wherein a gain step for controlling a gain of an image showing the shadow of the object is provided. A filtering step of filtering the shadow image; controlling the gain of the gain step in accordance with the shadow depth information; and adjusting a filtering characteristic of the filtering step in accordance with the shadow depth information. A control step of controlling; combining the shadow image of the object, which is controlled and output by the control step, the image of the object, and the background image of the object to output an output video signal It consists of steps.

この発明の特殊効果方法は、 上記制御ステップは、 記憶手段に 記憶された上記奥行き情報に応じた利得特性データによって上記 利得ステップで上記利得が制御されるとともに、 上記記憶手段に 記憶された上記奥行き情報に応じた瀘波特性データによって上記 濾波ステップで上記影の画像を瀘波するものである。  In the special effect method according to the present invention, in the control step, the gain is controlled in the gain step by gain characteristic data corresponding to the depth information stored in a storage unit, and the depth stored in the storage unit. In the filtering step, the shadow image is filtered by the filtering characteristic data corresponding to the information.

この発明の特殊効果方法は、 入力されるソースビデオ信号に対 して特殊効果処理を行なう特殊効果方法において、 上記ソース ビ デォ信号に対して第 1の画像変換処理を行って目的画像を示すォ ブジヱク ト信号を生成するォブジヱク ト信号生成ステップと、 上 記ソ ースビデオ信号に対して第 2の画像変換処理を行って上記目 的画 に対応するシャ ドウ信号を生成するシャ ドウ信号生成ステ ップと、 上記ォブジェク ト信号と、 上記シャ ドウ信号と、 上記ソ ースビデオ信号に対応するバッ クグラウン ド信号とが入力されて 、 入力された上記各信号を合成して出力ビデオ信号を出力する合 成ステップと、 を有し、 上記シャ ドゥ信号ステップには、 上記ソ ―スビデオ信号に対応する上記シャ ドウ信号に対して利得を制御 する利得制御ステップと、 上記シャ ドウ信号を濾波する瀘波ステ ップと、 上記シャ ドウ信号に対応する奥行き情報を生成する奥行 き情報生成ステ ッ プと、 該奥行き情報生成ステ ッ プから、の上記奥 行き情報に基づいて上記利得制御ステップの利得を制御するとと もに上記奥行き情報に基づいて上記濾波ステップの濾波特性を制 御する制御ステップとを有するものである。 The special effect method according to the present invention is a special effect method for performing a special effect process on an input source video signal, wherein the first image conversion process is performed on the source video signal to indicate a target image. An object signal generating step of generating an object signal; and a shadow signal generating step of performing a second image conversion process on the source video signal to generate a shadow signal corresponding to the target image. And the object signal, the shadow signal, and the background signal corresponding to the source video signal, and combine the input signals to output an output video signal. The shadow signal step includes a gain control step of controlling a gain of the shadow signal corresponding to the source video signal, and a filtering step of filtering the shadow signal. A depth information generating step for generating depth information corresponding to the shadow signal, and controlling the gain of the gain control step based on the depth information from the depth information generating step. And a control step of controlling the filtering characteristics of the filtering step based on the depth information.

この発明の特殊効果方法は、 入力されるソ ースビデオ信号に対 して第 1の画像変換処理を行い目的画像を示すオブジェク ト信号 を生成するォブジ ク ト信号生成ステツプと、 上記ソ ースビデォ 信号に対して第 2の画像変換処理を行い上記目的画像に対応する シャ ドウ信号を生成する シャ ドゥ信号生成ステップと、 上記ォブ ジェク ト信号生成ステップで生成されるォブジヱク ト信号と、 上 記シャ ドウビデオ信号生成ステップで生成されるシャ ドウ信号と が入力されて、 上記オブジェク ト信号と上記シャ ドウ信号と、 上 記ソ一スビデオ信号に対応するバックグラウン ド信号とを合成し て出力ビデオ信号を出力する合成ステップとを備え、 上記シャ ド ゥ信号生成ステップには、 上記ソ ースビデオ信号に対応する上記 シャ ドウ信号に対して利得を制御する利得制御ステ ッ プと、 上記 シャ ドゥ信号を濾波する濾波ステップと、 上記シャ ドゥ信号に対 応する奥行き情報を生成する奥行き情報生成ステツプと、 該奥行 き情報生成ステップからの奥行き情報に基づいて上記利得制御ス テップの利 ί导を制御するとともに該奥行き情報に基づいて上記濾 波ス ^ップの濾波特性を制御する制御ステップとを有する特殊効 果方法において、 上記瀘波ステ ッ プは、 口一パスフ ィ ルタ により 行なう ものである。  The special effect method according to the present invention includes an object signal generation step of performing a first image conversion process on an input source video signal to generate an object signal indicating a target image; A shadow signal generation step of performing a second image conversion process to generate a shadow signal corresponding to the target image, an object signal generated in the object signal generation step, and the shadow video signal The shadow signal generated in the generation step is input, and the object signal, the shadow signal, and the background signal corresponding to the source video signal are combined to output an output video signal. A synthesizing step, wherein the shadow ゥ signal generating step includes the shadow corresponding to the source video signal. A gain control step for controlling the gain of the signal, a filtering step for filtering the shadow signal, a depth information generation step for generating depth information corresponding to the shadow signal, and a depth information generation step. A control step of controlling the gain of the gain control step based on the depth information from the step and controlling the filtering characteristic of the filtering step based on the depth information. The above-mentioned filtering step is performed by a one-pass filter.

この発明の特殊効果方法は、 上記制御ステ ッ プは、 上記奥行き 情報生成ステップからの上記奥行き情報に応じた利得特性データ と濾波特性データの記憶された記憶ステップを有し、 該利得特性 データと該濾波特性データとを該記憶ステップから上記奥行き情 報に応じてそれぞれ上記利得制御ステップと上記濾波ステ ッ プに 供給するものである。 In the special effect method according to the present invention, the control step may include: A step of storing gain characteristic data and filtering characteristic data according to the depth information from the information generating step, wherein the gain characteristic data and the filtering characteristic data are stored in accordance with the depth information from the storing step. These are supplied to the gain control step and the filtering step, respectively.

この発明の特殊効果方法は、 上記ォブジ ク ト信号生成ステツ プには、 入力される上記ソ ースビデオ信号を記憶する記憶ステッ プと、 該記憶ステップで記憶された上記ソ ースビデオ信号を所定 の単位で読み出せるよう読出しア ドレスを発生する読出しァ ド レ ス発生ステップとを有し、 上記第 1 の画像変換処理は上記読出し ア ド レスによつて上記記憶ステップから読み出された上記ォブジ - ク ト ビデオ信号が目的画像となって処理されるものである。  In the special effect method according to the present invention, the object signal generating step includes: a storage step of storing the input source video signal; and the source video signal stored in the storage step in a predetermined unit. A read address generating step for generating a read address so that the read address can be read out, and the first image conversion processing is performed by the object read out from the storage step by the read address. The video signal is processed as a target image.

この発明の特殊効果方法は、 上記シャ ドウ ビデオ信号生成ステ ップには、 入力される上記ソ ース ビデオ信号を記憶する記憶ステ ップと、 上記記憶ステップで記憶された上記ソースビデオ信号を 所定の単位で読み出す読出しア ドレスを発生する読出しァ ド レス 発生ステ ッ プとを有し、 上記第 2 の画像変換処理は上記読出しァ ドレスによつて上記メ モリ手段から読み出された上記シャ ドウビ デォ信号が上記目的画像に対応するシャ ドウ信号として出力され るよう処理されるものである。  In the special effect method according to the present invention, the shadow video signal generation step includes: a storage step of storing the input source video signal; and the source video signal stored in the storage step. A read address generation step for generating a read address to be read in a predetermined unit, wherein the second image conversion processing is performed by the memory read out from the memory means by the read address. The video signal is processed so as to be output as a shadow signal corresponding to the target image.

この発明の特殊効果方法は、 上記合成ステップは、 上記才ブジ ヱク ト信号生成ステップからの上記ォブジヱク ト信号と上記シャ ドゥ信号生成ステップからの上記シャ ドウ信号とが入力されて、 入力される上記各信号を合成して混合信号を出力する第 1の合成 ステップと、 上記混合信号と上記バックグラウ ン ド信号とが入力 されて、 出力ビデオ信号を出力する第 2の合成ステップからなる ものである。  In the special effect method according to the present invention, in the synthesizing step, the object signal from the smart signal generating step and the shadow signal from the shadow signal generating step are input and input. A first combining step of combining the above signals to output a mixed signal, and a second combining step of receiving the mixed signal and the background signal and outputting an output video signal. is there.

この発明の特殊効果方法は、 入力されるソ ースビデオ信号と該 ソ ースビデオ信号に対応するソースキー信号とに対して特殊効果 処理を施す特殊効果方法において、 上記ソースビデオ信号と上記 ソ一スキー信号とが入力されて、 第 1の画像変換処理を行い目的 画像を示すォブジュク ト ビデオ信号とォブジェク トキ一信号とを 生成する才ブジヱク ト信号生成ステツプと、 上記ソ ース、ビデォ信 号と上記ソ一スキー信号とが入力されて、 第 2の画像変換処理を 行い上記目的画像に対応するシャ ドウビデオ信号と リ アルシャ ド ゥキー信号を生成するシャ ドウ信号生成ステップと、 上記ォブジ ヱク ト信号生成ステップから出力されるォブジヱク トビデオ信号 とオブジェク トキ一信号とが入力されるとともに、 上記シャ ドウ 信号生成ステップからの上記シャ ドウビデオ信号と上記リ アルシ ャ ドウキー信号とが入力され、 さらに上記ソースビデオ信号に対 応するバッ クグラ ウ ン ド信号とが入力されて、 入力された上記各 信号を合成して出力ビデオ信号を生成して出力する合成ステップ と、 を有し、 上記シャ ドウ信号生成ステ ッ プには、 入力される上 記ソースキー信号に対し上記目的画像に対応するシャ ドウキ一信 号を生成する シャ ドウキー信号生成ステ ッ プと、 該シャ ドウキ一 信号生成ステップから出力されるシャ ドウキー信号に対し利得を 制御する利得制御ステップと、 上記シャ ドウキー信号を濾波する 瀘波ステ ッ プと、 上記シャ ドウ信号に対応する奥行き情報を生成 する奥行き情報生成ステップと、 該奥行き情報生成ステップから の該奥行き情報に基づいて上記利得制御ステップの利得を制御す るとともに該奧行き情報に基づいて上記濾波ステップの瀘波特性 を制御する制御ステップとを有するものである。 The special effect method according to the present invention comprises the steps of: In a special effect method in which a special effect process is performed on a source key signal corresponding to a source video signal, the source video signal and the source key signal are input, a first image conversion process is performed, and a target image is processed. A source signal generation step for generating an object video signal and an object key signal to be shown and the source, the video signal, and the source key signal are input, and a second image conversion process is performed. A shadow video signal generating step for generating a shadow video signal and a real shadow key signal corresponding to the target image, and an object video signal and an object key signal output from the object signal generating step are input. Together with the shadow video signal from the shadow signal generation step and the real shadow A key signal and a background signal corresponding to the source video signal are input, and the input signals are synthesized to generate and output an output video signal; and A shadow key signal generating step of generating a shadow key signal corresponding to the target image with respect to the input source key signal; A gain control step for controlling the gain of the shadow key signal output from the shadow key signal generation step; a filtering step for filtering the shadow key signal; and generating depth information corresponding to the shadow signal. A depth information generating step; and controlling the gain of the gain control step based on the depth information from the depth information generating step. And a control step of controlling a filtering characteristic of the filtering step based on the depth information.

この発明の特殊効果方法は、 上記濾波ステ ッ プは、 口 一パス フ ィ ルタ によ り行なう ものである。  In the special effect method according to the present invention, the filtering step is performed by a one-pass filter.

この発明の特殊効果方法は、 上記シャ ドウ信号生成ステ ッ プの 上記シャ ドウキー信号生成ステップから出力されるシャ ドウキー 信号は、 上記利得制御ステップで利得が制御されたシャ ドウキー 信号として出力され、 利得が制御されたシャ ドウキー信号は上記 濾波ステップに入力されて、 瀘波特性が制御されてリアルシャ ド ゥキ一信号として出力されるものである。 The special effect method according to the present invention includes a shadow key output from the shadow key signal generation step in the shadow signal generation step. The signal is output as a shadow key signal whose gain has been controlled in the gain control step, and the shadow key signal whose gain has been controlled is input to the filtering step where the filtering characteristic is controlled and the real shadow key signal is output. It is output as a signal.

この発明の特殊効果方法は、 上記シャ ドウ信号発生ス、テツプの 上記制御ステップは、 上記奥行き情報生成ステップからの上記奥 行き情報に応じた利得制御デ一タと濾波特性データとが記憶され た記憶ステップを有し、 該利得特性データと該濾波特性データと を上記奥行き情報に応じてそれぞれ上記利得制御ステップと上記 濾波ステップに供給する特殊効果方法。  In the special effect method according to the present invention, in the shadow signal generation step and the step, the gain control data and the filtering characteristic data corresponding to the depth information from the depth information generation step are stored. A special effect method comprising a storage step, wherein the gain characteristic data and the filtering characteristic data are supplied to the gain control step and the filtering step, respectively, according to the depth information.

この発明の特殊効果方法は、 上記合成ステップは、 上記ォブジ ヱク ト信号生成ステップからの上記ォブジヱク ト ビデオ信号と上 記オブジェク トキ一信号とが入力されるとともに、 上記シャ ドゥ 信号生成ステップからの上記シャ ドウビデオ信号と上記リ アルシ ャ ドウキー信号とが入力されて、 入力される上記各信号を合成し て混合ビデオ信号と混合キー信号を生成する第 1の合成ステップ と、 上記第 1の合成ステツプからの混合ビデオ信号と混合キー信 号及び上記バッ クグラ ゥ ン ド信号とが入出されて上記出力ビデオ 信号を生成する第 2の合成ステップとを有するものである。  In the special effect method according to the present invention, in the synthesizing step, the object video signal and the object key signal from the object signal generating step are input and the shadow signal generating step is performed. A first synthesizing step of receiving the shadow video signal and the real shadow key signal and synthesizing the input signals to generate a mixed video signal and a mixed key signal; and the first synthesizing step. And a second synthesizing step of receiving the mixed video signal, the mixed key signal, and the background signal from each other to generate the output video signal.

この発明の特殊効果方法は、 上記ォブジェク ト信号生成ステツ プには、 上記ソ ースビデオ信号を記憶するための第 1のメ モリス テツプと上記ソ ースキー信号を記憶するための第 2のメ モ リ ステ ッ プと、 上記第 1 のメ モ リ ステ ッ プと上記第 2 のメ モ リ ステ ツ プ とにそれぞれ記憶された上記ソ ースビデオ信号と上記ソ ースキ一 信号 を上記それぞれのメ モ リステップから読み出すための読出 しア ドレスを発生して上記第 1のメ モ リ ステツプと上記第 2のメ モ リ ステ ッ プとに該読み出すァ ド レスを供給する読出しァ ド レス 発生ステップとを有し、 上記第 1の画像変換処理は上記読出しァ ド レスによつて上記第 1のメ モ リステップと上記第 2のメ モリス テップとから読み出されたそれぞれ上記ォブジニク ト ビデオ信号 と上記ォブジ ク トキ一信号とが上記目的画像と して出力される ものである。 In the special effect method according to the present invention, the object signal generating step includes a first memory step for storing the source video signal and a second memory step for storing the source key signal. And the source video signal and the source key signal stored in the first memory step and the second memory step, respectively, from the respective memory steps. A read address generating step of generating a read address for reading and supplying the read address to the first memory step and the second memory step. The first image conversion process is performed by the readout key. The object video signal and the object signal read from the first memory step and the second memory step, respectively, are output as the target image by the address. It is something.

この発明の特殊効果方法は、 上記シャ ドウ信号生成ステップに は、 上記ソースビデオ信号を記憶するための第 3の記憶ステップ と上記ソ一スキー信号を記憶するための第 4のメ モ リ ステ ッ プと 、 上記第 3のメモ リステップと上記第 4のメ モ リステップとにそ れぞれ記憶された上記ソ 一スビデオ信号と上記ソースキー信号と を上記それぞれのメ モ リ ステップから読み出すための読出しア ド レスを発生して上記第 3のメ モ リステップと上記第 4のメモ リ ス テツプとに該読出しア ドレスを供給する読出しア ドレス発生ステ ップとを有し、 上記第 2の画像変換処理は、 上記読出しア ド レス によって上記第 3のメ モ リステップと上記第 4のメ モ リステップ とからそれぞれ読み出された上記シャ ドゥビデオ信号と上記シャ ドゥキー信号が出力されて上記シャ ドウビデオ信号が上記目的画 像に対応するシ ャ ドウビデオ信号として出力される処理を行なう ものである。  In the special effect method according to the present invention, in the shadow signal generating step, a third storage step for storing the source video signal and a fourth memory step for storing the source key signal are included. The source video signal and the source key signal stored in the third memory step and the fourth memory step, respectively, from the respective memory steps. A read address generating step for generating the read address to supply the read address to the third memory step and the fourth memory step; In the image conversion process, the shadow video signal and the shadow key read from the third memory step and the fourth memory step by the read address, respectively, are used. A signal is output and the shadow video signal is output as a shadow video signal corresponding to the target image.

本発明は、 影の画像を生成する影生成手段と、 影を付ける対象 であるォブジヱク ト画像、 上記影の画像、 バッ クグラウン ドの画 像を合成する合成手段と、 上記比 X Z yに応じた利得特性データ と、 濾波特性データの記憶された記憶手段と、 上記影の画像の利 得を制御する利得制御手段と、 上記影の画像の濾波する瀘波手段 と、 上記影の画像と上記ォブジェク トの画像との距離 Xと、 仮想 的な光源と上記ォブジユタ 卜の画像との距離 yとの比 x Z yを求 め、 当該比 X Z yに応じた上記利得特性に応じて上記利得制御手 段における利得を制御すると共に、 当該比 x Z yに応じた上記瀘 波特性に応じて上記濾波手段における濾波特性を制御する制御手 段とを有するものである。 The present invention provides a shadow generating means for generating a shadow image, a synthesizing means for synthesizing an object image to which a shadow is to be applied, the above-mentioned shadow image, and a background image. Gain characteristic data; storage means for storing filtering characteristic data; gain control means for controlling the gain of the shadow image; filtering means for filtering the shadow image; and the shadow image and the object The ratio xZy between the distance X from the image of the object and the distance y between the virtual light source and the image of the object is determined, and the gain control method is performed according to the gain characteristic according to the ratio XZy. A control means for controlling the gain in the stage and controlling the filtering characteristics of the filtering means in accordance with the filtering characteristics in accordance with the ratio xZy. And a step.

比 X Z yに応じた利得特性に応じて上記利得制御手段における 利得が制御されると共に、 比 x Z yに応じた濾波特性に応じて濾 波手段における濾波特性が制御され、 より現実の影に近い影の画 像が生成され、 当該影の画像と、 オブジェク ト画像と、 バッ クグ ラウ ン ドの画像が合成される。 図面の簡単な説明  The gain in the gain control means is controlled in accordance with the gain characteristic in accordance with the ratio XZy, and the filtering characteristic in the filtering means is controlled in accordance with the filtering characteristic in accordance with the ratio xZy. An image of a close shadow is generated, and the shadow image, the object image, and the background image are combined. BRIEF DESCRIPTION OF THE FIGURES

図 1 は、 背景技術を説明するための図である。  FIG. 1 is a diagram for explaining the background art.

図 2 は、 本発明の特殊効果装置の全体構成を示すためのブ口 ッ ク図である。  FIG. 2 is a block diagram showing the entire configuration of the special effect device of the present invention.

図 3は、 本発明の特殊効果装置において定義されるワ ールド座 標系を説明するための図である。  FIG. 3 is a diagram for explaining a world coordinate system defined in the special effect device of the present invention.

図 4は、 オブジェク ト ビデオ信号を得るための変換処理を説明 するための図である。  FIG. 4 is a diagram for explaining a conversion process for obtaining an object video signal.

図 5 は、 ォブジヱク ト ビデオ信号に対応するフ レームメ モ リ上 のア ド レス と、 モニタ ス ク リ ー ン上とのア ド レス との関係を表す 図である。  FIG. 5 is a diagram showing the relationship between the address on the frame memory corresponding to the object video signal and the address on the monitor screen.

図 6 は、 パラメ ータ Ηの意味を示すためのモニタスク リ一ン面 上とフ レ ー ムメ モ リ上との画素データの配列を示す図である。  FIG. 6 is a diagram showing an array of pixel data on the monitor screen and in the frame memory for indicating the meaning of the parameter Η.

図 Ί は、 遠近法を用いたときのフ レームメ モ リ のア ドレス空間 を示すための図である。  Figure 2 is a diagram showing the address space of the frame memory when the perspective method is used.

図 8は、 ワ ールド座標系とシャ ドウ座標系との関係を示す概念 図である。  FIG. 8 is a conceptual diagram showing the relationship between the world coordinate system and the shadow coordinate system.

図 は、 点光源モー ド時において、 シャ ドウビデオ信号を得る ための変換処理を説明するための図及びシャ ドウビデオ信号に対 応する フ レ ー ムメ モ リ 上のァ ド レス とモニタ ス ク リ ー ン面上での ア ド レス との関係を示す図である。 図 1 0 は、 点光源モ一 ド時において、 3次元ォブジ ク トビデ ォ信号から 3次元シャ ドウビデオ信号を得るための透視変換処理 を説明するための図である。 The figure shows the conversion process for obtaining a shadow video signal in the point light source mode, and the address and monitor screen on the frame memory corresponding to the shadow video signal. FIG. 6 is a diagram showing a relationship with an address on a plane. FIG. 10 is a diagram for explaining a perspective transformation process for obtaining a three-dimensional shadow video signal from a three-dimensional object video signal in the point light source mode.

図 1 1 は、 点光源及び 3次元ォブジ二ク トビデオ信号を得るた めの変換処理の手順を示すフローである。  FIG. 11 is a flowchart showing a procedure of a conversion process for obtaining a point light source and a three-dimensional object video signal.

図 1 2 は、 平行光源モ一 ド時において、 シャ ドウビデオ信号を 得るための変換処理を説明するための図である。  FIG. 12 is a diagram for explaining a conversion process for obtaining a shadow video signal in the parallel light source mode.

図 1 3は、 平行光源及び 3次元ォブジ ク ト ビデオ信号に対す る変換処理の手順を示すフローである。  FIG. 13 is a flowchart showing a procedure of a conversion process for a parallel light source and a three-dimensional object video signal.

図 1 4は、 ワ ール ド座標系及びシャ ドウ座標系における、 球面 座標と直交座標との関係を夫々示すための図である。  FIG. 14 is a diagram for illustrating a relationship between spherical coordinates and rectangular coordinates in a world coordinate system and a shadow coordinate system, respectively.

図 1 5 は、 平行光源モー ド時において、 3次元ォブジェク ト ビ デ才信号から 3次元シャ ドウビデオ信号を得るための透視変換処 理を説明するための図である。  FIG. 15 is a diagram for explaining a perspective transformation process for obtaining a three-dimensional shadow video signal from a three-dimensional object video signal in the parallel light source mode.

図 1 6 は、 仮想 3次元ォブジ二ク トビデオ信号から仮想 3次元 シャ ドウビデオ信号を得るための透視変換処理を説明するための 図である。  FIG. 16 is a diagram for explaining a perspective transformation process for obtaining a virtual three-dimensional shadow video signal from a virtual three-dimensional object video signal.

図 1 7 は、 シャ ドウ座標系の原点を自動的に設定する原点設定 モ一 ドを説明するための図である。  FIG. 17 is a diagram for explaining an origin setting mode for automatically setting the origin of the shadow coordinate system.

図 1 8は、 リ アルシャ ドウ発生器の構成を示す図である。  FIG. 18 is a diagram showing a configuration of a real shadow generator.

図 1 9 は、 目的とする画像を示す図及びパラメ ータ Hと利得及 び瀘波特性との関係を示す図である。  FIG. 19 is a diagram showing a target image and a diagram showing the relationship between parameter H and gain and filtering characteristics.

図 2 0 は、 交差する 2つの画像の合成処理を説明するための図 、の る。  FIG. 20 is a diagram for explaining the combining process of two intersecting images.

図 2 1 は、 コ ンバイナの詳細構成を示すブロ ック図である。 図 2 2は、 図 2 1のプライ オ リティ信号発生回路の詳細構成を 示すブ α ッ ク図である。  FIG. 21 is a block diagram showing the detailed configuration of the combiner. FIG. 22 is a block diagram showing a detailed configuration of the priority signal generating circuit of FIG. 21.

図 2 3は、 図 2 2のプライオ リティ信号発生回路の動作の説明 に供する信号波形図である。 発明を実施するための最良の形態 Figure 23 illustrates the operation of the priority signal generator of Figure 22. FIG. 4 is a signal waveform diagram provided for FIG. BEST MODE FOR CARRYING OUT THE INVENTION

( 1 ) 全体構成  (1) Overall configuration

まず、 図 2を参照して、 本発明の特殊効果装置 1の構成を説明 する。  First, the configuration of the special effect device 1 of the present invention will be described with reference to FIG.

C U P 8は、 この特殊効果装置 1の全ての回路を制御するため のプロセッサである。 C P U 8は、 オペレータがコ ン ト ロールパ ネル 5を操作することによって得られた各パラメ 一タを、 イ ンタ フ ェース回路 ( I Z F ) 5 a及びデータバスを介して受け取り、 このパラメ 一タに基づいて各回路を制御する。 このコ ン ト ロール パネル 5からは、 パースペクティ ブ値 P z 、 シャ ドウ座標系の XThe CUP 8 is a processor for controlling all the circuits of the special effect device 1. The CPU 8 receives each parameter obtained by operating the control panel 5 by the operator via the interface circuit (IZF) 5a and the data bus, and based on this parameter. To control each circuit. From this control panel 5, the perspective value P z , X in the shadow coordinate system

S 軸、 Y S 軸及び Z S 軸の夫々の回転角 ( <9 X , θ V , Θ 、 シャ ドウ座標系の原点 ( x s o, y so, z so) 、 平行光源であるか 点光源であるかを示す光源の種類、 点光源の位置 ( x L , y ζ し ) 、 平行光源の位置 ( r, α , β ) 、 3次元変換に関するパ ラメ 一夕 r u ~ r 33, 1 X , 1 γ , 1 z 及び sが入力される。 尚 、 各パラメ ータについては後述する。 また、 C P U 8は、 コ ン ト 口一ルパネル 5から入力されるこれらのパラメ ータを受け取り、 これらのノ、。ラメ ータを リ アルタイ ムに読み出しア ドレスの演算に 反映させる。 具体的には、 C P U 8は、 コ ン ト ロールパネル 5か ら供給されるパラメ ータの変化をフレーム周期で監視し、 且つ、 供給されたパラメ ータに基づいて読み出しァ ドレスを演算するた めのパラ メ ータ (!^ 〜ゎ;^、 b , 〜 b 33' 、 b , 〜 b 33" ) をフ レーム周期で演算してい.る。 よって、 オペレータの操作に 応じてフ レー A周期でこれらのパラメ ータをリ アルタ イ ムに可変 することができ、 そして、 その可変されたパラメ 一タに応じて、 リ アルタ イ ムにソースビデオ信号に対して特殊効果を施すことが できる。 S-axis, Y- S- axis and Z- S- axis rotation angles (<9 X , θ V, 、, origin of shadow coordinate system (x so , y so, z so)) types of light sources indicating how the position of the point light source (x L, y zeta Mr), the position of the collimated light source (r, alpha, beta), Pas lame Isseki ru ~ r 33 on 3D conversion, 1 X, 1 γ, 1 z, and s are input, and the parameters will be described later.The CPU 8 receives these parameters input from the control panel 5 and receives these parameters. The parameters are read out in real time and reflected in the calculation of the address.Specifically, the CPU 8 monitors the change of the parameter supplied from the control panel 5 at a frame cycle. And parameters for calculating the read address based on the supplied parameters (! ^ To ゎ; ^, b, ~ B 33 ', b, ~ b 33 ") frame period is not calculated. Ru a. Therefore, varying these parameters to re Alta Lee beam at full rate A period in response to operation of the operator And apply real-time special effects to the source video signal according to the changed parameters. it can.

尚、 本発明の特殊効果装置は、 コ ン ト ロールパネル 5から光源 の種類を入力することによって、 点光源と平行光源の中から所望 の光源を選択することができるようになつている。 以下の説明に おいて、 点光源によってォブジヱク トのシャ ドウを生成するモ一 ドを点光源モ一ドと呼び、 平行光源によつてォブジヱク トのシャ ドウを生成するモー ドを平行光源モー ドと呼ぶことにする。  Note that the special effect device of the present invention allows a desired light source to be selected from a point light source and a parallel light source by inputting the type of the light source from the control panel 5. In the following description, the mode in which an object shadow is generated by a point light source is referred to as a point light source mode. I will call it.

また、 C P U 8は、 プログラムメモリ として設けられた R OM (Read Only Memory) 6 に記憶されたプログラムに基づいて、 各 回路の制御を行うと共に、 読み出しア ド レスの溃算を行う。 また Further, the CPU 8 controls each circuit and calculates a read address based on a program stored in a ROM (Read Only Memory) 6 provided as a program memory. Also

、 同様に、 ワークメモ リ と して設けられた R AM (Random Acces s Memory) 7 に記憶されたデータに基づいて、 各回路の制御を行 うと共に、 読み出しア ド レスの演算を行う。 Similarly, based on data stored in a RAM (Random Access Memory) 7 provided as work memory, each circuit is controlled and a read address is calculated.

ォブジヱク ト信号生成部 1 0は、 外部からソ ースビデオ信号 V 0 を受け取り、 このソースビデオ信号 V。 を 3次元変換処理して The object signal generator 10 receives the source video signal V 0 from the outside, and receives the source video signal V 0. Is converted to 3D

、 2次元のオブジェク ト ビデオ信号 V 3 を生成する。 また、 ォブ ジェク ト信号生成部 1 0 は、 ソースビデオ信号 V。 をキーイ ング するためのソ ースキ一信号 K D を受け取り、 ソ ースビデオ信号と 同じようにソ 一スキー信号 K。 を 3次元変換処理して、 オブジェ ク トキ一信号 K 2 を生成する。 具体的には、 このォブジヱク ト信 号生成部 1 0 は、 ソ ースビデオ信号 V。 を一時的に記憶するため のフ レームメ モ リ 1 2 と、 このソースビデオ信号をキ一イ ングす るためのソ 一スキー信号 Κ。 を一時的に記憶するためのフ レーム メ モ リ 1 3 と、 フ レームメ モ リ 1 2及びフ レームメ モ リ 1 3に対 して、 3次元変換操作に対応して演算された読み出しア ド レス (, To produce a two-dimensional object video signal V 3. Also, the object signal generator 10 outputs the source video signal V. It receives the source key signal K D for keying, and receives the source key signal K in the same way as the source video signal. Is subjected to three-dimensional conversion processing to generate an object key signal K 2 . Specifically, the object signal generation unit 10 generates the source video signal V. Frame memory 12 for temporarily storing data, and a soft key signal キ for keying this source video signal. Frame memory 13 for temporarily storing data, and read addresses calculated for frame memory 12 and frame memory 13 corresponding to the three-dimensional conversion operation. (

ΧΜ , YM ) を供給するための読み出しア ドレス発生回路 1 4と を有している。 , M , Y M ).

フ レームメ モ リ 1 2は、 供給されたソースビデオ信号 V。 を一 時的に記憶するためのメ モ リである。 このフ レームメ モ リ 1 2 に は、 図示しない書き込みア ドレス発生回路からのシーケンシャル な書き込みア ドレスが供給されるので、 このフレームメ モ リ 1 2 には、 供給されたソ ースビデオ信号 V。 が変形せずにそのまま記 憶される。 また、 このフレームメ モ リ 1 2には、 読み出、しァ ドレ ス発生回路 1 4から 3次元変換操作に対応して演算された読み出 しア ド レス ( Χ Μ , Υ Μ ) が供給されるので、 フ レームメ モ リ 1 2からは、 フ レーム毎に 3次元変換処理されたォブジ ク ト ビデ ォ信号 V 2 が出力される。 出力されたォブジェク ト ビデオ信号 V 2 は、 ミ キサ 3 0 に送出される。 Frame memory 12 is the supplied source video signal V. One It is a memory for storing it temporarily. The frame memory 12 is supplied with a sequential write address from a write address generation circuit (not shown), so that the supplied source video signal V is supplied to the frame memory 12. Is stored as it is without deformation. In addition, a read address (Χ ,, Υ Μ ) calculated in accordance with the three-dimensional conversion operation is supplied from the read and address generation circuit 14 to the frame memory 12. Thus, the object video signal V 2 that has been subjected to the three-dimensional conversion processing for each frame is output from the frame memory 12. The output object video signal V 2 is sent to the mixer 30.

フ レーム メ モ リ 1 3は、 ソ ースビデオ信号 V 0 をキーイ ングす るためのソ一スキー信号 K。 を一時的に記憶するためのメモ リで ある。 このフ レームメ モ リ 1 3 は、 フ レームメ モ リ 1 2 に供給さ れたシーケンシャルな書き込みァ ドレスと同じ書き込みァ ドレス が供給されるので、 ソースビデオ信号 V。 と同様に、 このフ レー ムメモ リ 1 3には、 供給されたソ一スキー信号 Κ。 が変形せずに そのまま記憶される。 また、 フ レームメ モ リ 1 3には、 フ レーム メ モ リ 1 2 に供給された読み出しア ドレスと同じア ドレス ( Χ Μ , Υ Μ ) が供給されるので、 フ レームメ モ リ 1 3からは、 3次元 変換されたオブジェク トビデオ信号 V 2 と同じように 3次元変換 されたオブジェク トキ一信号 Κ 2 が出力される。 出力されたォブ ジヱク トキ一信号 Κ 2 は、 コ ンバイナ 3 0に送出される。 Frame memory 13 is a source key signal K for keying the source video signal V 0. This is a memory for temporarily storing data. In this frame memory 13, the same write address as the sequential write address supplied to the frame memory 12 is supplied. Similarly to this, the frame memory 13 receives the supplied sousky signal Κ. Is stored as it is without deformation. In addition, the full Remume mode Li 1 3, frame Note Li 1 2 is supplied to the same address as the read address (Χ Μ, Υ Μ) so is supplied from the full Remume mode Li 1 3 3D transformed object Toki first signal kappa 2 the same as converted 3-dimensional and object Tobideo signal V 2 which is output. The outputted object signal # 2 is sent to the combiner 30.

読み出しァ ドレス発生回路 1 4は、 ス ク リ ー ンア ドレス発生回 路 9からシーケ ン シ ャ ルに供給.されるモ二タスク リー ン 3上での ア ド レス ( X S , Y S ) と、 C P U 8によつて演算された画像変 換行列のハ°ラメ 一タ b 〜 b 3 3とに基づいて、 フ レームメ モ リ 1 2及びフ レームメ モ リ 1 3に対して供給する読み出しア ド レス ( Χ Μ , Y M ) を生成する。 この読み出しア ド レス発生回路 1 4内 での具体的な演算は後述する。 Read § address generating circuit 1 4, supplied from the scan click rie N'a dress generating circuits 9 in Sequence emission sheet catcher Le. To the model two tasks Lean add-less (X S, Y S) on at 3 and , based on the c ° lame Ichita b ~ b 3 3 of by the CPU 8 connexion computed image transformation matrix, the read add-supplied to the full Remume mode Li 1 2 and full Remume mode Li 1 3 Generate the address (Χ Μ, Y M ). This read address generation circuit 14 The specific calculation in will be described later.

以上がォブジェク ト信号生成部 1 0の構成である。 次にシャ ド ゥ信号生成部 2 0の構成について説明する。  The above is the configuration of the object signal generation unit 10. Next, the configuration of the shadow signal generation unit 20 will be described.

シャ ドウ信号生成部 2 0は、 シャ ドゥビデオ信号とシャ ドゥキ 一信号を生成するための回路である。 まず、 点光源モー、ドが選択 されている場合は、 このシャ ドウ信号生成部 2 0は、 外部から供 給されたソ ースビデオ信号 V。 を受け取り、 影の色にマツ ト処理 されたソ ースビデオ信号を 3次元変換処理して、 シャ ドウビデオ 信号 V 4 を生成する。 また、 シャ ドウ信号生成部 2 0は、 ソ ース ビデオ信号をキーイ ングするためのソ一スキー信号 K。 を受け取 り、 シャ ドウビデオ信号 V 4 と同じように 3次元変換処理して、 シャ ドウキ一信号 Κ 4 を生成する。 平行光源モー ドが選択されて いる場合には、 このシャ ドウ信号生成部 2 0 は、 外部から供給さ れたソ ースビデオ信号 V。 を受け取り、 影の色にマツ ト処理され たソ ースビデオ信号を 3次元変換処理して、 シャ ドウビデオ信号 V 6 を生成する。 また、 シャ ドウ信号生成部 2 0は、 ソースビデ ォ信号をキ一ィ ングするためのソースキ一信号 Κ。 を受け取り、 シャ ド ウ ビデオ信号 V 6 と同じように 3次元変換処理して、 シャ ドウキー信号 K s を生成する。 具体的には、 このシャ ドウ信号生 成部 2 0 は、 ォブジェク ト信号生成部 1 0 と同じような回路構成 からなり、 ソ ースビデオ信号 V。 をマツ ト処理するカ ラ一マツ ト 発生回路 2 1 と、 マッ ト処理されたソ ースビデオ信号を一時的に 記憶するためのフ レームメ モ リ 2 2 と、 ソースキー信号 K。 を一 時的に記憶するためのフ レー厶メ モ リ 2 3と、 フ レームメ モ リ 2 2及びフ レームメ モ リ 2 3に対して、 演算された読み出しァ ド レ スを供給するための読み出しァ ド レス発生回路 2 4 とを有してい カラーマツ ト発生回路 2 1 は、 ソースビデオ信号 V 0 をマッ ト 処理することによって、 ソ ースビデオ信号 V。 の色を影を色らし くするための回路である。 最も簡単な例では、 ソ ースビデオ信号The shadow signal generation unit 20 is a circuit for generating a shadow video signal and a shadow signal. First, when the point light source mode is selected, the shadow signal generator 20 outputs the source video signal V supplied from the outside. The receipt, by three-dimensional conversion processing Matsudo processed source Subideo signal in the shadow of the color, to generate a shut Doubideo signal V 4. Further, the shadow signal generator 20 generates a source key signal K for keying the source video signal. The receive Ri, just as with three-dimensional conversion processing Shah Doubideo signal V 4, to generate a shut synchronizing first signal kappa 4. When the parallel light source mode is selected, the shadow signal generator 20 outputs the source video signal V supplied from the outside. And the source video signal matted to the color of the shadow is subjected to three-dimensional conversion processing to generate a shadow video signal V 6. Further, the shadow signal generation unit 20 generates a source key signal for keying the source video signal. And performs a three-dimensional conversion process in the same manner as the shadow video signal V 6 to generate a shadow key signal K s. More specifically, the shadow signal generation section 20 has a circuit configuration similar to that of the object signal generation section 10 and includes the source video signal V. A color matte generation circuit 21 for matte processing, a frame memory 22 for temporarily storing a matted source video signal, and a source key signal K. Memory 23 for temporarily storing data, and reading for supplying the calculated read address to the frame memory 22 and the frame memory 23. The color matte generation circuit 21 has an address generation circuit 24 and a source video signal V0. By processing the source video signal V. This is a circuit to make the color of the shadow into a shadow. In the simplest case, the source video signal

V。 の彩度及び輝度のレベルを下げることによって、 ソースビデ ォ信号の色が影の色 (黒色) に近く なる。 V. By lowering the saturation and luminance levels of the source video signal, the color of the source video signal approaches that of the shadow (black).

フレームメ モ リ 2 2は、 マッ ト処理されたソースビデ、ォ信号を 一時的に記憶するためのメ モ リである。 このフレームメ モ リ 2 2 には、 図示しない書き込みァ ド レス発生回路からのシーケン シ ャ ルな書き込みァ ドレスが供給されるので、 このフ レームメ モ リ 2 2には、 マツ ト処理されたソ ースビデオ信号が画像変形されずに そのまま記憶される。 点光源モー ド時には、 このフ レームメ モ リ The frame memory 22 is a memory for temporarily storing the source video signal and the matte-processed signal. Since a sequential write address from a write address generator (not shown) is supplied to the frame memory 22, the matte-processed software is supplied to the frame memory 22. Source video signal is stored as it is without image deformation. In the point light source mode, this frame memory

2 には、 読み出しア ドレス発生回路 2 4から 3次元変換操作及 び点光源に基づいて演算された読み出しア ド レス ( X M ' , Y M ' ) が供給されるので、 このフ レームメモリ 2 2からは、 3次元 変換されたシャ ドウビデオ信号 V 4 が出力される。 平行光源モー ド時には、 このフ レームメ モ リ 2 2 には、 読み出しァ ドレス発生 回路 2 4から 3次元変換操作及び平行光源に基づいて演算された 読み出しア ドレス ( Χ Μ 〃 , Υ Μ " ) が供給されるので、 このフ レームメ モ リ 2 2からは、 3次元変換されたシャ ドゥビデオ信号 V 6 が出力される。 The 2 reads address generating circuit 2 4 from the three-dimensional conversion operation及beauty point light source is calculated on the basis of the read-out add-less (X M ', YM') because is supplied, the frame memory 2 2 from, Shah Doubideo signal V 4 which has been converted 3D is output. In the parallel light source mode, the read address (2 Μ ,, Υ Μ ) calculated from the read address generation circuit 24 based on the three-dimensional conversion operation and the parallel light source is stored in the frame memory 22. Since this is supplied, the frame memory 22 outputs a three-dimensionally converted shadow video signal V 6.

フ レーム メ モ リ 2 '3は、 ソ ースビデオ信号 V n をキーイ ングす るためのソ ースキー信号 K。 を一時的に記憶するためのメモリで ある。 このフ レームメ モ リ 2 3 には、 フレームメ モ リ 2 2 に供給 されたシーケンシャルな書き込みァ ド レス と同じァ ド レスが供給 されるので、 このフ レームメ モ リ 2 3には、 供給されたソ ースキ —信号 。 が画像変換されずにそのまま記憶される。 点光源モー ド時には、 フ レームメ モ リ 2 3には、 フ レームメ モ リ 2 2に供給 された読み出しア ド レス と同じア ド レス ( X M ' , Υ Μ ' ) が供 給されるので、 このフ レームメ モ リ 2 3からは、 3次元変換され たシャ ドゥビデオ信号 V 4 と同じように 3次元変換されたシャ ド ゥキー信号 K 4 が出力される。 平行光源モー ド時には、 フ レーム メ モ リ 2 3 には、 フ レームメ モ リ 2 2に供給された読み出しア ド レス と同じア ド レス ( Χ Μ 〃 , Υ Μ 〃 ) が供給されるので、 この フ レームメ モ リ 2 3からは、 3次元変換されたシャ ドウ ビデオ信 号 V 6 と同じように 3次元変換されたシャ ドウキー信号 K 6 が出 力される。 Frame memory 2'3 is the source key signal K for keying the source video signal Vn. This is a memory for temporarily storing data. Since the same address as the sequential write address supplied to the frame memory 22 is supplied to the frame memory 23, the supplied address is supplied to the frame memory 23. Sawski — signal. Are stored as they are without image conversion. In the point light source mode, the frame memory 23 is supplied with the same address (XM ', Υ 供給 ') as the read address supplied to the frame memory 22. From frame memory 23, three-dimensional conversion is performed. In the same manner as the shadow video signal V 4 , a three-dimensionally converted shadow key signal K 4 is output. In the parallel light source mode, the same address (Χ Μ ,, Υ Μと) as the read address supplied to the frame memory 22 is supplied to the frame memory 23. The frame memory 23 outputs a three-dimensionally converted shadow key signal K 6 in the same manner as the three-dimensionally converted shadow video signal V 6 .

読み出しア ド レス発生回路 2 4は、 フ レームメ モ リ 2 2及びフ レームメ モ リ 2 3に対して供絵する読み出しァ ド レスを生成する ための回路である。 点光源モー ド時には、 ス ク リ ー ンア ド レス発 生回路 9からシーケ ンシャ ルに供給されるモニタ ス ク リ ー ン 3上 でのァ ド レス ( X s , Ys ) と、 C P U 8によつて演算された画 像変換行列のパラメ ータ b , 〜 b 33' とに基づいて、 読み出し ア ド レス ( X M ' , Y M ' ) を生成する。 平行光源モ一ド時には 、 ス ク リ ー ンア ド レス発生回路 9からシーケ ンシャ ルに供給され るモニタ ス ク リ ー ン 3上でのア ド レス ( X S , Ys ) と、 C P U 8によつて演算された画像変換行列のパラメ ータ b , 〜 b 33〃 とに基づいて、 読み出しア ド レス ( X M 〃 , Y M " ) を生成する 。 尚、 この読み出しア ドレス発生回路 2 4における具体的な演算 は後述する。 The read address generation circuit 24 is a circuit for generating a read address to be applied to the frame memory 22 and the frame memory 23. When a point light source mode, scan click rie N'a monitor scan from de-less onset raw circuit 9 is supplied to the sequencer Nsha Torque rie down 3 on at the § de-less (X s, Y s) and, in the CPU 8 parameter b of Yotsute computed images transformation matrix, 'based on the read add-less (X M' ~ b 33, YM ') to generate a. During directional light mode one de, add-less (X S, Ys) of the on the monitor scan click rie down 3 from the scan click rie N'a de-less generation circuit 9 Ru is supplied to the sequencer Nsha Le and, in CPU 8 A read address (X M 〃, YM ″) is generated based on the image conversion matrix parameters b, to b 33 〃 calculated in the above manner. Typical operations will be described later.

リ アルシャ ドウ信号発生器 5 0はフ レームメ モ リ 2 3から出力 されるシャ ドウキー信号 (点光源モー ド時には K 4 , 平行光源モ ー ド時には Κ 6 ) が入力されて、 この入力されたシャ ドウ信号に 対し、 より現実的な影を生成するためのリアルシャ ドウキー信号 (点^;源モー ド時は Κ 4 ' 、 平行光源モード時は Κ 6 ' ) を出力 する。 このリ アルシャ ドウ信号発生器 5 0の詳細は後述する。 The real shadow signal generator 50 receives a shadow key signal (K 4 in the point light source mode and Κ 6 in the parallel light source mode) output from the frame memory 23, and receives the input shadow signal. outputs a; (when source mode is kappa 4 ', directional light mode kappa 6' point ^) against the dough signal, more realistic shadow Riarusha Douki signal for generating a. Details of the real shadow signal generator 50 will be described later.

以上がシャ ドウビデオ信号生成部 2 0 ' の構成である。  The above is the configuration of the shadow video signal generation unit 20 ′.

ス ク リ ー ンア ド レス発生回路 9 は、 モニタ ス ク リ ー ン 3のスク リ ーン面全体を、 ラスタスキャ ンの順に対応する順に了 ドレッ シ ングするための回路である。 具体的には、 内部において発生され た水平同期信号及び垂直同期信号に基づいて、 ス ク リ ーンァ ド レ ス ( X s , Y s ) が生成される。 The screen address generation circuit 9 is used for the monitor screen 3 screen. This is a circuit for dressing the entire lean surface in the order corresponding to the raster scan order. Specifically, a screen address (X s, Y s) is generated based on the internally generated horizontal synchronization signal and vertical synchronization signal.

コ ンパイ ナ 3 0 は、 オブジェク ト信号生成部 1 0 と シャ ドウ信 号生成部 2 0から供給された信号を混合するための回路である。 点光源モー ド時には、 コ ンパイナ 3 0は、 ォブジヱク ト信号生成 部 1 0から出力されたオブジェク トビデオ信号 V 3 及びオブジェ ク トキ一信号 K 2 を受け取るとともに、 シャ ドウ信号生成部 2 0 から出力されたシャ ドウビデオ信号 V 4 及びリ アルシャ ドウキ一 信号 K ' を受け取って、 ォブジヱタ トビデオ信号 V 2 とシャ ド ゥビデオ信号 V 4 とを混合した混合ビデオ信号 V M I X ' と、 ォブ ジヱク トキ一信号 K 2 と リ アルシャ ドウキ一信号 Κ 4 ' とを混合 - した混合キ一信号 ΚΜ Ι Χ ' とを生成する。 具体的には、 混合ビデ ォ信号 V M I X ' 及び混合キー信号 KMI X ' は、 次式 The compiler 30 is a circuit for mixing signals supplied from the object signal generator 10 and the shadow signal generator 20. In the point light source mode, the compiler 30 receives the object video signal V 3 and the object key signal K 2 output from the object signal generator 10, and outputs the object video signal V 2 and the object key signal K 2 from the shadow signal generator 20. Receives the shadow video signal V 4 and the real shadow signal K ′, and mixes the objet video signal V 2 and the shadow video signal V 4 with the mixed video signal V MIX ′ and the observ video signal K 2 and Li Arusha synchronizing first signal kappa 4 - produces the 'and the mixture was mixed keys signal kappa Micromax iota chi'. Specifically, mixed bidet O signal V MIX 'and mixed key signal K MI X', the following equation

V„I X ' = K 2 V 2 + ( 1 - K 2 ) Κ' V V „ IX '= K 2 V 2 + (1-K 2 ) Κ' V

K MIX ' = 1 - ( 1 - Κ 2 ) ( 1 一 Κ '  K MIX '= 1-(1-Κ 2) (1 one Κ'

と表すことができる。 また、 平行光源モー ド時には、 ォブジェク ト信号生成部 1 0から出力されたオブジェク ト ビデオ信号 V 2 及 びォブジヱ ク トキー信号 Κ 2 を受け取るとともに、 シャ ドウ信号 生成部 2 0から出力されたシャ ドウビデオ信号 V 及びリ アルシ ャ ドウキー信号 K ' 6 を受け取って、 ォブジヱク ト ビデ才信号 V 2 とシャ ドウビデオ信号 V 6 とを混合した混合ビデオ信号 V M I X " と、 ォブジヱク トキ一信号 K 2 と リ アルシャ ドウキー信号 K ' 6 と^混合した混合キ一信号 K MI X 〃 とを生成する。 具体的にはIt can be expressed as. In the parallel light source mode, the object video signal V 2 and the object key signal # 2 output from the object signal generator 10 are received, and the shadow video signal output from the shadow signal generator 20 is received. It receives signals V and Li Arushi catcher Douki signal K '6, Obujiweku preparative bidet and old signals V 2 and Shah Doubideo signal V 6 and the mixture was mixed video signal V mIX ", Obujiweku Toki first signal K 2 and Li Arusha Douki Generate a mixed key signal K MI X ^ mixed with the signal K '6.

、 混合ビデオ信号 V M I X 〃 及び混合キ—信号 KM I X " は、 次式 V ' - K 2 V 2 + ( 1 - K 2 ) K/ 6 V 6 , The mixed video signal V MIX 〃 and the mixed key signal K MIX "are expressed by the following equation: V′−K 2 V 2 + (1−K 2 ) K / 6 V 6

K " = 1 - ( 1 - K 2 ) ( 1 — K ' 6 ) · ' · · ( b ) と表すことができる。 コ ンバイナ 3 0の詳細については後述する ミ キサ 4 0 は、 コ ンバイナ 3 0から出力された混合ビデオ信号 及び混合キー信号と外部から供給されたバックグラゥ ン ドビデオ 信号 V BKを混合するための回路である。 点光源モー ド時、には、 ミ キサ 3 0から出力された混合ビデオ信号 VMIX ' 及び混合キ一信 号 K M I X ' を受け取ると共に、 外部から供給されたバッ クグラウ ン ドビデオ信号 V BKを受け取り、 混合キ一信号 K M I X ' に基づい て、 混合ビデオ信号 V MIX ' とバッ クグラウ ン ドビデオ信号 V BK とを混合し、 ァゥ 卜プッ ト ビデオ信号 V 0UT ' を生成する。 具体 的には、 このァゥ ト プッ ト ビデオ信号 V O U T ' は、 次式、 K "= 1-(1-K 2) (1 — K '6) ·' · · (b) It can be expressed as. Mixer 4 which will be described later in detail co Nbaina 3 0 0 is a circuit for mixing the supplied Bakkugurau down Dobideo signal V BK from the mixed video signal and mixed key signal and an external output from the co Nbaina 3 0 is there. In the point light source mode, it receives the mixed video signal V MIX ′ and the mixed key signal K MIX ′ output from the mixer 30 and receives the externally supplied background video signal V BK . The mixed video signal V MIX ′ and the background video signal V BK are mixed based on the mixed key signal K MIX ′ to generate an output video signal V 0UT ′. More specifically, this output video signal VOUT 'is given by the following equation:

V 0 U T = K M I X V M I X + ( 1 — M I X ) \ B K · · - · ( C ) と表すことができる。 点光源モー ド時には、 ミ キサ 3 0から出力 された混合ビデオ信号 VMIX " 及び混合キ一信号 KM I X ' を受け 取ると共に、 外部から供給されたバックグラウ ン ドビデオ信号 VV 0 UT = KMIX VMIX + (1 — MIX) \ BK · · · · · (C) In the point light source mode, while receiving the mixed video signal V MIX "and the mixed key signal K MIX 'output from the mixer 30, the background video signal V

BKを受け取り、 混合キー信号 K M I X 〃 に基づいて、 混合ビデオ信 号 VMIX " とバッ クグラ ウ ン ドビデオ信号 V BKとを混合し、 ァゥ トプッ ト ビデオ信号 V 0UT " を生成する。 具体的には、 このァゥ トプッ ト ビデオ信号 V。UT ' は、 次式、 BK , and mixes the mixed video signal V MIX "and the background video signal V BK based on the mixed key signal K MIX 、 to generate an output video signal V 0UT ". Specifically, this output video signal V. UT 'is

V O U T" - K M I X' V M i x " + ( 1 - K M I X" ) V B K '· ·· ( d ) と表すことができる。 生成されたァゥ トプッ ト ビデオ信号 V ουτ VOUT "-KMIX 'VM ix" + (1-KMIX ") VBK' · · · (d) Generated output video signal V ουτ

' 又は V。UT ' は、 外部に出力されると共に、 モニタ ス ク リ ー ン 3に表示される。 'Or V. UT 'is output to the outside and displayed on monitor screen 3.

( 2 ) ワ ール ド座標系の定義  (2) Definition of World Coordinate System

ます、 図 3を参照しながら、 本発明の説明で使用されるワール ド座標系について説明する。 このワ ール ド座標系とは、 X, Υ及 び Ζ軸からなる 3次元の直交座標系のことである。 すなわち図 3 に示すように、 X軸及びこれに直交する Υ軸で定義される Χ Υ平 面上にス ク リ ー ン面 3が存在するものとして、 X軸をス ク リ ー ン 面 3の水平 (左右) 方向と定義し、 Y軸をス ク リ ー ン面 3の垂直 (上下) 方向と定義する。 First, the world coordinate system used in the description of the present invention will be described with reference to FIG. This world coordinate system is a three-dimensional rectangular coordinate system composed of the X, Υ, and Ζ axes. In other words, as shown in Fig. 3, the Υ plane defined by the X axis and the Υ axis orthogonal thereto Assuming that the screen surface 3 exists on the surface, the X axis is defined as the horizontal (left / right) direction of the screen surface 3, and the Y axis is vertical (up / down) of the screen surface 3. ) Direction is defined.

また、 ス ク リ ー ン面 3の奥行方向を、 X Y平面に直交する Z軸 の正方向と定義し、 ス ク リ ー ン面 3 の手前側、 すなわち、、 ス ク リ 一ン面を見る視点 P Zが存在する側を Z軸の負方向と定義する。  In addition, the depth direction of the screen surface 3 is defined as the positive direction of the Z axis orthogonal to the XY plane, and the front side of the screen surface 3, that is, the screen surface is viewed. The side where the viewpoint PZ exists is defined as the negative direction of the Z axis.

さ らに、 ス ク リ ー ン面 3の中心が当該 X軸、 Y軸、 Z軸でなる ワールド座標系の原点と一致するものと定義する。  Further, it is defined that the center of the screen plane 3 matches the origin of the world coordinate system including the X axis, the Y axis, and the Z axis.

X軸にはス ク リ ー ン領域の内部 (原点) から左右外部方向に向 かって連続した仮想的な座標値が設定されており、 ス ク リ ー ン領 域内の X軸には、 視点 P Zからス ク リ 一ン面 3を見て左側からお 側に亘つて 「 一 4」 から 「+ 4」 の間の仮想的な座標値が設定さ れている。  Virtual coordinate values are set on the X-axis that are continuous from the inside (origin) of the screen area to the left and right sides, and the X-axis in the screen area has the viewpoint PZ The virtual coordinate values between "1 4" and "+4" are set from left to right when viewing the screen surface 3 from.

また Y軸にはス ク リ ー ン領域の内部 (原点) から上下外部方向 に向かって連続した仮想的な座標値が設定されており、 ス ク リ 一 ン領域内の Y軸には、 視点 P Zからス ク リーン面 3を見て下側か ら上側に亘つて 「 一 3」 から 「 + 3」 の間の仮想的な座標値が設 定されている。  In addition, virtual coordinate values that are continuous from the inside (origin) of the screen area in the vertical and external directions are set on the Y axis, and the Y axis in the screen area is provided with a viewpoint. Virtual coordinates between “13” and “+3” are set from below to above when viewing the screen surface 3 from PZ.

さ らに、 オペ レータの視点位置 P Zは、 Z軸上において、 その 座標値が 「 一 1 6」 となる位置に仮想的に設定されている。  Further, the operator's viewpoint position P Z is virtually set on the Z axis at a position where its coordinate value is “1 16”.

( ) ォブジェク ト ビデオ信号を生成するための変換処理の説明 まず、 図 4 A及び図 4 Bを参照しながら、 ソースビデオ信号 V □ からォブジ ク ト ビデオ信号 V 2 を生成する変換処理を説明す まず、 2次元のデータであるソ ースビデオ信号 V。 は、 画像変 換されずにそのままの状態でフ レームメ モ リ 1 2に記憶される。 従って、 図 4 A及び図 4 Bに示すように、 ソ ースビデオ信号 V。 は、 ワ ール ド座標系の X Y平面上に存在することにより、 当該 X Y平面に存在するスク リ ーン面 8上にソ ースビデオ信号 V。 の画 像が表示される。 () Description of Conversion Processing for Generating Object Video Signal First, the conversion processing for generating an object video signal V 2 from a source video signal V □ will be described with reference to FIGS. 4A and 4B. First, the source video signal V, which is two-dimensional data. Is stored in the frame memory 12 as it is without image conversion. Therefore, as shown in FIGS. 4A and 4B, the source video signal V. Is on the XY plane of the world coordinate system, Source video signal V on screen 8 present in the Y plane. Image is displayed.

因みに図 4 Αは、 ワールド座標系の 3次元座標で表される空間 において、 Z軸上の視点 P Zから、 X Y平面を見た状態を示して おり、 言い換えると、 ス ク リ ー ン面 3に表示される映像 現して いる。 また、 図 4 Bは、 ワール ド座標系の 3次元座標で表される 空間において、 Y軸の正側の視点位置から X Z平面を見た状態を 示している。 よって、 X Y平面に存在するソ ースビデオ信号 V 0 は、 スク リ ーン面 3 と重なっている。  Incidentally, Fig. 4 (a) shows a state where the XY plane is viewed from the viewpoint PZ on the Z axis in the space represented by the three-dimensional coordinates of the world coordinate system. The displayed image appears. FIG. 4B shows a state where the XZ plane is viewed from the viewpoint position on the positive side of the Y axis in a space represented by three-dimensional coordinates in the world coordinate system. Therefore, the source video signal V 0 existing on the XY plane overlaps the screen surface 3.

かかるソ ースビデオ信号 V。 に対して、 オペレータがコ ン ト 口 ールパネルの操作子を操作することによってワールド座標空間で の 3次元画像変換処理が施される。 すなわち、 各フ レームごとに 設定されるパラメ ータからなる 3次元変換行列 T。 を、 オペレー タの操作によつてソ ースビデオ信号 V。 の各画素に施すことによ り、 ソ ースビデオ信号 V。 を 3次元的な空間位置に変換する。 図 4 Βにおいては、 この 3次元画像変換処理されたビデオ信号を、 3次元ォブジヱク ト ビデ才信号 V , として表すことにする。 図 4 Α及び図 4 Βの場合の 3次元変換は、 ソ ースビデオ信号 V。 を X 軸を回転中心と して約 4 5 ° 回転し、 さらに Z軸の正方向に平行 移動した場合の一例である。  Such source video signal V. In response, the operator operates the controls on the control panel to perform 3D image conversion processing in the world coordinate space. That is, a three-dimensional conversion matrix T consisting of parameters set for each frame. The source video signal V by operating the operator. The source video signal V is applied to each pixel. Is converted to a three-dimensional spatial position. In FIG. 4, the video signal subjected to the three-dimensional image conversion processing is represented as a three-dimensional object video signal V ,. The source video signal V is used for the three-dimensional conversion in the cases of Figs. This is an example in which is rotated about 45 ° about the X-axis as the center of rotation, and further translated in the positive direction of the Z-axis.

3次元変換に用いられる 3次元変換行列 T Q は、 次式、 The three-dimensional transformation matrix T Q used for three-dimensional transformation is

Γ 1! Γ 1 2 0 Γ 1! Γ 1 2 0

Γ 2 1 Γ 2 2 2 3 0  Γ 2 1 Γ 2 2 2 3 0

T o = ( 1 )  T o = (1)

r 3 1 I 3 2 0  r 3 1 I 3 2 0

1 X 1 Y 1 s というように表される。 この 3次元変換行列 Τ。 に使用される変 換パラ メ 一タ Γ , , Γ ^は、 ソ ースビデオ信号 V。 を、 X軸回り 、 Y軸回り及び z軸回りに回転させるための要素、 ソースビデオ 信号 V。 を X軸方向、 Y軸方向及び Z軸方向にスケールを夫々拡 大 Z縮小させるための要素、 及び、 ソ ースビデオ信号 V。 を、 X 軸方向、 Y軸方向及び z軸方向に夫々スキューさせるための要素 等を含むパラメ 一タであって、 ノ、。ラメ 一タ 1 x , 1 Y , 、 1 z は、It is expressed as 1 X 1 Y 1 s. This 3D transformation matrix Τ. The conversion parameters,, Γ ^ used for the source video signal V. Around the X axis , Element for rotating around the Y axis and around the z axis, the source video signal V. For scaling the scale in the X-, Y-, and Z-axis directions, respectively, and the source video signal V. A parameter including elements for skewing in the X-axis direction, the Y-axis direction, and the z-axis direction, respectively. Lame data 1 x , 1 Y ,, 1 z are

X軸, Y軸及び Z軸方向にソ ースビデオ信号を夫々平行移動させ るための要素を含んだパラメ ータであって、 パラメ ータ Sは、 ソ ースビデオ信号 V。 全体を、 3次元の夫々の軸方向に、 一様に拡 大 Z縮小させるための要素を含んだパラメ 一タである。 The source video signal V is a parameter including elements for translating the source video signal in the X-axis, Y-axis, and Z-axis directions, respectively. This is a parameter that includes elements for uniformly enlarging and reducing the size of the whole in each of the three-dimensional axial directions.

尚、 この変換行列 T。 は、 回転変換等の座標系と平行移動変換 及び拡大縮小変換の座標系とを同じ 1つの座標系内で表現してい るので、 4行 4列の行列となり、 一般的には、 これを同次座標系 ( H omog e n e o u s C o or d m a t e ) と称している。  Note that this transformation matrix T. Is a 4-by-4 matrix because the coordinate system for rotation transformation and the coordinate system for translation transformation and scaling transformation are represented in the same single coordinate system. It is called the next coordinate system (Homogeneous Color or dmate).

かく して、 X Y平面に存在するソースビデオ信号 V Q が、 3次 元変換行列 Τ。 によって 3次元才ブジヱク ト ビデオ信号 V , で示 される 3次元的な位置に変換されると、 次の透視変換処理に移る ο Thus, the source video signal V Q existing in the XY plane is transformed into the three-dimensional conversion matrix Τ. Is converted to the three-dimensional position represented by the three-dimensional object video signal V, by the following perspective transformation processing.

この透視変換処理とは、 図 4 Α及び図 4 Βに示すように、 3次 元ォブジヱク ト ビデオ信号 V , を、 透視変換行列 P。 によって、 X Y平面に透視させる変換処理のことである。 言い換えると、 Z 軸上の仮想視点 P Zから 3次元オブジェク ト ビデオ信号 V , を見 たとき、 X Y平面に透視されるビデオ信号のィ メ 一ジを求める変 換である。 図 4 Bでは、 このように X Y平面に透視されたビデオ 信号を、 2次元のオブジェク ト ビデオ信号 V 2 と表している。 図 4 Bの場合、 X Y平面上のスク リ ーン面 3に透視されたオブジェ ク ト ビデオ信号 V 2 は、 仮想視点 P Zから見てスク リ ー ン面 3の 奥行き側にあたかも 3次元ォブジ ク トビデォ信号 V , が存在す るかのようなビデオイ メ ージである。 の透視変換行列 P。 は、 次式、 This perspective transformation processing is to transform the three-dimensional object video signal V, with the perspective transformation matrix P, as shown in FIGS. Is a transformation process that allows the XY plane to be seen through. In other words, when the 3D object video signal V, is viewed from the virtual viewpoint PZ on the Z axis, the conversion is to obtain the image of the video signal seen through the XY plane. In Figure 4 B, represents thus the perspective video signal to the XY plane, the 2-dimensional and the object video signal V 2. In the case of FIG. 4B, the object video signal V 2 seen through the screen plane 3 on the XY plane is a three-dimensional object on the depth side of the screen plane 3 as viewed from the virtual viewpoint PZ. This is a video image as if the video signal V, exists. The perspective transformation matrix P of. Is:

1 0 0 0  1 0 0 0

0 1 0 0  0 1 0 0

P ( 2 )  P (2)

0 0 0 P z  0 0 0 P z

0 0 0 1  0 0 0 1

によつて表される。 この透視変換行列 P。 のパラメ ータ P z は、 3次元変換ビデオ信号 V 2 を X Y平面上に透視する際に、 遠近法 を適用するためのパースぺクティ ブ値である。 すなわち図 4 Bの 場合、 3次元空間における 3次元ォブジヱク ト ビデオ信号 V , は 、 X Y平面に対して約 4 5 ° 傾いた状態であり、 これを仮想視点 P Zから見ると、 当該仮想視点 P Zからの距離が遠い部分は小さ く見え、 近い部分は大き く見える。 従ってパースペクティ ブを示 すパラ メ ータ P z を用いることにより、 X Y平面に透視される 2 次元のォブジヱク ト ビデオ信号 V 2 は、 3次元空間にある 3次元 ォブジヱク ト ビデオ信号 V , を仮想視点 P Zからの距離に応じて 変換したものとなる。 Is represented by This perspective transformation matrix P. 'S parameter P z, when seen through the three-dimensional conversion video signal V 2 on the XY plane is a perspective Bae Kuti blanking value for applying the perspective. That is, in the case of FIG. 4B, the three-dimensional object video signal V, in the three-dimensional space, is inclined by about 45 ° with respect to the XY plane, and when viewed from the virtual viewpoint PZ, The part that is far away looks small, and the part that is close looks large. Thus by using the perspectives blanking the shown to para menu over data P z, Obujiweku preparative video signal V 2 of the two-dimensional, which is transparent to the XY plane, three-dimensional Obujiweku preparative video signal V, and the virtual viewpoint in the three-dimensional space It is converted according to the distance from PZ.

3次元ォブジヱク ト ビデオ信号 V , の透視変換によるスク リ ー ン面 3上への変換位置は、 仮想視点 P Zとス ク リ ーン面 3との距 離、 及び、 仮想視点 P Zと 3次元オブジェク トビデオ信号 V , と の距離に応じて変化するものであり、 仮想視点 P Zの位置に応じ てパースぺクティ ブ値 P z をオペレータが設定することにより、 仮想視点 P Zの位置に応じた透視変換を行う ことができる。 通常 、 視点 P Zの位置が z軸の座標値 「一 1 6」 であることから、 パ 一スぺクティ ブ値 P z は 「 1 / 1 6」 が標準値となるように設定 されている。 The transformation position of the three-dimensional object video signal V on the screen plane 3 by the perspective transformation is determined by the distance between the virtual viewpoint PZ and the screen plane 3, and the virtual viewpoint PZ and the three-dimensional object. It changes according to the distance from the virtual video signal V, and the perspective conversion according to the position of the virtual viewpoint PZ is performed by the operator setting the perspective value Pz according to the position of the virtual viewpoint PZ. It can be carried out. Normally, since the position of the viewpoint PZ is the coordinate value “1 16” on the z-axis, the passive value P z is set so that “1/16” is a standard value.

以上のように、 ソ ースビデオ信号 V。 から 2次元のォブジェク ト ビデオ信号 V 2 を生成するための変換処理は、 3次元変換行列 T o によってソ ースビデオ信号 V Q から 3次元ォブジヱク トビデ ォ信号 V , を得るための空間的画像変換ステ ッ プと、 当該空間的 画像変換ステツプによつて得られた 3次元ォブジヱク トビデオ信 号 V , を透視変換行列 P。 によって 2次元のォブジヱク トビデオ 信号 V 2 に変換する透視変換ステップとから構成される。 従って 、 ソ ースビデオ信号 V。 から 2次元のオブジェク ト ビデオ信号 V a を得るための変換行列 Tobj は、 3次元変換行列 T Q と透視変 換行列 P。 との乗算式として、 次式、 As described above, the source video signal V. Conversion process to generate a two-dimensional Obujeku preparative video signal V 2 from the three-dimensional Obujiweku protruded by a three-dimensional transformation matrix T o from the source Subideo signal VQ A spatial image conversion step for obtaining the three-dimensional object video signal V, obtained by the spatial image conversion step. By composed of the perspective conversion step of converting two-dimensional in Obujiweku Tobideo signal V 2. Therefore, the source video signal V. The transformation matrix Tobj for obtaining a two-dimensional object video signal V a from the matrix is a three-dimensional transformation matrix T Q and a perspective transformation matrix P. As a multiplication expression with

Tobj = T 0 · P 0  Tobj = T 0P 0

Figure imgf000031_0001
Figure imgf000031_0001

によつて表される。 Is represented by

こ こで、 本発明の特殊効果装置を用いた画像処理装置は、 外部 から供給された 2次元のソ ースビデオ信号 V Q を、 一旦、 フ レー ムメ モ リ 1 2 に書込み、 このフ レームメ モ リ 1 2に対して、 読み 出しア ド レス発生回路 1 4において演算された 2次元の読み出し ア ド レス ( X s , Ys ) を供給することにより、 当該フ レームメ モリ 1 2から読み出されるビデオ信号に対してオペレータが所望 とする空間画像変換 ( 3次元画像変換) を施すことができる。 従 つてフ レームメ モ リ 1 2に記憶されるソ ースビデオ信号 V。 、 及 び、 フ レームメ モ リ 1 2から読み出されるォブジェク トビデオ信 号 V 2 は、 共に、 2次元のデータである。 つま り、 この 2次元の 読み出し了 ド レス (Xs , Ys ) の涫算においては、 3次元空間 上の z軸方向のデータは、 実質的に使用されない。 Here, the image processing apparatus using the special effect device of the present invention writes the two-dimensional source video signal VQ supplied from the outside to the frame memory 12 once, and By supplying the two-dimensional read address (X s , Y s ) calculated by the read address generation circuit 14 to the video signal read from the frame memory 12, On the other hand, spatial image conversion (three-dimensional image conversion) desired by the operator can be performed. Therefore, the source video signal V stored in the frame memory 12. , And the object video signal V 2 read from the frame memory 12 are two-dimensional data. That is, in涫算this two-dimensional readout completion de Les (X s, Ys) is a three-dimensional space Above z-axis data is not used.

従って、 ( 3 ) 式の Z軸方向の成分を演算するための 3行目及 び 3列目のパラメ ータは、 フ レームメ モ リ 1 2 に対する読み出し ァ ドレスを演算する際には必要とされない。  Therefore, the parameters in the third row and third column for calculating the component in the Z-axis direction of equation (3) are not required when calculating the read address for the frame memory 12. .

従って、 実際の 2次元の読み出し了 ドレスの演算に必要なパラ メ ータを有した 3次元変換行列を T 33とすると、 当該行列 T33Therefore, when the actual three-dimensional transformation matrix having para menu over data required for the operation of the two-dimensional readout completion dresses and T 33, the matrix T 33 is

、 ( 3 ) 式から 3行目及び 3列目のパラメ ータを除いた次式、 , (3), excluding the parameters in the third row and third column,

Γ ΐ〗 Γ ΐ 2 Γ ΐ 31 Ζ  Γ ΐ〗 Γ ΐ 2 Γ ΐ 31 Ζ

丄 33 = Γ 21 22 Γ 231 Ζ ( 4 )  丄 33 = Γ 21 22 Γ 231 Ζ (4)

1 X Υ 1 2 Ρ Ζ + S  1 X Υ 1 2 Ρ Ζ + S

によって表すことができる。 Can be represented by

こ こで、 フ レームメ モ リ 1 2上の位置ベク ト ルと、 モニタ ス ク リ ー ン 8上の位置べク トルとの関係について説明する。  Here, the relationship between the position vector on the frame memory 12 and the position vector on the monitor screen 8 will be described.

図 5 Λにおいて、 フ レー厶メ モ リ 1 2上の 2次元のア ド レスを ( Χ Μ , Υ Μ ) 及び位置ベク ト ルを 〔Χ Μ ΥΜ 〕 と し、 モニタ ス ク リ ー ン 3上のァ ド レスを (Xs , Y s ) 及び位置べク ト ルを [Xs Y s 〕 とする。 このフ レームメ モ リ 1 2上の 2次元の位 置べク トル 〔 Χ Μ ΥΜ 〕 を、 同次座標系で表現すると、 べク ト ル 〔 X m y m H。 〕 と表すことができる。 またモニタスク リ ー ン 5 5上の位置べク トル 〔XS Ys ] を同次座標系で表現す ると、 ベク ト ル 〔 X 6 y 6 1〕 と表すことができる。 In FIG. 5 lambda, the two-dimensional add-less on-off Re_厶Me mode Li 1 2 (Χ Μ, Υ Μ ) and the position vector preparative Le a [chi Micromax Upsilon Micromax], monitor scan click rie down 3 on § de-less (X s, Y s) and position the base click preparative Le and [Xs Y s]. The two-dimensional position base-vector on the full Remume mode Li 1 2 [chi Micromax Upsilon Micromax], is expressed in the same coordinate system, base click preparative Le [X m y m H. 〕 It can be expressed as. Further, when the Monitasuku rie down 5 position on the 5 base-vector [X S Y s] you expressed by homogeneous coordinate system can be represented as vector preparative Le [X 6 y 6 1].

なお、 この同次座標系のパラメ ータ 「H。 」 は、 べク トルの大 きさの拡大及び縮小率を表すパラ メ ータであって、 この H。 の値 を本実施例においては、 疑似的な奥行き情報と して使用している 。 こめ H。 に関しては後述する。  The parameter “H.” in this homogeneous coordinate system is a parameter that represents the scale of the magnitude of the vector and the rate of reduction. Is used as pseudo depth information in the present embodiment. Rice H. Will be described later.

かく してフ レームメ モ リ 1 2上の位置ベク トル 〔 X m y m H Q 〕 に対して、 3次元変換行列 T 33を作用させることによってNuclear and relative position vector on full Remume mode Li 1 2 [X m y m H Q] and, by the action of the three-dimensional transformation matrix T 33

、 フ レームメ モ リ 1 2上の位置べク トル 〔 X m y m H。 〕 が モニタ ス ク リ ー ン 3上の位置べク トル 〔 X s y s 1〕 に変換 される。 従って、 フ レームメ モ リ 1 2上の位置べク トル 〔 X m y m H。 :] とモニタ ス ク リ ー ン 3上の位置ベク ト ル 〔 x s y s 1〕 との関係式は、 次式、 , Full Remume mode Li 1 2 on the position base-vector [X m y m H. 〕 But It is converted to the monitor scan click position base-vector on rie down 3 [X s ys 1]. Thus, full Remume mode Li 1 2 on the position base-vector [X m y m H. : And relationship between the monitor scan click position vector preparative le on rie down 3 [x s ys 1], the following equation,

C X s y s 1 ] = C X n, y m H。 〕 · T 3 3 · · · ' ( 5 ) によつて表すことができる。 CX sys 1] = CX n, y m H. ] · T 3 3 · · · '(5).

なお、 フ レームメ モ リ 1 2上の位置ベク ト ル 〔 X m y m H 。 〕 において使用されている同次座標系のパラメ ータ 「H。 」 及 び、 モニタスク リ ー ン 8上の位置べク ト ル 〔 X s y s 1〕 に おいて使用されている同次座標系のパラメ ータ 「 1 」 との関係はThe position vector on the frame memory 12 [X mym H. Parameter "H."及beauty homogeneous coordinate system used in], homogeneous coordinate system used Oite to position base click preparative Le on Monitasuku rie down 8 [X s ys 1] The relationship with the parameter “1” is

、 3次元変換行列 T 3 3によって、 フ レームメ モ リ 1 2上の 2次元 の位置べク ト ル 〔 X m y m 〕 が、 モニタス ク リ ー ン 3上の 2次 元の位置べク ト ル 〔 X s y s 〕 に変換され、 フ レームメ モ リ 1 2上の 2次元の位置べク ト ル 〔 x m y m ] の拡大縮小率 「H。 」 が、 モニタスク リ ーン 3上の同次座標系の位置べク トル 〔 X s y s 〕 の拡大縮小率 「 1 」 となるように変換されることを表し ている。 , By a three-dimensional transformation matrix T 3 3, full Remume mode two-dimensional position downy click preparative Le on Li 1 2 [X m y m] of the secondary source position base click DOO on Monitasu click rie down 3 is converted to le [X sys], scaling ratio of the full Remume mode two-dimensional position downy click preparative Le on Li 1 2 [x m y m] "H." is the on Monitasuku rie down 3 follows represents be converted as scaling ratio of the coordinate system position base-vector of [X s ys] becomes "1".

このように、 ( 5 ) 式は、 フ レームメ モ リ 1 2上の点に対応す るモニタ ス ク リ ー ン 2上の点を行列 T 3 3によつて求める関係式で ある。 こ こで、 特殊効果装置を用いた画像処理装置では、 ソ 一ス ビデオ信号を変換前の状態でフレームメモ リ 1 2に記憶し、 変換 行列 Τ 3 3によって得られたモニタスク リ ーン 3上の点に対応する フ レームメ モ リ 1 2の点を読み出しア ド レスによって措定するこ とにより、 ソ ースビデオ信号に対して空間的な画像変換を施すよ うになされている。 つまり、 フ レームメ モ リ 1 2に書き込む際にThus, equation (5) is a relational expression for determining the point on the monitor scan click rie down 2 that corresponds to a point on the full Remume mode Li 1 2 Te matrix T 3 3 Niyotsu. Here, in the image processing device using the special effect device, the source video signal is stored in the frame memory 12 before conversion, and is stored on the monitor screen 3 obtained by the conversion matrix Τ33. The spatial video conversion is performed on the source video signal by determining the point of the frame memory 12 corresponding to the above point by the read address. In other words, when writing to frame memory 12

、 画像変換が行なわれるのではなくて、 フ レームメ モ リ 1 2から 読み出される際に、 画像変換が行なわれる。 Instead of performing the image conversion, the image conversion is performed at the time of reading from the frame memory 12.

このような画像処理装置においては、 フ レームメ モ リ 1 2上の 点に対応するモニタスク リ ーン 3上の点を求めるような ( 5 ) 式 による演算を行うのではなく 、 モニタスク リ ー ン 3上の点に対応 するフ レームメ モ リ 1 2上の点を求める必要がある。 従って ( 5 ) 式を変換して、 次式、 In such an image processing apparatus, the frame memory 12 Instead of calculating by the equation (5) to find the point on the monitor screen 3 corresponding to the point, find the point on the frame memory 12 corresponding to the point on the monitor screen 3 There is a need. Therefore, by transforming equation (5),

C X m y m H o = L x s y s 1〕 · Τ33— 1 ·' ·· 、 6 ) によつて表される関係式を用いることにより、 モニタスク リ ーン 3上の点に対応するフ レームメ モ リ 1 2上の点を求めることがで きる。 よって、 この式 ( 6 ) に従って、 モニタスク リ ー ン 3上の 位置べク ト ル 〔 X s y s 1 〕 が指定されると、 変換行列 T33 一'によってフ レームメ モ リ F M上の位置べク ト ル 〔 x m y m H。 〕 が溃算される。 因みに、 この変換行列 T33— ' は、 変換行 列 Τ 33の逆行列である。 CX m ym H o = L xsy s 1 ] · Τ 3 3- 1 · '·· , 6) by using a relational expression represented Te Niyotsu, off corresponds to a point on Monitasuku rie down 3 Remume A point on the memory 12 can be obtained. Therefore, according to the equation (6), the position base click preparative Le on Monitasuku rie down 3 [X s ys 1] is specified, base position on the full Remume mode Li FM by the transformation matrix T 33 one 'click DOO Le [x m y m H. ] Is calculated. Incidentally, the transformation matrix T 33 - 'is the inverse matrix of the transformation matrix T 33.

次に、 フ レームメ モ リ F M上の 2次元の位置べク ト ル 〔ΧΜ Υ Μ 〕 を求めるために、 変換行列 Τ33及び逆行列 Τ33- 1を以下の ようにする。 すなわち、 変換行列 Τ 33の各要素を、 Next, in order to obtain the two-dimensional position downy click preparative Le [chi Micromax Upsilon Micromax] on full Remume mode Li FM, the transformation matrix T 33 and the inverse matrix T 33 - to 1 as follows. That is, each element of the transformation matrix Τ 33 is

Figure imgf000034_0001
Figure imgf000034_0001

a , Si I 2 a 1 3  a, Si I 2 a 1 3

a 2 & 22 α 23 ( 7 ) a 3 3 32 33  a 2 & 22 α 23 (7) a 3 3 32 33

とおき、 逆行列 T のパラメ 一タを、 次式. And the parameters of the inverse matrix T are:

X 33 1 = X 33 1 =

Figure imgf000034_0002
Figure imgf000034_0002

( 8 ) a  (8) a

但し b  Where b

d e t (T 33) det (T 33 )

のようにおく とにする。 ( 8 ) 式を ( 6 ) 式に代入して、 次式、 As follows. Substituting equation (8) into equation (6),

〔 X m y m H。 〕[X my m H. ]

Figure imgf000035_0001
Figure imgf000035_0001

= C b i i x s + b 2 1 y s + b a ,  = C b i i x s + b 2 1 y s + b a,

b 1 2 X S 4- b 22 y S + b 32  b 1 2 X S 4-b 22 y S + b 32

b , 3 x s + b 23 y s + b 33〕 · · · · ( 9 ) となる。 よって、 次式、 b, 3 xs + b 23 ys + b 3 3] · · · · (9). Therefore, the following equation:

X m = b i , X s + b 2 1 y S + b 3 I  X m = b i, X s + b 2 1 y S + b 3 I

y m = b [ 2 X S + b 22 y S + b 32 · · · · ( 1 0 )  y m = b [2 X S + b 22 y S + b 32 (10)

H o = b I 3 X S + b 23 y S + b 33  H o = b I 3 X S + b 23 y S + b 33

の関係式が得られる。 Is obtained.

こ こで、 フ レームメ モ リ 1 2上の同次座標系の位置べク ト ル 〔 X m y m H。 〕 を、 フ レームメ モ リ 1 2上の 2次元の位置べク ト ル 〔ΧΜ ΥΜ 〕 に変換する場合について説明する。 Here, the position vector of the homogeneous coordinate system on the frame memory 12 [X my m H. Is converted to a two-dimensional position vector [Χ Μ Υ Μ ] on the frame memory 12.

2次元の位置べク ト ル 〔ΧΜ Υ„ 〕 を同次座標系で表すときに 使用するパラメ ータ 「Η。 」 は、 同次座標系の位置べク ト ル 〔 X m y m } の拡大縮小率を表すパラ メ 一タであることから、 同次座 標系の位置べク トルを 2次元の位置べク トルに変換するためには 、 同次座標系の位置べク ト ルの方向を示すパラ メ ータ 「 X m 」 及 び 「 y m 」 を、 同次座標系の位置べク ト ルの拡大縮小率を表すパ ラメ ータ 「 1-1。 」 で正規化すれば良い。 従って、 モニタスク リ ー ン 3上の 2次元の位置べク ト ルの各パラ メ ータ 「 XM 」 及び 「Υ Μ 」 は、 次式、 The parameter “Η.” Used to represent the two-dimensional position vector [Χ Μ Υ „] in the homogeneous coordinate system is the parameter of the homogeneous coordinate system's position vector [X my m }. Since it is a parameter that represents the scale factor, to convert the position vector of the homogeneous coordinate system to a two-dimensional position vector, the position vector of the homogeneous coordinate system must be converted. If the parameters “X m ” and “y m ” indicating the direction are normalized by the parameter “1-1.” Which indicates the scale of the position vector in the homogeneous coordinate system, good. Therefore, Monitasuku each parameter menu over data "X M" in the two-dimensional position downy click preparative Le on rie down 3 and "Upsilon Micromax" is expressed by the following equation,

X m X m

ズ M = M =

H 0  H 0

y m  y m

YM = ( 1 1 ) Y M = (1 1)

H o と表すことができる。 モニタスク リ ー ン 3上の同次座標系のベク ト ル 〔 x s y s 1〕 を、 2次元の位置ベク トル 〔 X s Ys 〕 に変換する場合についても同様にして、 同次座標系の位置べク ト ルの方向を示すパラ メ 一タ 「 X s 」 及び 「 y s 」 を、 同次座標系 の位置べク ト ルの拡大縮小率を表すパラメ ータ 「 1 」 で、正規化す れば良い。 従って、 モニタ ス ク リ ー ン 3上の 2次元の位置べク ト ルの各パラメ ータ 「 x s 」 及び 「YS 」 は、 次式、 H o It can be expressed as. Monitasuku the homogeneous coordinate system vector preparative Le of the rie down 3 [x s ys 1], in the same when converted into the two-dimensional position vector [X s Ys], the position of the homogeneous coordinate system The parameters “X s ” and “y s ” indicating the vector direction are normalized by the parameter “1” indicating the scale factor of the position vector in the homogeneous coordinate system. Good. Therefore, the monitor scan click rie down 3 on a two-dimensional of each parameter "x s" position downy click preparative Le and "Y S" is expressed by the following equation,

X s = X s  X s = X s

Y s = y s ·· ·· ( 1 2 )  Y s = y s (1 2)

と表すことができる。 It can be expressed as.

よって、 フ レームメ モ リ 1 2に対して供給される 2次元の読み 出しア ド レス ( X M , ΥΜ ) は ( 1 0 ) 式から、 次式、 Therefore, the two-dimensional read address (X M , Υ Μ ) supplied to the frame memory 12 is given by the following equation from the equation (10).

X X

Μ ―  Μ ―

H o  H o

b ! 1 X s 4- b 2 1 y s + b 3 1  b! 1 X s 4-b 2 1 y s + b 3 1

b 1 3 X S + b 23 y S + b 33  b 1 3 X S + b 23 y S + b 33

b , I x s + b 2 1 y s + b 3 1  b, I xs + b 2 1 y s + b 3 1

1 3 ) b I 3 X S b 2 3 y s + b  1 3) b I 3 X S b 2 3 y s + b

y y

Y  Y

H o  H o

b x + b 2 2 y s -I- b 32  b x + b 2 2 y s -I- b 32

b 1 3 X S + b 23 Υ S + b 33  b 1 3 X S + b 23 Υ S + b 33

b I 2 x s + b 22 y s 4- b 32  b I 2 x s + b 22 ys 4-b 32

( 1 ) b i 3 x s + b 23 y s + b a a と して求めることができる。 (1) can be obtained as a bi 3 xs + b 2 3 ys + baa.

次に T 33— 'の各パラメ 一タ b u b ^を求める。 a 3 2 3. 23 + fi 2 2 3. 3 Next, each parameter bub ^ of T 33 — 'is obtained. a 3 2 3.23 + fi 2 2 3.3

b 11 ( 1 5 )  b 11 (1 5)

W ,  W,

a 32 a 1 3一 l 12 a 23  a 32 a 1 3 l l 12 a 23

b I 2 ― ( 1 6 )  b I 2 ― (1 6)

W I  W I

a 22 a. 13 + a l 2 a  a 22 a. 13 + a l 2 a

b , ( 1 7 )  b, (1 7)

w 1  w 1

a 3 I S 23― 3- 21 a 33  a 3 IS 23− 3-21 a 33

b 2 I ( 1 8 )  b 2 I (1 8)

w  w

一 a a + a a 33  One a a + a a 33

b 22 = ( 1 9 ) b 22 = (1 9)

W ,  W,

Figure imgf000037_0001
b 3 2 ― ( 2 2 )
Figure imgf000037_0001
b 3 2 ― (2 2)

w , b 3 3 ( 2 3 )  w, b 3 3 (2 3)

W , になる o ただし、  W, becomes o where

W 1 ~ ― 3. 2 3 S 3 1 α. 1 3 + d 2 1 α 32 S 1 3 + 3 1 2 cl 3 I CI 23  W 1 ~ ― 3.2 3 S 3 1 α. 1 3 + d 2 1 α 32 S 1 3 + 3 1 2 cl 3 I CI 23

― tl l l S 3 2 3 23 ― ii I 2 cl 21 3. 33 + S 1 I 3. 22 S 33  ― Tl l l S 3 2 3 23 ― ii I 2 cl 21 3.33 + S 1 I 3.22 S 33

• · · · ( 2 4 ) である o ここで、 a u〜a 33の値は ( 7 ) 式の関係から、 · · · · (2 4) o Here, the values of au to a 33 are, from the relationship of equation (7),

a , i — 1 1 , Ά 1 2 — T 1 2, a 1 3 = 1 3 Ρ ζ ·· ·· 2, D ) a, i — 1 1, Ά 1 2 — T 1 2, a 1 3 = 1 3 Ρ ζ

3. 21 = 2 1 , a 22— Γ 22, £1 2 3— Γ 2β Ρ ζ ·· ·· ( 2 6 ) a 31 = 1 χ , a 32= 1 y , a 33= l z Ρ ζ + s - - - - ( 2 7 ) であるから、 これを ( 1 5 ) 式〜 ( 2 4 ) 式に代入することによ 、

Figure imgf000038_0001
3. 21 = 2 1, a 22— Γ 22, £ 1 2 3— Γ 2β Ρ ζ (26) a 31 = 1 χ, a 32 = 1 y , a 3 3 = l z Ρ ζ + s----(27), so by substituting this into the expressions (15) to (24),
Figure imgf000038_0001

+ Γ 2 1 1 y Γ 1 3 P Z  + Γ 2 1 1 y Γ 1 3 P Z

Γ I 2 1 Γ 2 3 i Z  Γ I 2 1 Γ 2 3 i Z

一 Γ Γ 2 3 P Z  1 Γ Γ 2 3 P Z

~ Γ , 2 Γ 2 ! ( 1 Z P Z + S )  ~ Γ, 2 Γ 2! (1 Z P Z + S)

+ r , , r 2 2 ( l z P z + s ) -- ( 3 7 + r,, r 2 2 (lz P z + s)-(3 7

と表すことができる。 It can be expressed as.

かく して、 ( 2 8 ) 式〜 ( 3 7 ) 式の値を ( 1 8 ) 式及び ( 1 4 ) 式に代入することにより、 フ レームメ モ リ 1 2 に供給される 読み出しア ド レス ( X M , Υ Μ ) は、 Thus, by substituting the values of the expressions (28) to (37) into the expressions (18) and (14), the values are supplied to the frame memory 12. The read address (X M , Υ Μ ) is

X Μ — C { - 1 X 23 P z + r 22 ( l z P z + s ) } X X Μ — C {-1 X 23 P z + r 22 (lz P z + s)} X

Η 0  Η 0

+ { 1 3P Z + Γ , 2 ( 1 ζ Ρ ζ + s ) } Υ s+ {1 3 PZ + Γ, 2 (1 ζ Ρ ζ + s)} Υ s

+ (一 r 13Ρ ζ + r 12 r 23Ρ ζ ) ] · - ·· ( 3 8 ) + (One r 13 Ρ ζ + r 12 r 23 Ρ ζ)]--

Υ C { 1 χ Ρ ζ 一 2 I ( 1 ζ Ρ ζ + s ) } X Υ C {1 χ Ρ ζ 一 2 I (1 ζ Ρ ζ + s)} X

Η  Η

+ { - 1 χ + r ( 】 ζ Ρ + s ) } Υ + {-1 χ + r () ζ Ρ + s)} Υ

+ { Γ 2 1 Γ 1 3 Ρ - r 1 1 r Ρ ζ } 〕 ( 3 9 として与えられる。 ただし、 II。 は次式、  + {Γ 2 1 Γ 1 3 Ρ-r 1 1 r Ρ ζ}] (given as 39. However, II.

H o = ( ― 2 2 X + r 2 1 】 y ) A S  H o = (-2 2 X + r 2 1) y) A S

+ \. 1 2 1 X Γ 1 1 1 y ノ  + \. 1 2 1 X Γ 1 1 1 y

+ (― r l 2 r 2 1 + r i i r 22) …- ( 0 ) + (− R l 2 r 2 1 + riir 22 )…-(0)

である。 よつてフ レーム メ モ リ 1 2 に供給される読み出しァ ド レ ス ( X M 、 Υ„ ) を、 オペ レータの所望の空間的画像変換装置に よつて決定される 3次元変換行列 Τ。 の各パラメ ータ ( r , ,〜 rIt is. The read address (X M , Υ „) supplied to the frame memory 12 is converted into a three-dimensional conversion matrix Τ determined by a desired spatial image conversion device of the operator. Each parameter (r,, ~ r

33, 1 X , 1 y , 1 z 及び s ) 、 及び、 予め設定されるパラメ 一 タであるパ—スぺクティ ブ値 P z を用いて表すことができる。 It can be expressed using the scan Bae Kuti blanking value P z - 33, 1 X, 1 y, 1 z and s), and, Pas a parameter one data set in advance.

従って ( 6 ) 式〜 ( 4 0 ) 式に対して、 モニタスク リ ーン 3の ラスタスキャ ン順に対応するようにアドレッ シングするスク リ ー ンア ド レス ( X s , Y s ) を供給すると、 その供給されたスク リ — ンァ ド レス に対応したフ レームメ モ リ 1 2上における読み出し ア ド レス ( X M , Y M ) を、 順に演算することができる。 Therefore, when a screen address (Xs, Ys) to be addressed to the equations (6) to (40) so as to correspond to the raster scan order of the monitor screen 3 is supplied, the supply is performed. The read addresses (X M , Y M ) on the frame memory 12 corresponding to the screen address thus obtained can be sequentially calculated.

HU述したように、 本実施例においては、 ( 4 0 ) 式によつて求 められたパラメ 一タ 11。 の値を奥行き情報として使用している。  As described in the HU, in this embodiment, the parameter 11 obtained by the expression (40) is used. Is used as depth information.

なぜなら、 3次元変換した際の実際の 3次元空間の Ζ ^標値とこ の H。 とが比例するからである。 Because the Ζ ^ standard value of the actual 3D space when 3D conversion is performed H. Is proportional to

このように奥行き情報として 3次元空間の実際の Zの座標値を 使用するのではなく、 ( 4 0 ) 式で求められた Hの値を使用する ことによって以下の効果を有する。 すなわち、 奥行き情報を演算 する場合に、 実際の Z座標値を演算する必要がないので、 1次元 分の演算を省略することができることになる。 これによつて、 3 次元変換用の高速なプロセッサを使用する必要がなく、 速度の遅 いプロセッサを使用しても奥行き情報を演算することができる。 さ らに、 この H。 はフ レームメ モ リ 1 2, 1 3に供給する 2次元 読み出しァ ドレスを演算するときに必要とされる値であるので、 この H。 を求めるために特別な演算をする必要はないのである。 従って、 さ らに高速な浪算を行う ことができる。  Thus, the following effects are obtained by using the value of H obtained by the equation (40) instead of using the actual Z coordinate value in the three-dimensional space as the depth information. That is, when calculating the depth information, it is not necessary to calculate the actual Z coordinate value, so that the calculation for one dimension can be omitted. Thus, it is not necessary to use a high-speed processor for three-dimensional conversion, and depth information can be calculated even with a low-speed processor. In addition, this H. Since H is a value required when calculating the two-dimensional read address to be supplied to the frame memories 12 and 13, this H is used. There is no need to perform any special operations to find. Therefore, even faster calculation can be performed.

このようにして求められたパラメ ータ H α の意味は図 6 ( Β ) に示すよ う にス ク リ ー ン面 5 5 Α上の空間サンプ リ ングア ド レス ( X s , y s ) の間隔、 すなわちス ク リ ー ン面 5 5 A上の画素の 間隔を、 「 1 」 としたとき、 図 6 ( A ) に示すように、 フ レーム メ モ リ 1 2 , 1 3の読み出し空間のサ ンプリ ングア ド レス ( X , y ) の間隔が値 「H。 」 であることを意味する。 なお、 図 6 ( A ) , 6 ( B ) において、 〇はフ レームメ モ リ に記憶されたデータ 、 Xは読み出しア ド レスポイ ン ト を示す。 In this way, it obtained on the parameters H meaning of α Figure 6 space sump on the scan click rie down surface 5 5 Α Remind as in (Β) Li Ngua de-less (X s, y s) of Assuming that the interval, that is, the interval between pixels on the screen surface 55 A is “1”, as shown in FIG. 6 (A), the read space of the frame memories 12 and 13 is It means that the interval between the sample addresses (X, y) is the value "H." In FIGS. 6 (A) and 6 (B), 〇 indicates data stored in the frame memory, and X indicates a read address point.

そこで、 奥行き情報 Η。 と してのパラメ ータ H。 の値が大きく なったときは ( 1 3 ) 式及び ( 1 4 ) 式において正規化されたフ レームメ モ リ 1 2 , 1 3の読み出しア ド レス ( x M Z H。 , y M Z H。 ) の値が小さ く なる。 このようにフ レームメ モ リ 1 2, 1 3の読み出しァ ドレスの間隔が小さ く なると、 ス ク リ ー ン面 5 5So, depth information Η. Parameter H as When the value is greater (1 3) and (1 4) normalized full Remume mode Li 1 2, 1 3 read add-less in formula (x M ZH., Y M ZH.) Of The value becomes smaller. As described above, when the interval between the read addresses of the frame memories 12 and 13 is reduced, the screen surface 55

A上に展開される画素数が多く なるこ とによ り、 このス ク リ ー ン 面上 5 5 A上に映し出される映像が拡大される結果になる。 By increasing the number of pixels developed on A, the image projected on 55 A on this screen surface is enlarged.

これに対して、 ノ、。ラ メ 一タ Hが小さ くなると、 フ レームメ モ リ 1 2 , 1 3の正規化された読み出しア ド レス ( x M / H O , y M Z H。 ) が大き く なることを意味し、 これによりフ レームメ モ リ 1 2 , 1 3の空間的な読み出しア ド レスの間隔が大き く なる。 と ころが、 空間的な読み出しサンプリ ングァ ドレスの間隔が大き く なると、 フ レームメ モ リ 1 2, 1 3から読み出したデ一、タをスク リ ーン面 5 5 A上に表示したとき、 映し出される映像は縮小され る結果となる。 On the other hand, no. When the frame size H decreases, the frame memory 1 2, 1 3 of the normalized read add-less (x M / HO, y M ZH.) Means that the Naru rather large, thereby the spatial reading off Remume mode Li 1 2, 1 3 The interval between addresses increases. However, when the space between the spatial readout sampling addresses becomes large, the data read out from the frame memories 12 and 13 is displayed when displayed on the screen surface 55A. The resulting video is reduced.

例えば図 7 ( B ) に示すようにフ レームメ モ リ 1 2 , 1 3のァ ドレス空間において、 遠近法を用いないで指定したメモ リ エ リ ア E R 1 と交差するように、 遠近法に従ってパラメ ータ H。 を異な らせた領域 E R 2の読み出しァ ド レスによって画像データを読み 出したとき、 ス ク リ ー ン面 5 5 A上に映し出される映像は、 図 7 ( A ) に示すように、 遠近法を用いないでフ レームメ モ リ 1 2 , 1 3の領域 E R 1から読み出した画像データは、 領域 E R 1全体 に亘つて同一のパラメ ータ Hによつて決る空間的な読み出しサ ン プ リ ングア ド レスによ って読み出されることによ って、 ス ク リ ー ン面 5 5 A上に遠近法によらない画像として領域 E R I Xに表示 される。  For example, as shown in Fig. 7 (B), in the address space of frame memories 12 and 13, parameters are set according to the perspective so as to intersect with the specified memory area ER1 without using the perspective. Data H. When the image data is read out by the read address of the area ER2 where the image is read out, the image projected on the screen surface 55A is projected in perspective as shown in Fig. 7 (A). The image data read out from the area ER1 of the frame memories 12 and 13 without using the image data is a spatial readout sampler determined by the same parameter H over the entire area ER1. By being read out by the dress, the image is displayed in the area ERIX on the screen surface 55A as a non-perspective image.

これに対してフ レームメ モ リ 1 2, 1 3の画素データを、 遠近 法によ り空間的な読み出しサ ンプ リ ングァ ドレスの間隔が相違す る領域 E R 2から読み出した画像データは、 ス ク リ ー ン面 5 5 A 上においてパラメ ータ H。 が大きい読み出しサンプリ ングァ ドレ スの部分においては縮小されるような画像となり、 かつパラメ一 タ H。 が小さ く なり読み出しサンプリ ングァ ドレスの間隔が大き く なる領域においては、 ス ク リ ー ン面 5 5 A上に縮小された画像 が映し出されることになる。  On the other hand, the pixel data of the frame memories 12 and 13 are read from the area ER2 where the intervals of the spatial readout sampling addresses are different by the perspective method. Parameter H on lean surface 55A. In the read sampling address where is large, the image is reduced and the parameter H is set. In a region where the distance between the read sampling addresses becomes large and the interval between the read sampling addresses becomes large, a reduced image is displayed on the screen surface 55A.

このようにしてパラメ 一タ H。 は、 その大きさの変化が奥行き 情報として機能することにより、 遠近法を用いた画像をスク リ一 ン面 5 5 A上に映し出させることができる。 In this way, the parameter H. Changes in the size of the image as depth information, so that images using perspective can be screened. Can be projected on the surface 55A.

( 4 ) シャ ドウ座標系の説明  (4) Explanation of shadow coordinate system

次に、 図 8を参照しながらシャ ドウ座標系について説明する。 シャ ドウ座標系とは、 ワ ール ド座標系と同様に、 X s , Y S 及び Z s 軸からなる 3次元の直交座標系によって定義される、座標系で ある。 図 8に示すように、 ォブジェク ト ビデオ信号 V ob j に対し て付与されるシャ ドウをシャ ドウビデォ信号 V shadowとすると、 シャ ドウビデオ信号 V shadowが投影される面をシャ ドウ座標系の X Y面とし、 これをシャ ドゥ面と称する。 ォブジヱク トビデオ信 号 V obj のシャ ドウを付与するための光源の存在する方向をシャ ドウ座標系の Z軸の負方向とする。 以下に説明するように、 本発 明の特殊効果装置は、 この光源として、 点光源を使用してシャ ド ゥを生成する点光源モー ドと、 平行光源を使用してシャ ドウを生 成する平行光源モー ドとを有し、 オペレータが自由に設定するこ とができる。 また、 このワール ド座標系の X, Y及び Z軸に対す る、 シャ ドウ座標系の X s , Y s 及び Z s 軸の夫々の角度は、 ォ ペレータが任意に角度を設定することができる。 Next, the shadow coordinate system will be described with reference to FIG. The shadow coordinate system, like the word Lumpur de coordinate system, X s, is defined by three-dimensional orthogonal coordinate system consisting of YS and Z s axis is a coordinate system. As shown in FIG. 8, when the shadow given to the object video signal V ob j is a shadow video signal V shadow, the plane on which the shadow video signal V shadow is projected is defined as the XY plane of the shadow coordinate system. This is called the shadow plane. The direction in which the light source for providing the shadow of the object video signal Vobj exists is defined as the negative direction of the Z axis of the shadow coordinate system. As described below, the special effects device of the present invention generates a shadow using a point light source mode using a point light source and a shadow light source using a parallel light source. It has a parallel light source mode and can be freely set by the operator. Further, X in the whirlpool de coordinate system, against the Y and Z-axis, X s, the angle of each of the Y s and Z s axis of shadow coordinate system can be O Operator sets an arbitrary angular .

( 5 ) 点光源モー ド時のシャ ドウビデオ信号を生成するための変 換処理の説明  (5) Description of conversion processing for generating a shadow video signal in point light source mode

まず、 図 9 A及び図 9 Bを參照しながら、 点光源モー ドのとき において、 ソ ースビデオ信号を変換してシャ ドウビデオ信号 V 4 を得るための変換処理について説明する。 尚、 図 9 A及び図 9 B は、 図 4 A及び図 4 Bと同じように、 図 9 Aは、 ワ ール ド座標系 の Z軸上に設定された視点 P Zからヮールド座標系の X Y平面を 見たときの図であって、 図 9 Bは、 ワールド座標系の X軸の正方 向の位置からワールド座標系の Y Z平面を見たときの図である。 First, while參照Figure 9 A and FIG. 9 B, in case of the point light source mode, the conversion processing for obtaining the Shah Doubideo signal V 4 converts the source Subideo signal will be described. 9A and FIG. 9B are the same as FIGS. 4A and 4B, and FIG. 9A is a view from the viewpoint PZ set on the Z axis of the world coordinate system to the XY of the world coordinate system. FIG. 9B is a diagram when the plane is viewed, and FIG. 9B is a diagram when the YZ plane in the world coordinate system is viewed from a position in the positive direction of the X axis in the world coordinate system.

まず、 先に図 4 A及び図 4 Bを用いて説明したように、 3次元 変換行列 T。 によって、 3次元の空間的位置に変換された 3次元 オブジェク ト ビデオ信号 V , は、 点光源による透視変換行列 P S P ο τによってシャ ドウ座標の X s Y s 平面へ透視変換される。 これ は、 点光源 9 0を視点としたときに、 点光源 9 0から、 3次元ォ ブジエク ト ビデオ信号 V , を見た時に、 シャ ドウ座標系の X s Y s 平面に透視されるビデオ信号を求めることを意味する ς 図 9 Β においては、 シャ ドウ座標系の X s Y S 平面に透視されたビデオ 信号を、 3次元シャ ドウビデオ信号 V 3 として表すことにする。 この点光源による透視変換行列 P S P O Tの詳しい説明については、 後述する。 First, as described with reference to FIGS. 4A and 4B, the three-dimensional transformation matrix T is used. 3D converted to 3D spatial position by The object video signal V, is perspective-transformed to the X s Y s plane of shadow coordinates by a perspective transformation matrix PSP ο τ by a point light source. This is a video signal seen through the X s Y s plane of the shadow coordinate system when the three-dimensional object video signal V, when viewed from the point light source 90, is viewed from the point light source 90. in ς Figure 9 beta, which means to seek the video signal which is transparent to X s YS plane of shadow coordinate system, to be expressed as a three-dimensional Shah Doubideo signal V 3. A detailed description of the perspective transformation matrix PSPOT using the point light source will be described later.

次に、 3次元シャ ドウビデオ信号 V 3 を、 先に説明した透視変 換行列 Ρ。 によって、 ワール ド座標の X Y平面に透視されるよう に透視変換する。 これは、 Z軸上の仮想視点 P Zから、 3次元シ ャ ドウビデオ信号 V 3 を見た時に、 ワール ド座標系の X Y平面に 透視されるビデオ信号を求めることを意味する。 図 9 Bにおいて は、 ワール ド座標系の X Y平面に透視されたビデオ信号を、 2次 元のシャ ドウビデオ信号 V 4 として表すことにする。 Next, the three-dimensional shadow video signal V 3 is converted to the perspective transformation matrix 説明 described above. Is used to perform perspective transformation so as to be seen on the XY plane of world coordinates. This is from a virtual viewpoint PZ on the Z-axis, when viewed three-dimensional sheet catcher Doubideo signal V 3, means to determine the video signal to be transparent to the XY plane of the whirlpool de coordinate system. In FIG. 9B, the video signal seen through the XY plane of the world coordinate system is represented as a two-dimensional shadow video signal V 4.

図 9 Bに示される以上の処理をまとめる。 点光源モー ドのとき において、 2次元のソ ース ビデオ信号 V 0 から 2次元のシャ ドゥ ビデオ信号 V 4 を求めるための変換処理は、 ォブジュク ト ビデオ 信号 V。 を 3次元変換行列 T。 によって 3次元変換して 3次元ォ ブジェク ト ビデオ信号 V , を得るための 3次元変換ステップと、 この 3次元ォブジ二ク トビデオ信号 V , を、 点光源による透視変 換行列 P S P 0 Tによってシャ ドウ座標系の X s Y s 平面に透視して 3次元シャ ドウビデオ信号 V 3 を得るための透視変換ステップと 、 この 3次元シャ ドウビデオ信号 V 3 を、 透視変換行列 Ρ。 によ つてワール ド座標系の X Y平面に透視して、 2次元のシャ ドウビ デォ信号 V 4 を得るためのステップとから構成される。 よって、 2次元のソ一スビデオ信号 V。 から 2次元のシャ ドウビデオ信号 V 4 を求めるための変換行列 Tshadow' は、 次式、The above processing shown in Fig. 9B is summarized. In the case of a point source mode, conversion processing for the two-dimensional source over scan video signal V 0 obtains a two-dimensional Shah de video signal V 4 are Obujuku preparative video signal V. To the 3D transformation matrix T. A three-dimensional conversion step for obtaining a three-dimensional object video signal V, by performing three-dimensional conversion with the three-dimensional object video signal V, and transforming the three-dimensional object video signal V, with a perspective transformation matrix P SP 0 T using a point light source. a perspective transformation step of obtaining X s Y s perspectively in plan 3D Sha Doubideo signal V 3 of the dough coordinate system, the three-dimensional Shah Doubideo signal V 3, perspective transformation matrix [rho. To obtain a two-dimensional shadow video signal V 4 by seeing through the XY plane of the world coordinate system. Therefore, the two-dimensional source video signal V. From a two-dimensional shadow video signal The transformation matrix Tshadow 'for determining V 4 is given by

Γ shadow' = T 0 - P S P OT * P o ·· ·· 4 1 ) Γ shadow '= T 0 -PSP OT * P o 4 1)

と表すことができる。 It can be expressed as.

ここで、 フ レームメ モ リ 2 2上の位置ベク トルと、 モニタスク リ ーン 3上の位置べク トルとの関係について説明する。 、  Here, the relationship between the position vector on the frame memory 22 and the position vector on the monitor screen 3 will be described. ,

フ レームメ モ リ 1 2上の位置べク トルとモニタスク リ ーン 3上 での位置べク トルとの関係と同じょうに図 9 Cについて、 フ レー ム メ モ リ 2 2上の 2次元のア ド レスを (XM ' 、 YM ' ) 及び位 置ベク ト ル 〔 Χ Μ ' ΥΜ ' 〕 と し、 モニタスク リ ーン 3上のア ド レスを ( X s 、 Y s ) 及び位置べク トルを 〔X S Ys 〕 とする。 このフ レームメ モ リ 2 2上の 2次元の位置べク ト ル 〔 X M ' YM ' 〕 を同次座標系で表現すると、 〔 x m ' y m ' Hs ' 〕 と表す ことができる。 また、 モニタスク リ ーン 5 5上での位置ベク トル 〔X S Y s 〕 を同次座標系で表現すると、 ぺク トル 〔 x s y s 1 〕 と表すことができる。 The same as the relationship between the position vector on the frame memory 12 and the position vector on the monitor screen 3 is shown in FIG. 9C. the add-less (X M ', Y M' ) and and position vector preparative Le Μ 'Υ Μ'], the add-less on Monitasuku rie down 3 (X s, Y s) and position Let the vector be [X S Y s ]. To express this full Remume mode two-dimensional position downy click preparative Le on Li 2 2 [XM 'Y M'] in the same coordinate system, can be expressed as [x m 'y m' H s ' ]. Also, when expressed position vector of on Monitasuku rie down 5 5 [X S Y s] in the same coordinate system, can be expressed as pair-vector [x s ys 1].

ここで、 この同次座標系のパラメ ータ 〔 H s 〕 は、 フレームメ モ リ 1 2上の位置べク トルを同次座標系で表現したときの同次座 標系のパラ メ ータ と同様に、 ベタ トルの大きさの拡大縮小率を表 すパラメ 一夕であって、 本実施例においては擬似的な奥行き情報 と して使用する。 この 「HS 」 に関しては後述する。 Here, the parameter [H s ] of the homogeneous coordinate system is a parameter of the homogeneous coordinate system when the position vector on the frame memory 12 is represented by the homogeneous coordinate system. Similarly to the above, the parameter is a parameter representing the scaling factor of the size of the vector, and is used as pseudo depth information in this embodiment. It will be described later with respect to this "H S".

2次元のソ ースビデオ信号 V 0から 2次元のシャ ドウビデオ信 号 V 4を得るための変換行列 T shadow' は後述するが 4行 4列の 変換行列であつて 3次元空間上の Z軸方向 ( 3行目及び 3列目) のデータは実質的に使用されず、 実際の 2次元読出しア ド レスの 演算 必要なパラ メ 一タを有した 3次元変換行列を T 33shadow' とするフ レーム メ モ リ 2 2上の位置べク トル 〔 χ ·η ' y m ' H s 〕 に対して、 この 3次元変換行列 T 33shadow' を作用させること によって、 フ レームメ モ リ 2 2上の位置べク ト ル 〔 X m ' y m ' H s 〕 がモニタスク リ ーン 3上の位置べク ト ル 〔 X s y s 1 〕 に変換される。 以下に関係式を記述すると、 The transformation matrix T shadow 'for obtaining the two-dimensional shadow video signal V 4 from the two-dimensional source video signal V 0 is a 4-by-4 transformation matrix, which will be described later. data of the third row and third column) is not substantially used and the frames on the actual three-dimensional transformation matrix having a two-dimensional readout add-less arithmetic required para main Ichita and T 33 shadow ' The three-dimensional transformation matrix T 33 shadow 'is applied to the position vector [χ · η' y m 'H s] on the memory 22 to obtain the position on the frame memory 22. Vector [X m 'y m ' H s] is converted to a position vector [X sys 1] on monitor screen 3. If the relational expression is described below,

C X s y s 1〕 = [ X m ' y m ' Hs 〕 · Τ shadow'  C X s y s 1] = [X m 'y m' Hs] · Τ shadow '

·· ·· ( 5 ) , と表すことができる。  ····· (5),

なお、 フ レーム メ モ リ 2 2上の位置べク トル 〔 X m ' y m ' H s 〕 において使用されている同次座標系のパラメ ータ 「HS 」 及 び、 モニタス ク リ ー ン 5上の位置ベク トル 〔 X s y s 1 〕 におい て使用されているパラメ ータ 「 1 」 との関係は、 3次元変換行列 T 33shadowによって、 フレームメ モ リ 2 2 , 2 3上の 2次元位置 ベク トル 〔 X m ' y m ' ] が、 モニタスク リ ーン 2 2上の 2次元 位置べク ト ル 〔 X s y s 〕 に変換され、 フ レーム メ モ リ 2 2上の 2次元の位置べク ト ル 〔 x m ' y m ' 〕 の拡大縮小率 「HS 」 が 、 モニタスク リ ー ン上 2 2上の同次座標系の位置べク トル 〔 X s y s 〕 の拡大縮小率 「 1 」 となるように変換されることを意味す る o The parameter “H S ” of the homogeneous coordinate system used in the position vector [X m 'y m ' H s] on the frame memory 22 and the monitor screen position on the 5 relationship between vector [X sys 1] parameter used Te smell "1", the three-dimensional transformation matrix T 33 shadow, frame Note Li 2 2, 2 2-dimensional on 3 position vector [X m 'y m'] is converted into two-dimensional position downy click preparative Le on Monitasuku rie down 2 2 [X s y s], the two-dimensional on frame Note Li 2 2 The scale factor “H S ” of the position vector [x m 'y m '] is the scale factor of the position vector [X s y s ] of the homogeneous coordinate system on the monitor screen 22. Means that the rate is converted to be "1" o

このように、 ( 5 ) ' 式はフ レーム メ モ リ 2 2上の点に対応す るモニタ ス ク リ ー ン 2上の点を行列 T 33shadow' によつて求める 閲係式である。 フ レームメ モ リ 1 2上の読み出しの際と同様、 こ こでも変換行列 T 33stiadow' によって得られたモニタスク リ ーンThus, (5) 'equation a point on the monitor scan click rie down 2 that corresponds to a point on the frame Note Li 2 2 matrix T 33 shadow' is閲係formula for determining Te Niyotsu. The monitor screen obtained by the transformation matrix T 33 stiadow 'is also used as in the case of reading out the data on the frame memory 12.

3上の点に対応するフ レーム メ モ リ 2 2上の点を読出しァドレス によつて指定することにより、 マツ ト処理されたソ ースビデオ信 号に対して空問的な画像変換を施すようになつている。 つまり、 フ レーム メ モ リ 2 2上に書き込む際に画像変換が行なわれるので はなく、 フ レーム メ モ リ 2 2から読み出される際に、 画像変換が なわれる。 (3) Frame memory corresponding to the point on (2) By specifying the point on (2) by the read address, it is possible to perform aerial image conversion on the matte-processed source video signal. I'm sorry. That is, the image conversion is not performed when writing to the frame memory 22, but is performed when reading from the frame memory 22.

モニタスク リ ー ン 3上の点に対応するフ レームメ モ リ 2 2上の 点を求めるには、 次式、 [ m ' y m ' Hs 〕 = [ x s y s 1〕 ♦ ( T 33shado ' ) -1 To find a point on frame memory 22 that corresponds to a point on monitor screen 3, use the following equation: [ m 'y m ' H s ] = [xsys 1] ♦ (T 33 shado ') -1

·· ·· ( 6 ) ' で表現される。 よってこの式に従って、 モニタ ス ク リ ー ン 3上の 位置べク ト ル 〔 X s y s 1〕 が指定されると、 変換行列に (T 33 shadow' ) — 'よってフ レームメ モ リ 2 2上の位置べク トノレ 〔 x m ····· (6) '. Thus in accordance with this equation, monitor the scan click position downy click preparative Le on rie down 3 [X s y s 1] is specified, the transformation matrix (T 33 shadow ') -' Therefore off Remume mode Li 2 2 Top position vector (x m

' y m ' Hs ] が演算される。 ちなみにこの変換行列 (T33shad ow' ) - 1は変換行列 T 33shadow' の逆行列である。 'y m ' Hs] is calculated. Incidentally transformation matrix (T 33 shad ow ') - 1 is the transformation matrix T 33 shadow' is the inverse matrix of.

次に、 図 1 0及び図 1 1を参照して、 点光源を使用したときの 点光源による透視変換行列 P S P O Tについて説明する。 図 1 0は、 シャ ドウ座標系の X s 軸方向から Ys Z s 平面を見た時の図であ つて、 点光源 6 0 と 3次元ォブジェク ト ビデオ V , と 3次元シャ ドウビデオ V 3 との位置関係を示している。 尚、 この点光源によ る透視変換行列 P S P O Tは、 点光源を使用した点光源モードの時に 、 3次元ォブジヱク ト ビデォ V , から 3次元シャ ドウビデオ V 3 を求めるための変換行列である。 Next, the perspective transformation matrix PSPOT based on a point light source when a point light source is used will be described with reference to FIGS. Figure 1 0 is the X s axis direction of the shadow coordinate system Y s Z s plane Figure der connexion when viewed, the point light source 6 0 3 dimensional Obujeku preparative video V, and the three-dimensional Shah Doubideo V 3 Indicates the positional relationship. Incidentally, perspective transformation matrix PSPOT that by this point source, when the light source mode point using a point light source, a conversion matrix for obtaining the three-dimensional Obujiweku preparative Bido V, from the three-dimensional Shah Doubideo V 3.

図 1 1 Aは、 点光源 6 0 に対する変換処理のフロ ーを示し、 図 1 1 Bはオブジェク ト ビデオ信号に対する変換処理のフ口一を示 している。  FIG. 11A shows a flow of the conversion process for the point light source 60, and FIG. 11B shows a flow of the conversion process for the object video signal.

まず、 図 1 1 Λを参照して点光源 6 0に対する変換処理のフ口 —を説明する。  First, with reference to FIG.

ステ ッ プ S P 1 では、 変換行列 F によって、 ワールド座標系 で示される点光源 6 0の位置をシャ ドゥ座標系に変換する。 この 理由は、 後のステップ S P 5で説明する透視変換行列 P s。' は、 ワールド座標での透視変換行列ではなく て、 シャ ドウ座標系での 透視変換行列であるからである。 よって、 透視変換行列 P so' に よって、 3次元オブジェク ト ビデオ信号 V , をシャ ドウ座標系の X s Y s 平面に透視させる場合には、 ワール ド座標系で表される 点光源 6 0の位置をシャ ドウ座標系に変換する必要がある。 ここで、 この変換行列 F—'に関して具体的に説明する。 まず、 ヮールド座標系の X軸に対するシャ ドウ座標系の X s 軸の回転角 を X 、 ワールド座標系の Y軸に対するシャ ドウ座標系の Ys 軸 の回転角度を ^ Y 、 ワールド座標系の Ζ軸に対するシャ ドゥ座標 系の Z s 軸の回転角度を ^ ζ 、 シャ ドウ座標系の原点を、( X so, y so, Z so) とする。 ここで、 ワールド座標系からシャ ドウ座標 系への変換行列 F—'に対して、 逆行列の関係にあるシャ ドウ座標 系からワールド座標系への変換行列 Fは、 回転行列と移動行列の 積で簡単に表現できるので、 まず、 シャ ドウ座標系からワールド 座標系への変換行列 Fを求めることにする。 このシャ ドウ座標系 からワールド座標系への変換行列 Fは、 次式、 In step SP1, the position of the point light source 60 represented by the world coordinate system is transformed into the shadow coordinate system by the transformation matrix F. The reason for this is that the perspective transformation matrix P s will be described later in step SP5. 'Is not a perspective transformation matrix in world coordinates, but a perspective transformation matrix in shadow coordinates. Therefore, when the three-dimensional object video signal V, is perspectiveed on the X s Y s plane of the shadow coordinate system by the perspective transformation matrix P so ′, the point light source 60 represented by the world coordinate system is used. The position needs to be converted to a shadow coordinate system. Here, this transformation matrix F- 'will be specifically described. First, the rotation angle of the X s axis of the shadow coordinate system with respect to the X axis of the field coordinate system is X, the rotation angle of the Y s axis of the shadow coordinate system with respect to the Y axis of the world coordinate system is ^ Y , and Ζ of the world coordinate system is Let the rotation angle of the Z s axis of the shadow coordinate system with respect to the axis be ^ 、, and let the origin of the shadow coordinate system be (X so, y so, Z so). Here, for the transformation matrix F— 'from the world coordinate system to the shadow coordinate system, the transformation matrix F from the shadow coordinate system to the world coordinate system, which has an inverse matrix relationship, is the product of the rotation matrix and the movement matrix. First, a transformation matrix F from the shadow coordinate system to the world coordinate system is obtained. The transformation matrix F from the shadow coordinate system to the world coordinate system is

F = R x(d> χ) ♦ R ν(/? v) · R z(^ z) ♦ L (x so, y s o » Z so] F = R x (d> χ) ♦ R ν (/? V) · R z (^ z ) ♦ L (x so, yso »Z so]

·· ·· ( 4 2 ) と表すことができる 但し、 行列 R x ( 0 、 行列 R Y ( 0 v ) 及び行列 R ζ ( Θ ) は、 回転のための行列であって、 (42) where the matrix R x (0, the matrix RY (0v) and the matrix R ζ ( ζ ) are matrices for rotation,

1 0 0 0  1 0 0 0

0 cos θ χ s i η χ 0  0 cos θ χ s i η χ 0

R x ( 0 x) = ( 4 3 ) R x (0 x ) = (4 3)

0 -s i π χ cos θ χ 0  0 -s i π χ cos θ χ 0

0 0 0 1 cos 0 γ 0 -s i η ^ γ 0  0 0 0 1 cos 0 γ 0 -s i η ^ γ 0

0 1 0 0  0 1 0 0

R Υ ( θ ν) ( 4 ) sin 0 0 cos 0 γ 0  R Υ (θ ν) (4) sin 0 0 cos 0 γ 0

0 0 0 1 cos θ s i η ^ 0 0  0 0 0 1 cos θ s i η ^ 0 0

s i η ^ cos 0 0 0  s i η ^ cos 0 0 0

R ζ ( θ ζ) ( 4 5 ) R ζ (θ ζ ) (4 5)

0 0 1 0  0 0 1 0

0 0 0 1 と表すことができる。 また行列 L ( X y Z so) は、 平行 移動のための行列であって、 次式 0 0 0 1 It can be expressed as. The matrix L (X y Z so) is a matrix for translation, and

0 0 0 0 0 0

1 0 0  1 0 0

L ( X y 2 s o) = ( 4 6 )  L (Xy2so) = (4 6)

0 1 0  0 1 0

y z 1 と表すことができる。  y z 1.

よって、 シャ ドウ座標系から X o o 1· ワ ール ド座標系への変換行列 Fと 、 ワール ド座標系からシャ ドウ座標系への変換行列 F— 'とは逆行 列の関係にあるので、 変換行列 F— 1は、 Therefore, since the transformation matrix F from the shadow coordinate system to the X oo 1-world coordinate system and the transformation matrix F— 'from the world coordinate system to the shadow coordinate system are in inverse relation, The transformation matrix F— 1 is

F -'= L ( X s o, y s o, z s o) R x-' (^ x) F-'= L (X so, yso, zso) R x- ' (^ x)

• R Y-1 ( ) ♦ R : ' ( z)• R Y- 1 () ♦ R: '(z)

- L (- x y so, - z s o) - R x(- 0 x) -L (-x y so,-z s o)-R x (-0 x)

• R v(- Y) · R z (- Θ z) • R v (-Y) · R z (-Θ z)

·· ·· ( 4 7 )  ... (4 7)

と表すことができる。 但し、 行列 R x (— x ) 、 行列 R γ (- 0 ν ) 及び行列 R z (- θ z ) は、 回転のための行列であって、 It can be expressed as. Here, the matrix R x (— x ), the matrix R γ (-0 ν), and the matrix R z (-θ z ) are rotation matrices,

Figure imgf000048_0001
Figure imgf000048_0001

COS (-^ γ) 0 -s i n (- (9 Y) 0 COS (-^ γ) 0 -sin (-(9 Y ) 0

0 1 0 0  0 1 0 0

R v (- ) ( 4 9 ) s i n ( - Y) 0 cos (- (9 Y) 0 R v (-) (4 9) sin (-Y) 0 cos (-(9 Y ) 0

0 0 ϋ 1

Figure imgf000049_0001
0 0 ϋ 1
Figure imgf000049_0001

と表すことができる。 また、 行歹 UL (- X s o, 一 Y Z s o ) は、 平行移動のための行列であって、 It can be expressed as. The row system UL (-Xso, one YZso) is a matrix for translation,

1 0 0 0 1 0 0 0

0 1 0 0  0 1 0 0

L (- X y o ) ( 5 1 )  L (-X y o) (5 1)

0 0 1 0  0 0 1 0

-z. 1 と表すことができる。  -z. 1

ステップ S P 2では、 図 1 0に示すように、 平行移動行列 TKS —'によって、 点光源 9 0の位置を、 Z s 軸上の仮想点光源 9 1 の位置に移動する。 この理由は、 3次元オブジェク ト ビデオ V , に対する 3次元シャ ドゥビデオ V 3 を求めるためには、 点光源 9 o 0の位置から、 3次元オブジェク ト ビデオ V , を見たときに、 3 次元ォブジヱク ト ビデオ V , をシャ ドウ座標系の X s Y s 平面に 透視させることによって 3次元シャ ドウビデオ V 3 を得ることが できる。 但しこの透視変換処理を行うためには、 視点とされる点 光源が Z s 軸上に位置する必要がある。 よって、 平行移動行列 T XSYS—!によって、 点光源 9 0の位置を、 Z s 軸上の仮想点光源 9 1 の位置に平行移動する。 In step SP2, as shown in FIG. 10, the position of the point light source 90 is moved to the position of the virtual point light source 91 on the Zs axis by the translation matrix T KS — '. The reason for this is that, in order to obtain the 3D shadow video V 3 for the 3D object video V, when viewing the 3D object video V, from the position of the point light source 9 o 0, the 3D object video V, The three-dimensional shadow video V 3 can be obtained by making the video V, see through the X s Y s plane of the shadow coordinate system. However, in order to perform this perspective transformation process, the point light source to be the viewpoint must be located on the Zs axis. Therefore, the translation matrix T XSYS —! Moves the position of the point light source 90 parallel to the position of the virtual point light source 91 on the Z s axis.

ここで、 予めオペレータによって設定された点光源 9 0の座標 を ( X L , y L , z L ) とすると、 この平行移動行列 TXSYS1は T

Figure imgf000050_0001
と表すことができる。 Here, assuming that the coordinates of the point light source 90 set in advance by the operator are (XL, yL, zL ), this translation matrix T XSYS1 becomes T
Figure imgf000050_0001
It can be expressed as.

ステップ S P 1及びステップ S P 2によって、 点光源に対する 変換処理は終了する。  By step SP1 and step SP2, the conversion processing for the point light source ends.

次に、 図 1 1 Bを参照して 3次元才ブジヱク トビデオ信号 V , から 3次元シャ ドウビデオ信号 V 3 を生成するための透視変換行 列 P S P O Tについて説明する。 It will now be described perspective transformation matrix PSPOT for producing 1 1 with reference to B in three-dimensional old Bujiweku Tobideo signal V, three-dimensional Shah Doubideo signal V 3 from.

ステップ S P 3では、 ステップ S P 1 と同様に、 変換行列 F一 ' によって、 ワールド座標系で示される 3次元ォブジヱク トビデオ 信号 V , をシャ ドウ座標系に変換する。 この理由は、 後述するス テツプ S P 5 において使用される透視変換行列 P s。' は、 ワール ド座標系での透視変換行列ではなくて、 シャ ドウ座標系での透視 変換行列であるためである。 よって、 透視変換行列 P s。' によつ て、 3次元ォブジェク ト ビデオ V , をシャ ドウ座標系の X s Ys 平面に透視させる場合には、 ワールド座標系で表される 3次元ォ ブジェク ト ビデオ V , をシャ ドウ座標系に変換する必要がある。 ステップ S P 4では、 ステップ S P 2 と同様に、 図 1 0に示す ように、 平行移動行列 TXSYS1によって、 3次元ォブジヱク ト ビ デォ信号 V , を、 シャ ドウ座標系の Xs Ys 平面に平行に移動す る。 図 1 0では、 平行移動されたビデオ信号を仮想 3次元ォブジ ェク ビデオ信号 V , ' と表すことにする。 このように平行移動 する理由は、 ステップ S P 2で、 平行移動行列 T XSYS— 'によつて 、 点光源 9 0の位置を、 Z s 軸上の仮想光源 9 1 に位置するよう に平行移動したので、 この点光源 9 0に対する 3次元ォブジェク ト ビデオ信号 V , の相対的な位置関係と、 仮想点光源 9 1 に対す る仮想ォブジェク ト ビデオ信号 V , ' の相対的な位置関係とが変 化しないように、 平行移動行列 TXSYS1によって、 3次元ォブジ ク ト ビデオ信号 V , も平行移動する必要があるからである。 次に、 ステ ッ プ S P 5では、 透視変換行列 P s。' によ、つて、 仮 想 3次元ォブジヱク ト ビデオ信号 V , ' を、 シャ ドウ座標系の X s Ys 平面に透視させる。 図 1 0では、 シャ ドゥ座標系の X s Y s 平面に透視されたビデオ信号を、 仮想 3次元シャ ドウビデオ信 号 V 3 ' と表すことにする。 この仮想 3次元シャ ドウビデオ信号 V 3 ' は、 仮想点光源 9 1を視点として、 仮想点光源 9 1から仮 想 3次元ォブジヱク ト ビデオ信号 V , ' を見たときに、 シャ ドウ 座標系の X s Ys 平面に透視されるビデオ信号である。 In step SP3, as in step SP1, the three-dimensional object video signal V, represented in the world coordinate system, is transformed into the shadow coordinate system by the transformation matrix F1 '. The reason for this is that the perspective transformation matrix P s used in step SP5 described later. 'Is not a perspective transformation matrix in the world coordinate system, but a perspective transformation matrix in the shadow coordinate system. Therefore, the perspective transformation matrix P s . , The three-dimensional object video V, is seen through the X s Ys plane of the shadow coordinate system, and the three-dimensional object video V, represented by the world coordinate system, is transformed into the shadow coordinate system. Need to be converted to In step SP4, as in step SP2, as shown in FIG. 10, the three-dimensional object video signal V, is converted to the X s Ys plane of the shadow coordinate system by the translation matrix T XSYS1 . Move parallel to. In FIG. 10, the translated video signal is represented as a virtual three-dimensional object video signal V, '. The reason why the parallel movement, in step SP 2, the translation matrix T XSYS - Yotsute in ', the position of the point light source 9 0, and translation so as to be positioned on the virtual light source 9 1 on Z s axis So the three-dimensional object for this point light source 90 The translation matrix T XSYS1 so that the relative positional relationship between the video signal V, and the virtual object video signal V, 'relative to the virtual point light source 91 does not change. This is because the three-dimensional object video signal V, also needs to be translated. Next, in step SP5, the perspective transformation matrix P s is obtained . 'By the, connexion, virtual 3-dimensional Obujiweku preparative video signal V,' and is fluoroscopy X s Y s plane of shadow coordinate system. In FIG. 10, the video signal seen through the X s Y s plane of the shadow coordinate system is represented as a virtual three-dimensional shadow video signal V 3 ′. This virtual three-dimensional shadow video signal V 3 ′ is, when the virtual three-dimensional object video signal V, ′ is viewed from the virtual point light source 91 with the virtual point light source 91 as a viewpoint, s The video signal seen through the Ys plane.

具体的には、 この透視変換行列 P s。' は、 式 ( 2 ) で示される 透視変換行列 P。 と視点 P Zとの関係から、 透視する際の視点が 仮想点光源 9 1 の位置、 即ち、 ( 0 , 0, Z !_ ) の位置にあると 考えれば良いので、 式 ( 2 ) において、 「 P z 」 を 「— 1 Z z L 」 に置き換えることによって透視変換行列 P s。' が得られる。 よ つて、 透視変換行列 P s。' は、 Specifically, this perspective transformation matrix P s . 'Is the perspective transformation matrix P shown in equation (2). From the relationship between and the viewpoint PZ, it can be considered that the viewpoint at the time of the fluoroscopy is at the position of the virtual point light source 91, that is, at the position of (0, 0, Z! _). The perspective transformation matrix P s is obtained by replacing “P z ” with “— 1 Z z L ”. 'Is obtained. Thus, the perspective transformation matrix P s . '

Figure imgf000051_0001
Figure imgf000051_0001

と表すことができる。 It can be expressed as.

次に'、 ステ ッ プ S P 6では、 平行移動行列 Txsvsによつて、 仮 想 3次元シャ ドウビデオ信号 V 3 ' を、 シャ ドウ座標系の Xs Y s 平面に平行に移動する。 図 1 0では、 平行移動されたビデオ信 号を 3次元シャ ドウビデオ信号 V 3 と表すことにする。 図 1 0か らもわかるように、 3次元シャ ドウビデオ信号 V 3 は、 点光源 9 0を視点と し、 点光源 9 0の位置から 3次元ォブジェク ト ビデオ 信号 V , を見たときに、 シャ ドウ座標系の Xs Ys 平面に透視さ れるビデオ信号である。 このように移動する理由は、 ステップ S P 4で、 平行移動行列 Txsys-'によつて、 3次元ォブジ、ェク ト ビ デォ信号 V , を平行移動したので、 その平行移動行列 T XSYS 1に よる平行移動処理を元に戻すためである。 Next, at step SP6 , the virtual three-dimensional shadow video signal V 3 ′ is moved in parallel to the X s Y s plane of the shadow coordinate system using the translation matrix T xsvs . In Figure 1 0, it will be expressed as 3-dimensional Shah Doubideo signal V 3 video signals that have been translated. Figure 10. As can be seen, the three-dimensional shadow video signal V 3 has a point light source 90 as a viewpoint, and when the three-dimensional object video signal V, is viewed from the position of the point light source 90, the three-dimensional shadow video signal V 3 a video signal which is transparent to X s Ys plane. The reason for this movement is that in step SP 4, the three-dimensional object and the video signal V, were translated by the translation matrix T xsys- ', so that the translation matrix T XSYS 1 This is to undo the parallel movement processing by.

ここで、 平行移動行列 TXSYS— 'と平行移動行列 TXSYSは、 逆行 列の関係にあるので、 平行移動行列 TXSYSは、 Here, the translation matrix T XSYS — 'and the translation matrix T XSYS have an inverse relationship, so the translation matrix T XSYS is

Figure imgf000052_0001
と表すことができる。
Figure imgf000052_0001
It can be expressed as.

次に、 ステップ S P 7において、 式 ( 4 2 ) によって示される 変換行列 Fによって、 シャ ドウ座標系で表される 3次元シャ ドウ ビデオ信号 V 3 を、 ワール ド座標系に変換する。 これによつて、 ワールド座標系の座標値で示される 3次元シャ ドウビデオ信号 V 3 を得ることができる。 Next, in step SP 7, converted by the transformation matrix F represented by Equation (4 2), a 3-dimensional shadow video signal V 3 represented by shadow coordinate system, the whirl de coordinate system. As a result, a three-dimensional shadow video signal V 3 represented by a coordinate value in the world coordinate system can be obtained.

図 1 1 Bのフ ローに示される処理をまとめる。 ワ ール ド座標系 の 3次元ォブジヱク ト ビデオ信号 V , からワールド座標系の 3次 元シャ ドウビデオ信号を求めるための処理は、 3次元ォブジヱク ト ビデオ信号 V , をワ ールド座標系からシャ ドウ座標系に変換す るステップ ( S P 3 ) と、 シャ ドウ座標系において、 3次元ォブ ジヱク ト ビデオ信号をシャ ドウ座標系の Xs Ys 面に投影してシ ャ ドウ座標系の 3次元シャ ドウビデオ信号を生成するステップ ( S P 4 , 3 ? 5及び3 ? 6 ) と、 シャ ドウ座標系の 3次元シャ ド ゥビデオ信号を、 シャ ドウ座標系からワールド座標系に変換する ステップ ( S P 7 ) とから構成される。 The processing shown in the flow of Fig. 11B is summarized. The processing for obtaining the three-dimensional shadow video signal in the world coordinate system from the three-dimensional object video signal V in the world coordinate system is performed by converting the three-dimensional object video signal V, in the world coordinate system from the shadow coordinate system. Step (SP3), and in the shadow coordinate system, project the 3D object video signal onto the Xs Ys plane of the shadow coordinate system to project the 3D shadow video signal in the shadow coordinate system. (SP 4, 3-5 and 3-6) and a 3D shadow in the shadow coordinate system 変 換 Converting the video signal from the shadow coordinate system to the world coordinate system (SP7).

従って、 ワールド座標系の 3次元ォブジヱク ト ビデオ信号 V , からヮ一ルド座標系の 3次元シャ ドゥビデオ信号を求めるための 点光源による透視変換行列 P SPTは、 変換行列 F -'と、 行移動 行列 TXSYS- 1と、 透視変換行列 P s。' と、 平行移動行列 TXSYS -' と、 変換行列 F の乗算式で表すことができるので、 次式 Therefore, a perspective transformation matrix P S by a point light source for obtaining a three-dimensional shadow video signal in the first coordinate system from the three-dimensional object video signal V in the world coordinate system. PT is a transformation matrix F- ', a row shift matrix T XSYS - 1, and a perspective transformation matrix P s . ', The translation matrix T XSYS- ', and the transformation matrix F.

丄〕 S P O T^ F * T X S Y S * I s ο * Γ S YS * F ·· ·· 、 J J ) と表すことができる。  丄] SPO T ^ F * TXSYS * Isο * ΓSYS * F ··· JJ).

よって、 この変換行列 P S0PTを式 ( 4 1 ) に代入すると、 点光 源モー ドのときに、 2次元のソ 一スビデオ信号から 2次元のシャ ドウビデオ信号 V 4 を求めるための変換行列 Tshadow' は、 Therefore, when this transformation matrix P S0PT is substituted into equation ( 41 ), the transformation matrix Tshadow 'for obtaining the two-dimensional shadow video signal V 4 from the two-dimensional source video signal in the point light source mode is obtained. Is

Γ shadow' = Τ。 · P · P o  Γ shadow '= Τ. · P · P o

= T 0 * F * T X Y S ~ ' * P s o ' ♦ T X Y s ' ♦ F 1 * V = T 0 * F * TXYS ~ '* P so' ♦ TXY s' ♦ F 1 * V

·· ·· ( 5 6 ) と表すことができる。  (56).

ここで、 この変換行列 Tshadow' に基づいて、 シャ ドウビデオ 信号 V 4 をフ レームメ モ リ 2 2から読み出すための読み出しア ド レスを演算する方法は、 式 ( 3 ) に示される行列 Tobj に基づい て、 ォブジヱク ト ビデオ信号 V 2 をフ レームメ モ リ 1 2から読み 出すための読み出しア ド レス (XM , ΥΜ ) を求める演算方法と 全く同様である。 つまり、 式 ( 3 ) から式 ( 1 4 ) に示される演 算と全く 同様の演算方法である。 Here, on the basis of this transformation matrix Tshadow ', a method of calculating the readout add-less for reading Shah Doubideo signal V 4 from the full Remume mode Li 2 2, based on the matrix Tobj represented by the formula (3) , is exactly the same as a calculation method for obtaining read add-less (X M, Υ Μ) for reading the Obujiweku preparative video signal V 2 from the full Remume mode Li 1 2. In other words, the operation method is exactly the same as the operation shown in Expressions (3) to (14).

具体的には、 この変換行列 T shadow' は、 4行 4列の行列であ るの 、 式 ( 4 ) と同様に、 Z軸方向の成分 ( 3行目及び 3列目 ) を除いた行列を T 33shadow' とし、 この行列 T 33shadow' の逆 行列の ( T 33shadow') - 1の各パラ メ 一タを、 次式、 b b 1 2' b 1 3 ' More specifically, this transformation matrix T shadow 'is a matrix of 4 rows and 4 columns, but a matrix excluding the components in the Z-axis direction (3rd row and 3rd column) as in equation (4). the 'and, the matrix T 33 shadow' T 33 shadow of the inverse matrix of (T 33 shadow ') - one of the para main Ichita the following equation: bb 1 2 'b 1 3 '

(T 33shadow') * ' = b 21' b 22' b 23' · · · · ( 5 7 ) (T 3 3shadow ') *' = b 21 'b 22' b 23 '(5 7)

b 3 b 32 ' b 33' とおく。 また、 シャ ドゥ信号発生部 2 0 の読み出しア ド、レス発生 回路 2 4から供給される読み出しア ドレスを ( X M ' , Y M ' ) とする。 式 ( 3 ) から式 ( 1 4 ) に至るまでの演算方法を参照す ると、 この読み出しア ド レス ( Χ Μ ' , Υ Μ ' ) は、 次式、 b 3 b 32 'b 33 ' The read address of the shadow signal generator 20 and the read address supplied from the address generator 24 are (XM ′, YM ′). Referring to the calculation method from Expression (3) to Expression (14), this read addressΜ ′, Υ Μ ′) is expressed by the following expression.

Figure imgf000054_0001
Figure imgf000054_0001

と表すことができる。 ただし lis は次式、 It can be expressed as. Where lis is

H s = b 13' X + b 23 Ys 4· b 33 ' H s = b 1 3 'X + b 23 Ys 4 b 33'

よって、 フ レームメ モ リ 2 2に供給される読み出しア ド レス ( X M ' , Y M ' ) を、 オペレータの所望の空間的画像変換処理に よつて決定される 3次元変換行列 Τ。 の各パラメ ータ ( r , ,〜 r 33、 1 1 γ , y ζ 及び s ) 、 及び、 予め設定されるパラメ ― タであるパースぺクティ ブ値 Ρ ζ 、 点光源の位置 ( x L , y Thus, full Remume mode Li 2 2 read A de Les supplied (XM ', Y M') the three-dimensional transformation matrix Τ is Yotsute determined desired spatial image conversion processing of the operator. Each parameter of the (r,, ~ r 33, 1 1 γ, y ζ and s), and, parameters are set in advance - Perth Bae Kuti blanking value is data [rho zeta, the position of the point light source (x L, y

Ζ ) 、 シャ ドウ座標系の各軸の回転角 ( χ , 0 V , 0 、 シャ ドウ座標系の原点の位置 ( x s。, y s。, z s。) を用いて表す ことができる。 Ζ), the rotation angle of each axis of the shadow coordinate system ( χ , 0 V, 0), and the position of the origin of the shadow coordinate system (x s , y s , z s ).

従って ( 6 ) 式〜 ( 4 0 ) 式に対して、 モニタ ス ク リ ー ン 3の ラスタスキヤ ン順に対応するようにア ドレツ シ ングするためのス ク リ ー ンア ド レス ( X s , Ys ) を供給すると、 その供給された ス ク リ ー ンア ド レスに対応したフ レームメ モ リ 2 2上における読 み出しア ド レス ( Χ Μ ' , Υ Μ ' ) を、 順に演算することができ る。 これによつて、 2次元のオブジェク ト ビデオ信号 V 2 に対応 した 2次元のシャ ドウビデオ信号 Vヽ を生成することができる。 ( 6 ) 平行光源モ一 ド時において、 シャ ドウビデオ信号を生成す るための変換処理の説明。 Thus (6) to (4 0) expression for a monitor scan click rie down 3 for A Doretsu sheet ring to correspond to Rasutasukiya down order of the scan click rie N'a de Les (X s, Y s ), The read addresses (Χ Μ ', Υ Μ ') on the frame memory 22 corresponding to the supplied screen address can be calculated in order. You. As a result, a two-dimensional shadow video signal V ヽ corresponding to the two-dimensional object video signal V 2 can be generated. (6) Description of conversion processing for generating a shadow video signal in the parallel light source mode.

まず、 図 1 2 A及び図 1 2 Bを参照しながら、 平行光 piを使用 した平行光源モ一 ドの時に、 3次元ォブジヱク 卜 ビデオ信号 V , から 3次元シャ ドウビデオ信号 V 5 を求めるための変換処理につ いて説明する。 尚、 図 1 2 A及び図 1 2 Bは、 図 9 A及び図 9 B と同じように、 図 1 2 Aは、 ワールド座標系の Z軸上に設定され た視点 P Zからワールド座標系の X Y平面を見たときの図であつ て、 図 1 2 Bは、 ワール ド座標系の X軸の正方向の位置からヮー ルド座標系の Y Z平面を見たときの図である。 First, referring to FIG. 1 2 A and FIG. 1 2 B, when the collimated light source mode one de using collimated light pi, 3D Obujiweku Bok video signal V, for obtaining the three-dimensional Shah Doubideo signal V 5 from The conversion process will be described. 12A and 12B are the same as FIGS. 9A and 9B, and FIG. 12A is a view from the viewpoint PZ set on the Z-axis of the world coordinate system. FIG. 12B is a view when the plane is viewed, and FIG. 12B is a view when the YZ plane in the world coordinate system is viewed from the position in the positive direction of the X axis in the world coordinate system.

まず、 3次元変換行列 T。 によって、 3次元の空間的位置に変 換された 3次元才ブジ ク ト ビデオ信号 V , は、 平行光源による 透視変換行列 Ρ Ρ Λ Β Αによって、 シャ ドウ座標の X s Y s 平面へ投 影される。 図 1 2 Bにおいては、 シャ ドウ座標系の X s Y s 平面 に透視されたビデオ信号を、 3次元シャ ドウビデオ信号 V 5 とし て表すことになる。 この平行光源による透視変換行列 P P A R Aは、 3次元オブジェク ト ビデオ信号 V , を透視変換して、 3次元シャ ドウビデオ信号 V 5 を求めるための変換行列である。 First, a three-dimensional transformation matrix T. The 3D object video signal V, which is converted to a 3D spatial position, is projected onto the X s Y s plane of the shadow coordinates by the perspective transformation matrix 平行Ρ Λ にる with a parallel light source Is done. In Figure 1 2 B, the X s Y s perspective video signal to the plane of the shadow coordinate system, would represent by a three-dimensional Shah Doubideo signal V 5. The directional light based on the perspective transformation matrix P PARA is the three-dimensional object video signal V, and the perspective transformation, a transformation matrix for obtaining the three-dimensional Shah Doubideo signal V 5.

次に、 3次元シャ ドウビデオ信号 V 5 は、 先に説明した透視変 換行列 Ρ。 によって、 ワール ド座標系の X Y平面に投影される。 これは、 Z軸上の仮想視点 P Zから、 3次元シャ ドウビデオ信号 V 5 を見た時に、 ワールド座標系の X Y平面に透視されるビデオ 信号を求めることを意味する。 図 1 2 Bにおいては、 ワール ド座 標系の X Y平面に透視されたビデオ信号を、 2次元のシャ ドウビ デ才信号 V 6 として表すことにする。 Next, three-dimensional Shah Doubideo signal V 5 is a perspective conversion matrix described earlier [rho. Is projected onto the XY plane of the world coordinate system. This means that when viewing the three-dimensional shadow video signal V 5 from the virtual viewpoint PZ on the Z axis, a video signal seen through the XY plane of the world coordinate system is obtained. In Figure 1 2 B is a video signal which is transparent to the XY plane of the whirlpool de coordinate system, to be expressed as a two-dimensional Shah Doubi de old signal V 6.

図 1 3 Bのフ口一に示される以上の処理をまとめる。 平行光源 モー ドにおいて、 2次元のソースビデオ.信号 V。 から 2次元のシ ャ ドウビデオ信号 V 6 を求めるための変換処理は、 ソ ースビデオ 信号 V。 を 3次元変換行列 T。 によって 3次元変換して 3次元ォ ブジヱク ト ビデオ信号 V , を得るための 3次元変換ステップと、 この 3次元ォブジヱク ト ビデオ信号 V , を、 平行光源に る透視 変換行列 P PARAによってシャ ドウ座標系の X s Ys 平面に透視し て 3次元シャ ドウビデオ信号 V 5 を得るための透視変換ステップ と、 この 3次元シャ ドウビデオ信号 V 5 を、 透視変換行列 P。 に よってワールド座標系の X Y平面に透視して、 2次元のシャ ドゥ ビデオ信号 V c を得るためのステップとから構成される。 よってThe above processing shown in Fig. 13B is summarized. Parallel light source In mode, two-dimensional source video. Signal V. Conversion processing for obtaining the two-dimensional sheet catcher Doubideo signal V 6 from the source Subideo signal V. To the 3D transformation matrix T. 3D conversion step for obtaining a 3D object video signal V, by performing a 3D transformation by the 3D object video signal V, and converting the 3D object video signal V, into a shadow coordinate system by a perspective transformation matrix P PARA using a parallel light source A perspective transformation step for obtaining a three-dimensional shadow video signal V 5 by looking through the X s Ys plane of the three-dimensional shadow video signal V 5 ; The result perspectively the XY plane of the world coordinate system, comprised of a step for obtaining a two-dimensional Shah de video signal V c. Therefore

、 2次元のソ ースビデオ信号 V。 から 2次元のシャ ドウビデオ信 号 V 6 を求めるための変換行列 Tshadow〃 は、 次式、 , Two-dimensional source video signal V. Transformation matrix Tshadow〃 for obtaining the two-dimensional Shah Doubideo signal V 6 from the following equation,

T shadow" = T。 · P PAR A · P o ·· ·· ( 6 0 ) T shadow "= T. · P PA RA · P o ··· (60)

と表すことができる。 It can be expressed as.

平行光源モ一 ド時のフ レームメ モ リ 2 2上の位置べク ト ルとモ 二タスク リ ー ン 3上の位置べク トルの関係について、 前述した光 源モー ド時の関係と同様にシャ ドウ信号発生部 2 0の読出しァ ド レス発生回路 2 4から供給される読出しァド レス及び位置べク ト ルをそれぞれ ( X M 〃 ΥΜ 〃 ) 及び 〔ΧΜ ' Υ„ ' としモニタ ス ク リ ー ン 3上でのァ ドレス及び位置べク トルをそれぞれ (X s The relationship between the position vector on the frame memory 22 in the parallel light source mode and the position vector on the motor task line 3 is similar to the relationship in the light source mode described above. shadow signal generator 2 0 read § de-less generation circuit 2 4 respectively read § de-less and position downy click preparative Le supplied from the (X M 〃 Upsilon Micromax 〃) and [monitored with Χ Μ 'Υ "' scan click rie down 3 § dress and position base-vector in on the respective (X s

Y s ) 及び 〔 X s Y s 〕 と したときに、 フ レームメ モ リ 2 2及び モニタスク リ ー ン 3上の位置べク トルをそれぞれ同次座標系で表 現するとそれぞれ 〔 x m " y m " Hs 〕 及び 〔 x s y s 1〕 と表 現される。 Y s) and when the [X s Y s], respectively when representable off Remume mode Li 2 2 and Monitasuku rie down 3 on the position base-vector at each homogeneous coordinate system [x m "y m "it is revealed tables and H s) and (x s ys 1].

2 元のソ ースビデオ信号 V 0から 2次元のシャ ドウビデオ信 号 V 4を得るための、 実際の 2次元ァ ドレス読出しの演算に必要 なパラメ ータを有した変換行列を後述するが T 33shadow〃 と表現 したときに、 このフ レームメ モ リ 2 2上の同次座標系位置べク ト ル 〔 x m " y m 〃 H s 〕 及びモニタ ス ク リ ーン 3上の同次座標系 位置ベク ト ル 〔 X s y s 1〕 の闋係は以下のように表現される。 For from the binary source Subideo signal V 0 to obtain a two-dimensional Shah Doubideo signal V 4, as will be described later the actual transform matrix having the parameters necessary for the calculation of two-dimensional § address reading T 33 shadow When expressed as 〃, the homogeneous coordinate system position vector on this frame memory 22 闋係Le [xm "y m 〃 H s] and the monitor scan click homogeneous coordinate system position vector preparative le on rie down 3 [X s y s 1] is expressed as follows.

〔 X s y s 1 〕 = 〔 X m " y H s 〕' · T 33shadow' [X sy s 1] = [X m "y H s] '· T 33 shadow'

·· ·· ( 5 ) ' したがって、 モニタ ス ク リ ー ン 3上の点に対応する フ 、レームメ モ リ 2 2上の点を求めるためには  (5) 'Therefore, to find the point on the frame memory 22 corresponding to the point on the monitor screen 3,

〔 x m " y H s 〕 = [ x s y s 1 〕 · (T 33shadow' ) - ' [X m "y H s ] = [xsys 1] · (T 33 shadow ')-'

·· ·· ( 6 ) ' によって、 求めることができる。  ····· (6) '.

次に、 図 1 3から図 1 6を参照して、 平行光源を使用した時の 平行光源による透視変換行列 P PARAについて説明する。 Next, the perspective transformation matrix P PARA by the parallel light source when the parallel light source is used will be described with reference to FIGS.

図 1 3 Aは、 平行光源 7 0 に対する変換処理のフロ ーを示し、 図 1 3 Bは、 3次元ォブジェク ト ビデオ信号 V , に対する変換処 理のフ口一を示している。  FIG. 13A shows the flow of the conversion process for the parallel light source 70, and FIG. 13B shows the flow of the conversion process for the three-dimensional object video signal V ,.

まず、 図 1 3 Aを参照しながら、 平行光源 7 0 に対する変換処 理のフ口一を説明する。  First, with reference to FIG. 13A, a description will be given of a conversion process for the parallel light source 70.

ステ ッ プ S P 1 1では、 ワ ールド座標系における球面座標によ つて定義されている平行光源 7 0の座標を、 ワ ール ド座標系の直 交座標に変換する。 平行光源の位置は、 直交座標系で表すより も 、 球面座標系で表すほうが一般的である。 球面座標系とは、 平行 光源の位置を 「半径 ( r ) 」 、 「緯度 ( a ) 」 及び 「経度 ( β ) 」 で表す座標系である。 図 1 4 Αは、 ワールド座標系において、 直交座標と球面座標の関係を示した図である。 図 1 2 Aに示すよ うに、 直交座標系と球面座標系の関係は、 緯度 ( ) の基準を Y 軸の ii方向とし、 経度の基準を X Y平面としている。 つまり、 球 面座標の赤道面が直交座標の X Y平面に一致し、 緯度 0 ( r a d ) 、 経度 0 ( r a d ) の方向が Y軸のマイナス方向に一致する。 よって、 球面座標で定義された平行光源 7 0の位置を ( r , a , β ) 、 直交座標に変換された平行光源の位置を ( χ ι_ , y L , z L ) とすると、 この光源位置 ( X L , y L , z L ) は、 ·· '· (り 1 )In step SP11, the coordinates of the parallel light source 70 defined by the spherical coordinates in the world coordinate system are converted to the orthogonal coordinates in the world coordinate system. The position of a parallel light source is generally expressed in a spherical coordinate system rather than in a rectangular coordinate system. The spherical coordinate system is a coordinate system in which the position of a parallel light source is represented by “radius (r)”, “latitude (a)”, and “longitude (β)”. Figure 14 1 shows the relationship between rectangular coordinates and spherical coordinates in the world coordinate system. As shown in Fig. 12A, the relationship between the rectangular coordinate system and the spherical coordinate system is that the reference for latitude () is the ii direction of the Y axis and the reference for longitude is the XY plane. In other words, the equatorial plane of the spherical coordinate coincides with the XY plane of the rectangular coordinate, and the direction of latitude 0 (rad) and longitude 0 (rad) coincides with the minus direction of the Y axis. Therefore, the position of the collimated light source 70 defined by spherical coordinates is (r, a, β), and the position of the collimated light source converted to rectangular coordinates is (χ ι_, y L, z L), the light source position (XL, y L, z L ) is

Figure imgf000058_0001
Figure imgf000058_0001

と表すことができる。 よって、 球面座標で定義された光源の位置 を直交座標に変換するためには、 この式 ( 6 1 ) に、 オペレータ によって設定された球面座標系の光源位置 ( r , α, β ) を代入 することによって、 直交座標に変換された光源位置 ( X L , y L , Z !_ ) を求めることができる。 It can be expressed as. Therefore, in order to convert the light source position defined by spherical coordinates into rectangular coordinates, the light source position (r, α, β) of the spherical coordinate system set by the operator is substituted into this equation (61). Thus, the light source position (XL, yL, Z! _) Converted into the rectangular coordinates can be obtained.

ステップ S P 1 2では、 変換行列 F— 'によつて、 平行光源の座 標をヮ一ルド座標系からシャ ドウ座標系に変換する。 変換行列 F 一 1については、 ステップ S P 1で説明したので、 説明は省略する 。 シャ ドウ座標系に変換された光源の位置を ( x i_ ' , y L ' , z L ' ) とすると、 同次座標系であらわしたワールド座標系での 光源のべク ト ル 〔 X L y L z L 1〕 と、 同次座標系であらわした シャ ドウ座標系での光源のベク トル 〔 X L ' y L ' z L 'In step SP12, the coordinates of the parallel light source are transformed from the first coordinate system to the shadow coordinate system by the transformation matrix F- '. For the transformation matrix F one 1, since as described in step SP 1, description is omitted. Shadow coordinate system the position of the converted light source (x i_ ', y L' , z L ') and when, homogeneous coordinates source base click preparative Le of in the world coordinate system expressed in [XL y L z L 1] and the vector of the light source in the shadow coordinate system represented by the homogeneous coordinate system [XL L y L L z L L

1 〕 と、 変換行列 F— 1との関係は、 次式、 1] and the transformation matrix F— 1 are as follows:

C L ' y L z L 1〕  C L 'y L z L 1]

= [ X L y L z L n ♦ F - ' ·· ·· ( 6 2 ) と表すことができる。 = [XL y L z L n ♦ F-'· · · · · (6 2).

ステッ プ S P 1 3では、 ステップ S P 1 2で求められたシャ ド ゥ座標系における直交座標での光源の位置 ( X し ' , y L ' , z ' ) を、 シャ ドウ座標系における球面座標で表すように変換す る。 Ei 1 4 Bは、 シャ ドウ座標系での直交座標と球面座標との関 係を示すための図である。 図 1 4 Bに示すように、 シャ ドウ座標 系における直交座標系と球面座標系の関係は、 緯度 (ar s ) の基 準を Y s 軸の負方向と し、 経度 ( β s ) の基準を X s Y s 平面と している。 つまり、 球面座標の赤道面が直交座標の X s - Y s 平面 に一致し、 緯度 0 ( r a d ) 、 柽度 0 ( r a d ) の方向が Y s 軸 のマイ ナス方向に一致する。 In step SP13, the position of the light source in rectangular coordinates in the shadow ゥ coordinate system (X, y, yL ', z') obtained in step SP12 is expressed in spherical coordinates in the shadow coordinate system. Convert to represent. Ei 14B is a diagram showing the relationship between the rectangular coordinates and the spherical coordinates in the shadow coordinate system. As shown in Fig. 14B, the relationship between the rectangular coordinate system and the spherical coordinate system in the shadow coordinate system is such that the reference of the latitude (ar s ) is the negative direction of the Y s axis and the reference of the longitude (β s ). And the X s Y s plane are doing. That, X s of the equatorial plane is orthogonal coordinates of the spherical coordinates - matches Y s plane, latitude 0 (rad), the direction of柽度0 (rad) matches the minus direction of the Y s axis.

よって、 シャ ドウ座標系における直交座標で表された光源の位 置 ( X ι_ ' , y z L ' ) と、 球面座標で表された光源の位 置 ( r ' , α' , β ' ) との関係は、  Therefore, the position of the light source (X ι_ ', yz L') expressed in the rectangular coordinate system in the shadow coordinate system and the position of the light source (r ', α', β ') expressed in the spherical coordinate system are calculated. The relationship is

r ' =Sqrt { ( X + ( y ) 2 + ( z r '= Sqrt {(X + (y) 2 + (z

a ' = tan" 1 (— L ' , y L ') a '= tan " 1 (— L ', y L ')

β ' =sin- 1 (— z L ' , r ) β '= sin- 1 (— z L', r)

·· '· ( 6 3 ) によって表される。 よって、 ステップ S P 1 2で求められた光源 の位置 ( X y L ' , z ' ) を、 この式 ( 6 3 ) に代入す ることによって、 平行光源 7 0の位置を、 シャ ドウ座標系におけ る球面座標で表すことができる。 ····· (6 3) Therefore, the position of the light source obtained in step SP 1 2 (X y L ' , z') and by Rukoto be substituted into the equation (6 3), the position of the collimated light source 7 0, the shadow coordinate system It can be expressed in spherical coordinates.

次に、 ステップ S P 1 4では、 図 1 5に示すように、 回転行列 R z (一ひ' ) によって、 ステップ S P 1 3で求められた平行光 源の位置 ( r ' , a' , β ' ) を、 シャ ドウ豳標系の Ζ s 軸の回 りに一 " ' ( r a d ) 回転する。 つまり、 回転処理後の平行光源 の位置は ( Γ ' , 0, β ' ) と表すことができる。 図 1 3では、 回転行列 R z {~ α' ) によって回転された光源を仮想平行光源 7 1 と して表す。 このように平行光源 Ί 0の位置を回転すること によって、 図 1 3に示すように、 平行光源 Ί 1の光束は、 Ys Z s 平面に平行になる。 このように、 平行光源 7 1の高速を Y s Z s に平行になるように回転変換する理由は、 後述するステップ S P 1 7 において、 ォブジユタ ト ビデオ信号 V , を、 透視変換行列 P s o ' によってシャ ドウ座標系の X s Ys 平面に透視させる際に 、 入射する平行光源の光束が Y s Z s 平面に平行であると、 3次 元ォブジェク ト ビデオ信号を X s Y s 平面に透視させたとしても 、 Xs 軸方向の座標値が変化しないので、 ォブジェク ト ビデ才信 号を Xs Ys 平面に透視させるための透視変換行列 P s。〃 が非常 に簡単に表せるからである。 Next, in step SP 14, as shown in FIG. 15, the position (r ′, a ′, β ′) of the parallel light source obtained in step SP 13 is calculated by using the rotation matrix R z (Ichi '). ) Rotates one "" (rad) around the 豳s axis of the shadow target system. In other words, the position of the parallel light source after the rotation process can be expressed as (Γ ', 0, β'). In Fig. 13, the light source rotated by the rotation matrix R z (~ α ') is represented as a virtual collimated light source 71. By rotating the position of the collimated light source Ί0 in this manner, the light source shown in Fig. 13 is obtained. As shown, the luminous flux of the parallel light source Ί 1 is parallel to the Y s Z s plane, and the reason why the high-speed of the parallel light source 7 1 is rotationally converted to be parallel to Y s Z s is described later. In step SP 17, the observable video signal V, is perspectiveed on the X s Y s plane of the shadow coordinate system by the perspective transformation matrix P so '. If the incident luminous flux of the collimated light source is parallel to the YsZs plane, then even if the 3D object video signal is seen through the XsYs plane, Since the coordinate values in the Xs-axis direction do not change, a perspective transformation matrix P s for allowing the object video signal to be seen through the X s Ys plane. 〃 can be represented very easily.

具体的には、 回転行列 R z ( - α ' ) は Z s 軸回りの回転行列 であるので、 回転行列 R z ( ) は、 Specifically, since the rotation matrix R z (-α ') is a rotation matrix around the Z s axis, the rotation matrix R z () is

Figure imgf000060_0001
Figure imgf000060_0001

( 6 4 ) と表すことができる。  (64).

ステ ッ プ S P 1 1, ステ ッ プ S P 1 2 , ステ ッ プ S P 1 3及び ステ ッ プ S P 1 4によって、 平行光源 7 0に対する変換処理は終 了する。  By the steps SP 11, SP 12, SP 13, and SP 14, the conversion process for the parallel light source 70 is completed.

次に、 図 1 3 Bを参照して、 平行光源を使用した平行光源モー ドのときに、 3次元ォブジヱク ト ビデオ信号 V , から 3次元シャ ドゥビデオ信号 V 5 を生成するための透視変換行列 P PARAについ て説明する。 Next, referring to FIG. 13B, in a parallel light source mode using a parallel light source, a perspective transformation matrix for generating a three-dimensional shadow video signal V 5 from the three-dimensional object video signal V, I will explain P PARA .

ステップ S P 1 5では、 ステップ S P 1 1 と同様に、 変換行列 F 'によって、 ワ ール ド座標系で示される 3次元ォブジヱク ト ビ デォ信号 V , をシャ ド ウ座標系に変換する。 この理由は、 ステツ プ S P 1 1 で説明した平行光源に対する処理と同様に、 後述する 透視変換行列 P s。〃 は、 ワールド座標系における透視変換行列で はなくて、 シャ ドウ座標系における透視変換行列であるためであ る。 ^つて、 3次元ォブジヱク ト ビデオ V , をシャ ドゥ座標系の X s Ys 平面に透視させる場合には、 ワール ド座標系で表される 3次元ォブジ ク ト ビデオ V , の各画素位置をシャ ドゥ座標系に 変換する必要がある。 ステップ S P 1 6では、 ステップ S P 1 5でシャ ドヴ座標系に 変換されたオブジェク ト ビデオ信号 V , を、 回転行列 R s {- ' ) によって、 Z軸の回りに一 "' ( r a d ) 回転する。 この理 由は、 図 1 5に示すように、 ステップ S P 1 4において、 回転行 列 R z (— " ' ) によつて平行光源 7 0の位置 ( r ' , α' , βIn step SP15, similarly to step SP11, the three-dimensional object video signal V, represented in the world coordinate system is transformed into the shadow coordinate system by the transformation matrix F '. The reason for this is that the perspective transformation matrix P s , which will be described later, is similar to the processing for the parallel light source described in step SP 11. This is because 〃 is not a perspective transformation matrix in the world coordinate system, but a perspective transformation matrix in the shadow coordinate system. If the 3D object video V, is to be seen through the X s Ys plane of the shadow coordinate system, each pixel position of the 3D object video V, represented by the world coordinate system, is shadowed. Need to convert to coordinate system. In step SP 16, the object video signal V, converted to the shadow coordinate system in step SP 15, is rotated by one “” (rad) around the Z axis by the rotation matrix R s (-'). This is because, as shown in FIG. 15, in step SP 14, the position (r ′, α ′, β) of the parallel light source 70 is determined by the rotation matrix R z (— “”).

' ) を、 Ζ軸の回りに— " ' ( r a d ) 回転したので、 その平行 光源 7 0の回転処理と対応するように、 ォブジェク ト ビデオ信号 V , を、 回転する必要があるからである。 尚、 図 1 5 に示すよう に、 回転行列 R 2 {- a' ) によって Z s 軸の回りに— ( r a d ) 回転された 3次元ォブジニク ト ビデオ信号を、 仮想 3次元 ォブジヱク ト ビデオ信号 V , " と表すことにする。 よって、 シャ ドウ座標系の原点に対する、 3次元ォブジヱク ト ビデオ信号 V , と平行光源 7 0の相対的な位置閲係と、 シャ ドウ趣標系の原点に 対する、 仮想 3次元ォブジェク ト ビデオ信号 V , 〃 と仮想平行光 源 7 1の相対的な位置関係は、 全く同じである。 This is because the object video signal V, has to be rotated to correspond to the rotation process of the parallel light source 70, since ') has been rotated about the Ζ axis — “' (rad). As shown in FIG. 15, the three-dimensional object video signal that is rotated (rad) around the Z s axis by the rotation matrix R 2 (-a ') is converted into the virtual three-dimensional object video signal V, ". Therefore, the relative position of the three-dimensional object video signal V and the parallel light source 70 with respect to the origin of the shadow coordinate system, and the virtual three-dimensional object video signal V with respect to the origin of the shadow target system , 〃 and the virtual parallel light source 71 are exactly the same.

次に、 ステ ッ プ S P 1 7において、 透視変換行列 P s によつ て、 仮想 3次元ォブジヱク ト ビデオ信号 V , 〃 を、 シャ ドゥ座標 系の X s Ys 平面に透視する。 図 1 6 A及び図 1 6 Bを参照しな がら、 この透視変換行列を説明する。 まず、 図 1 5, 図 1 6 A及 び図 1 6 Bに示すように、 仮想ォブジェク ト ビデォ信号 V , " をNext, the stearyl-up SP 1 7, Te perspective transformation matrix P s Niyotsu, virtual 3-dimensional Obujiweku preparative video signal V, and 〃 and fluoroscopy X s Y s plane Shah de coordinate system. The perspective transformation matrix will be described with reference to FIGS. 16A and 16B. First, as shown in FIG. 15, FIG. 16A and FIG. 16B, the virtual object video signal V, "

、 透視変換行列 P s。〃 によって X s Ys 平面に透視したビデオ信 号を、 仮想 3次元シャ ドウビデオ信号 V 5 ' と表すことにする。 図 1 4 Aは、 この仮想 3次元オブジェク トビデオ信号 V , ' と、 仮想 3次元シャ ドウビデオ信号 V 5 " との位置関係を 3次元的に '表している図面であって、 図 1 4 Bは、 X s 軸の正方向から Y s Z s 平面を見たときの仮想 3次元ォブジヱク ト ビデオ信号 V , " と、 仮想 3次元シャ ドウビデオ信号 V 5 〃 との位置閲係を表して いる図面である。 ここで、 仮想ォブジェク トビデオ信号 V , ' J- のある画素点を ( x。 , y。 , ¾。 ) と し、 この画素 ( 。 , y o , z Q ) を透視変換行列 P s。〃 によって Xs Ys 平面に透視し た仮想シャ ドウビデオ信号 V 5 上の画素点を ( X s , y s , z s ) とすると、 図 1 6 Bに示される幾何学的な関係から、 , The perspective transformation matrix P s . The video signal seen through the X s Ys plane by 〃 is represented as a virtual three-dimensional shadow video signal V 5 ′. FIG. 14A is a drawing that three-dimensionally represents the positional relationship between the virtual three-dimensional object video signal V, ′ and the virtual three-dimensional shadow video signal V 5 ″, and FIG. , the virtual 3-dimensional Obujiweku preparative video signal V when the positive direction of X s axis viewed Y s Z s plane, a ", a drawing representing the position閲係the virtual three-dimensional Shah Doubideo signal V 5 〃 is there. Here, the virtual object video signal V, 'J- Let a pixel point with (x., Y. , ¾.) Be a perspective transformation matrix P s of this pixel (., Yo, zQ). 〃 by Xs Ys perspective the pixel point on the virtual Shah Doubideo signal V 5 to the plane (X s, ys, zs) When, from the geometric relationships shown in FIG. 1 6 B,

X s = X 0  X s = X 0

y s = y o + z 0 cot β '  y s = yo + z 0 cot β '

z s - 0 ·· ·· ( 6 5 ) という関係が成り立つことが分かる。 また、 仮想ォブジェク ト ビ デォ信号 V , 〃 上の点 ( x。 , y Q , z。 ) と、 仮想シャ ドウビ デォ信号 V 5 上の点 ( x s , y s , z s ) 及び透視変換行列 P s。 " との関係式は、 次式 It can be seen that the relationship zs-0 · · · · (6 5) holds. The virtual Obujeku preparative bi de O signal V, 〃 point above (x., Y Q, z .) And virtual Shah Doubi de O signal V 5 on the point (x s, ys, zs) and the perspective transformation matrix P s . Is the following equation

し X s y s z s 1 〕 = し x 0 y o z o 1 〕 · P so' ·· ·· ^ 6 6 ) によつて表すことができる。 よって、 式 ( 6 5 ) と式 ( 6 6 ) と から、 X syszs 1] = X 0 yozo 1] · P so '··· ^ ^ 6). Therefore, from equations (65) and (66),

1 0 0 0 1 0 0 0

0 1 0- 0  0 1 0- 0

P s o '  P s o '

0 cot β ' 1 0  0 cot β '1 0

0 0 0 1 ( 6 7 ) と表すことができる。  0 0 0 1 (67).

次に、 ステップ S Ρ 1 8において、 回転行列 R z { 1 ) によ つて、 仮想シャ ドウビデオ信号 V 5 〃 を Z s 軸の回りに回転移動 する。 図 1 5 においては、 回転移動されたビデオ信号を 3次元シ ャ ドウビデオ信号 V 5 として表している。 図 1 5からもわかるよ うにぐ 3次元シャ ドウビデオ信号 V 5 は、 3次元ォブジュク ト ビ デォ信号 V , を、 平行光源 7 0 によってシャ ドウ座標系の X s Y s 平面に透視したビデオ信号である。 このように移動する理由はNext, in step SΡ18, virtual shadow video signal V 5回 転 is rotated around Z s axis by rotation matrix R z { 1 ). In FIG 5 depicts a rotational movement video signals as a three-dimensional sheet catcher Doubideo signal V 5. As can be seen from FIG. 15, the three-dimensional shadow video signal V 5 is a video signal obtained by seeing the three-dimensional object video signal V, through the parallel light source 70 into the X s Y s plane of the shadow coordinate system. It is. The reason for moving this way

、 ステ ッ プ S P 1 6で、 回転行列 R z (— "' ) によって、 3次 元オブジェク ト ビデオ信号 V , を回転移動したので、 その回転行 列 R z { - a ' ) による回転移動処理を元に戻すためである。 つまり、 回転行列 Rz { - a r ) と回転行列 Rz { α ' ) とは 、 逆行列の関係にあるので、 回転行列 R z { α ' ) は、 , In step SP 16, the rotation matrix R z (— “') gives the third order This is because, since the original object video signal V, has been rotationally moved, the rotational movement processing by the rotational matrix R z {-a ') is restored. In other words, since the rotation matrix R z ( -ar ) and the rotation matrix R z (α ') have an inverse matrix relationship, the rotation matrix R z (α') is

Figure imgf000063_0001
Figure imgf000063_0001

( 6 8 ) と表すことができる。  (68).

つぎに、 ステップ S P 1 9では、 式 ( 4 2 ) によって示される 変換行列 Fによって、 シャ ドウ座標系で表される 3次元シャ ドウ ビデオ信号 V 5 を、 ワール ド座標系に変換する。 これによつて、 ワールド座標系の座標値で示される 3次元シャ ドウビデオ信号 V 5 を得ることができる。 Next, in step SP 1 9, converted by the transformation matrix F represented by Equation (4 2), a 3-dimensional shadow video signal V 5 represented by shadow coordinate system, the whirl de coordinate system. As a result, a three-dimensional shadow video signal V5 represented by the coordinate values in the world coordinate system can be obtained.

図 1 3 Bのフ ローに示される処理をまとめると、 ワ ール ド座標 系の 3次元ォブジヱク ト ビデオ信号 V , からワールド座標系の 3 次元シャ ドウビデオ信号 V 5 を求めるための処理は、 3次元ォブ ジヱク ト ビデオ信号 V , をワールド座標系からシャ ドウ座標系に 変換するステ ッ プ ( S P 1 5 ) と、 シャ ドウ座標系において、 3 次元ォブジェク ト ビデオ信号をシャ ドウ座標系の Xs Ys 面に投 影してシャ ドウ座標系の 3次元シャ ドウビデオ信号を生成するス テ ツプ ( S P 1 ΰ, S Ρ 1 7及び S Ρ 1 8 ) と、 シャ ドウ座標系 の 3次元シャ ドゥビデオ信号を、 シャ ドウ座標系からワール ド座 標系に変換して、 ワールド座標系の 3次元シャ ドウビデオ信号 V 5 を得るためのステ ッ プ ( S P 1 9 ) とから構成される。 1 3 when B summarize the process shown in flow of, the process for three-dimensional Obujiweku preparative video signal V Wa Lumpur de coordinate system, obtains a three-dimensional Shah Doubideo signal V 5 of the world coordinate system, 3 Step (SP15) for transforming the three-dimensional object video signal V, from the world coordinate system to the shadow coordinate system, and converting the three-dimensional object video signal into the Xs of the shadow coordinate system in the shadow coordinate system. Steps (SP1ΰ, SΡ17 and SΡ18) for projecting onto the Ys plane to generate a three-dimensional shadow video signal in the shadow coordinate system, and three-dimensional shadow video in the shadow coordinate system A step (SP 19) for converting the video signal from the shadow coordinate system to the world coordinate system to obtain a three-dimensional shadow video signal V 5 in the world coordinate system.

従って、 ワール ド座標系の 3次元ォブジヱク トビデオ信号 V , からワール ド座標系の 3次元シャ ドウビデオ信号 V 5 を求めるた めの透視変換行列 P PARAは、 変換行列 F _'と、 回転行列 R z (— ) と、 透視変換行列 P s。〃 と、 回転行列 R z ) と、 変 換行列 F— 1の乗算式で表すことができるので、 次式 Therefore, whirlpool de coordinate system of the three-dimensional Obujiweku Tobideo signal V, from the determined three-dimensional Shah Doubideo signal V 5 whirlpools de coordinate system The perspective transformation matrix P PARA is a transformation matrix F _ ′, a rotation matrix R z (—), and a perspective transformation matrix P s . 、, the rotation matrix R z ) and the transformation matrix F— 1.

P PARA = F - ' ♦ R a { - ') - P so' · R z ( ) · F P PARA = F-'♦ R a {-')-P so '· R z () · F

·· -· ( 6 9 ) と表すことができる。  ····· (6 9)

よって、 この変換行列 P PARAを式 ( 6 0 ) に代入すると、 平行 光源モー ドのときに、 2次元のソ一スビデオ信号から 2次元のシ ャ ドウビデオ信号 V 4 を求めるための変換行列 Tshadow〃 は、 Therefore, when this transformation matrix P PARA is substituted into equation (60), the transformation matrix Tshadow〃 for obtaining the two-dimensional shadow video signal V 4 from the two-dimensional source video signal in the parallel light source mode is obtained. Is

T shadow" = Τ。 · P P ARA · P o T shadow "= Τ. · P P ARA · P o

二 T。♦ F - ' · R — · P s · R z (« ') · F · P Two T. ♦ F-'· R — · P s · R z («') · F · P

·· ·· ( 7 0 ) と表すことができる。  ····· (70)

ここで、 この変換行列 Tshadow〃 に基づいて、 2次元のシャ ド ゥビデオ信号 V 6 をフ レームメ モ リ 2 2から読み出すための読み 出しア ド レスを演算する演算方法は、 式 ( 3 ) に示される行列 T obj に基づいて、 2次元のォブジヱク トビデオ信号 V 2 をフ レー 厶メ モ リ 1 2から読み出すための読み出しア ド レス ( X M , Υ Μ ) を求める潢算方法と全く同様である。 つまり、 式 ( 3 ) から式 Here, on the basis of this transformation matrix Tshadow〃, show two-dimensional Shah de Ubideo signal V 6 calculation method for calculating the add-less read for reading from off Remume mode Li 2 2, the formula (3) based on the matrix T obj to be a two-dimensional Obujiweku Tobideo signal V 2 the full rate厶Me motor-less read add-in for reading from Li 1 2 (X M, Υ Μ ) is exactly the same as潢算method for determining the . That is, from equation (3),

( 1 4 ) に示される溃算と全く同様の演算方法である。  The calculation method is exactly the same as the calculation shown in (14).

具体的には、 この行列 T shadow" は、 4行 4列の行列であるの で、 式 ( 4 ) と同様に、 Z軸方向の成分 ( 3行目及び 3列目) を 除いた行列を T 33shadow〃 とし、 この変換行列 T 33shadow〃 の逆 行列 (T 33shadow" ) 一 1の各パラメ ータを、 次式 Specifically, since this matrix T shadow "is a 4-by-4 matrix, the matrix excluding the components in the Z-axis direction (the third row and the third column) is calculated as in Equation (4). and T 33 Shadow〃, inverse matrix of the transformation matrix T 33 Shadow〃 (T 33 shadow ") each parameter one 1, the following equation

1 Γ b i 2 b I a  1 Γ b i 2 b I a

( T 33snadow" ) b 2 I b 22 ' b  (T 33snadow ") b 2 I b 22 'b

b a i b 32 ' b ( 7 1 とおく。 また、 シャ ドウ信号発生部 2 0の読み出しア ドレス発生— - 回路 2 4から供給される読み出しアドレスを (Χ Μ " , Y M ' ) とする。 式 ( 3 ) から式 ( 1 4 ) に至るまでの演算方法を参照す ると、 この読み出しア ド レス ( X M 〃 , Υ Μ " ) は、 次式、 b X s + b 21 Ys + b 31 baib 32'b (set to 7 1. Also, read address generation of shadow signal generator 20—- Let the read address supplied from the circuit 24 be (Χ Μ ", YM '). Referring to the calculation methods from Expression (3) to Expression (14), this read address (X M ,, Υ Μ ") is the following equation: b X s + b 21 Ys + b 31

X ( 7 2 )  X (72)

b X s + b 23 Ys + b 33 b X s + b 22〃 Y s + b b X s + b 23 Ys + b 33 b X s + b 22 〃 Y s + b

Y M " = ( 7 2 ')  Y M "= (7 2 ')

b :' X s + b 23 Ys + b 33 と表すことができる。 ただし、 Hs ' は b: 'Xs + b23Ys + b33. Where H s ' is

H s = b X s + b 23 Y s + b 33 " H s = b X s + b 23 Y s + b 33 "

よって、 フ レームメ モ リ 2 2に供給される読み出しア ド レス ( X M " , Υ Μ 〃 ) を、 オペレータの所望の空間的画像変換処理に よつて決定される 3次元変換行列 T。 の各パラメ ータ ( Γ ι 1〜 ΓTherefore, read A de Les supplied to off Remume mode Li 2 2 (X M ", Υ Μ 〃), and each of the three-dimensional transformation matrix T. is Yotsute determined desired spatial image conversion processing operator Parameters ( Γ ι 1 Γ Γ

33. 1 X , 1 V , 1 2 及び S ) 、 及び、 予め設定されるパラメ 一 タであるパースぺクティ ブ値 Ρ 2 、 点光源の位置 ( X L , y L , z t_ ) 、 シャ ドウ座標系の各軸の回転角 ( χ , Θ V , Θ シャ ド ウ座標系の原点の位置 ( X s。, y so, z s。;) を用いて表す ことができる。 33. 1 X, 1 V, 1 2 and S), and, Perth Bae Kuti blanking value [rho 2 is a parameter one data set in advance, the position of the point light source (XL, y L, z t_ ), shadow coordinates rotation angle of each axis of the system (χ, Θ V, the position of the origin of theta Shah de window coordinates (X s, y so, z s;..) can be represented using.

従って ( 6 ) 式〜 ( 4 0 ) 式に对して、 モニタスク リーン 3の ラスタスキヤ ン顺に対応するようにァ ドレツ シ ングするためのス ク リ ー ンア ド レス ( X s , Ys ) を供給すると、 その供給された ス ク リ ー ンア ド レスに対応したフ レームメ モ リ 2 2上における読 み出しア ド レス ( X M 〃 , Y„ " ) を、 順に演算することができ る。 これによつて、 2次元のオブジェク ト ビデオ信号 V 2 に対応 した 2次元のシャ ドウビデオ信号 V 6 を生成することができる。 Thus (6)对the formula - (4 0) type, scan click rie to § Doretsu sheet ring to correspond to Rasutasukiya down顺of Monitasuku lean 3 N'a de Les (X s, Ys) supply then, the supplied scan click rie N'a de-less off corresponding to the Remume mode Li 2 add-less out read on the 2 (X M 〃, Y ""), and Ru can be calculated in the order. This Yotsute can generate two-dimensional Shah Doubideo signal V 6 corresponding to two-dimensional object video signal V 2.

( 7 ) シャ ドウ座標系の設定に関する説明  (7) Explanation on setting of shadow coordinate system

先に説明したように、 ォブジヱク ト ビデオ信号に対するシャ ド ゥが投影されるシャ ドゥ面を規定するためのシャ ドゥ座標系を設 定するためには、 ワール ド座標系の X軸、 Y軸及び Z軸に対する シャ ドウ座標系の Xs 軸、 Ys 軸及び Z s 軸の夫々の回転角 As described above, a shadow coordinate system for defining a shadow plane on which a shadow is projected for an object video signal is set. The rotation angles of the Xs, Ys, and Zs axes of the shadow coordinate system with respect to the X, Y, and Z axes of the world coordinate system

X , 0 γ , θ z 、 、 つ—)レド座標系の原点に対するシャ ドウ座標 系の原点位置 ( X S。, y so, Z so) の設定が必要である。 本発明 の特殊効果装置においては、 前述したように、 オペレータが任意 にシャ ド ウ座標系の X s 軸、 Ys 軸及び Z s 軸の各回転角及びシ ャ ドウ座標系の原点を設定するようになっている。 式 ( 4 2 ) 及 び式 ( 4 7 ) に対して、 各軸の回転角 ( <9 χ , θ V , ^ z ) 及び 原点の座標 ( x s。, y so, z s。) が代入される。 しかし、 このよ うにシャ ドウ座標系の原点としてオペレータが適当な位置を設定 すると、 図 1 5 Aに示すように、 3次元変換されたォブジヱク ト ビデオ信号 V , と 3次元シャ ドウビデオ信号 V 5 とが、 空間的に 離れてしまう ことがある。 このようなことが起こる理由は、 3次 元オブジェク ト ビデオ信号 V , が、 シャ ドウ面上に存在していな い、 つまり、 言い換えると、 シャ ドゥ面上に 3次元ォブジヱク ト ビデオ信号 V , が存在するように、 シャ ドウ面を設定することが できていないという ことである。 もちろん、 オペレータが、 図 1 7 Aに示されるようなシャ ドウ面を望んでいるのであれば問題は 無い。 しかし、 光源からの光によって、 地面上に存在する、 ある 物体に対してシャ ドウが付られるような効果を得るためには、 こ の地面をシャ ドゥが投影されるシャ ドウ面として設定する必要が ある。 つまり、 空間的に、 3次元ォブジヱク ト ビデオ信号 V , が シャ ドウ面上に存在するように、 シャ ドウ座標系の原点を設定す る必要がある。 そのために、 本発明の特殊効果装置は、 シャ ドウ 座標 の原点を自動的に設定するための原点設定モー ドを有して いる。 X, 0 γ, θ z, , one -.) TOLEDO coordinate origin position of the origin of the shadow coordinate system with respect to the (X S, y so, it is necessary to set the Z so). In the special effect apparatus of the present invention, as described above, so that the operator sets the X s axis, the origin of the rotation angle and shea catcher dough coordinate system Ys axis and Z s axis of arbitrarily Shah de window coordinate system It has become. Equation (4 2)及beauty expression for (4 7), the rotation angle of each axis (<9 χ, θ V, ^ z) and the origin of the coordinate (x s., Y so, z s.) Assignment Is done. However, if the operator sets an appropriate position as the origin of the shadow coordinate system in this way, as shown in FIG. 15A, the three-dimensionally transformed object video signal V, and the three-dimensional shadow video signal V 5 become However, they may be spatially separated. This is because the 3D object video signal V, does not exist on the shadow plane, in other words, the 3D object video signal V, does not exist on the shadow plane. It means that the shadow plane cannot be set as it exists. Of course, there is no problem if the operator wants a shadow surface as shown in Figure 17A. However, in order for the light from the light source to have the effect of shadowing a certain object existing on the ground, it is necessary to set this ground as the shadow plane on which the shadow is projected. There is. That is, it is necessary to set the origin of the shadow coordinate system so that the three-dimensional object video signal V, spatially exists on the shadow plane. For this purpose, the special effect device of the present invention has an origin setting mode for automatically setting the origin of the shadow coordinates.

この原点設定モー ドとは、 まず、 オペレータがソ ースビデオ信 号 V。 上のある点を指定する。 この指定された点を、 3次元変換 行列 T Q によって ' 3次元空間上に変換し、 その 3次元空間上に変 換されたオブジェク ト ビデオ信号 Vobj 上の対応する点を、 シャ ドウ座標系の原点とする。 これによつて、 3次元ォブジヱク ト ビ デォ信号 Vobj 上の点にシャ ドウ座標系の原点が設定されるので 、 結果的に、 3次元オブジェク ト ビデオ信号 Vobj がシャ ドウ面 上に存在することになる。 First, the operator sets the source video signal V. Specify a point above. 3D transformation of this specified point The object is converted into a three-dimensional space by the matrix T Q , and the corresponding point on the object video signal Vobj converted into the three-dimensional space is set as the origin of the shadow coordinate system. As a result, the origin of the shadow coordinate system is set at a point on the three-dimensional object video signal Vobj, and as a result, the three-dimensional object video signal Vobj exists on the shadow plane. become.

具体的には、 図 1 7 Bに示されるように、 ソ ースビデオ信号 V 。 の右上の点を a、 左上の点を b、 左下の点を c、 及び、 右下の 点を dと し、 これに対応する 3次元ォブジヱク ト ビデォ信号 V ob j 上の点を、 a ' , b ' , c ' 及び d ' とする。 また、 そのソ ー スビデオ信号 V。 の 4点を a, b , c及び dの夫々の座標を、 ( X a , y a , 0 ) 、 ( x b , y b , 0 ) 、 ( x c , y c , 0 ) 及 び ( x d , y d , 0 ) とし、 3次元ォブジヱク ト ビデオ信号 V ob j 上の点 a ' , b ' , c ' 及び ά ' の夫々の座標を、 ( x a ' , y a ' , z a ' ) ( x b ' , y b ' , z b ' ) 、 ( x c ' , y c ' , z c ' ) 及び ( x d ' , y d ' , z d ' ) とする。 Specifically, as shown in FIG. 17B, the source video signal V. Let the upper right point be a, the upper left point be b, the lower left point be c, and the lower right point be d, and the corresponding point on the 3D object video signal V ob j be a ' , b ', c', and d '. Also, the source video signal V. The four points a, b, and each of the coordinates of c and d, the (X a, ya, 0) , (x b, y b, 0), (xc, y c, 0)及Beauty (x d, and y d, 0), a point on the 3-dimensional Obujiweku preparative video signal V ob j ', b', c ' and a' respectively of coordinates, (x a ', ya' , za ') (xb' , yb ', z b') , and (x c ', yc', z c ') and (x d', y d ' , z d').

次に、 オペレータによって、 ソ ースビデオ信号 V。 上の点 dが 指定された場合を例にあげ説明する。 オペレータによつて指定さ れたソ ースビデオ信号 V。 上の点 d ( X d , y d , 0 ) を、 3次 元変換行列 T o によって変換したォブジヱタ ト ビデオ信号 V obj 上の対応する点は、 d ' ( X c ' , y d ' , z d ' ) である。 こ ζ?、 点、 d ( x d , y d , 0 ) と, d ' ( Next, the source video signal V is output by the operator. The case where the above point d is specified is explained as an example. Source video signal V specified by the operator. The corresponding point on the observable video signal V obj obtained by transforming the above point d (X d , y d , 0) by the three-dimensional transformation matrix T o is represented by d ′ (X c ′, y d ′, z d '). This point, d (x d , yd, 0) and d '(

' ) とを、 夫々、 同次座標系のべク トルであらわすと、 べク トル ') And the vectors of the homogeneous coordinate system, respectively.

C d y d 0 1 〕 、 ベク ト ル 〔 x d ' y„ ' z d ' 1 〕 なるので、 これらのベク トルと、 3次元変換行列 T。 との 闋係は、 次式、 C x ό' y ά' z A ' 1 〕 [ d y d 0 1 ] T C DYD 0 1], the vector preparative consisting Le [x d 'y "' z d '1 ], and these vectors,闋係the three-dimensional transformation matrix T. The following equation, C x ό 'y ά' z A '1] [dyd 0 1] T

C x d y d 0 1〕 C xdy d 0 1]

Figure imgf000068_0001
Figure imgf000068_0001

-… ( 7 3 ) と表すことができる。  -... (73).

よって、 この式 ( 7 3 ) により、  Therefore, from this equation (73),

X d ' 二 { τ 1 1 X d + r 2 1 y d + 1 x ) / S X d '2 (τ 1 1 X d + r 2 1 y d + 1 x) / S

y d ' = ( r 1 2 x o + r 22 y d + 1 Y ) / s y d '= (r 1 2 xo + r 22 yd + 1 Y ) / s

z d ' = ( r 1 3 x o + r 2 a y d + l z ) / s · · · * ( 7 4 ) という関係式が成り立つ。 z d '= (r 1 3 xo + r 2 ayd + l z) / s · · · * (7 4) relationship is established that.

よって、 式 ( 4 2 ) 及び式 ( 4 7 ) に示される移動行列 Lのパ ラメ 一タであるシャ ドゥ座標系の原点 ( X s。, y s o, z s o ) に、 式 ( 7 4 ) によつて得られた ( x d ' , y d ' , z d ' ) を代入 することによって、 3次元オブジェク トビデオ信号 V , 上の点に シャ ドウ座標系の原点が設定される。 つまり、 3次元空間上で、 3次元ォブジェク ト ビデオ信号 V , がシャ ドウ面上に存在するよ うに、 シャ ドウ座標系が設定されたことになる。 これによつて、 本発明の特殊効果装置は、 太陽からの光によって、 地上に存在す る物体の影が地面上に投影されるような自然な効果を得ることが できる。 Therefore, Equation (4 2) and the origin of Shah de coordinate system is a path lame one other mobile matrix L represented by the formula (4 7) (X s., YSO, ZSO), a in Equation (7 4) connexion obtained (x d ', y d' , z d ') by substituting, 3-dimensional objects Tobideo signal V, the origin of the shadow coordinate system to a point above is set. In other words, the shadow coordinate system is set so that the three-dimensional object video signal V, exists in the shadow plane in the three-dimensional space. Accordingly, the special effect device of the present invention can obtain a natural effect such that the shadow of an object existing on the ground is projected on the ground by the light from the sun.

( 8 ) リ アルシャ ドウ発生器 5 0 の説明  (8) Description of real-shadow generator 50

こ こでフ レームメ モ リ 2 3から出力される シャ ドウキー信号 ( 点光猄モー ド時は K 4 、 平行光源モー ド時は Κ 6 ) が入力されて 、 このキー信号に対してリ アルなシャ ドウ、 すなわち濃淡とぼか しを生成して出力する リアルシ ャ ドウキ一信号 (点光源モ一ド時 は Κ 4 ' 、 平行光源モ一ド時は Κ 6 ' ) を出力する リ アルシャ ド 一- ゥキー発生器 5 ϋ について、 図 1 8を參照しながら説明する。 This Kodefu Remume mode Li 2 3 Sha Douki signal output from the (at Tenko猄mode is K 4, when directional light mode is kappa 6) is entered, a real for this key signal shadow, ie re Arusha de one for outputting Riarushi catcher synchronizing first signal for generating and outputting a Mr shading and Boca (time point source mode one de the kappa 4 ', when directional light mode one de the kappa 6') - The ゥ key generator 5 し な が ら will be described with reference to FIG.

リ アルシャ ドウ発生器 5 0は全体として、 利得制御回路 5 0 0 、 水平 L P F 5 0 1、 垂直 L P F 5 0 2及びリ アルシャ ドウ制御 部 5 0 3からなる。 またこのリアルシャ ドウ制御部 5 0 3には後 述する利得制御回路 5 0 0の利得特性と、 水平及び垂直、 L P F 5 The real shadow generator 50 includes a gain control circuit 500, a horizontal LPF 501, a vertical LPF 502, and a real shadow control unit 503 as a whole. Also, the real shadow control section 503 includes a gain characteristic of a gain control circuit 500 described later, and horizontal and vertical

0 1, 5 0 2の濾波特性とを示すテーブルデータが格納されてい る、 R OM 5 0 4からなる。 ROM 504, which stores table data indicating the filtering characteristics of 01 and 502.

利得制御回路 5 0 0 は、 フ レームメ モ リ 2 3から供給されるシ ャ ドウキー信号 (Κ 4 , Κ 6 ) に対して与える利得を制御する回 路である。 水平し P F 5 0 1 は、 利得制御回路 5 0 0からのシャ ドウキー信号 (Κ 4 , Κ 6 ) の水平方向の周波数成分に対する口 —パス フ ィ ルタ ( L P F ) である。 垂直 L P F 5 0 2 は、 水平 L P F 5 0 1 からのシャ ドウキ一信号 (Κ 4 , Κ6 ) の垂直方向の 周波数成分の口一パス フ ィ ルタ (L P F) である。 リ アルシャ ド ゥ制御部 5 0 3は、 読み出しア ド レス発生回路 2 4からの本実施 例で奥行き情報と して使用するパラ メ ータ Ηが入力されて R〇Μ 5 0 4に記憶されている、 所定の利 特性及び濾波特性に基づい て夫々利得制御回路 5 0 0及び水平、 垂直し P F 5 0 1 , 5 0 2 を制御する。 こ こで、 所定の利得特性とは、 結果的に意図した利 得特性となるデータであり、 濾波特性とは結果的に意図した瀘波特 性となるデータである。 The gain control circuit 500 is a circuit that controls a gain given to a shadow key signal (# 4 , # 6) supplied from the frame memory 23. Horizontal and PF 5 0 1 GMBH Douki signal (Κ 4, Κ 6) from the gain control circuit 5 0 0 mouth with respect to the horizontal direction of the frequency component of - a path off I filter (LPF). Vertical LPF 5 0 2 is a horizontal LPF 5 0 Shah synchronizing first signal from 1 (Κ 4, Κ 6) mouth one path off I filter in the vertical direction of the frequency component of (LPF). The real-shadow controller 503 receives a parameter と used as depth information in the present embodiment from the read address generation circuit 24 記憶 and stores it in R〇Μ 504. The gain control circuit 500 and the horizontal and vertical PFs 501 and 502 are controlled based on predetermined gain characteristics and filtering characteristics, respectively. Here, the predetermined gain characteristic is data that results in the intended gain characteristic, and the filtering characteristic is data that results in the intended filtering characteristic.

本実施例において最終的に得たい画像は図 1 9 (Λ) に示すよ うにォブジ ク ト 0に対する影 Sがォブジェク ト〇から離れれば 離れる程、 影 S 自体が薄くかつぼやけるようにすることである。  In this embodiment, the final image to be obtained is such that the further away the shadow S from the object 0 is from the object に, the thinner and blurred the shadow S itself is, as shown in FIG. 19 (Λ). is there.

尚、 この影は作図の都合上グラデイ エ一シヨ ンが滑らかに変化し ていないが、 実際には非常に滑らかに変化する。 Note that this shadow does not change smoothly in the gradation area for the sake of drawing, but it actually changes very smoothly.

この影 Sの濃淡を示す、 利得特性 (G A I Ν) は図 1 9 (B) に示している。 この図 1 9 ( B ) に示すように奥行き情報として 一 - 使用するパラメ ータ Hが大き くなるにつれて、 シャ ドウキー信号 ( K 4 , K G ) に対する利得は下げられ、 パラ メ ータ Hが小さ く なるにつれて、 シャ ドウキー信号 (K 4 , K G ) に対する利得は 上げられる。 つまり、 影 Sがオブジェク ト 0から離れれば離れる 程輝度が低く なる。 こ こで前述したようにこの図 1 9 (、Β ) に示 される特性となる、 ノ、 "ラメ 一夕 Ηと利得データとからなるテ一ブ ルデータは図 1 8に示す、 リ アルシャ ドウ制御部 5 0 3内の R 0 Μ 5 0 4 に格納されている。 The gain characteristics (GAI を) indicating the shading of the shadow S are shown in Fig. 19 (B). As shown in Fig. 19 (B), the depth information As parameter H is large Kunar used, the gain is lowered against Shah Douki signal (K 4, K G), as para menu over data H is rather small, the gain for the Shah Douki signal (K 4, KG) Can be raised. In other words, the brightness decreases as the shadow S moves away from the object 0. Here, as described above, the characteristic data shown in FIG. 19 (, 、) is shown in FIG. 18. The table data consisting of the lame signal and the gain data is shown in FIG. It is stored in R 0 Μ504 in the control unit 503.

また影 Sのぼかし量 (ソ フ ト ネス) 、 即ち口 一パス フ ィ ルタの 濾波特性 ( F I L T E R ) は、 図 1 9 ( C ) に示されるようにな る。 この図 1 9 ( C ) に示すようにパラメ ータ H s が大きく なる につれて水平および垂直ロ ーパス フ ィ ルタ 5 0 1及び 5 0 2の各 低域の通過帯域が狭く なり、 パラ メ ータ H s が小さ く なるにつれ て水平及び垂直ローパス フ ィ ルタ 5 0 1, 5 0 2 の各低域の通過 フ ィ ルタがフ ラ ッ ト 、 即ち広くなる。 つまり、 影 Sがォブジェク ト 〇から離れれば離れる程、 影 Sの輪郭等がぼける。 この図 1 9 ( C ) に示される特性となる、 パラ メ ータ H s と通過帯域を可変 とするフ ィ ルタ係数データとからなるテープルデ一タは、 前述し たように図 1 8に示すリ アルシャ ドウ制御部の R〇 M 5 0 4に格 納されている。 尚、 図 1 8に示される水平、 垂直口一パスフ ィ ル タ 5 0 1 , 5 0 2 に対し図 1 9 ( C ) に示される特性データが 1 種類用いられる。 水平口一パスフ ィ ルタ 5 0 1を用いるというの は、 水平方向において周波数成分の高い成分が通過できないとい う ことであるから、 周波数の高い成分が少なければ少ない程、 輪 郭等がはっきり しなくなる。 垂直方向においても同様である。 Also, the blur amount (softness) of the shadow S, that is, the filtering characteristic (FILTER) of the one-pass filter is as shown in FIG. 19 (C). As shown in Fig. 19 (C), as the parameter Hs increases, the low-pass bands of the horizontal and vertical low-pass filters 501 and 502 become narrower, and the parameter Hs increases. H s hands horizontally and vertically as the is rather small lowpass off I filter 5 0 1 5 0 of each low frequency 2 pass full I Rutagafu rats, i.e. wider. That is, the further away the shadow S is from the object 〇, the more the outline of the shadow S is blurred. The characteristic shown in FIG. 1 9 (C), para menu over data H s passband comprising a full I filter coefficient data to variable Tepurude Ichita is shown in FIG. 1 8 as described above It is stored in R〇M504 of the real shadow control unit. One type of characteristic data shown in FIG. 19 (C) is used for the horizontal and vertical one-pass filters 501 and 502 shown in FIG. The use of a horizontal-port one-pass filter 501 means that high-frequency components cannot pass in the horizontal direction, so the less high-frequency components, the less distinctive the contours, etc. . The same applies to the vertical direction.

( 9 ) コ ンバイナ 3 0の説明  (9) Description of combiner 30

次にコ ンバイナ 3 0に閲して、 図 2 0を参照して説明するが、 その前にコ ンパイナ 3 0の一般的な合成理論に関し説明すること にする。 Next, the explanation will be made with reference to Fig. 20 with reference to the combiner 30, but before that, the general synthesis theory of the combiner 30 will be explained. To

一般に 2つのビデオ信号 V A 及び V B を、 それぞれキ一信号 K A 及び K B に基づいて、 奥行情報 H 0Aによって決められる優先順 位に従って合成しようとする場合について説明する。 第 1のビデ ォ信号 VA に対して、 第 2のビデオ信号 V B が上にある (スク リ 一ンに近い) 場合の合成式は、 Generally the two video signals VA and V B, respectively on the basis of the keys signals KA and K B, will be described to be synthesized in accordance with priority as determined by the depth information H 0A. With respect to the first video O signals V A, synthetic formula in the case of the second video signal V B is above (closer to the disk re Ichin) is

V A (0 UT) - K A V A + ( 1 - K A ) K B V B ·· ·· ( 7 5 ) で表され、 V 0 (0 UT)のような'合成出力が得られる。 VA (0 U T)-KAVA + (1-KA) KBVB ··· (75 ) , and a composite output like V 0 (0 UT) is obtained.

同様にして第 2の映像信号 V B に対して、 第 1の映像信号 V A が上にある場合の合成式は、 Similarly, when the first video signal VA is above the second video signal VB, the combining equation is

V B (OUT) = K B V B + ( 1 — K B ) K A V A ·· ·· ( 7 6 ) で表され、 V B (0 UT)のような合成出力が得られる。 VB (OUT) = KBVB + - represented by (1 K B) KAVA ·· ·· (7 6), combined output such as V B (0 UT) is obtained.

第 1のビデオ信号 V A に対して、 第 2のビデオ信号 V B が上に ある (スク リ ーンに近い) 場合において、 合成ビデオ信号 VA (0U τ)に対してプライオ リティ信号 Η を考慮すると、 第 1のビデオ 信号 V A に対応する合成ビデオ信号は、 次式 The first video signal V A, in the case where the second video signal V B is above (disk near rie down), priority signal to the composite video signal V A (0U τ) Η 0Α Taking into account, the composite video signal corresponding to the first video signal V A is

V A (0 UT) X ― V A (OUT) H oA · · · · ( 7 / )  V A (0 UT) X ― V A (OUT) H oA (7 /)

のように表すことができ、 ( 7 7 ) 式に ( 7 5 ) 式を代入するこ とにより、 次式 The following equation can be obtained by substituting equation (75) into equation (77).

νΑ (ουτ) χ- { K AV A+ ( 1 - K A) K BV B} Η ΟΑ·· ·· ( 7 8 ) と表すことができる。 ν Α ( ουτ) χ- {K AV A + (1-K A ) K BV B} Η ΟΑ ···· (78)

第 2の映像信号 V B に対して、 第 1の映像信号 V A が上にある 場合のプライオ リ ティ信号は、 プライオ リティ信号 Ho Aを用いて ( 1 一 H。A) と表すことができる。 従って、 第 2の映像信号 V B に対して、 第 1 の映像信号 V A が上にある場合において、 V A (0 U 丁)に対してプライオ リティ信号 ( 1 一 H0A) を考慮すると、 V B の出力は、 次式 The second video signal V B, prioritization Li Ti signal when the first video signal VA is above can be represented by using the priority signal Ho A and (1 one H. A). Therefore, when the first video signal V A is above the second video signal V B and the priority signal (111 H 0A ) is considered for V A (0 U ), The output of V B is

V B (0 UT) X ― V B (0 U T) 、 1 ― Η θΑノ ·· ·· ( 7 9 ) のように表すことができ、 これに ( 3 2 ) 式を代入することによ 、 VB (0 UT) X ― VB (0 UT), 1 ― Η θΑ And by substituting equation (32) into this,

V B (OUT) X = ( K B V B + (1- K B ) K A V A } (1~ H OA)  V B (OUT) X = (K B V B + (1- K B) K A V A} (1 ~ H OA)

·· ·· ( 8 0 ) のように表すことができる。  ····· (80)

そこで、 最終的な合成ビデオ出力 V。UT を、 次式 So the final composite video output V. UT is

V 0 U Τ Κ 0 U Τ = V A (0 U Τ) X + V B (0 UT) X ·· ·· ( 8 1 )  V 0 U Τ Κ 0 U Τ = V A (0 U Τ) X + V B (0 UT) X (8 1)

のように合成されたキー信号 K OUT によってキ一ィ ング処理すれ ば、 当該最終的な合成ビデオ出力 V。UT は、 次式 If the keying process is performed with the key signal K OUT synthesized as shown in FIG. UT is:

V A (OUT) X + V B (0 U T ) X  V A (OUT) X + V B (0 U T) X

V OUT = · · ·· ( 8 2 )  V OUT = (8 2)

A 0 υ τ  A 0 τ τ

となる。 Becomes

ところで、 第 1及び第 2のビデオ信号 V A 及び V B に対応する 映像が表示されるェ リァ以外のェ リ 了 (すなわちビデオ信号 V A 又は V B のどちらも表示されていないヱ リァ) が、 第 1及び第 2 のビデオ信号 V A 及び V B のキー信号 Ka 及び K b を用いて ( 1— K A ) ( 1 — K N ) のような積の形で定義できるので、 ビデオ 信号 V Α 又は V B のいずれかが表示されるェ リ ァについてのキー 信号 OUT は Meanwhile, the first and second video signals V A and V B to E Li other than E Ria that image corresponding is displayed Ryo (i.e. We Ria neither is displayed video signal VA or V B) is, using the key signal K a and K b of the first and second video signals VA and V B (1- K a) - so can be defined in the form of a product such as (1 K N), the video signal V Alpha Or the key signal OUT for the area where either VB or

K OUT = 1 - ( 1 - K A ) ( 1 一 K B ) ·· ·· ( 8 3 ) K OUT = 1-(1-KA) (1 K B ) (83)

によつて表すことができる。 Can be represented by

従って ( 7 7 ) 式に ( 7 8 ) 式、 ( 8 0 ) 式及び ( 8 3 ) 式を 代入すれば、 最終的に得られる合成ビデオ出力 V ουτ は、 V 0 u ' ( { K A V A + ( 1 - K A ) K B V B } H OA Therefore, by substituting equations ( 78 ), (80) and ( 83 ) into equation ( 77) , the composite video output V ουτ finally obtained is V 0 u '({K A V A + (1-K A ) KBV B } H OA

+ { K B V B + ( 1 - K B ) K A V A } ( 1 - II ΟΛ)  + {K B V B + (1-K B) K A V A} (1-II ΟΛ)

1 1

Figure imgf000073_0001
Figure imgf000073_0001

( { H OAK A + ( 1 - H OA) ( 1 - K ) く } V A ({H OAK A + (1-H OA) (1-K))} V A

+ { ( 1 - H OA) K B + H OA ( 1 — K ) K } V B ) + {(1-H OA) K B + H OA (1 — K) K} V B)

1  1

X ( 8 4 ) X (84)

1 一 ( 1 一 K A ) ( 1 - K B ) のようになる。 よって ( 8 3 ) 式 ( 8 4 ) 式で表わされたキー信 号 Κ。υτ と合成ビデオ出力 V 0UT が混合キ一信号 K ' mi„ 、 混合 ビデオ信号 V ' miK と して、 コ ンパイナ 3 0から出力される。 It looks like 1 1 (1 1 KA) (1-KB). Therefore, the key signal で expressed by equation (83) and equation (84). υτ and the composite video output V 0UT are output from the compiler 30 as a mixed key signal K ′ mi „and a mixed video signal V ′ miK .

本発明の特殊効果装置のコ ンバイナ 2 2は、 2つの画像情報、 すなわち図 2 0 ( A ) に示すスク リ ーン面 3 Aの背後の X Y Z空 間において、 それぞれ奥行情報 II。 及び Hs を有するように斜め に延長しながら互いに交差する 2つの映像のビデオ信号、 すなわ ち才ブジヱク ト ビデオ信号 V 2 及びシャ ドゥビデオ信号 (点光源 モー ド時は V 4 、 平行光源モー ド時は V 6 ) について、 それぞれ キー信号 K 2 (図 2 0 (B ) ) 及び K 4 (点光源モー ド時は Κ 4 、 平行光源モー ド時は K s ) (図 2 0 ( C ) ) によってキ一イ ン グすると共に、 2つの映像の各部のプライオ リティ信号 Ho A及び ( 1 一 H。A) (図 2 0 ( D ) 及び図 2 0 ( E ) ) に基づいて図 2 1 の構成を用いて合成する。 The combiner 22 of the special effect device of the present invention has two pieces of image information, that is, depth information II in the XYZ space behind the screen surface 3A shown in FIG. 20 (A). And two video signals of images intersect each other while extending obliquely so as to have a H s, Sunawa Acquired Bujiweku preparative video signal V 2 and Shah de video signal (point source mode at the time of V 4, directional light mode time for V 6) de, respectively the key signal K 2 (FIG. 2 0 (B)) and K 4 (point source mode when the kappa 4, when directional light mode is K s) (Fig. 2 0 (C) while keys Lee in g by), priority signals of two images each part Ho a and (1 one H. a) (Fig. 2 0 (D) Figure based on and FIG. 2 0 (E)) 2 1 Are synthesized using the configuration of

ここで、 プライオ リ ティ信号 H OAとは、 ォブジェク ト ビデオ信 号 V ? のシャ ドウビデオ信号 (V 4 又は V 6 ) に対する表示の優 先度を示すための情報である。 例えば、 II 0A= 1の時は、 ォブジ ェク ト ビデオ信号 V 2 の優先度は 1 0 0 ノ、。一セ ン 卜であっては、 シャ ドウビデオ信号 (V 4 又は V 6 ) は全く表示されない。 即ち ォブジェク ト ビデオ信号 V 2 は、 不透明であると言える。 H OA = 0. 5の時はォブジヱク トビデオ信号 V 2 は半透明であって、 シ ャ ドウビデオ信号 V 4 が透けて表示されることになる。 つまり、 オブジェク ト ビデオ信号 V 2 が 5 0 %表示され、 シャ ドウビデオ 信号 (V 4 又は V 6 ) が 5 0 %表示されるので、 ォブジヱク ト ビ デォ信号 V 2 とシャ ドウビデオ信号 ( V 4 又は V 6 ) とが混ざり 合ったビデオ信号が表示されることになる。 Here, the prioritization Li Ti signal H OA, is information for indicating the display of a Priority for Obujeku preparative video signal V? Shah Doubideo signal (V 4 or V 6). For example, II 0A = 1 when the priority of Obuji E click preparative video signal V 2 is 1 0 0 Bruno. Is a Ichise emissions Bok, Shah Doubideo signal (V 4 or V 6) is not displayed at all. That is, it can be said that the object video signal V 2 is opaque. H OA = Obujiweku Tobideo signal V 2 when the 0.5 is a semi-transparent, so that the sheet catcher Doubideo signal V 4 are show through. That is, the object video signal V 2 is displayed 50%, since Shah Doubideo signal (V 4 or V 6) is displayed 50%, Obujiweku preparative bi de O signals V 2 and Shah Doubideo signal (V 4 or V 6 ) will be displayed.

図 2 1 は全体と してコ ンパイナ 3 0の構成を示し、 オブジェク ト ビデオ信号 V 2 の合成比率を演算する第 1映像信号合成部 4 1 と、 シャ ドウビデオ信号 (V 4 又は V 6 ) の合成比率を演算する 第 2映像信号合成部 4 2 と、 オブジェク ト ビデオ信号 V 2 及びシ ャ ドウビデオ信号 (V 4 又は V 6 ) に対するキー信号を形成する キー信号合成部 4 3 と、 ォブジヱク トビデオ信号 V 2 と シャ ドウ ビデオ信号 (V 4 又は V R ) とを合成して出力する合成出力部 4 4 とプライ オ リティ信号発生回路 4 8とからコ ンバイナ 3 0は構 成される。 Figure 2 1 shows a configuration of co Npaina 3 0 as a whole, and the first video signal combining unit 4 1 for calculating the synthesis ratio of the object video signal V 2, Shah Doubideo signal (V 4 or V 6) A second video signal synthesizing section 42 for calculating a synthesizing ratio; a key signal synthesizing section 43 for forming a key signal for the object video signal V 2 and the shadow video signal (V 4 or V 6 ); and an object video signal V 2 and shadow video signal (V 4 or V R) and co Nbaina 3 0 synthesized composite output unit 4 for outputting 4 and the ply o utility signal generating circuit 4 8 Metropolitan a is configured.

第 1映像信号合成部 4 1 は、 「 1 」 係数回路 4 9 と 「 1 一 K' 4 (または 1 一 K' 6 ) 」 係数回路 5 0 と合成回路 4 5 と掛算回 路 4 6, 4 7から構成されている。 The first video signal synthesizing section 41 includes a “1” coefficient circuit 49, an “one-K ′ 4 (or one-K ′ 6 )” coefficient circuit 50, a synthesizing circuit 45, and multiplication circuits 46, 4. Consists of seven.

合成回路 4 5 は、 第 1, 第 2及び第 3の入力データ D 1 , D 2 及び D 3に基づいて次式  The combining circuit 45 calculates the following equation based on the first, second and third input data D 1, D 2 and D 3.

D 4 = D l x D 2 + ( 1 - D 1 ) x D 3 …- ( 8 5 ) の演算を執行することにより出力データ D 4が得られる。 実際に 入力されるデータ D 1, D 2及び D 3はブラィオ リティ信号発生 回路から出力されるプライオ リティ信号 H0Aと、 「 1 」 係数回路 から ώ 「 1 」 出力と 「 1 — K ' 4 (または 1 — Κ ' 6 ) 」 係数回 路 5 0からの 「 1 — K' 4 (または 1 一 K' 6 ) 」 出力とが入力 されるので、 合成回路 4 5から出力される出力データ D 4は、 {Output data D 4 is obtained by executing the operation of D 4 = D lx D 2 + (1−D 1) × D 3...-(85). Data D 1, D 2 and D 3 to be actually input and priority signal H 0A output from Buraio utility signal generating circuit, "1" from the coefficient circuit ώ "1" and output "1 - K '4 ( Or 1 — Κ ' 6 ) ”Since the“ 1 — K' 4 (or 1 K ' 6 ) ”output from the coefficient circuit 50 is input, the output data D 4 output from the combining circuit 45 Is {

Η θΑ+ ( 1 - Η ΟΑ) · ( 1 - Κ ' 4 (または Κ ' 6 ) ) } となる 。 さ らにこの出力データ D 4は掛算回路 4 6及び 4 7 に供給され 、 掛算回路 4 6 はこの出力データ D 4とコ ンパイナ 3 0に入力さ れるォブジェク トキ一信号 Κ 2 とが入力されて出力 D 4 X Κ 2 が 得られ、 さ らにこの出力 D 4 X Κ 2 とオブジェク ト ビデオ信号 V 2 とが掛算 4 7 に入力され、 出力 D 4 X Κ 2 X V 2 が得られる。 したがって、 第 1映像信号合成部 4 1から出力される出力データ S 1 1 は次式 Η θΑ + (1-Η ΟΑ) · (1-Κ '4 (or Κ' 6))} . Further, the output data D4 is supplied to multiplication circuits 46 and 47, and the multiplication circuit 46 receives the output data D4 and the object signal 信号2 input to the compiler 30. output D 4 X kappa 2 is obtained, and the output D 4 X kappa 2 and object video signal V 2 is input to the multiplier 4 7 is al, an output D 4 X Κ 2 XV 2 is obtained. Therefore, the output data S 11 output from the first video signal combining unit 41 is

S 1 1 { Η θΑ+ ( 1 Η 0 A)  S 1 1 {Η θΑ + (1 Η 0 A)

. ( 1 - K ' (または K ' 6 ) ) } K 2 - V 2 (1-K '(or K' 6 ))} K 2-V 2

·· ·· ( 8 6 ) によって表される。  · · · · (8 6).

また第 2映像信号合成部 4 3は、 「 1 一 H 0A」 係数回路 5 2 と 「 1 」 係数回路 5 3 と 「 1 一 K 2 」 係数回路 5 4 と ( 7 5 ) 式と 同じ演算を実行する合成回路 5 1 と、 掛算回路 1 5 2及び 1 5 3 から構成されている。 The second video signal combining unit 4 3, "1 one H 0A" coefficient circuit 5 2 "1" and the coefficient circuit 5 3 "1 one K 2" coefficient circuit 5 4 and the same operation as (7 5) It comprises a synthesis circuit 51 to be executed, and multiplication circuits 152 and 153.

合成回路 5 1 に入力される入力データ D l, D 2及び D 3はそ れぞれ 「 1 一 H 0A」 係数回路 5 1からの 「 1 一 H 0A」 出力と、 「 1 」 係数回路からの 「 1 」 出力と、 「 1 — K 2 」 係数回路 5 4 「 1 - Κ 2 」 出力であるので、 合成回路 5 1から出力される出力デ 一夕 D 4 は、 { ( 1 - Η ΟΑ) + Η ΟΑ · ( 1 - Κ 2 ) } となる。 The input data D1, D2, and D3 input to the synthesis circuit 51 are respectively the " 111H0A " output from the " 111H0A " coefficient circuit 51 and the " 111H0A " output from the "1" coefficient circuit. and "1" output, "1 - K 2" coefficient circuit 5 4 - "since 1 kappa 2" is output, output data Isseki D 4 output from the synthesizing circuit 5 1, {(1 - Η ΟΑ ) + Η ΟΑ · (1-Κ 2)}.

したがって、 第 2映像信号合成部 4 3の合成出力データ S 1 2 は、  Therefore, the combined output data S 1 2 of the second video signal combining unit 43 is

S 1 2 = { ( 1 - Η ΟΑ) + Η ΟΑ · ( 1 — Κ 2 ) } Κ' 4 (またS 1 2 = {(1-Η ΟΑ) + Η ΟΑ · (1 — Κ 2 )} Κ '4 (also

Κ ' 6 ) - V 4 Κ '6)-V 4

と表 れる。 It is expressed as

またキー信号合成部 4 3は、 掛算回路 5 5 と 「 1 — ( 1 一 Κ 2 ) - ( 1 - Κ ' 4 (または Κ ' 6 ) ) 」 演算回路 5 6から構成さ れている。 掛算回路 5 5は、 「 ( 1 一 Κ' 4 (または K ' 6 ) ) 」 係数回路 5 0からの 「 ( 1 — K ' 4 (または Κ ' 6 ) ) 」 出力 と、 「 ( 1 — Κ 2 ) 」 係数回路 5 4からの 「 ( 1 一 Κ 2 ) 」 出力 とが与えられ、 「 ( 1 一 Κ 2 ) · ( 1 — K ' 4 (または K' 6 ) ) 」 を出力する。 「 1 一 ( 1 — Κ 2 ) · ( 1 - K' 4 (または Κ ' 6 ) ) 」 演算回路 5 6 にはこの 「 ( 1 _ Κ 2 ) · ( 1 - Κ ' 4The key signal synthesizing unit 4 3, multiplication circuit 5 5 as "1 - (1 one kappa 2) - (1 - kappa '4 (or kappa' 6)) 'and an arithmetic circuit 5 6. The multiplication circuit 5 5 is expressed as “(1 一 ′ 4 (or K ′ 6 )) "From the coefficient circuit 5 0" (1 - K '4 (or kappa' 6)) "and output" (1 - kappa 2) "from the coefficient circuit 5 4" (1 one kappa 2) "output and is given, - outputs "(1 one Κ 2) · (1 K ' 4 ( or K'6)).""1 one (1 - Κ 2) · ( 1 - K '4 ( or kappa'6))" operation circuit 5 6 The "(1 _ kappa 2) in · (1 - Κ '4

(または K ' 6 ) ) 」 出力が与えられ、 その出力を次式 (Or K ' 6 )))''output and the output is

1 - ( 1 - Κ 2 ) · ( 1 - Κ' Α (または K' 6 ) )  1-(1-Κ 2) · (1-Κ 'Α (or K' 6))

·· ·· ( 8 8 ) で表されるキー信号 Κ。 と して出力される。 またこの ( 7 8 ) 式 で示されるキー信号 Κ。 はコ ンバイナ 3 0からの出力信号として 次段のミ キサ 4 0 に出力される。  ····· (8 8) The key signal 表. Is output as Also, the key signal 示 represented by this equation (78). Is output as an output signal from the combiner 30 to the next mixer 40.

また、 合成出力部 4 4は、 「 1 一 ( 1 — Κ 2 ) ♦ ( 1 — Κ ' 4 (または K ' 6 ) ) 」 出力を逆回路 5 7において分数に変換して 、 乗算回路 5 8に与えることにより、 加算回路 5 9の加算出力と 乗算して合成ビデオ信号 V。 としてコ ンバイ ナ 3 0から ミキサ 4Furthermore, the combined output unit 4 4, "1 one (1 - Κ 2) ♦ ( 1 - Κ '4 ( or K'6))" is converted to a fraction in a reverse circuit 5 7 an output, the multiplier circuit 5 8 The composite video signal V is obtained by multiplying the sum by the sum output of the adder circuit 59. From combiner 30 to mixer 4

0 に出力される。 Output to 0.

加算回路 5 9 には、 第 1及び第 2映像信号合成部 4 1及び 4 2 の合成出力データ S 1 1及び S 1 2が与えられ、 かく して合成ビ デォ信号 V。 は次式  The adder circuit 59 is provided with the combined output data S 11 and S 12 of the first and second video signal combiners 41 and 42, and thus the combined video signal V. Is

V o= ( (H OAK 2+ (1- H OA) - (Ι- Κ' 4(または K' 6)) } Κ 2 · V + (1- Η ΟΑ) Κ / 4(または K' 6) + Η ΟΛ - (1- Κ 2) Κ ' 4 V o = ((H OAK 2 + (1- H OA) - (Ι- Κ '4 ( or K' 6))} Κ 2 · V + (1- Η ΟΑ) Κ / 4 ( or K '6) + Η ΟΛ-(1- Κ 2 ) Κ '4

(または Κ ' 6 ) } - V 4 (または V 6 ) ) (Or Κ ' 6 )}-V 4 (or V 6 ))

X 1 (1— Κ 2) · ( 1 - Κ' 4(または K ' 6))} X 1 (1— Κ 2 ) · (1-Κ ' 4 (or K' 6 ))}

·· ·· ( 8 9 ) によって表される値になる。  ····· (8 9)

したがって、 コ ンバイナ 3 0から実際に出力される混合ビデォ 信号 V ' miK (平行光源モー ド時は V〃 ) と混合キー信号 K ' mi¾ (平行光源モー ド時は K " ) は、 それぞれ ( 8 9 ) 式 — 、 ( 8 8 ) 式で示される。 Therefore, the mixed video signal V ' miK ( V〃 in the parallel light source mode) and the mixed key signal K' mi K (K "in the parallel light source mode) actually output from the combiner 30 are (8 9) Expression — , (88).

理論的に求めた ( 8 4 ) 式の合成ビデオ出力の式は、 図 2 1の コ ンバイナ 3 0 において得られる ( 8 9 ) 式の合成ビデオ出力 V 0Aと同じであり、 かく してコ ンバイナ 3 0は ( 7 5 ) 式〜 ( 8 4 ) 式の合成理論を実行するものであると言い得る。 The theoretically calculated equation (84) of the composite video output is the same as the composite video output V 0A of equation (89) obtained in the combiner 30 in FIG. 21, and thus the combiner 30 can be said to execute the synthesis theory of equations (75) to (84).

図 2 1のコ ンバイナ 3 0において、 図 2 0 ( A) に示すように 、 映像〇及び Aが、 奥行情報 H。 及び Hs をもちながら交差して いるとき、 第 1及び第 2の映像〇及び Aの映像を表わすビデオ信 号 V 2 及び V 4 (又は V 6 ) は、 キー信号 K 2 及び K' 4 (又は Κ' 6 ) によってキーイ ング処理される。 In the combiner 30 of FIG. 21, as shown in FIG. 20 (A), the images I and A are the depth information H. And H s , the video signals V 2 and V 4 (or V 6 ) representing the first and second images 〇 and A are key signals K 2 and K ′ 4 ( Or keying processing by Κ '6).

映像〇の奥行情報 Η。 は、 映像 0が映像 Αよりスク リ ーン面 3 Aに近い奥行情報 H。 をもっている範囲 W 2及び W 4において、 オブジェク ト ビデオ信号 V 2 を出力するようなプライオ リティ信 号 H。A (図 2 0 (D) ) をプライオ リティ信号発生回路 4 8にお いて発生させる。 Depth information of image 〇. Is depth information H where image 0 is closer to screen 3A than image Α. In the range W 2 and W 4 which has, object video signal priority signal so as to output V 2 H. A (FIG. 20 (D)) is generated in the priority signal generation circuit 48.

これに対して、 映像 Aのうち、 映像 0よりスク リ ーン面 3 Aに 近い奥行情報 H s をもっている範囲 W 1及び W 3の範囲でシャ ド ゥビデオ信号 V 4 (又は V 6 ) を出力するためのプライオ リティ 信号が ( 1 一 H0A) (図 2 0 (E) ) として求められる。 In contrast, in the video A, the output range W 1 and Shah de Ubideo signal V 4 in the range of W 3 have the depth information H s closer image 0 to disk rie down surface 3 A (or V 6) The priority signal to perform is calculated as (11- H0A ) (Fig. 20 (E)).

かく してコ ンバイナ 3 0から合成ビデオ信号 V。 として、 図 2 Thus, the composite video signal V from the combiner 30. As Figure 2

0 (G) に示すように、 オブジェク ト映像 0のうち優先順位の高 い範囲 W 2及び W 4において、 ォブジヱク ト映像〇がスク リーン 面 3 A上に映出されると共に、 シャ ドウ映像 Aのうち奥行情報 H s の優先順位が高い範囲 W 1及び W 3において、 シャ ドウ映像 A がスク リ ーン面 3 A上に表示される。 0 (G), in the high priority ranges W2 and W4 of the object video 0, the object video is projected on the screen surface 3A and the shadow video A is displayed. In the ranges W1 and W3 in which the priority of the depth information Hs is high, the shadow image A is displayed on the screen surface 3A.

次に、 このプライオ リティ信号に関して説明する。 この実施例 の場合、 プラ イ オ リ ティ信号発生回路 4 8は図 2 2に示すように Next, this priority signal will be described. In this embodiment, the priority signal generating circuit 48 is configured as shown in FIG.

、 入力されるォブジェク ト ビデオ信号 V 2 及びシャ ドウビデオ信 号 V 4 (又は V 6 ) の奥行情報 H。 及び Hs (図 2 3 (A) ) を 、 減算回路 6 5 に受け、 その減算出力 S 2 1 (二 H。 一 Hs ) ( 図 2 3 (B) ) が乗算回路 6 6においてゲイ ン レジスタ 6 7から 供給されるゲイ ン信号 S 2 2 (- G) と乗算された後、 その乗算 出力 S 2 3 ( = ( H。 一 H s ) G ) (図 2 3 ( B ) ) が、リ ミ ッタ, Obujeku preparative video signal V 2 and Shah Doubideo signal is input No. V 4 (or V 6 ) depth information H. And H s (FIG. 23 (A)) are received by a subtraction circuit 65, and the subtraction output S 21 (2H.1 H s ) (FIG. 23 (B)) is applied to a multiplication circuit 66. gain signal S 2 2 supplied from the register 6 7 - after being multiplied by (G), the multiplication output S 2 3 (= (H. one H s) G) (Fig. 2 3 (B)) is, Limiter

6 8に与えられる。 Given to 6-8.

ここでゲイ ン信号 S 2 2 ( = G) は、 図 2 3 (B ) に示すよう に、 減算出力 (ト I。 一 Hs ) の傾斜 (すなわち、 合成奧行比率の 変化率) を変更するような機能をもっている。 Here, the gain signal S 22 (= G) changes the slope (that is, the rate of change of the composite depth ratio) of the subtraction output (g I. 1 H s ) as shown in FIG. 23 (B). It has a function to do.

リ ミ ッタ 6 8は、 図 2 3 (C ) に示すように、 乗算出力 S 2 3 の値を + 0. 5 0. 5の範囲に制限するもので、 かく して奥 行情報の差が大きい範囲において、 レベルが + 0. 5又は— 0. 5 になり、 かつ奥行情報の差が + 0. 5〜一 0. 5の範囲にある とき、 リ ミ ッ タ出力 S 2 4が ( ίΐ。 一 H A ) Gの値を呈する。 当該リ ミ ッタ出力 S 2 4は、 加算回路 6 9においてォフセ ッ ト レジスタ 7 0から与えられるオ フセ ッ ト信号 S 2 5 (= L。 ) を 加算され、 その加算出力が、 図 2 2 (D) に示すように、 値が 1 〜 0の範囲で切り換わるプライォ リティ信号 H 0Aと してプライ才 リティ信号発生回路 4 8から出力される。 The limiter 68 limits the value of the multiplication output S 23 to a range of +0.5 0.5 as shown in FIG. 23 (C), and thus the difference of the depth information. When the level is +0.5 or -0.5 and the difference of the depth information is in the range of +0.5 to 0.5, the limiter output S24 is ( I. H A ) Gives the value of G. The limiter output S 24 is added with the offset signal S 25 (= L.) Given from the offset register 70 in the adder circuit 69, and the added output is shown in FIG. As shown in (D), the priority signal generation circuit 48 outputs the priority signal H 0A whose value switches in the range of 1 to 0.

図 2 2のブラィオ リティ信号発生回路 4 8において、 第 1及び 第 2の映像〇及び Λについて、 両者が交差しているときには、 当 該交差している点の近傍の範囲 W 2 3 (図 2 3 (D) ) において 、 プライ オ リティ信号 H 0Aは第 1及び第 2の映像〇及び Aの奥行 情報 H。 及び Hs の差の大きさに従う傾斜で変化する。 In the priority signal generating circuit 48 of FIG. 22, when the first and second images 〇 and て い る intersect, a range W 2 3 (see FIG. 3 (D)), the priority signal H 0A is the depth information H of the first and second video images A and A. And Hs, the slope varies according to the magnitude of the difference.

従って当該交差する点の近傍の範囲 W 2 3においては、 プライ オ リティ信号 H0Aが急激に 1〜 0 (又は 0〜 1 ) に切り換わらな いので、 当該近傍範囲 W 2 3の画像は、 映像 0及び Aに互いに重 なるように透けて見える状態になる (図 2 0 (G) ) 。 つま り、 映像〇と映像 Aとが混ざりあって表示されるので、 映像 0と映像 Therefore, in the range W 23 near the crossing point, the priority signal H 0A does not suddenly switch to 1 to 0 (or 0 to 1). Images 0 and A are seen through so that they overlap each other (Fig. 20 (G)). In other words, Since image 〇 and image A are mixed and displayed, image 0 and image A

Aとが交差している近傍では、 緩やかに映像〇と映像 Λとの混合 割合が変化していくので、 違和感の無い表示を行なう ことができ る。 In the vicinity where A intersects, the mixing ratio of the image I and the image I gradually changes, so that a display without discomfort can be performed.

かく して第 1及び第 2の映像 0及び Aが交差している、点の近傍 の範囲 W 2 3において映像〇及び Aが柔らかく変化するような特 殊効果画像上の効果を得ることができ、 しかも当該境界領域の幅 及び映像の変化の仕方は、 ゲイ ンレジスタ 6 7のゲイ ン出力 S 2 2の値を調整することにより、 オペレータが必要とする程度に調 整することができる。  Thus, it is possible to obtain an effect on the special effect image in which the images 〇 and A change softly in the range W23 near the point where the first and second images 0 and A intersect. In addition, the width of the boundary area and the way of changing the image can be adjusted to the extent required by the operator by adjusting the value of the gain output S22 of the gain register 67.

コ ンバイ ナ 2 2 は N AM ミ ッ クス回路構成の奥行情報合成回路  The combiner 22 is a depth information synthesis circuit with a NAM mix circuit configuration.

1 5 4を有し、 映像〇及び Aの奥行情報 (ス ク リ ー ン面 3 Aに近 い方の映像の位置を表わす) を選択して合成奥行情報 H。 ZHS と してコ ンバイナ 2 2から送出する。 The composite depth information H is selected by selecting depth information of the images I and A (representing the position of the image closer to the screen surface 3A). As the ZH S sent from the co Nbaina 2 2.

コ ンパイナ 3 0から出力される混合ビデオ信号 (点光源モ一 ド 時は V' mi„ , 平行光源モ一 ド時は V〃 mi„ ) と混合キー信号 ( 点光源モー ド時は K' m i x 、 平行光源モー ド時は K〃 mi„ ) はそ れぞれ上述した ( 8 9 ) 式、 及び ( 8 8 ) 式で示される。 ミキサ A mixed video signal (V ' miは in point light source mode, V〃 miは in parallel light source mode) and a mixed key signal (K' mix in point light source mode) In the parallel light source mode, K〃 mi )) is expressed by the above-mentioned equations (89) and (88), respectively.

4 0は入力される混合ビデオ信号及び混合キ一信号と、 バックグ ラ ウ ン ド信号 V ' BKとが入力されて最終的に出力ビデオ信号 V' OUT が出力される。 従って、 ミキサ 4 0から出力される出力ビデ ォ信号 V' 。υτ は、 式 ( 8 8 ) 及び式 ( 8 9 ) を式 (C ) 及び式 4 0 and mixing video signals and mixtures keys signal is input, backgrinding La window down de signal V 'BK and is inputted finally output video signal V' OUT is output. Therefore, the output video signal V 'output from the mixer 40. υτ is obtained by converting equation ( 88 ) and equation ( 89 ) into equation (C) and equation

(D) に代入することで得られる。 すなわち点光源モード時は、  It is obtained by substituting into (D). That is, in the point light source mode,

V OUT = Κ' MI K V MIK + ( 1 — K' ) V BK V OUT = Κ ' MI K V MIK + (1 — K') V BK

= {HOAK 2 + ( 1 - HOA) ( I —K' 4 ) K 2 } V 2 = {HOAK 2 + (1-HOA) (I —K ' 4 ) K 2 } V 2

+ { ( 1 - HOA) KR 4+ HOA ( 1 - K 2) K' 4 } V 2 + ( 1 - Κ' 4 ) ( 1 _K 2 ) V ΒΚ·· -· ( 9 0 ) ― また平行光源モー ド時の出力ビデオ信号 V〃 。UT は、 + {(1-HOA) K R 4 + HOA (1-K 2 ) K '4} V 2 + (1-Κ' 4 ) (1 _K 2) V ΒΚ The output video signal V〃 in the parallel light source mode. UT is

V OUT = V MI„ + ( Ι — Κ' ) V BK V OUT = V MI „+ (Ι — Κ ') V BK

= { H OAK 2 + ( 1 - H OA) ( 1 — K' 6 ) K 2 } V 2 = {H OAK 2 + (1-H OA) (1 — K '6) K 2} V 2

+ { (1- H OA) K ' 6 + H OA(1- K 2) K / 6 } V 2+ {(1- H OA) K ' 6 + H OA (1- K 2 ) K / 6} V 2

+ ( 1 - Κ ' 6 ) ( 1 - K 2 ) V Β κ · · · ·、 ( 9 1 ) と表現される。 + (1-Κ ' 6 ) (1-K 2) V Β κ · · ·, (91).

こ こで リ アルシャ ドウ発生器 5 0 によって、 出力される リ アル シャ ドウキ一信号 (点光源モー ド時は K' 4 、 平行光源モー ド時 は ' 6 ) の利得が制御されて、 利得が ϋ %のとき、 点光源モー ド時は、 K ' 4 = 0、 平行光源モー ド時は、 K ' G = 0 となるの で式 ( 9 0 ) 及び式 ( 9 1 ) は、 それぞれ、 Here, the real shadow generator 50 controls the gain of the output real shadow signal (K'4 in the point light source mode, '6' in the parallel light source mode). when Y%, when the point light source mode is K '4 = 0, when directional light mode is K' (9 0) become as G = 0 and equation (9 1), respectively,

V 。UT = { H OA 2 + ( 1 - H OA) K 2 } V 2 V. UT = {H OA 2 + (1-H OA) K 2 } V 2

+ ( 1 一 K 2 ) V BK + (1 K 2 ) V BK

= K 2 V 2 + ( 1 一 K 2 ) V BK ·· ·· ( 9 2 ) = K 2 V 2 + (1-1 K 2 ) V BK

V " OUT = { H o A K 2 + ( 1 - H OA) K 2 } V 2 V "OUT = {H o AK 2 + (1-H OA) K 2} V 2

+ ( 1 - K 2 ) V BK  + (1-K 2) V BK

= K 2 V 2 + ( 1 - K 2 ) V BK ·· · · ( 9 3 ) となる。 この場合、 上式 ( 9 2 ) 及び ( 9 3 ) から点光源モー ド 時、 平行光源モー ド時の出力ビデオ信号は、 K 2 V 2 の部分以外 は、 ( 1 — K 2 ) V BKとなり、 リ アルシャ ドウキ一信号の利得が 低いとノ ッ ク グラ ン ド信号 V B Kが略 1 0 0 %出力される。 = K 2 V 2 + (1-K 2 ) V BK · · · · (93). In this case, the above equation (9 2) and at a point source mode (9 3), the output video signal during directional light mode is other than the portion of K 2 V 2 is (1 - K 2) V BK becomes If the gain of the real shadow signal is low, the knock ground signal V BK is output at about 100%.

また、 リ アルシャ ドウ発生器 5 0 によって、 リ アルシャ ドウキ 一信号の利得が 1 0 0 %のときは、 点光源モー ド時は、 K ' 4 == 1、 平行光源モー ド時は Κ'. 6 = 1 となるので式 ( 9 0 ) 及び式 ( 1 ) は、 それぞれ、 Further, the re Arusha dough generator 5 0, when the gain of the re Arusha synchronizing first signal is 1 0 0% at the point source mode is, K '4 == 1, when directional light mode is kappa'. Since 6 = 1, equations (90) and (1) are

V OUT= H OAK 2V 2+ { (1— H。A) + H 0A(1 - K 2)} V 4 V OUT = H OAK 2 V 2 + {(1— H. A ) + H 0A (1-K 2 )} V 4

- H OAK 2V 2 + (1- H OAK 2 ) V 4 ·· ·· ( 9 4 ) V " ουτ= H OAK 2V 2+ { (1- H OA) + H OA (1- K 2) } V 6 -H OAK 2 V 2 + (1- H OAK 2 ) V 4 V "ουτ = H OAK 2 V 2+ {(1- H OA) + H OA (1- K 2 )} V 6

= H OAK 2V 2+ (1- H OAK 2 ) V 6 · · · · ( 9 5 ) となる、 この場合点光源モー ド時、 平行光源モー ド時ともに H 0A K 2 V 2 以外の部分は、 シャ ドウビデオ信号 (V 4 または V 6 ) が 1 0 ϋ %出力される。 通常、 シャ ドウビデオ信号は管、面上にお いて黒色となるので、 この場合には濃い黒色となってモニタ画面 上に映し出されることになる。 = H OAK 2 V 2 + (1-H OAK 2 ) V 6 (95) In this case, both the point light source mode and the parallel light source mode are parts other than H 0AK 2 V 2 GMBH Doubideo signal (V 4 or V 6) are output 1 0 ϋ%. Normally, the shadow video signal is black on the tube and surface, and in this case it will be dark black and projected on the monitor screen.

( 1 0 ) 特殊効果装置の動作及び効果の説明  (10) Explanation of operation and effect of special effect device

次に、 この特殊効果装置の動作を簡単に説明する。  Next, the operation of the special effect device will be briefly described.

まず、 オペレータは、 コ ン ト π—ルパネル 5に設けられた 3次 元ポイ ンテ ィ ングデバイ スやキー等を操作して、 本発明の特殊効 果装置で使用される読み出しア ドレスの演算に必要とされる各パ ラ メ 一タを入力する。 こ こで、 この読み出しア ド レスの演算に必 要なパラ メ ータ とは、 パースペク テ ィ ブ値 Ρ Ζ 、 シャ ドウ座標系 の X s 軸、 Y s 軸及び Z s 軸の夫々の回転角 Θ x , 0 γ , Θ z ) 、 シャ ドウ座標系の原点 ( x s。, y so, z so) 、 平行光源であ るか点光源であるかを示す光源の種類、 その光源の位置 ( Χ ι_ , y L , z L ) 又は ( r , α, β ) 等である。 また、 シャ ドゥ座標 系の原点を自動設定するモードが指定されている場合には、 ソ一 スビデオ信号の 4隅の点 ( a〜 d ) のうちのどれが指定されてい るかを示すデータが、 コ ン ト ロ ールパネル 5から入力される。 まず、 光源の種類と して、 点光源が指定された場合を例にあげ 説明する。 First, the operator operates a three-dimensional pointing device, keys, and the like provided on the control panel 5 to calculate a read address used in the special effect device of the present invention. Enter each parameter to be set. In here, the necessary parameter menu over data to the calculation of the read add-less, Pasupeku te I blanking value [rho Zeta, X s axis of shadow coordinate system, the rotation of each of the Y s axis and Z s axis Angles Θ x , 0 γ, Θ z), the origin of the shadow coordinate system (x s , y so, z so), the type of light source indicating whether it is a parallel light source or a point light source, and the position of the light source is (Χ ι_, y L, z L) or (r, α, β) and the like. When the mode for automatically setting the origin of the shadow coordinate system is specified, data indicating which of the four corner points (a to d) of the source video signal is specified is provided. , Input from the control panel 5. First, an example in which a point light source is specified as a light source type will be described.

C P U 8は、 コ ン ト ロ ールパネル 5から入力されるこれらのノヽ。 ラメ ータを受け取り、 リ アルタイ 厶に読み出しア ドレスの演算に 反映させる。 具体的には、 C P U 8は、 コ ン ト ロ ールパネル 5か ら供給されるパラメ 一タの変化をフレーム周期で監視し、 且つ、 供給されたパラメ 一タに基づいて読み出しアドレスを演算するた めのパラメ ータ ( b u b c^, b , 〜 b 33' ) をフ レーム周期 で演算している。 よって、 オペレータの操作に応じてフ レーム周 期でこれらのパラメ 一タをリ アルタイムに可変することができ、 そして、 その可変されたパラメ ータに応じて、 リ アルタ イ ムに読 み出しア ドレスが演算される。 また、 C P U 8は、 これらのパラ メ ータを、 設定値としてフ レーム毎に R AM 7 に記憶することも できる。 尚、 この段階では、 オペレータは、 ソ ースビデオ信号 V 0 に対して 3次元画像変換の指示を行っていないので、 モニタ ス ク リ ー ン 3には、 ソースビデオ信号 V。 が表示されている。 The CPU 8 receives these information from the control panel 5. The parameters are received and read in real time and reflected in the calculation of the address. Specifically, the CPU 8 monitors a change in a parameter supplied from the control panel 5 at a frame cycle, and calculates a read address based on the supplied parameter. Because of the parameters (bubc ^, b, ~ b 33 ') are calculated in the frame cycle. Therefore, these parameters can be changed in real time in the frame period according to the operation of the operator, and can be read out in real time according to the changed parameters. The address is calculated. The CPU 8 can also store these parameters in the RAM 7 for each frame as set values. At this stage, since the operator has not instructed the source video signal V 0 to perform 3D image conversion, the monitor screen 3 displays the source video signal V. Is displayed.

次に、 オペレータは、 コ ン ト ロ ールパネル 5に設けられた 3次 元ボイ ンティ ングデバィス等を操作することによって、 ソースビ デォ信号 V。 に対して 3次元の画像変換操作を指令する。 ォペ レ —タによって 3次元の画像変換が指令されると、 C P U 8は、 ォ ペ レ一タが指定した 3次元変換行列 T。 の各パラメ 一タである、 r 〜 r 33、 i χ . 、 z 及び sをコ ン ト ロールパネル 5か ら受け取り、 これらのパラメ 一タをリ アルタ イ ムに読み出しア ド レスの演算に反映させる。 具体的には、 C P U 8は、 コ ン ト 口 一 ルパネル 5から供給されるこれらのパラメ 一タの変化をフレーム 周期で監視し、 且つ、 供給されたパラメ ータに基づいて読み出し ア ド レスを浪算するためのパラメ ータ ( b u b aa, b , ~ bNext, the operator operates the three-dimensional pointing device provided on the control panel 5 to generate the source video signal V. Command 3D image conversion operation. When a three-dimensional image conversion is instructed by the operator, the CPU 8 generates a three-dimensional conversion matrix T specified by the operator. Is the parameter one another, r ~ r 33, i χ ., The z and s receiving co emission control panel 5 or al, reflects these parameters Ichita the operation of reading add-less in Li Alta Lee beam Let it. Specifically, the CPU 8 monitors a change in these parameters supplied from the control panel 5 at a frame cycle, and reads a read address based on the supplied parameters. Parameters for counting (bub aa, b, ~ b

33' ) をフ レーム周期で演算している。 次に、 C P U 8は、 受け 取ったパラメ ータ r u r a^ £ x ヽ ί γ £ ζ 及び sに基づい て、 式 ( 8 ) で表される 3次元変換行列 T 33 'の各パラメ ータ b , ,〜 b 3 3を演算する。 具体的には、 式 ( 2 8 ) 〜式 ( 3 7 ) に、 ノヽ。ラ メ 一タ Γ , , Γ Β ^ ί χ . £ v . £ z 及び s を代入する こ と によって、 ノ、"ラメ 一タ b , ,〜 b 33を求めることができる。 また、 C P U 8 は、 受け取った 3次元変換行列 T。 のパラ メ ータ r Μ〜 33 ') is calculated at the frame cycle. Next, CPU 8 receives took parameters rura ^ £ xヽI gamma £ based on ζ and s, each parameter b of the formula (8) three-dimensional transformation matrix T 33 represented by ' , B 3 3 are calculated. Specifically, the equations (28) to (37) show that La main Ichita Γ,, by and this substituting the Γ Β ^ ί χ. £ v . £ z and s, Bruno, "lame Ichita b,, it is possible to find the ~ b 33. In addition, CPU 8 is , The received three-dimensional transformation matrix T.

Γ 33. i x . i v . ί τ 、 S及び、 シャ ドウ座標に関するパラ メ ' ータ θ ヽ 0 ν . θ ζ . χ s o. y s。、 z s。、 及び、 光源に関する ノ、。ラ メ 一タ X L 、 y し 、 z L を受け取り、 これらのノ、°ラ メ 一タ に 基づいて、 式 ( 5 7 ) に表される 3次元変換行列 (T33shadow' ) —'の各パラメ ータ b , 〜 b 33' を演算する。 C P U 8は、 演 算したパラメ ータ b , ,〜 b 33を、 オブジェク ト信号生^部 1 0の 読み出しア ド レス発生回路 1 4に供給し、 渲算したパラ メ 一タ b . 〜 b 33' を、 シャ ドウ信号生成部 2 0の読み出しア ド レス発 生回路 2 4 に供給する。 Γ 33. ix. Iv. に 関 す る Parameters for τ, S and shadow coordinates' Θ θ 0 ν. Θ ζ. Χ s o. Y s . , Z s . , And light sources. Based on these parameters, X L , Y, and Z L , based on these parameters, the three-dimensional transformation matrix (T 33 shadow ') —' each parameter b, calculates a ~ b 33 '. The CPU 8 supplies the calculated parameters b,..., B 33 to the read address generation circuit 14 of the object signal generator 10, and calculates the calculated parameters b. 33 ′ is supplied to the read address generation circuit 24 of the shadow signal generation section 20.

ォブジェク ト信号生成部 1 0の読み出しァ ド レス発生回路 1 4 は、 。? 11 8からパラメ 一タ 1 1 1~ 1) 33を受取るとともに、 スク リ ー ンア ド レス発生回路 9からス ク リ ー ンア ド レス (Xs , Y s ) とを受け取り、 式 ( 1 3 ) 及び ( 1 4 ) に基づいて、 ォブジ二 ク ト信号用の読み出しア ド レス (ΧΜ , Υ„ ) をフ レーム周期で 生成する。 生成された読み出しア ドレス (ΧΜ , ΥΜ ) は、 ビデ ォ信号用のフ レームメ モ リ 1 2及びキー信号用のフ レームメ モ リThe read address generation circuit 14 of the object signal generation unit 10 is configured as follows. ? 11 11 Receives the parameters 1 1 1 to 1) 33 from 8 and receives the screen address (X s , Y s) from the screen address generation circuit 9 and obtains the equation (13) and based on the (1 4), Obuji two click preparative signal read add-less (chi Micromax, Upsilon ") to be generated in the frame period. the generated read address (chi Micromax, Upsilon Micromax) is Frame memory for video signal 12 and frame memory for key signal

1 3に夫々供給され、 その結果として、 フ レームメ モ リ 1 2から はォブジヱク ト ビデオ信号 V 2 が出力され、 フ レームメ モ リ 1 3 からはォブジェク トキ一信号 Κ2 が出力される。 13, respectively. As a result, the object video signal V 2 is outputted from the frame memory 12, and the object key signal Κ 2 is outputted from the frame memory 13.

一方、 シャ ドウ信号生成部 2 0の読み出しァ ドレス発生回路 2 4は、 C P U 8からパラ メ ータ b , - b 33' を受け取るととも に、 ス ク リ ー ンア ド レス発生回路 9からスク リ ー ンア ドレス (X s , Ys ) とを受け取り、 式 ( 5 8 ) 及び ( 5 9 ) に基づいて、 シャ ドウ信号用の読み出しア ドレス (XM ' , YM ' ) をフ レー ム周期で生成する。 生成された読み出しア ド レス (ΧΜ ' , Υ„ ' ) は、 ビデオ信号用のフ レームメ モ リ 2 2及びキー信号用のフ レームメ モ リ 2 3に夫々供給され、 その結果として、 図 7 Βに示 すように、 フ レームメ モ リ 2 2からはシャ ドウビデオ信号 V 4 が 出力され、 フ レームメ モ リ 2 3からはシャ ドウキー信号 Κ 4 が出 力される。 フ レームメ モ リ 2 3から出力されたシャ ドウキ一信号 K 4 が入力される リ アルシャ ドウ発生器 5 0において、 リ アルシ ャ ドウ制御部 5 0 3力 パラメ 一タ H s に基づいて R O M 5 0 4に 格納されている、 パラ メ ータ H s と利得デ一タからなるテーブル 1から対応する利得データを読み取り当該利得データを、利得制御 回路 5 0 0 に供給する。 従って、 利得制御回路 5 0 0は、 リ アル シャ ドウ制御部 5 0 3から供給される利得データに応じた利得を 、 入力されるシャ ドウキ一信号 K 4 に対して与える。 リアルシャ ドゥ制御部は以上の処理を繰り返し行なう。 On the other hand, the read address generation circuit 24 of the shadow signal generation section 20 receives the parameters b and -b 33 ′ from the CPU 8 and receives the parameters from the screen address generation circuit 9. receiving a rie N'a dress (X s, Ys), based on the formula (5 8) and (5 9), the read address (X M ', Y M' ) full rate-time cycle for shadow signal Generated by The generated read addresses (Χ Μ ′, Υ „′) are supplied to the frame memory 22 for the video signal and the frame memory 23 for the key signal, respectively. As shown in Β, the frame memory 22 outputs the shadow video signal V 4 , and the frame memory 23 outputs the shadow key signal Κ 4. Is forced. In Li Arusha dough generator 5 0 off Remume mode Li 2 3 Shah synchronizing first signal K 4 output from is input, ROM 5 0 based on Li Arushi catcher dough controller 5 0 3 force parameter Ichita H s 4 are stored, and supplies the table 1 consisting of para menu over data H s and the gain de one data read the gain data corresponding gain data, the gain control circuit 5 0 0. Thus, the gain control circuit 5 0 0 gives the gain according to the gain data supplied from the real shadow controller 5 0 3, with respect to Shah synchronizing first signal K 4 input. The real shadow controller repeats the above processing.

利得制御回路 5 0 0から出力される シャ ドウキ一信号は、 水平 The shadow signal output from the gain control circuit 500 is horizontal

L P F 5 0 1ついで垂直 L P F 5 0 2に入力される。 リ アルシャ ドウ制御部 5 0 3は、 入力される本実施例で奥行情報として用い られる H s の値に基づいて、 リアルシャ ドウ制御部 5 0 3の R 〇 Μ 5 0 4に記憶されている、 H s とフ ィ ルタ係数データからなる テーブルから (図 1 9 C参照) 対応するフィルタ係数データを読 出し、 このフ ィ ルタ係数データを水平 L P F 5 0 1 に供給する。 水平 L P F 5 0 1 は、 入力されるシャ ドウキー信号にリアルシャ ドウ制御部 5 0 3からのフィルタ係数データを乗じて出力する。 ついで、 リ アルシャ ドウ制御部 5 0 3は、 入力される H s に基づ いて、 リ アルシャ ドウ制御部 5 ϋ 3の R 0 M 5 0 4に記憶されて いる、 H s とフ ィ ルタ係数データとからなるテーブルから (図 1 9 C参照) 対応するフ ィ ルタ係数データを読出し、 この読み出さ れたフィルタ係数データを垂直 L P F 5 0 2に供給する。 垂直し P F 5 0 2 は、 水平 L P F 5 0 1からのシャ ドウキ一信号にリァ ルシャ ドウ制御部 5 0 3からの読み出されたフィルタ係数データ を乗じて、 最終的に リ アルシャ ドウ発生器 5 0で出力する リ アル シャ ドウキ—信号 K ' 4 と して出力する。 したがって、 図 1 9 A に示されるように、 ォブジヱク ト 0の近傍の影 Sのデータは、 ォ ブジェク ト 〇に近く乗じられるフ ィ ルタ係数データが大きく なる 'ので、 輪郭がはっきりする。 そして、 ォブジヱク ト〇から遠ざか るにつれて、 乗じられるフィルタ係数データの値が小さ く なつて いくので、 影 Sのデータは徐々に輪郭のはつきり しないものにな つていく (ぼやけていく) 。 LPF 501 is then input to the vertical LPF 502. Li Arusha dough controller 5 0 3, based on the value of H s used as depth information in the present embodiment to be input is stored in the R 〇 Micromax 5 0 4 of Riarusha dough controller 5 0 3, from a table consisting of H s and off I filter coefficient data (see Fig. 1 9 C) issued reads the corresponding filter coefficient data and supplies the full I filter coefficient data in the horizontal LPF 5 0 1. The horizontal LPF 501 multiplies the input shadow key signal by the filter coefficient data from the real shadow controller 503 and outputs the result. Then, Li Arusha dough controller 5 0 3 is based on the H s input, are stored in the R 0 M 5 0 4 of Li Arusha dough controller 5 ϋ 3, H s and off I filter coefficients The corresponding filter coefficient data is read from the table including the data (see FIG. 19C), and the read filter coefficient data is supplied to the vertical LPF 502. The vertical PF 502 multiplies the shadow signal from the horizontal LPF 501 by the filter coefficient data read from the real shadow controller 503, and finally the real shadow generator 5 and outputs 0 real Shah synchronization - signal K '4 and to outputs. Therefore, as shown in FIG. 19A, the data of the shadow S near object 0 is Since the filter coefficient data multiplied by the object 近 く becomes larger, the contour becomes clear. Then, as the distance from the object increases, the value of the filter coefficient data to be multiplied becomes smaller, so that the data of the shadow S gradually becomes less contoured (blurred).

なお、 作図上輪郭が徐々にぼける様子を示すことができないが 、 実際にはォブジェク トから遠ざかるにつれて影は徐々にぼけて いく。  Although the contour cannot be shown to be gradually blurred on the drawing, the shadow is gradually blurred as it moves away from the object.

コ ンバイナ 3 0 は、 オブジェク ト信号生成部 1 0から才ブジヱ ク ト ビデオ信号 V 2 及びォブジヱク トキ一信号 K 2 を受け取ると ともに、 シ ャ ドゥ信号生成部 2 0からシャ ドウビデオ信号 V 4 及 びリ アルシャ ドウキ一信号 K 4 ' を受け取り、 式 ( a ) に基づい て、 混合ビデオ信号 V m i x ' と混合キー信号 K mi K ' とを生成す る。 ミ キサ 4 0 は、 外部から供給されたバックグラ ン ドビデオ信 号 V BKと、 コ ンバイナ 3 0から出力された混合ビデオ信号 V miCo Nbaina 3 0, when the object signal generation unit 1 0 receives the old Bujiwe click preparative video signal V 2 and Obujiweku Toki first signal K 2 together, shea catcher du signal generator 2 0 from Shah Doubideo signal V 4及beauty It receives the real signal K 4 ′ and generates a mixed video signal V mix ′ and a mixed key signal K mi K ′ based on the equation (a). The mixer 40 includes an externally supplied background video signal V BK and a mixed video signal V mi „output from the combiner 30.

' 及び混合キ—信号 K m i >< ' を受け取り、 式 ( c ) に基づいて、 アウ トプッ ト ビデオ信号 V O UT ' を生成する。 And the mixed key signal K mi> <', and generates an output video signal VO UT' based on the equation (c).

次に、 光源として、 平行光源が指定された場合について説明す る。  Next, a case where a parallel light source is designated as the light source will be described.

C P U 8は、 まず、 コ ン ト ロールパネル 5から、 シャ ドウ座標 の各軸に関するパラメ 一タ ( ^ X 、 0 、 Q 1 、 ヽ シャ ドウ座標 の原点に関するパラメ ータ ( x s。、 y s o. z so) 及び、 平行光源 に関するパラメ ータ ( r、 、 β ) を受け取る。 また、 コ ン ト σ ールパネル 5 に設けられた 3次元ボイ ンティ ングデバイ スの操作 状態に基づいて、 C P U 8は、 コ ン ト ロ ールパネル 5から、 3次 元変換行列 T。 のパラ メ 一タ r 1 1〜 r 33、 £ X ί 、 £ z 、 s を受け取る。 C P U 8は、 コ ン ト ロ ールパネル 5から供給される これらのパラメ 一夕の変化をフレーム周期でリ アルタイ厶で監視 し、 且つ、 供給されたパラメ 一タに基づいて読み出しナ ド レスを 演算するためのパラメ ータ (!)! ,〜!^ , b , ― b 33' ) をフ レーム周期で演算している。 よって、 オペレータの操作に応じて フ レーム周期でこれらのパラメ 一夕をリ アルタイ 厶に可変するこ とができ、 そして、 その可変されたパラメ ータに応じて、 リ アル タ イ ムに読み出しア ド レスが演算される。 CPU 8, first of all, co-down door from the control panel 5, parameters Ichita (^ X for each axis of the shadow coordinate, 0, Q 1, parameters related to the origin of theヽshadow coordinates (x s., Ys o z so ) and the parameters (r,, β) related to the collimated light source, and based on the operation state of the three-dimensional pointing device provided on the control sigma panel 5, the CPU 8 from Control This setup b Rupaneru 5, para bud 3D transformation matrix T. Ichita r 1 1 ~ r 33, £ X ί, £ z, receives the s. CPU 8 is supplied from copolyesters emissions collected by filtration Rupaneru 5 Changes in these parameters are monitored in real time in the frame cycle. And a parameter (!) For calculating the read address based on the supplied parameters! , ~! ^, B, -b 33 ') are calculated at the frame period. Therefore, these parameters can be changed in real time in the frame cycle in accordance with the operation of the operator, and the read out data can be read out in real time in accordance with the changed parameters. The address is calculated.

次に、 C P U 8は、 受け取ったパラメ ータ ! " ,!〜! · 33、 ヽ i γ 、 i z 及び sに基づいて、 式 ( 8 ) で表される 3次元変換行 列 T 331の各パラ メ ータ b ^〜ゎ 33を演算する。 具体的には、 式 ( 2 8 ) 〜式 ( 3 7 ) に、 ノ、。ラ メ 一タ Τ· Η〜 Γ 33、 " Ά Υ . i z 及び sを代入することによって、 ノ、。ラメ 一タ わ ,,〜! を求 めることができる。 また、 C P U 8は、 受け取った 3次元変換行 列 T。 のパラ メ ータ r , , 〜 r 33、 i X . Si γ . SL z . s、 及び、 シャ ドゥ座標に関するパラメ ータ x 、 0 γ , Θ z , X s。、 y s。 、 z s。及び、 光源に関するパラ メ ータ r、 、 9を受け取り、 こ れらのパラ メ ータ に基づいて、 式 ( 7 1 ) に表される 3次元変換 行列 ( T 33shadow〃 ) -'の各パラメ ータ b , 〜 b 33" を演算す る。 C P U 8は、 演算したパラメ 一タ b , ,〜 b 33を、 才ブジェク ト信号生成部 1 0の読み出しァ ド レス発生回路 1 4に供給し、 演 算したパラ メ ータ b , 〜 b 33 " を、 シャ ドウ信号生成部 2 0の 読み出しア ドレス発生回路 2 4に供給する。 Next, CPU 8 receives the parameters! ",! ~! · Calculates each parameter b ^ ~ 次 元33 of the three-dimensional conversion matrix T 331 represented by equation (8) based on 33 , ヽ. Specifically, equation (2 8) to formula (3 7), Bruno,. ra Ichita Τ · Η~ Γ 33, by substituting Υ. iz and s, Bruno. Lame one! Can be obtained. Also, the CPU 8 receives the three-dimensional conversion matrix T. Para menu over data r,, ~ r 33, i X. Si γ. SL z. S, and parameters x about Shah de coordinates, 0 γ, Θ z, X s. , Y s . , Z s . And para menu over data r relates to a light source, receives the 9, based on these parameter menu over data, three-dimensional conversion matrix expressed in equation (7 1) (T 33 Shadow〃) - 'each of parameters b, you calculating the ~ b 33 ". CPU 8 is computed parameters Ichita b,, a ~ b 33, supplied to the talent Brzeg preparative signal generation unit 1 0 read § de Les generating circuit 1 4 and para menu over data b that computation, a ~ b 33 ", and supplies the read address generating circuit 2 4 shadow signal generator 2 0.

オブジェク ト信号生成部 1 0の読み出しァ ドレス発生回路 1 4 は、 C P U 8からパラメ ータ b ,,〜 b 33を受け取るとともに、 ス ク リ ー ンア ド レス発生回路 9からス ク リ ー ンア ドレス (X s 、 Y s ) を受け取り、 式 ( 1 3 ) 及び ( 1 4 ) に基づいて、 ォブジ ヱク ト信号用の読み出しア ド レス (ΧΜ , ΥΜ ) をフ レーム周期 で生成する。 生成された読み出しア ド レス (ΧΜ , ΥΜ ) は、 ビ デォ信号用のフ レームメ モ リ 1 2及びキー信号用のフ レームメ モ リ 1 3に夫々供給され、 その結果として、 フ レームメ モ リ 1 2か らはォブジヱク ト ビデオ信号 V 2 が出力され、 フ レームメ モ リ 1 3からはォブジュク トキ一信号 K 2 が出力される。 Read § address generating circuit 1 4 objects signal generator 1 0, together with receive parameters b ,, ~ b 33 from the CPU 8, the scan click rie N'a de-less generation circuit 9 crow click rie N'a Dress (X s, Y s) receives, based on the formula (1 3) and (1 4), Obuji We click preparative signal read add-less (chi Micromax, Upsilon Micromax) to generate in frame period. The generated read add-less (Χ Μ, Υ Μ) is off Remume mode for full Remume mode Li 1 2 and the key signal for bi de O signals Are supplied to the memory 13 respectively. As a result, an object video signal V 2 is output from the frame memory 12, and an object video signal K 2 is output from the frame memory 13.

—方、 シャ ドウ信号生成部 2 0の読み出しァ ド レス発生回路 2 4は、 C P U 8からパラ メ ータ b , ,〃 〜 b 3 3 ff を受け取、るととも に、 ス ク リ ー ンア ド レス発生回路 9からス ク リ ー ンア ド レス ( X s , Y s ) とを受け取り、 式 ( 7 2 ) 及び ( 7 2 ) に基づいて、 シャ ドウ信号用の読み出しア ド レス ( X M " , Y M ' ) をフ レー ム周期で生成する。 生成された読み出しァ ド レス ( X M 〃 , Y M 〃 ) は、 ビデオ信号用のフレームメ モ リ 2 2及びキ一信号用のフ レームメ モ リ 2 3に夫々供給され、 その結果として、 図 1 4 Bに 示すように、 フ レームメ モ リ 2 2からはシャ ドウビデオ信号 V 6 が出力され、 フ レームメ モ リ 2 3からはシャ ドウキ一信号 K 8 が 出力される。 - How, read § de-less generation circuit 2 4 shadow signal generator 2 0 para menu over data b from the CPU 8,, 〃 ~ b 3 receive a 3 ff, the Rutotomo, scan click rie N'a de Les generating circuit 9 crow click rie N'a de Les (X s, Y s) receive and formula (7 2) and (7 2) on the basis of the read for shadow signal add-less (XM " , generates the YM ') at full rate-time period. the generated read § de-less (X M 〃, YM 〃) is full Remume motor Li for frame Note Li 2 2 and keys signal for a video signal 23, and as a result, as shown in FIG. 14B, the frame video 22 outputs the shadow video signal V 6, and the frame memory 23 outputs the shadow video signal K. 8 is output.

フ レームメ モ リ 2 3から出力されるシャ ドウキー信号 K 8 が入 力される リ アルシャ ドウ発生器 5 0において、 リアルシャ ドウ制 御部 5 ϋ 3がパラメ 一タ H s に基づいて R 0 Μ 5 0 4に格納され ている、 パラメ ータと利得データからなるテーブルから対応する 利得データを読み取り当該利得データを利得制御回路 5 0 ϋに供 給する。 従って、 利得制御回路 5 0 0はリアルシャ ドウ制御部 5 0 3から供給される利得データに応じた利得を入力されるシャ ド ゥキー信号に対して与える。 In Li Arusha dough generator 5 0 Shah Douki signal K 8 output from the full Remume mode Li 2 3 is input, R 0 Micromax 5 Riarusha dough control section 5 Y 3 is based on the parameters Ichita H s The corresponding gain data is read from a table of parameters and gain data stored in 04, and the gain data is supplied to the gain control circuit 50 #. Therefore, the gain control circuit 500 gives a gain corresponding to the gain data supplied from the real shadow control section 503 to the input shadow key signal.

利得制御回路 5 0 0から出力される シャ ドウキ一信号は、 水平 L P F 5 0 1ついで垂直 L P F 5 0 2に入力される。 リアルシャ ドウ制御部 5 0 3は、 入力される本実施例で奧行き情報として用 いられる H s の値に基づいて、 リ アルシャ ドウ制御部 5 0 3の R 0 Μ 5 0 4に記憶されている、 H s とフィルタ係数データからな るテ一ブルから (図 1 9 C参照) 対応するフィルタ係数データを 読み出し、 このフ ィ ルタ係数データを水平 L P F 5 0 1 に供給す る。 水平 L P F 5 0 1 は、 入力される シャ ドウキー信号に リ アル シャ ドウ制御部 5 0 3からのフィルタ係数データを乗じて出力す る。 ついで、 リ アルシャ ドゥ制御部 5 0 3は、 入力される H s に 基づいて、 リ アルシャ ドウ制御部 5 0 3の R 〇 M 5 0 4、に記憶さ れている、 H s とフ ィ ルタ係数データとからなるテーブルから ( 図 1 9 C参照) 対応するフィルタ係数データを読み出し、 この読 み出されたフ ィルタ係数データを垂直 L P F 5 0 2に供給する。 垂直 L P F 5 0 2 は、 水平 L P F 5 0 1からのシャ ドウキー信号 にリ アルシャ ドウ制御部 5 0 3からの読み出されたフ ィ ルタ係数 データを乗じて、 最終的にリ アルシャ ドウ発生器 5 ϋで出力する リ アルシャ ドウキー信号 K ' 6 として出力する。 したがって、 図 1 9 Αに示されるように、 ォブジヱク ト〇の近傍の影 Sのデータ は、 オブジェク ト 〇に近く乗じられるフ ィルタ係数データが大き く なるので、 輪郭がはつきりする。 そして、 オブジェク ト 0から 遠ざかるにつれて、 乗じられるフィルタ係数データの値が小さ く なっていくので、 影 Sのデータは徐々に輪郭のはつきり しないも のになつていく (ぼやけていく) 。 The shadow signal output from the gain control circuit 500 is input to the horizontal LPF 501 and then to the vertical LPF 502. Riarusha dough controller 5 0 3, based on the value of H s which need use as depthwise information in this embodiment to be input, stored in the R 0 Micromax 5 0 4 of Li Arusha dough controller 5 0 3 are, from Ruteichi Bull such from H s and the filter coefficient data (see Fig. 1 9 C) corresponding filter coefficient data Read and supply this filter coefficient data to the horizontal LPF 501. The horizontal LPF 501 multiplies the input shadow key signal by the filter coefficient data from the real shadow controller 503 and outputs the result. Then, Li Arusha de controller 5 0 3, based on the H s input, re Arusha dough controller 5 0 3 R 〇 M 5 0 4, the stored, H s and off I filter The corresponding filter coefficient data is read from the table including the coefficient data (see Fig. 19C), and the read filter coefficient data is supplied to the vertical LPF 502. The vertical LPF 502 multiplies the shadow key signal from the horizontal LPF 501 by the filter coefficient data read from the real shadow controller 503, and finally the rear shadow generator 5 output as Li Arusha Douki signal K '6 to output Y. Therefore, as shown in FIG. 19 (1), the contour of the shadow S data in the vicinity of the object becomes sharp because the filter coefficient data multiplied by the object becomes large. Then, as the distance from the object 0 increases, the value of the filter coefficient data to be multiplied becomes smaller, so that the data of the shadow S gradually becomes unsharpened (blurred).

なお、 作図上輪郭が徐々にぼける様子を示すことができないが 、 実際にはオブジェク トから遠ざかるにつれて影は徐々にぼけて Although the contour cannot be shown as gradually blurring in the drawing, the shadow gradually blurs as it moves away from the object.

(/ヽぐ o (/ ヽ ugu o

コ ンバイナ 3 0は、 ォブジヱク ト信号生成部 1 0からォブジヱ ク ト ビデオ信号 V 2 及びォブジヱク トキ一信号 K 2 を受け取ると もに、 シャ ドウ信号生成部 2 0からシャ ドウビデオ信号 V 6 及び リ アルシャ ドウキー信号 K 6 ' を受け取り、 式 ( b ) に基づいて 、 混合ビデオ信号 V m i„ 〃 と混合キー信号 K m i K " とを生成する 。 ミ キサ 4 0 は、 外部から供給されたバッ クグラ ン ドビデオ信号 V B Kと、 コ ンバイナ 3 0から出力された混合ビデオ信号 V m i K * 及び混合キー信号 K m i K ' を受け取り、 式 ( d ) に基づいて、 了 ゥ トプッ ト ビデオ信号 V 0 U T " を生成する。 The combiner 30 receives the object video signal V 2 and the object key signal K 2 from the object signal generator 10, and also receives the shadow video signal V 6 and the real signal from the shadow signal generator 20. It receives the dowkey signal K 6 ′ and generates a mixed video signal V mi „〃 and a mixed key signal K mi K ″ based on equation (b). The mixer 40 outputs a background video signal V BK supplied from the outside and a mixed video signal V mi K * output from the combiner 30. And the mixed key signal K mi K ′, and generates an output video signal V 0 UT ”based on the equation (d).

( 1 1 ) 本発明の効果  (11) Effects of the present invention

本発明によれば、 奥行情報に応じた利得特性が制御されるとと もに、 奥行情報に応じた濾波特性が制御されて、 より現 に近い ォブジヱク 卜に対する影が生成され、 この影の画像とオブジェク ト画像とパッ クグラ ン ド画像が合成されるので、 簡単な構成で、 かつ簡単な処理で、 ォブジェク ト画像からの距離に応じたより現 実に近い影を目的とするォブジェク ト画像に高速に付加すること ができるという効果がある。  According to the present invention, a gain characteristic according to the depth information is controlled, and a filtering characteristic according to the depth information is controlled, so that a shadow for a more current object is generated, and an image of the shadow is generated. The object image and the package image are combined with each other, so with a simple configuration and simple processing, an object image that aims at a more realistic shadow according to the distance from the object image can be created at high speed. This has the effect that it can be added.

さ らに、 オブジェク ト用及び影用のそれぞれ映像特殊効果装置 で、 別々のオペ レーシ ョ ンにより所望の画像を構成することなく 、 簡単なオペレー シ ョ ンにより、 より現実に近い影を才ブジヱク トに合成することができる。  In addition, the image special effect device for the object and the shadow can be used to create a more realistic shadow by a simple operation without forming a desired image by a separate operation. Can be synthesized.

さらに、 オペレータのパラメ 一タにより所望の画像が生成され るので、 コ ンピュータグラフィ ックスのように所望の画像生成に 膨大な時間をかける必要がない、 という効果がある。 産業上の利用可能性  Furthermore, since a desired image is generated by the parameters of the operator, there is an effect that it is not necessary to spend an enormous amount of time to generate a desired image unlike computer graphics. Industrial applicability

この発明の特殊効果装置は、 放送局用画像処理装置において、 特殊効果画像を生成する場合等に利用できる。  INDUSTRIAL APPLICABILITY The special effect device of the present invention can be used in a case where a special effect image is generated in a broadcast station image processing device.

Claims

iif 求 の 範 囲 Range of iif request 1 . ビデオ信号が示す物体と該物体に対する影とに対して特殊効 果処理を施す特殊効果装置において、  1. A special effect device for performing special effect processing on an object indicated by a video signal and a shadow of the object, 物体の影の画像の利得を制御する利得制御手段と、  Gain control means for controlling the gain of the shadow image of the object, 上記影の画像を濾波する濾波手段と、  Filtering means for filtering the shadow image, 上記影の奥行情報に応じて上記利得制御手段の利得を制御す るとともに、 上記影の奥行情報に応じて上記濾波手段の瀘波特 性を制御する制御手段と、  Control means for controlling the gain of the gain control means according to the shadow depth information, and controlling the filtering characteristics of the filtering means according to the shadow depth information; 上記制御手段により制御されて出力される上記物体の影の画 像と、 上記物体の画像と、 上記物体の背景となる画像とを合成 する合成手段と、  Synthesizing means for synthesizing an image of the shadow of the object, which is controlled and output by the control means, an image of the object, and an image serving as a background of the object; を有する特殊効果装置。  Special effects device with. 2 . 請求項 2 に記載の特殊効果装置において、 2. The special effects device according to claim 2, 上記制御手段は、 上記奥行情報に応じた利得特性データと、 濾波特性データとが記憶された記憶手段を有し、  The control means has storage means in which gain characteristic data corresponding to the depth information and filtering characteristic data are stored, 上記制御手段は、 上記記憶手段に記憶された利得特性データ に応じて上記利得制御手段の利得を制御するとともに上記記憶 手段に記憶された濾波特性データに応じて上記濾波手段の濾波 特性を制御する特殊効果装置。  The control means controls the gain of the gain control means in accordance with the gain characteristic data stored in the storage means, and controls the filtering characteristic of the filtering means in accordance with the filtering characteristic data stored in the storage means. Special effects equipment. 3 . 請求項 1 に記載の特殊効果装置において、 3. The special effects device according to claim 1, 上記濾波手段は、 ロ ーパスフィルタから構成されている特殊 効果装置。  The above-mentioned filtering means is a special effect device comprising a low-pass filter. 4 . 入力されるソ ースビデオ信号に対して特殊効果処理を施す特 殊効果装置において、  4. A special effect device that performs special effect processing on the input source video signal. 上記ソ ースビデオ信号に対して第 1の画像変換処理を行い目 的画像を示すオブジェク ト信号を生成するォブジェク ト信号生 成手段 、  Object signal generating means for performing a first image conversion process on the source video signal to generate an object signal indicating a target image; 上記ソ ースビデオ信号に対して第 2の画像変換処理を行い上 記目的画像に対応するシャ ドウ信号を生成するシャ ドウ信号生 成手段と、 A second image conversion process is performed on the source video signal. Shadow signal generating means for generating a shadow signal corresponding to the target image; 上記ォブジェク ト信号生成手段から出力されるオブジェク ト 信号と、 上記シャ ドウビデオ信号生成部から出力されるシャ ド ゥ信号とが入力されて、 上記オブジェク ト信号と上記シャ ドウ 信号と、 上記ソ 一スビデオ信号に対応するバッ クグラ ウ ン ド信 号とを合成して出力ビデオ信号を出力する合成手段とを備え、 上記シャ ドウ信号生成手段には、 上記ソースビデオ信号に対 応する上記シャ ドウ信号に対して利得を制御する利得制御手段 と、 上記シャ ドウ信号を濾波する濾波手段と、 上記シャ ドウ信 号に対応する奥行き情報を生成する奥行き情報生成手段と、 該 奥行き情報生成手段からの奥行き情報に基づいて上記利得制御 手段の利得を制御するとともに該奥行き情報に基づいて上記濾 波手段の濾波特性を制御する制御手段とを有する特殊効果装置 。  An object signal output from the object signal generation means and a shadow signal output from the shadow video signal generation unit are input, and the object signal, the shadow signal, and the source video are input. Synthesizing means for synthesizing a background signal corresponding to the signal and outputting an output video signal, wherein the shadow signal generating means includes: Gain control means for controlling gain, filtering means for filtering the shadow signal, depth information generating means for generating depth information corresponding to the shadow signal, and depth information from the depth information generating means. Control means for controlling the gain of the gain control means based on the depth information and controlling the filtering characteristics of the filtering means based on the depth information. Special effects apparatus having a door. 5 . 請求項 4に記載の特殊効果装置において、  5. The special effects device according to claim 4, 上記シャ ドウ信号生成手段に入力されるシャ ドウ信号は、 上 記利得制御手段に入力されて利得が制御されたシャ ドウ信号と して出力され、 該利得が制御されたシャ ドウ信号は上記濾波手 段に入力されて濾波されて上記濾波手段からシャ ドウ信号とし て出力される特殊効果装置。  The shadow signal input to the shadow signal generation means is input to the gain control means and output as a shadow signal whose gain is controlled, and the shadow signal whose gain is controlled is filtered by the filtering means. A special effect device that is input to the means, filtered, and output as a shadow signal from the filtering means. 6 . 請求項 4 に記載の特殊効果装置において、  6. The special effects device according to claim 4, 上記濾波手段は、 口一パスフィルタから構成されている特殊 効果装置。  The above-mentioned filtering means is a special effect device comprising a one-pass filter. 7 . 請 項 4に記載の特殊効果装置において、 7. In the special effects device described in the contract 4, 上記制御手段は、 上記奥行き情報生成手段からの上記奥行き 情報に応じた利得特性データと濾波特性データの記憶された記 憶手段を有し、 該利得特性データと該濾波特性データとを該記 憶手段から上記奥行き情報に応じてそれぞれ上記利得制御手段 と上記濾波手段に供給する特殊効果装置。 The control means has storage means for storing gain characteristic data and filtering characteristic data according to the depth information from the depth information generating means, and stores the gain characteristic data and the filtering characteristic data. A special effect device for supplying the gain control means and the filtering means from the storage means according to the depth information, respectively. 8 . 請求項 4に記載の特殊効果装置において、  8. The special effects device according to claim 4, 上記ォブジェ ク ト信号生成手段には、 入力される上記ソ ース ビデオ信号を記憶する記憶手段と、 該記憶手段に記憶 れた上 記ソ ースビデオ信号を所定の単位で読み出せるよう読出し了 ド レスを発生する読出しア ド レス発生手段とを有し、 上記第 1 の 画像変換処理は上記読出しア ド レスによって上記メ モ リ手段か ら読み出された上記ォブジ ク ト ビデオ信号が目的画像となつ て処理される特殊効果装置。  The object signal generation means includes a storage means for storing the input source video signal, and a read end address for reading the source video signal stored in the storage means in a predetermined unit. Read-out address generating means for generating the object video signal, wherein the first image conversion processing is such that the object video signal read from the memory means by the read-out address becomes a target image. Special effects equipment to be processed. 9 . 請求項 4 に記載の特殊効果装置において、  9. The special effects device according to claim 4, 上記シャ ドゥビデオ信号生成手段には、 入力される上記ソ一 スビデオ信号を記憶する記憶手段と、 上記記憶手段に記憶され た上記ソ ース ビデオ信号を所定の単位で読み出す読出しァ ド レ スを発生する読出しア ド レス発生手段とを有し、 上記第 2の画 像変換処理は上記読出しァ ド レスによって上記メ モリ手 ¾から 読み出された上記シャ ドゥビデオ信号が上記目的画像に対応す る シャ ドウ信号と して出力されるよう処理される特殊効果装置 ο  The shadow video signal generation means includes a storage means for storing the input source video signal, and a read address for reading the source video signal stored in the storage means in a predetermined unit. Read-out address generating means for generating the video signal, wherein the second image conversion process is such that the shadow video signal read from the memory device by the read-out address corresponds to the target image. Special effect device processed to be output as a shadow signal 10. 上記合成手段は、 上記オブジェク ト信号生成手段からの上記 ォブジュク ト信号と上記シャ ドウ信号生成手段から上記シャ ド ゥ信号とが入力されて、 入力される上記各信号を合成して混合 信号を出力する第 1の合成手段と、 上記混合手段と上記バッ ク グラ ン ド信号とが入力されて、 出力ビデオ信号を出力する第 2 の合成手段からなる特殊効果装置。 10. The synthesizing means receives the object signal from the object signal generating means and the shadow signal from the shadow signal generating means, and synthesizes the input signals to form a mixed signal. A special effect device comprising: a first synthesizing unit that outputs a video signal; and a second synthesizing unit that receives the mixing unit and the background signal and outputs an output video signal. 11. 入力されるソースビデオ信号と該ソースビデオ信号に対応す るソ一スキー信号とに対して特殊効果処理を施す特殊効果装置 において、 上記ソ 一スビデオ信号と上記ソ 一スキー信号とが入力されて11. A special effect device for performing special effect processing on an input source video signal and a source key signal corresponding to the source video signal, When the source video signal and the source key signal are input, 、 第 1の画像変換処理を行い目的画像を示すオブジェク ト ビデ ォ信号とォブジ ク トキ一信号とを生成するォブジュク ト信号 生成手段と、 An object signal generating means for performing a first image conversion process to generate an object video signal indicating an object image and an object signal; 上記ソースビデオ信号と上記ソ一スキー信号とが入 されて The source video signal and the sosky key signal are input 、 第 2 の画像変換処理を行い上記目的画像に対応する シャ ドウ ビデオ信号と リ アルシャ ドウキ一信号を生成するシャ ドウ信号 生成手段と、 A shadow signal generating means for performing a second image conversion process to generate a shadow video signal and a real shadow signal corresponding to the target image; 上記オブジェク ト信号生成手段から出力されるオブジェク ト ビデオ信号とオブジェク トキ一信号とが入力されるとともに、 上記シャ ドウ信号生成手段からの上記シャ ドウビデオ信号と上 記リ アルシャ ドゥキ一信号とが入力され、 さらに上記ソ 一ス ビ デォ信号に対応するバッ クグラウ ンド信号とが入力されて、 入 力された上記各信号を合成して出力ビデオ信号を生成して出力 する合成手段と、 を有し、  An object video signal and an object key signal output from the object signal generation means are input, and the shadow video signal and the above-mentioned real shadow key signal from the shadow signal generation means are input. And a synthesizing means for receiving a background signal corresponding to the source video signal, synthesizing the input signals to generate and output an output video signal, and , 上記シ ャ ドウ信号生成手段には、 入力される上記ソ ースキー 信号に対し上記目的画像に対応するシャ ドウキー信号を生成す る シャ ドウキー信号生成手段と、 該シャ ドウキ一信号生成手段 から出力される シャ ドウキー信号に対し利得を制御する利得制 御手段と、 上記シャ ドウキー信号を濾波する濾波手段と、 上記 シャ ドウ信号に対応する奥行き情報を生成する奥行き情報生成 手段と、 該奧行き情報生成手段からの該奥行き情報に基づいて 上記利得制御手段の利得を制御するとともに該奧行き情報に基 づいて上記濾波手段の濾波特性を制御する制御手段とを有する 特殊 ¾果装置。  The shadow signal generation means includes: a shadow key signal generation means for generating a shadow key signal corresponding to the target image with respect to the input source key signal; and an output from the shadow key signal generation means. Gain control means for controlling the gain of the shadow key signal; filtering means for filtering the shadow key signal; depth information generating means for generating depth information corresponding to the shadow signal; and depth information generating means And a control means for controlling the gain of the gain control means based on the depth information and controlling the filtering characteristics of the filtering means based on the depth information. 12. 請求項 12に記載の特殊効果装置において、  12. The special effects device according to claim 12, 上記濾波手段は、 ロ ーパスフィルタから構成されている特殊 効果装置。 The above-mentioned filtering means is a special effect device comprising a low-pass filter. 13. 請求項 12に記載の特殊効果装置において、 13. The special effects device according to claim 12, 上記シ ャ ドウ信号生成手段の上記シャ ドウキー信号生成手段 から出力される シャ ドウキー信号は、 上記利得制御手段で利得 が制御されたシ ャ ドウキ一信号として出力され、 利得が制御さ れたシャ ドウキ一信号は上記濾波手段に入力されて、 蹿波特性 が制御されてリ アルシャ ドウキー信号として出力される特殊効 果装置。  The shadow key signal output from the shadow key signal generation means of the shadow signal generation means is output as a shadow key signal whose gain is controlled by the gain control means, and the shadow key whose gain is controlled. A special effect device in which one signal is input to the filtering means, and the wave characteristic is controlled and output as a real shadow key signal. 14. 請求項 12に記載の特殊効果装置において、  14. The special effects device according to claim 12, 上記シャ ドウ信号発生部の上記制御手段は、 上記奥行き情報 生成手段からの上記奥行き情報に応じた利得特性データと濾波 特性データとが記憶された記憶手段を有し、 該利得特性データ と該濾波特性データとを上記奥行き情報に応じてそれぞれ上記 利得制御手段と上記瀘波手段に供給する特殊効果装置。  The control means of the shadow signal generating section includes storage means for storing gain characteristic data and filtering characteristic data corresponding to the depth information from the depth information generating means, wherein the gain characteristic data and the filtering A special effect device for supplying characteristic data to the gain control means and the filtering means in accordance with the depth information, respectively. 15. 請求項 12に記載の特殊効果装置において、  15. The special effects device according to claim 12, 上記合成手段は、 上記オブジェク ト信号生成手段からの上記 オブジェク ト ビデオ信号と上記ォブジヱク トキ一信号とが入力 されるとともに、 上記シャ ドウ信号生成手段からの上記シャ ド ゥビデオ信号と上記リ アルシャ ドウキ一信号とが入力されて、 入力される上記各信号を合成して混合ビデオ信号と混合キ一信 号を生成する第 1の合成手段と、 上記第 1の合成手段からの混 合ビデオ信号と混合キー信号及び上記バックグラ ウ ン ド信号と が入力されて上記出力ビデオ信号を生成する第 2の合成手段と を有する特殊効果装置。  The synthesizing means receives the object video signal and the object signal from the object signal generating means, and outputs the shadow video signal and the real shadow signal from the shadow signal generating means. A first synthesizing means for generating a mixed video signal and a mixed key signal by synthesizing the input signals and a mixed video signal from the first synthesizing means; A second combining unit that receives the key signal and the background signal and generates the output video signal. 16. 請求項 12に記載の特殊効果装置において、  16. The special effects device according to claim 12, wherein 上記ォブジェク ト信号生成手段には、 上記ソ ースビデオ信号 を記憶するための第 1のメ モ リ手段と上記ソ 一スキー信号を記 憶するための第 2のメ モ リ手段と、 上記第 1のメ モ リ手段と上 記第 2のメ モ リ手段とにそれぞれ記憶された上記ソ 一スビデオ 信号と上記ソ一スキー信号とを上記それぞれのメモ リ手段から 読み出すための読出しア ドレスを発生して上記第 1のメ モ リ手 段と上記第 2 のメ モ リ手段とに該読出しァ ド レスを供給する読 出しア ド レス発生手段とを有し、 上記第 1 の画像変換処理は上 記読出しア ド レスによつて上記第 1のメ モ リ手段と上、己第 2の メ モ リ手段とから読み出されたそれぞれ上記ォブジエタ トビデ ォ信号と上記ォブジェク トキ一信号とが上記目的画像として出 力される特殊効果装置。 The object signal generating means includes a first memory means for storing the source video signal, a second memory means for storing the source key signal, and the first memory means. The source videos stored in the memory means and the second memory means, respectively. A read address for reading the signal and the above-mentioned so-sky signal from the respective memory means is generated, and the read address is sent to the first memory means and the second memory means. A read address generating means for supplying an address, wherein the first image conversion processing is performed by the read address and the first memory means and the second memory itself are used. A special effect device in which the object video signal and the object signal read out from the memory device are output as the target image. 17. 請求項 12に記載の特殊効果装置において、  17. The special effects device according to claim 12, 上記シャ ドウ信号生成手段には、 上記ソースビデオ信号を記 憶するための第 3の記憶手段と上記ソ ースキ一信号を記憶する ための第 4 のメ モ リ手段と、 上記第 3のメ モ リ手段と上記第 4 のメ モ リ手段とにそれぞれ記憶された上記ソ ース ビデオ信号と 上記ソ ースキー信号とを上記それぞれのメモ リ手段から読み出 すための読出しア ドレスを発生して上記第 3のメモ リ手段と上 記第 4 のメ モ リ手段とに該読出しア ドレスを供給する読出しァ ド レス発生手段とを有し、 上記第 2の画像変換処理は、 上記読 出しア ド レスによつて上記第 3のメ モ リ手段と上記第 4のメ モ リ手段とからそれぞれ読み出された上記シャ ドゥビデオ信号と 上記シャ ドウキ一信号が出力されて上記シャ ドウビデオ信号が 上記目的画像に対応するシャ ドウビデオ信号として出力される 処理を行なう特殊効果装置。  The shadow signal generation means includes a third storage means for storing the source video signal, a fourth memory means for storing the source key signal, and a third memory means. And generating a read address for reading the source video signal and the source key signal stored in the memory means and the fourth memory means from the respective memory means. Read address generating means for supplying the read address to the third memory means and the fourth memory means, wherein the second image conversion processing comprises the read address And outputs the shadow video signal and the shadow signal read out from the third memory means and the fourth memory means, respectively, so that the shadow video signal is output for the above purpose. Shadow corresponding to image Special effects apparatus for processing output as a video signal. 18. 入力されるビデオ信号が示す物体と該物体に対する影とに対 して特殊効果処理を施す特殊効果方法において、  18. A special effect method for performing special effect processing on an object indicated by an input video signal and a shadow of the object, 上記物体の影を示す画像の利得を制御する利得ステップと、 上記影の画像を濾波する濾波ステップと、  A gain step of controlling a gain of an image showing the shadow of the object, and a filtering step of filtering the image of the shadow, 上記影の奥行き情報に応じて上記利得ステップの利得を制御 するとともに、 上記影の奥行き情報に応じて上記濾波ステップ の濾波特性を制御する制御ステップと、 The gain of the gain step is controlled according to the depth information of the shadow, and the filtering step is controlled according to the depth information of the shadow. A control step of controlling the filtering characteristics of 上記制御ステップにより制御されて出力される上記物体の影 の画像と、 上記物体の画像と、 上記物体の背景となる画像とを 合成して出力ビデオ信号を出力する合成ステップとからなる特 殊効果方法。  A special effect including a combining step of combining the image of the shadow of the object output under the control of the control step, the image of the object, and the background image of the object to output an output video signal. Method. 19. $青求項 18に記載の特殊効果方法において、  19. In the special effects method described in $ 18 上記制御ステップは、 記憶手段に記憶された上記奥行き情報 に応じた利得特性データによって上記利得ステップで上記利得 が制御されるとともに、 上記記憶手段に記憶された上記奥行き 情報に応じた濾波特性データによつて上記瀘波ステップで上記 影の画像を濾波する特殊効果方法。  The control step includes controlling the gain in the gain step according to the gain characteristic data corresponding to the depth information stored in the storage unit, and converting the gain characteristic data into filtering characteristic data corresponding to the depth information stored in the storage unit. Thus, a special effect method for filtering the shadow image in the filtering step. 20. 入力されるソ ースビデオ信号に対して特殊効果処理を行なう 特殊効果方法において、  20. In the special effect method that performs special effect processing on the input source video signal, 上記ソ 一スビデオ信号に対して第 1の画像変換処理を行って 目的画像を示すォブジ タ ト信号を生成するォブジェク ト信号 生成ステツプと、  An object signal generation step of performing a first image conversion process on the source video signal to generate an object signal indicating a target image; 上記ソ ースビデオ信号に対して第 2の画像変換処理を行って 上記目的画像に対応するシャ ドウ信号を生成するシャ ドウ信号 生成ステツプと、  A shadow signal generating step of performing a second image conversion process on the source video signal to generate a shadow signal corresponding to the target image; 上記ォブジヱク ト信号と、 上記シャ ドウ信号と、 上記ソース ビデオ信号に対応するバッ クグラウン ド信号とが入力されて、 入力された上記各信号を合成して出力ビデオ信号を出力する合 成ステップと、 を有し、  A synthesizing step of receiving the object signal, the shadow signal, and the background signal corresponding to the source video signal, synthesizing the input signals, and outputting an output video signal; Has, 上記シ ャ ドウ信号ステ ッ プには、 上記ソ ースビデオ信号に対 応する上記シャ ドウ信号に対して利得を制御する利得制御ステ ップと、 上記シャ ドウ信号を濾波する濾波ステップと、 上記シ ャ ドウ信号に対応する奥行き情報を生成する奥行き情報生成ス テツプと、 該奥行き情報生成ステップからの上記奥行き情報に 基づいて上記利得制御ステップの利得を制御するとともに上記 奥行き情報に基づいて上記濾波ステップの濾波特性を制御する 制御ステップとを有する特殊効果方法。 The shadow signal step includes a gain control step of controlling a gain of the shadow signal corresponding to the source video signal, a filtering step of filtering the shadow signal, and a filtering step of filtering the shadow signal. A depth information generation step for generating depth information corresponding to the shadow signal; and adding the depth information from the depth information generation step to the depth information generation step. Controlling the gain of the gain control step based on the depth information and controlling the filtering characteristics of the filtering step based on the depth information. 21. 入力されるソ ースビデオ信号に対して第 1の画像変換処理を 行い目的画像を示すォブジェク ト信号を生成するォブジ ク ト 信号生成ステップと、  21. an object signal generating step of performing a first image conversion process on an input source video signal to generate an object signal indicating a target image; 上記ソ ースビデオ信号に対して第 2の画像変換処理を行い上 記目的画像に対応するシャ ドウ信号を生成するシャ ドウ信号生 成ステ ップと、  A shadow signal generation step of performing a second image conversion process on the source video signal to generate a shadow signal corresponding to the target image, 上記ォブジヱク ト信号生成ステップで生成されるォブジェク ト信号と、 上記シャ ドゥビデオ信号生成ステツプで生成される シャ ドウ信号とが入力されて、 上記オブジェク 卜信号と上記シ ャ ドウ信号と、 上記ソースビデオ信号に対応するバッ クグラウ ン ド信号とを合成して出力ビデオ信号を出力する合成ステップ とを備え、  The object signal generated in the object signal generation step and the shadow signal generated in the shadow video signal generation step are input, and the object signal, the shadow signal, and the source video are input. Combining a background signal corresponding to the signal and outputting an output video signal. 上記シ ャ ドウ信号生成ステップには、 上記ソ一スビデオ信号 に対応する上記シャ ドウ信号に対して利得を制御する利得制御 ステップと、 上記シャ ドゥ信号を濾波する濾波ステップと、 上 記シャ ドゥ信号に対応する奥行き情報を生成する奥行き情報生 成ステッ プと、 該奥行き情報生成ステップからの奥行き情報に 基づいて上記利得制御ステップの利得を制御するとともに該奥 行き情報に基づいて上記濾波ステップの瀘波特性を制御する制 御ステップとを有する特殊効果方法において、  The shadow signal generating step includes a gain control step of controlling a gain of the shadow signal corresponding to the source video signal, a filtering step of filtering the shadow signal, and a shadow signal. A depth information generating step for generating depth information corresponding to the depth information, and controlling the gain of the gain control step based on the depth information from the depth information generating step and filtering the filtering step based on the depth information. A special effect method having a control step of controlling wave characteristics. 上記濾波ステップは、 ロ ーパスフィ ルタにより行なう特殊効 果方法。  The above filtering step is a special effect method performed by a low-pass filter. 22. 請求項 21に記載の特殊効果方法において、  22. The method of claim 21, wherein: 上記制御ステップは、 上記奥行き情報生成ステップからの上 記奥行き情報に応じた利得特性データと濾波特性データの記憶 された記憶ステップを有し、 該利得特性データと該濾 特性デ 一夕とを該記憶ステップから上記奥行き情報に応じてそれぞれ 上記利得制御ステップと上記濾波ステップに供給する特殊効果 方法。 The control step includes storing gain characteristic data and filtering characteristic data according to the depth information from the depth information generating step. A special effect method comprising: storing the gain characteristic data and the filtering characteristic data from the storing step to the gain control step and the filtering step, respectively, according to the depth information. 23. 請求項 2 1に記載の特殊効果方法において、 23. In the special effect method according to claim 21, 上記ォブジニク ト信号生成ステップには、 入力される上記ソ —ス ビデオ信号を記憶する記憶ステ ッ プと、 該記憶ステ ッ プで 記憶された上記ソ ース ビデオ信号を所定の単位で読み出せるよ う読出しア ドレスを発生する読出しア ドレス発生ステップとを 有し、 上記第 1 の画像変換処理は上記読出しア ド レスによって 上記記憶ステップから読み出された上記オブジェク ト ビデオ信 号が目的画像となつて処理される特殊効果方法。  In the object signal generating step, a storage step for storing the input source video signal, and the source video signal stored in the storage step can be read out in a predetermined unit. A read address generating step of generating a read address, wherein the first image conversion processing is such that the object video signal read from the storage step by the read address becomes a target image. Special effects method to be processed. 24. 請求項 2 ]に記載の特殊効果方法において、  24. The special effects method according to claim 2], 上記シ ャ ドウビデオ信号生成ステ ッ プには、 入力される上記 ソ ース ビデオ信号を記憶する記憶ステ ッ プと、 上記記憶ステツ プで記憶された上記ソ ースビデオ信号を所定の単位で読み出す 読出しァ ドレスを発生する読出しァ ド レス発生ステップとを有 し、 上記第 2 の画像変換処理は上記読出しア ド レスによって上 記メモリ手段から読み出された上記シャ ドウビデオ信号が上記 目的画像に対応するシャ ドウ信号として出力されるよう処理さ れる特殊効果方法。  The shadow video signal generation step includes a storage step for storing the input source video signal, and a readout module for reading the source video signal stored in the storage step in a predetermined unit. A read address generating step of generating a dress, wherein the second image conversion process is a process in which the shadow video signal read from the memory means by the read address is a shadow corresponding to the target image. A special effect method that is processed to be output as a dough signal. 25. 請求項 21に記載の特殊効果方法において、  25. The special effect method according to claim 21, 上記合成ステップは、 上記ォブジュク ト信号生成ステップか らの上記ォブジェク ト信号と上記シャ ドウ信号生成ステップか らの上記シャ ドウ信号とが入力されて、 入力される上記各信号 を合成して混合信号を出力する第 1の合成ステ ッ プと、 上記混 合信号と上記バックグラウ ンド信号とが入力されて、 出力ビデ ォ信号を出力する第 2の合成ステップからなる特殊効果方法。 In the combining step, the object signal from the object signal generation step and the shadow signal from the shadow signal generation step are input, and the input signals are combined to synthesize a mixed signal. A special effect method comprising: a first synthesizing step of outputting an output video signal; and a second synthesizing step of receiving the mixed signal and the background signal and outputting an output video signal. 26. 入力される ソ ースビデオ信号と該ソース ビデオ信号に対応す るソ ースキー信号とに対して特殊効果処理を施す特殊効果方法 において、 26. A special effect method for performing special effect processing on an input source video signal and a source key signal corresponding to the source video signal, 上記ソ 一ス ビデオ信号と上記ソースキー信号とが入力されて 、 第 1の画像変換処理を行い目的画像を示すォブジェク トビデ ォ信号とォブジ ク 卜キ一信号とを生成するォブジェク ト信号 生成ステツプと、  The source video signal and the source key signal are input, and an object signal generation step of performing a first image conversion process to generate an object video signal and an object key signal indicating a target image. , 上記ソ ース ビデオ信号と上記ソ一スキー信号とが入力されて 、 第 2 の画像変換処理を行い上記目的画像に対応する シャ ドウ ビデオ信号と リ アルシャ ドウキー信号を生成する シャ ドウ信号 生成ステツプと、  The source video signal and the source key signal are input, a second image conversion process is performed, and a shadow video signal corresponding to the target image and a shadow signal generation step for generating a real shadow key signal are provided. , 上記ォブジヱク ト信号生成ステツプから出力されるォブジェ ク ト ビデオ信号とォブジェク トキー信号とが入力されるととも に、 上記シャ ドウ信号生成ステップからの上記シャ ドウビデオ 信号と上記リ アルシャ ドウキー信号とが入力され、 さらに上記 ソ ースビデオ信号に対応するバックグラゥ ン ド信号とが入力さ れて、 入力された上記各信号を合成して出力ビデオ信号を生成 して出力する合成ステ ッ プと、 を有し、  The object video signal and the object key signal output from the object signal generation step are input, and the shadow video signal and the real shadow key signal from the shadow signal generation step are input. A synthesizing step for receiving a background signal corresponding to the source video signal, synthesizing the input signals to generate an output video signal, and outputting the synthesized video signal; 上記シャ ドゥ信号生成ステップには、 入力される上記ソ 一ス キー信号に対し上記目的画像に対応するシャ ドウキー信号を生 成する シャ ドウキー信号生成ステ ッ プと、 該シャ ドウキー信号 生成ステップから出力されるシャ ドウキー信号に対し利得を制 御する利得制御ステップと、 上記シャ ドウキー信号を 1 [波する 濾波ステップと、 上記シャ ドウ信号に対応する奥行き情報を生 成する奥行き情報生成ステ ッ プと、 該奥行き情報生成ステ ッ プ からの該奥行き情報に基づいて上記利得制御ステ ッ プの利得を 制御するとともに該奥行き情報に基づいて上記濾波ステップの 濾波特性を制御する制御ステップとを有する特殊効果方法。 The shadow signal generation step includes: a shadow key signal generation step of generating a shadow key signal corresponding to the target image with respect to the input source key signal; and an output from the shadow key signal generation step. A gain control step of controlling the gain of the shadow key signal to be performed, a filtering step of filtering the shadow key signal by 1, and a depth information generating step of generating depth information corresponding to the shadow signal. Controlling the gain of the gain control step based on the depth information from the depth information generation step and controlling the filtering characteristics of the filtering step based on the depth information. Method. 27. 請求項 26に記載の特殊効果方法において、 27. The method of claim 26, wherein: 上記濾波ステ ップは、 口一パスフ ィ ルタにより行なう特殊効 果方法。  The above-mentioned filtering step is a special effect method performed by a single pass filter. 28. 請求項 26に記載の特殊効果方法において、  28. The method of claim 26, wherein: 上記シャ ド ゥ信号生成ステ ッ プの上記シャ ドウキー信号生成 ステップから出力される シャ ドウキー信号は、 上記利得制御ス テップで利得が制御されたシャ ドウキー信号として出力され、 利得が制御されたシャ ドウキ一信号は上記濾波ステ ッ プに入力 されて、 濾波特性が制御されてリ アルシャ ドウキー信号として 出力される特殊効果方法。  The shadow key signal output from the shadow key signal generation step in the shadow signal generation step is output as a shadow key signal whose gain has been controlled in the gain control step, and the shadow key signal whose gain has been controlled. A special effect method in which one signal is input to the above-mentioned filtering step, and the filtering characteristics are controlled and output as a real shadow key signal. 29. 請求項 26に記載の特殊効果方法において、  29. The method of claim 26, wherein: 上記シャ ドウ信号発生ステ ッ プの上記制御ステ ッ プは、 上記 奥行き情報生成ステ ッ プからの上記奥行き情報に応じた利得制 御データ と瀘波特性データとが記憶された記憶ステップを有し 、 該利得特性データと該瀘波特性データとを上記奥行き情報に 応じてそれぞれ上記利得制御ステップと上記濾波ステップに供 給する特殊効果方法。  The control step of the shadow signal generation step includes a storage step in which gain control data and filtering characteristic data corresponding to the depth information from the depth information generation step are stored. And a special effect method for supplying the gain characteristic data and the filtering characteristic data to the gain control step and the filtering step, respectively, according to the depth information. 30. 請求項 26に記載の特殊効果方法において、  30. The method of claim 26, wherein: 上記合成ステップは、 上記ォブジェク ト信号生成ステップか らの上記ォブジェク ト ビデオ信号と上記ォブジエタ トキ一信号 とが入力されるとともに、 上記シャ ドウ信号生成ステップから の上記シャ ドウビデオ信号と上記リアルシャ ドウキー信号とが 入力されて、 入力される上記各信号を合成して混合ビデオ信号 と混合キ一信号を生成する第 1 の合成ステ ッ プと、 上記第 1の 合成ステップからの混合ビデオ信号と混合キ一信号及び上記バ ッ クグラ ウ ン ド信号とが入出されて上記出力ビデオ信号を生成 する第 2の合成ステップとを有する特殊効果方法。  In the synthesizing step, the object video signal and the object signal from the object signal generating step are input, and the shadow video signal and the real shadow key signal from the shadow signal generating step are input. A first synthesizing step of synthesizing the input signals and generating a mixed video signal and a mixed key signal; and a mixed video signal and a mixed key from the first synthesizing step. A second combining step of receiving the signal and the background signal to generate the output video signal. 31. 請求項 26に記載の特殊効果方法において、 上記ォブジェク ト信号生成ステップには、 上記ソ—スビデオ 信号を記憶するための第 1のメモリステツプと上記ソ一スキー . 信号を記憶するための第 2 のメ モ リ ステ ッ プと、 上記第 1 のメ モ リステップと上記第 2のメモリステップとにそれぞれ記憶さ れた上記ソースビデオ信号と上記ソースキー信号とを上記それ ぞれのメモ リ ステツプから読み出すための読出しア ドレスを発 生して上記第 1 のメ モ リ ステ ツプと上記第 2 のメ モ リ ステ ッ プ とに該読み出すァ ドレスを供給する読出しア ド レス発生ステツ プとを有し、 上記第 1の画像変換処理は上記読出しア ドレスに よって上記第 1 のメモ リステップと上記第 2のメ モリステップ とから読み出されたそれぞれ上記オブジェク ト ビデオ信号と上 記オブジェク トキ一信号とが上記目的画像と して出力される特 殊効果方法。 31. The method of claim 26, wherein: The object signal generating step includes a first memory step for storing the source video signal, a second memory step for storing the source key signal, and the first memory step. Generating a read address for reading the source video signal and the source key signal stored in the respective memory steps and the second memory step from the respective memory steps. A read address generating step of supplying the read address to the first memory step and the second memory step, wherein the first image conversion process According to the read address, the object video signal and the object key signal read from the first memory step and the second memory step, respectively, are read. Special effect method output as the target image. 32. 請求項 26に記載の特殊効果方法において、 32. The method of claim 26, wherein: 上記シャ ドウ信号生成ステップには、 上記ソースビデオ信号 を記憶するための第 3の記憶ステツプと上記ソ一スキー信号を 記憶するための第 4のメ モ リステップと、 上記第 3のメ モリス テップと上記第 4のメ モ リ ステツプとにそれぞれ記憶された上 記ソ一スビデオ信号と上記ソ一スキー信号とを上記それぞれの メ モ リ ステップから読み出すための読出しア ドレスを発生して 上記第 3のメ モ リ ステ ッ プと上記第 4のメ モ リ ステ ッ プとに該 読出しア ドレスを供給する読出しァ ドレス発生ステップとを有 し、 上記第 2の画像変換処理は、 上記読出しア ド レスによって 上記第 3のメ モ リ ステップと上記第 4のメ モ リステップとから そ ぞれ読み出された上記シャ ドウビデオ信号と上記シャ ドウ キー信号が出力されて上記シャ ドウビデオ信号が上記目的画像 に対応するシャ ドウビデオ信号として出力される処理を行なう 特殊効果方法。  The shadow signal generation step includes a third storage step for storing the source video signal, a fourth memory step for storing the sowski signal, and a third memory step. And a read address for reading the source video signal and the source key signal stored in the memory step and the fourth memory step, respectively, from the respective memory steps. And a read address generating step of supplying the read address to the fourth memory step and the fourth memory step. The second image conversion process includes the read address. The shadow video signal and the shadow key signal read from the third memory step and the fourth memory step are output by the A special effect method in which a dough video signal is processed to be output as a shadow video signal corresponding to the target image.
PCT/JP1997/001249 1997-04-10 1997-04-10 Special effect apparatus and special effect method Ceased WO1998046011A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP1997/001249 WO1998046011A1 (en) 1997-04-10 1997-04-10 Special effect apparatus and special effect method
GB9827227A GB2329312A (en) 1997-04-10 1997-04-10 Special effect apparatus and special effect method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP1997/001249 WO1998046011A1 (en) 1997-04-10 1997-04-10 Special effect apparatus and special effect method

Publications (1)

Publication Number Publication Date
WO1998046011A1 true WO1998046011A1 (en) 1998-10-15

Family

ID=14180397

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/001249 Ceased WO1998046011A1 (en) 1997-04-10 1997-04-10 Special effect apparatus and special effect method

Country Status (2)

Country Link
GB (1) GB2329312A (en)
WO (1) WO1998046011A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219615A (en) * 2007-03-06 2008-09-18 Matsushita Electric Ind Co Ltd Special effects device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040131276A1 (en) * 2002-12-23 2004-07-08 John Hudson Region-based image processor
US7242778B2 (en) 2003-04-08 2007-07-10 Gennum Corporation Hearing instrument with self-diagnostics

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6359276A (en) * 1986-08-29 1988-03-15 Nec Corp Shadow circuit
JPH01144869A (en) * 1987-12-01 1989-06-07 Nec Corp Shadow circuit
JPH01293078A (en) * 1988-05-20 1989-11-27 Nec Corp Television digital video effect device
JPH0259982A (en) * 1988-08-26 1990-02-28 Nippon Telegr & Teleph Corp <Ntt> Solid shape data generating device
JPH04227171A (en) * 1990-12-29 1992-08-17 Nec Corp Television video signal processor
JPH04315274A (en) * 1991-04-12 1992-11-06 Sony Corp Image transforming device
JPH0554151A (en) * 1991-08-22 1993-03-05 Brother Ind Ltd Solid figure processing device
JPH05207364A (en) * 1992-01-27 1993-08-13 Nec Corp Video specific effect device
JPH0793585A (en) * 1993-09-22 1995-04-07 Dainippon Screen Mfg Co Ltd Image shadowing method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6359276A (en) * 1986-08-29 1988-03-15 Nec Corp Shadow circuit
JPH01144869A (en) * 1987-12-01 1989-06-07 Nec Corp Shadow circuit
JPH01293078A (en) * 1988-05-20 1989-11-27 Nec Corp Television digital video effect device
JPH0259982A (en) * 1988-08-26 1990-02-28 Nippon Telegr & Teleph Corp <Ntt> Solid shape data generating device
JPH04227171A (en) * 1990-12-29 1992-08-17 Nec Corp Television video signal processor
JPH04315274A (en) * 1991-04-12 1992-11-06 Sony Corp Image transforming device
JPH0554151A (en) * 1991-08-22 1993-03-05 Brother Ind Ltd Solid figure processing device
JPH05207364A (en) * 1992-01-27 1993-08-13 Nec Corp Video specific effect device
JPH0793585A (en) * 1993-09-22 1995-04-07 Dainippon Screen Mfg Co Ltd Image shadowing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219615A (en) * 2007-03-06 2008-09-18 Matsushita Electric Ind Co Ltd Special effects device

Also Published As

Publication number Publication date
GB2329312A (en) 1999-03-17
GB9827227D0 (en) 1999-02-03

Similar Documents

Publication Publication Date Title
JP3840663B2 (en) Image processing apparatus and method
JP3107452B2 (en) Texture mapping method and apparatus
US6249289B1 (en) Multi-purpose high resolution distortion correction
US6434277B1 (en) Image processing apparatus and method, and medium therefor
US5357599A (en) Method and apparatus for rendering polygons
JP7235875B2 (en) Point cloud colorization system with real-time 3D visualization
JPWO1997018667A1 (en) Special effects device, image processing method, and shadow generation method
AU2019226134B2 (en) Environment map hole-filling
JPH0634748A (en) Radar signal display device
US20070139408A1 (en) Reflective image objects
US6441864B1 (en) Video signal processing device and method employing transformation matrix to generate composite image
US20200302579A1 (en) Environment map generation and hole filling
EP2595040A1 (en) Information processing device, method of processing information, and program
US5268677A (en) Reduced viewport for graphics display
RU2427918C2 (en) Metaphor of 2d editing for 3d graphics
WO1998046011A1 (en) Special effect apparatus and special effect method
JP3278501B2 (en) Image processing apparatus and method
US20030169272A1 (en) Image generation apparatus and method thereof
JP2973413B2 (en) Illuminance calculation method and display device for computer graphics
JP3066035B2 (en) Texture mapping techniques for computer graphics processing and display device control systems.
JPS6346584A (en) Method and apparatus for high-speed phong shading
JP3967036B2 (en) Image synthesizer
JPWO1998046011A1 (en) Special effects device and special effects method
JP3351805B2 (en) Video signal generation method
JP2005293616A (en) Image synthesizer

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): GB JP US

ENP Entry into the national phase

Ref country code: GB

Ref document number: 9827227

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09202258

Country of ref document: US