WO2025047334A1 - Video processing system, video processing method, and program - Google Patents
Video processing system, video processing method, and program Download PDFInfo
- Publication number
- WO2025047334A1 WO2025047334A1 PCT/JP2024/028068 JP2024028068W WO2025047334A1 WO 2025047334 A1 WO2025047334 A1 WO 2025047334A1 JP 2024028068 W JP2024028068 W JP 2024028068W WO 2025047334 A1 WO2025047334 A1 WO 2025047334A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- video
- camera
- unit
- metafile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Definitions
- This disclosure relates to an image processing system, an image processing method, and a program, and in particular to an image processing system, an image processing method, and a program that are capable of generating a more complete composite image.
- Patent Document 1 discloses a synthesis method for synthesizing 3D CG in real time by identifying the positions of feature points on images from pre-captured video data through inter-frame tracking.
- the image processing system of one aspect of the present disclosure includes a first image processing unit that performs a first image processing for simply synthesizing CG with the image during shooting to generate and display a simplified composite image and creates a metafile including meta information used to synthesize the CG with the image, and a second image processing unit that performs a second image processing for synthesizing CG with high precision with the image after shooting in the background where the simplified composite image generated using the metafile is displayed, to generate a highly accurate composite image.
- An image processing method or program includes performing a first image processing step during shooting to simply combine CG with the image to generate and display a simplified composite image, creating a metafile containing meta information used to combine the CG with the image, and performing a second image processing step after shooting to highly accurately combine CG with the image in the background while the simplified composite image generated using the metafile is displayed, to generate a highly accurate composite image.
- a first image processing is performed to simply composite CG onto the image
- a simplified composite image is generated and displayed
- a metafile is created containing meta information used to composite the CG onto the image
- a highly accurate composite image is generated by performing a second image processing to highly accurately composite CG onto the image in the background while the simplified composite image generated using the metafile is displayed.
- FIG. 1 shows an example of shooting using the image processing system 11, where the camera 21 shoots an image of the subject 12 while transmitting the image acquired by the shooting to the smartphone 22.
- Various communication standards such as HDMI (High-Definition Multimedia Interface) (registered trademark), SDI (Serial Digital Interface), USB (Universal Serial Bus) (registered trademark), and wireless LAN (Local Area Network) can be used to transmit the image from the camera 21 to the smartphone 22.
- the smartphone 22 then performs image processing (tracking, compositing, and rendering) to simply composite a 3DCG model onto the subject 12 shown in the image captured by the camera 21, and displays the resulting simplified composite image.
- the user can check in real time on the smartphone 22 a simply composite image in which a 3DCG model is simply composited onto the subject 12 during shooting.
- This allows the user to shoot with camerawork that allows for framing that takes into account the composition of the 3DCG model onto the subject 12.
- the user can check the simply composite image in which a 3DCG model is simply composited onto the subject 12, so that the user can consider at that point whether or not it is necessary to re-shoot the subject 12.
- the image processing can be performed using the personal computer 23.
- the image processing during capture only results in a simple synthesis of the 3DCG model, and it is necessary to synthesize the 3DCG model with higher accuracy.
- the lower part of Figure 1 shows an example of main line video processing using the video processing system 11, where the personal computer 23 acquires a main line video file from the camera 21 via the recording medium 24 and acquires a 3DCG metafile by communicating with the smartphone 22.
- the main line video file is a file that contains video that has not been composited with 3DCG
- the 3DCG metafile is a file that contains various meta information used to composite a 3DCG model onto the subject 12 through simple video processing performed by the smartphone 22.
- the personal computer 23 then plays back the simple composite video using the 3DCG metafile, while in the background performing video processing to composite a 3DCG model onto the subject 12 with high precision, generating a higher quality composite video.
- the user can have the personal computer 23 generate a more complete composite video immediately after the camera 21 finishes capturing images during main line video processing. This allows the user to more quickly begin editing and releasing the video.
- the present technology is not limited to image processing for superimposing a 3DCG model on the subject 12.
- the present technology can also be applied to image processing for superimposing a 3DCG model on a space other than the subject in the image. That is, image processing can be performed to superimpose a 3DCG model of a refrigerator, bed, etc. on the space in an image of a room containing only a desk and chairs.
- the present technology tracks the camera 21, and the position and orientation of the 3DCG model can be superimposed so that it moves in accordance with the movement of the camera 21 and matches the space in the image.
- FIG. 2 is a block diagram showing an example of the configuration of an embodiment of a video processing system to which the present technology is applied.
- the video processing system 11 includes a camera 21, a smartphone 22, and a personal computer 23, and is configured to import a 3DCG model from a model storage unit 25 to the smartphone 22 and the personal computer 23.
- the camera 21 is configured with a posture recognition unit 31, a photographing unit 32, a time code generation unit 33, a data transmission unit 34, a display unit 35, and a recording media drive 36.
- the attitude recognition unit 31 recognizes the attitude of the camera 21 and sequentially supplies attitude information indicating the attitude to the data transmission unit 34.
- the attitude recognition unit 31 can recognize the attitude of the camera 21 based on six-axis data indicating six-axis acceleration or angular velocity detected by a six-axis sensor equipped in the camera 21.
- the image capturing unit 32 captures an image of the subject 12 using an image capturing element such as a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor, and supplies the image captured by the capture to the data transmission unit 34, the display unit 35, and the recording media drive 36.
- CMOS Complementary Metal-Oxide-Semiconductor
- the time code generation unit 33 generates a time code according to the frame rate of the video captured by the shooting unit 32 and supplies it to the data transmission unit 34 and the recording media drive 36.
- the data transmission unit 34 adds a time code supplied from the time code generation unit 33 to each frame of the video supplied from the image capture unit 32. Furthermore, the data transmission unit 34 adds posture information obtained at the timing corresponding to each frame from the posture information of the camera 21 sequentially supplied from the posture recognition unit 31 to each frame of the video supplied from the image capture unit 32. The data transmission unit 34 then sequentially transmits the video to which the time code and posture information of the camera 21 have been added to the smartphone 22.
- the attitude recognition unit 41 recognizes the attitude of the smartphone 22, and sequentially supplies attitude information indicating the attitude to the simplified tracking unit 42 and the metafile creation unit 46.
- the attitude recognition unit 41 can recognize the attitude of the smartphone 22 based on six-axis data indicating six-axis acceleration or angular velocity detected by a six-axis sensor provided in the smartphone 22.
- the simplified tracking unit 42 simply tracks the self-position of the camera 21 based on the posture information provided by the posture recognition unit 41 and feature points extracted from the video (the subject 12, the scenery other than the subject 12, and everything in the video). For example, when the smartphone 22 is fixed to the camera 21 and the video processing system 11 is used (see FIG. 1), the simplified tracking unit 42 can use the posture information of the smartphone 22 provided by the posture recognition unit 41 and the posture information of the camera 21 added to the video transmitted from the camera 21. On the other hand, when the video processing system 11 is used without fixing the smartphone 22 to the camera 21, the simplified tracking unit 42 can only use the posture information of the camera 21 added to the video transmitted from the camera 21. The simplified tracking unit 42 then provides tracking information (e.g., information indicating the simplified position, orientation, posture, etc. of the camera 21) indicating the result of the simplified tracking of the self-position of the camera 21 to the simplified synthesis processing unit 43.
- tracking information e.g., information indicating the simplified position, orientation, posture, etc. of the camera 21
- the simple synthesis processing unit 43 performs synthesis processing to simply synthesize the 3DCG model imported from the model storage unit 25 onto the video transmitted from the camera 21 based on the tracking information supplied from the simple tracking unit 42. For example, the simple synthesis processing unit 43 determines the simplified position, orientation, posture, etc. of the 3DCG model to be synthesized onto the video so as to correspond to the scenery in the video and the position, orientation, posture, etc. of the subject 12. The simple synthesis processing unit 43 then generates simple 3DCG model synthesis information indicating the simplified position, orientation, posture, etc. of the 3DCG model and supplies it to the simple rendering unit 44.
- the metafile creation unit 46 creates a 3DCG metafile that includes various meta information used to synthesize a 3DCG model into an image through simple image processing performed on the smartphone 22, and transmits the created 3DCG metafile to the personal computer 23.
- the 3DCG metafile includes at least simple 3DCG model synthesis information (XYZ coordinates indicating simple position information of the 3DCG model) with a time code added for each frame, and posture information (XYZ coordinates) with a time code added.
- the 3DCG metafile can also include the model name of the 3DCG model, simple position information (XYZ coordinates) of the 3DCG model at the time of shooting start point, zoom/focus/iris (plus gain/white balance) information, etc.
- the personal computer 23 is configured with a recording media drive 51, a synchronization processing unit 52, a tracking unit 53, a synthesis processing unit 54, a rendering unit 55, and a display unit 56.
- the recording media drive 51 reads the main line video file from the recording media 24 and supplies it to the synchronization processing unit 52.
- the synchronization processing unit 52 performs a synchronization process to synchronize the 3DCG metafile transmitted from the smartphone 22 with the video contained in the main line video file supplied from the recording media drive 51 according to their respective time codes.
- the synchronization processing unit 52 then supplies the synchronized main line video file to the tracking unit 53 and the rendering unit 55, and supplies the synchronized 3DCG metafile to the composition processing unit 54 and the rendering unit 55.
- the compositing processing unit 54 performs compositing processing to highly accurately combine the 3DCG model imported from the model storage unit 25 with the video contained in the main line video file supplied from the synchronization processing unit 52 based on the tracking information supplied from the tracking unit 53. For example, the compositing processing unit 54 determines the highly accurate position, orientation, posture, etc. of the 3DCG model to be composited with the video so as to correspond to the scenery in the video and the position, orientation, posture, etc. of the subject 12. The compositing processing unit 54 then generates 3DCG model composition information indicating the highly accurate position, orientation, posture, etc. of the 3DCG model and supplies it to the rendering unit 55.
- the rendering unit 55 uses the simple 3DCG model synthesis information contained in the 3DCG metafile supplied from the synchronization processing unit 52 to generate a simple synthetic image in the same manner as the simple rendering unit 44, and supplies it to the display unit 56 for display. In this way, while the simple synthetic image generated in the rendering unit 55 is displayed in the background on the display unit 56, tracking is performed by the tracking unit 53, and synthesis processing is performed by the synthesis processing unit 54.
- the video processing system 11 is configured as described above, and when shooting, the user can check the simple composite image displayed on the smartphone 22 and shoot with camerawork that results in more appropriate framing. Furthermore, when processing main line video, the user can edit the video while realistically imagining the image of the composite image by checking the simple composite image displayed on the personal computer 23. Then, in the background while the simple composite image is being displayed on the personal computer 23, a higher quality composite image can be generated. This allows the video processing system 11 to generate a more complete composite image.
- step S12 the simplified tracking unit 42 tracks the self-position of the camera 21 based on the attitude information of the camera 21 added to the image transmitted in step S11 and feature points extracted from the image transmitted in step S11.
- the simplified tracking unit 42 then supplies tracking information indicating the results of the simplified tracking of the self-position of the camera 21 to the simplified synthesis processing unit 43.
- step S13 the simple synthesis processing unit 43 performs synthesis processing to simply synthesize a 3DCG model onto the video transmitted in step S11 based on the tracking information supplied in step S12, and generates simple 3DCG model synthesis information and supplies it to the simple rendering unit 44.
- step S15 the display unit 45 displays the simplified composite image provided in step S14.
- step S16 the metafile creation unit 46 creates a 3DCG metafile that includes at least the posture information of the camera 21 that was added to the video transmitted in step S11 and the simple 3DCG model synthesis information generated in step S13, for example, and to which a time code has been added.
- step S16 the process returns to step S11, and the same process is repeated until, for example, the user performs an operation to end the video processing.
- FIG. 4 is a flowchart explaining the image processing for generating a highly accurate composite image during main line image processing.
- the process is started when the user inserts the recording medium 24 on which the main line image file is recorded into the personal computer 23, connects the smartphone 22 and the personal computer 23 for communication, and then performs an operation to start image processing.
- step S21 the metafile creation unit 46 in the smartphone 22 transmits the 3DCG metafile created in step S16 of FIG. 3 to the personal computer 23.
- step S22 the recording media drive 51 reads the main line video file from the recording media 24 and supplies it to the synchronization processing unit 52.
- step S23 the synchronization processing unit 52 performs a synchronization process to synchronize the 3DCG metafile transmitted in step S21 with the video contained in the main line video file supplied in step S22 according to their respective time codes.
- the synchronization processing unit 52 then supplies the synchronized main line video file to the tracking unit 53 and the rendering unit 55, and supplies the synchronized 3DCG metafile to the composition processing unit 54 and the rendering unit 55.
- step S24 the rendering unit 55 uses the simple 3DCG model synthesis information contained in the 3DCG metafile supplied in step S23 to generate a simple synthesis image in the same manner as the simple rendering unit 44, and supplies it to the display unit 56 for display.
- steps S25 to S27 are carried out in parallel with step S24.
- step S25 the tracking unit 53 tracks the self-position of the camera 21 with high accuracy based on the posture information included in the 3DCG metafile supplied in step S23 and feature points extracted from the image included in the main line image file supplied in step S23.
- the tracking unit 53 then supplies the synthesis processing unit 54 with tracking information indicating the results of tracking the self-position of the camera 21 with high accuracy.
- step S26 the synthesis processing unit 54 performs synthesis processing to synthesize a 3DCG model with high accuracy onto the image contained in the main line image file supplied in step S23 based on the tracking information supplied in step S25, and generates 3DCG model synthesis information and supplies it to the rendering unit 55.
- step S27 the rendering unit 55 positions the 3DCG model based on the 3DCG model synthesis information supplied in step S26, sets a virtual camera corresponding to camera 21 based on the tracking information supplied in step S25, and uses the virtual camera to render the 3DCG model with high precision.
- the rendering unit 55 then superimposes the image of the 3DCG model obtained by rendering onto each frame of the video included in the main line video file supplied from the synchronization processing unit 52 to generate a highly accurate synthesized video, and supplies it to the display unit 56.
- step S28 the process returns to step S21, and the same process is repeated until, for example, the user performs an operation to end the video processing.
- the image processing system 11 can generate a more complete composite image by displaying a simplified composite image during shooting and generating a composite image in the background that displays the simplified composite image during main line image processing.
- camera 21 photographs subject 13 while transmitting the image acquired by the photograph to smartphone 22, which then performs image processing to simply combine a 2D model with subject 13 shown in the image, and displays the resulting simplified composite image.
- a mosaic image is shown as the 2D model, but other images such as stamps can also be used as the 2D model.
- the personal computer 23 acquires the main line video file from the camera 21 via the recording medium 24, and acquires a 2D metafile by communicating with the smartphone 22.
- the 2D metafile is a file that contains various meta information used to superimpose a 2D model onto the subject 12 through simple video processing performed by the smartphone 22.
- the personal computer 23 then plays back the simple composite video using the 2D metafile, while in the background performing video processing to superimpose the 2D model onto the subject 12 with high precision, generating a higher quality composite video.
- a 2D model may also be superimposed into a space other than the subject 13 in the video.
- the 2D metafile contains at least simple 2D model synthesis information (XYZ coordinates indicating simple position information of the 2D model) with a time code added for each frame.
- the 2D metafile can also contain the model name of the 2D model, zoom/focus/iris (+gain/white balance) information, etc. It is not necessary to change the orientation of the 2D model in accordance with the movement of the camera 21.
- UI image display example> A UI (User Interface) image for instructing the execution of video processing using the video processing system 11 will be described with reference to FIGS. 6 and 7.
- FIG. 6 A UI (User Interface) image for instructing the execution of video processing using the video processing system 11 will be described with reference to FIGS. 6 and 7.
- FIG. 6 A UI (User Interface) image for instructing the execution of video processing using the video processing system 11 will be described with reference to FIGS. 6 and 7.
- Figure 6 shows an example of a UI image that instructs the execution of video processing during shooting.
- a in FIG. 6 shows a UI image displayed on the display unit 35 of the camera 21, displaying a "Yes” GUI (Graphical User Interface) button and a “No” GUI button along with the message "Do you want to link posture information and images to perform simple composition?".
- B in FIG. 6 shows a UI image displayed on the display unit 45 of the smartphone 22, displaying a "Yes” GUI button and a “No” GUI button along with the message "Do you want to receive posture information, images, and 2D/3DCG models to perform simple composition?".
- FIG. 7 shows an example of a UI image that instructs the execution of video processing during main line video processing.
- 7A shows a UI image displayed on the display unit 35 of the camera 21, displaying a "Yes” GUI button and a "No” GUI button along with the message "Do you want to send video to edit the main line video?”.
- 7B shows a UI image displayed on the display unit 45 of the smartphone 22, displaying a "Yes” GUI button and a “No” GUI button along with the message "Do you want to send a 2D/3DCG metafile to edit the main line video?”.
- 7C shows a UI image displayed on the display unit 56 of the personal computer 23, displaying a "Yes” GUI button and a "No” GUI button along with the message "Do you want to receive a 2D/3DCG metafile, video, and 2D/3DCG model to edit the main line video?”.
- such a UI image can be used to instruct the execution of video processing.
- CG synthesis processing refers to synthesizing CG with the image captured by the camera 21 in a later editing stage.
- the CG also needs to move in accordance with the movement of the camera 21.
- Tracking refers to tracking feature points in the image captured by the camera 21, such as objects in the image, to perform 2D tracking or 3D camera tracking.
- 2D tracking refers to tracking objects in the image using the feature points of the image captured by the camera 21 and an acceleration sensor, and is used, for example, when it is desired to have a mosaic always follow a person in the image.
- 3D camera tracking refers to analyzing how the camera 21 was moved to capture the image based on an acceleration sensor and feature points, and generating a virtual camera.
- 3D camera tracking links the CG and the virtual camera, so that the synthesized CG moves in the same way in accordance with the movement of the image, allowing for seamless synthesis.
- the gyro provided in the camera 21 may be a 6-axis or 8-axis sensor, or may be another sensor.
- a tablet may be used, or an external gyro sensor may be used in combination with an external monitor.
- the camera 21 has a function for performing 3D tracking and synthesis processing, there is no need to attach an external smartphone 22, and the above-mentioned processing of the smartphone 22 can be performed by the camera 21.
- a simple composite image may be generated using images already shot by the camera 21.
- the main line image processing may be performed by the smartphone 22, in which case there is no need to transmit the main line image file and the 3DCG metafile to the personal computer 23.
- the camera 21 has the same processing capability as the smartphone 22 and the personal computer 23, all image processing may be performed inside the camera 21, in which case there is no need to transmit the image from the camera 21 to the outside.
- FIG. 8 is a block diagram showing an example of the configuration of one embodiment of a computer on which a program that executes the series of processes described above is installed.
- the program can be pre-recorded on the hard disk 105 or ROM 103 as a recording medium built into the computer.
- the program can be stored (recorded) on a removable recording medium 111 driven by the drive 109.
- a removable recording medium 111 can be provided as so-called packaged software.
- examples of the removable recording medium 111 include a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, a semiconductor memory, etc.
- the program can also be downloaded to the computer via a communication network or broadcasting network and installed in the built-in hard disk 105. That is, the program can be transferred to the computer wirelessly from a download site via an artificial satellite for digital satellite broadcasting, or transferred to the computer via a wired connection via a network such as a LAN (Local Area Network) or the Internet.
- a network such as a LAN (Local Area Network) or the Internet.
- the computer has a built-in CPU (Central Processing Unit) 102, to which an input/output interface 110 is connected via a bus 101.
- CPU Central Processing Unit
- the CPU 102 performs processing according to the above-mentioned flowchart, or processing performed by the configuration of the above-mentioned block diagram. Then, the CPU 102 outputs the processing results from the output unit 106 via the input/output interface 110, or transmits them from the communication unit 108, or even records them on the hard disk 105, as necessary.
- the input unit 107 is composed of a keyboard, mouse, microphone, etc.
- the output unit 106 is composed of an LCD (Liquid Crystal Display), speaker, etc.
- the processing performed by a computer according to a program does not necessarily have to be performed in chronological order according to the order described in the flowchart.
- the processing performed by a computer according to a program also includes processing that is executed in parallel or individually (for example, parallel processing or processing by objects).
- the program may be processed by one computer (processor), or may be distributed among multiple computers. Furthermore, the program may be transferred to a remote computer for execution.
- a system refers to a collection of multiple components (devices, modules (parts), etc.), regardless of whether all the components are in the same housing. Therefore, multiple devices housed in separate housings and connected via a network, and a single device in which multiple modules are housed in a single housing, are both systems.
- the configuration described above as one device (or processing unit) may be divided and configured as multiple devices (or processing units).
- the configurations described above as multiple devices (or processing units) may be combined and configured as one device (or processing unit).
- configurations other than those described above may also be added to the configuration of each device (or each processing unit).
- part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit).
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本開示は、映像処理システムおよび映像処理方法、並びにプログラムに関し、特に、より完成度の高い合成映像を生成することができるようにした映像処理システムおよび映像処理方法、並びにプログラムに関する。 This disclosure relates to an image processing system, an image processing method, and a program, and in particular to an image processing system, an image processing method, and a program that are capable of generating a more complete composite image.
従来、例えば、映像の動きに合わせて2次元または3次元のCG(Computer Graphics)を合成するために、映像内の特徴点の動きを時間方向でトラッキングする技術が開発されている。 Conventionally, for example, technology has been developed that tracks the movement of feature points in an image over time in order to synthesize two-dimensional or three-dimensional CG (Computer Graphics) in accordance with the movement of the image.
例えば、特許文献1には、3次元CGをリアルタイムに合成するために、予め撮像した動画像データから特徴点のフレーム間トラッキングにより画像上の位置を特定する合成方法が開示されている。 For example, Patent Document 1 discloses a synthesis method for synthesizing 3D CG in real time by identifying the positions of feature points on images from pre-captured video data through inter-frame tracking.
しかしながら、従来、撮影時には、CGが合成されていない映像を確認しながら撮影を行うことになるため、ユーザは、CGが合成された合成映像のイメージを想像しながら撮影を行うことになる。そのため、後段の映像処理でCGが合成された合成映像では、ユーザのイメージとは異なるカメラワークで撮影されていることがあり、合成映像の完成度が低下してしまうことになっていた。 However, conventionally, when shooting, users would have to check the image that had not been composited with CG while shooting, and would have to imagine what the composite image would look like with CG composited in. As a result, the composite image that has been composited with CG in the later image processing stage may have been shot with a camerawork that differs from the user's imagination, reducing the quality of the composite image.
本開示は、このような状況に鑑みてなされたものであり、より完成度の高い合成映像を生成することができるようにするものである。 This disclosure was made in light of these circumstances, and makes it possible to generate more complete composite images.
本開示の一側面の映像処理システムは、撮影時に、映像に対してCGを簡易的に合成する第1の映像処理を行うことで簡易合成映像を生成して表示させ、前記映像に対して前記CGを合成するのに用いられたメタ情報を含むメタファイルを作成する第1の映像処理部と、撮影後、前記メタファイルを用いて生成される前記簡易合成映像が表示されるバックグラウンドで、前記映像に対してCGを高精度に合成する第2の映像処理を行うことで高精度な合成映像を生成する第2の映像処理部とを備える。 The image processing system of one aspect of the present disclosure includes a first image processing unit that performs a first image processing for simply synthesizing CG with the image during shooting to generate and display a simplified composite image and creates a metafile including meta information used to synthesize the CG with the image, and a second image processing unit that performs a second image processing for synthesizing CG with high precision with the image after shooting in the background where the simplified composite image generated using the metafile is displayed, to generate a highly accurate composite image.
本開示の一側面の映像処理方法またはプログラムは、撮影時に、映像に対してCGを簡易的に合成する第1の映像処理を行うことで簡易合成映像を生成して表示させ、前記映像に対して前記CGを合成するのに用いられたメタ情報を含むメタファイルを作成することと、撮影後、前記メタファイルを用いて生成される前記簡易合成映像が表示されるバックグラウンドで、前記映像に対してCGを高精度に合成する第2の映像処理を行うことで高精度な合成映像を生成することとを含む。 An image processing method or program according to one aspect of the present disclosure includes performing a first image processing step during shooting to simply combine CG with the image to generate and display a simplified composite image, creating a metafile containing meta information used to combine the CG with the image, and performing a second image processing step after shooting to highly accurately combine CG with the image in the background while the simplified composite image generated using the metafile is displayed, to generate a highly accurate composite image.
本開示の一側面においては、撮影時に、映像に対してCGを簡易的に合成する第1の映像処理を行うことで簡易合成映像が生成されて表示され、その映像に対してCGを合成するのに用いられたメタ情報を含むメタファイルが作成され、撮影後、メタファイルを用いて生成される簡易合成映像が表示されるバックグラウンドで、映像に対してCGを高精度に合成する第2の映像処理を行うことで高精度な合成映像が生成される。 In one aspect of the present disclosure, when shooting, a first image processing is performed to simply composite CG onto the image, a simplified composite image is generated and displayed, a metafile is created containing meta information used to composite the CG onto the image, and after shooting, a highly accurate composite image is generated by performing a second image processing to highly accurately composite CG onto the image in the background while the simplified composite image generated using the metafile is displayed.
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Below, specific embodiments of the application of this technology will be described in detail with reference to the drawings.
<映像処理システムの利用例>
図1を参照して、本技術を適用した映像処理システムの利用例について説明する。
<Examples of using the video processing system>
An example of use of a video processing system to which the present technology is applied will be described with reference to FIG.
図1の上側には、映像処理システム11を利用した撮影時の一例が示されており、カメラ21が、被写体12の撮影を行いながら、その撮影により取得される映像をスマートフォン22へ送信する。カメラ21からスマートフォン22への映像の送信には、HDMI(High-Definition Multimedia Interface)(登録商標)や、SDI(Serial Digital Interface)、USB(Universal Serial Bus)(登録商標)、無線LAN(Local Area Network)などの各種の通信規格を使用することができる。そして、スマートフォン22は、カメラ21により撮影された映像に映されている被写体12に3DCGモデルを簡易的に合成する映像処理(トラッキング、合成処理、およびレンダリング)を行って、その結果として得られる簡易合成映像を表示する。
The upper part of Figure 1 shows an example of shooting using the
従って、映像処理システム11を利用することで、ユーザは、撮影時において、被写体12に3DCGモデルが簡易的に合成された簡易合成映像をスマートフォン22でリアルタイムに確認することができる。これにより、ユーザは、被写体12への3DCGモデルの合成を見据えたフレーミングとなるようなカメラワークで撮影を行うことができる。また、ユーザは、撮影した映像を見返す際に、被写体12に3DCGモデルが簡易的に合成された簡易合成映像を確認することができるので、被写体12を再撮影する必要があるか否かという検討などを、その時点で行うことができる。
Therefore, by using the
そして、映像処理システム11では、カメラ21による被写体12の撮影が終了した後、パーソナルコンピュータ23を用いた映像処理を行うことができる。即ち、撮影時における映像処理では3DCGモデルが簡易的に合成されているだけであり、より高精度に3DCGモデルを合成する必要がある。
In the
図1の下側には、映像処理システム11を利用した本線映像処理時の一例が示されており、パーソナルコンピュータ23が、カメラ21から記録メディア24を介して本線映像ファイルを取得するとともに、スマートフォン22と通信を行うことによって3DCGメタファイルを取得する。本線映像ファイルは、3DCGが合成されていない映像が含まれるファイルであり、3DCGメタファイルは、スマートフォン22において行われた簡易的な映像処理で被写体12に3DCGモデルを合成するのに用いられた各種のメタ情報が含まれるファイルである。そして、パーソナルコンピュータ23は、3DCGメタファイルを用いて簡易合成映像を再生しながら、そのバックグラウンドで、被写体12に3DCGモデルを高精度に合成する映像処理を行って、より高品位な合成映像を生成する。
The lower part of Figure 1 shows an example of main line video processing using the
このように、映像処理システム11を利用することで、ユーザは、本線映像処理時において、カメラ21による撮影が終了した後すぐに、より完成度の高い合成映像をパーソナルコンピュータ23に生成させことができる。従って、ユーザは、より迅速に、映像の編集やリリースなどに取り掛かることができる。
In this way, by using the
ここで、図1では、被写体12に3DCGモデルを合成する映像処理について説明したが、本技術は、被写体12に3DCGモデルを合成する映像処理に限定されることはない。例えば、本技術は、映像内の被写体以外の空間に3DCGモデルを合成する映像処理にも適用することができる。即ち、机や椅子だけが置いてある部屋を撮影した映像内の空間に、冷蔵庫やベッドなどの3DCGモデルを合成する映像処理を行うことができる。そして、本技術では、このような映像処理を行う際に、カメラ21をトラッキングすることで、カメラ21の動きに合わせて、3DCGモデルの位置や向きなども映像内の空間に合わせて動くように合成することができる。
Here, in FIG. 1, the image processing for superimposing a 3DCG model on the
なお、図1に示すように、スマートフォン22をカメラ21に固定して映像処理システム11を利用する場合、スマートフォン22は、カメラ21が備える6軸センサの出力を用いて簡易的な映像処理を行ってもよいし、スマートフォン22が備える6軸センサの出力を用いて簡易的な映像処理を行ってもよい。一方、スマートフォン22をカメラ21に固定せずに映像処理システム11を利用する場合、カメラ21が備える6軸センサの出力をスマートフォン22に供給することが必要となり、スマートフォン22は、カメラ21の6軸センサの出力を用いて簡易的な映像処理を行う。
As shown in FIG. 1, when the
<映像処理システムの構成例>
図2は、本技術を適用した映像処理システムの一実施の形態の構成例を示すブロック図である。
<Example of video processing system configuration>
FIG. 2 is a block diagram showing an example of the configuration of an embodiment of a video processing system to which the present technology is applied.
図2に示すように、映像処理システム11は、カメラ21、スマートフォン22、およびパーソナルコンピュータ23を備え、モデル記憶部25からスマートフォン22およびパーソナルコンピュータ23に3DCGモデルがインポートされるように構成される。
As shown in FIG. 2, the
カメラ21は、姿勢認識部31、撮影部32、タイムコード生成部33、データ送信部34、表示部35、および記録メディアドライブ36を備えて構成される。
The
姿勢認識部31は、カメラ21の姿勢を認識し、その姿勢を示す姿勢情報を逐次、データ送信部34に供給する。例えば、姿勢認識部31は、カメラ21が備える6軸センサによって検出される6軸の加速度または角速度を示す6軸データに基づいて、カメラ21の姿勢を認識することができる。
The
撮影部32は、例えば、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサなどの撮像素子によって被写体12を撮影し、その撮影によって取得された映像を、データ送信部34、表示部35、および記録メディアドライブ36に供給する。
The
タイムコード生成部33は、撮影部32により撮影された映像のフレームレートに応じたタイムコードを生成して、データ送信部34および記録メディアドライブ36に供給する。
The time
データ送信部34は、撮影部32から供給される映像のフレームごとに、タイムコード生成部33から供給されるタイムコードを付加する。さらに、データ送信部34は、撮影部32から供給される映像のフレームごとに、姿勢認識部31から逐次供給されるカメラ21の姿勢情報のうち、ぞれぞれのフレームに対応するタイミングで得られた姿勢情報を付加する。そして、データ送信部34は、タイムコードとカメラ21の姿勢情報とが付加された映像をスマートフォン22に順次送信する。
The
表示部35は、撮影部32により撮影中のリアルタイムの映像であるライブビュー映像を表示する。
The
記録メディアドライブ36は、撮影部32により撮影された映像のフレームごとに、タイムコード生成部33から供給されるタイムコードを付加し、その映像が含まれる本線映像ファイルを、記録メディア24(図1)に記録する。また、本線映像ファイルには、必要に応じて、撮影部32により撮影された映像の解像度を低下させたプロキシファイルが含まれるようにすることができる。なお、カメラ21の姿勢情報が本線映像ファイルに含まれるようにしてもよく、例えば、後述する3DCGメタファイルにカメラ21またはスマートフォン22の姿勢情報が含まれている場合、カメラ21の姿勢情報が本線映像ファイルに含まれていなくてもよい。
The
スマートフォン22は、姿勢認識部41、簡易トラッキング部42、簡易合成処理部43、簡易レンダリング部44、表示部45、およびメタファイル作成部46を備えて構成される。
The
姿勢認識部41は、スマートフォン22の姿勢を認識し、その姿勢を示す姿勢情報を逐次、簡易トラッキング部42およびメタファイル作成部46に供給する。例えば、姿勢認識部41は、スマートフォン22が備える6軸センサによって検出される6軸の加速度または角速度を示す6軸データに基づいてスマートフォン22の姿勢を認識することができる。
The
簡易トラッキング部42は、姿勢認識部41から供給される姿勢情報や、映像(被写体12や、被写体12以外の風景など映像内の全て)から抽出される特徴点などに基づいて、カメラ21の自己位置を簡易的にトラッキングする。例えば、スマートフォン22をカメラ21に固定して映像処理システム11を利用する場合(図1参照)、簡易トラッキング部42は、姿勢認識部41から供給されるスマートフォン22の姿勢情報、および、カメラ21から送信されてくる映像に付加されたカメラ21の姿勢情報を用いることができる。一方、スマートフォン22をカメラ21に固定せずに映像処理システム11を利用する場合、簡易トラッキング部42は、カメラ21から送信されてくる映像に付加されたカメラ21の姿勢情報のみを用いることができる。そして、簡易トラッキング部42は、カメラ21の自己位置を簡易的にトラッキングした結果を示すトラッキング情報(例えば、カメラ21の簡易的な位置や向き、姿勢などを示す情報)を、簡易合成処理部43に供給する。
The
簡易合成処理部43は、簡易トラッキング部42から供給されるトラッキング情報に基づいて、カメラ21から送信されてくる映像に対して、モデル記憶部25からインポートされた3DCGモデルを簡易的に合成する合成処理を行う。例えば、簡易合成処理部43は、映像内の風景、および、被写体12の位置や向き、姿勢などに対応するように、映像に対して合成される3DCGモデルの簡易的な位置や向き、姿勢などを決定する。そして、簡易合成処理部43は、3DCGモデルの簡易的な位置や向き、姿勢などを示す簡易3DCGモデル合成情報を生成して簡易レンダリング部44に供給する。
The simple
簡易レンダリング部44は、簡易合成処理部43から供給される簡易3DCGモデル合成情報に基づいて3DCGモデルを配置し、トラッキング情報に基づいてカメラ21に対応する仮想カメラを設定して、その仮想カメラを用いて3DCGモデルを簡易的にレンダリングする。そして、簡易レンダリング部44は、レンダリングによって得られる3DCGモデルの画像を、カメラ21から送信されてくる映像の1フレームごとに重畳させることで簡易合成映像を生成し、表示部45に供給する。
The
表示部45は、簡易レンダリング部44から供給される簡易合成映像、即ち、カメラ21によって撮影された映像に対して、カメラ21に対応する仮想カメラでレンダリングされた3DCGモデルの画像が簡易的に合成された映像を表示する。
The
メタファイル作成部46は、スマートフォン22において行われた簡易的な映像処理で映像に3DCGモデルを合成するのに用いられた各種のメタ情報が含まれる3DCGメタファイルを作成し、パーソナルコンピュータ23に送信する。例えば、3DCGメタファイルには、1フレームごとにタイムコードが付加された簡易3DCGモデル合成情報(3DCGモデルの簡易的な位置情報を示すXYZ座標)、および、タイムコードが付加された姿勢情報(XYZ座標)が少なくとも含まれる。また、3DCGメタファイルには、3DCGモデルのモデル名や、撮影起点時における3DCGモデルの簡易的な位置情報(XYZ座標)、ズーム/フォーカス/アイリス(+ゲイン/ホワイトバランス)情報などを含むことができる。
The
パーソナルコンピュータ23は、記録メディアドライブ51、同期処理部52、トラッキング部53、合成処理部54、レンダリング部55、および表示部56を備えて構成される。
The
記録メディアドライブ51は、カメラ21の記録メディアドライブ36によって本線映像ファイルが記録された記録メディア24(図1)がセットされると、記録メディア24から本線映像ファイルを読み出して、同期処理部52に供給する。
When the recording media 24 (FIG. 1) on which the main line video file is recorded is set by the recording media drive 36 of the
同期処理部52は、スマートフォン22から送信されてきた3DCGメタファイルと、記録メディアドライブ51から供給される本線映像ファイルに含まれている映像とを、それぞれのタイムコードに従って同期させる同期処理を行う。そして、同期処理部52は、同期が取られた本線映像ファイルをトラッキング部53およびレンダリング部55に供給し、同期が取られた3DCGメタファイルを合成処理部54およびレンダリング部55に供給する。
The
トラッキング部53は、同期処理部52から供給される3DCGメタファイルに含まれている姿勢情報や、同期処理部52から供給される本線映像ファイルに含まれている映像から抽出される特徴点などに基づいて、カメラ21の自己位置を高精度にトラッキングする。そして、トラッキング部53は、カメラ21の自己位置を高精度にトラッキングした結果を示すトラッキング情報(例えば、カメラ21の高精度な位置や向き、姿勢などを示す情報)を、合成処理部54に供給する。
The
合成処理部54は、トラッキング部53から供給されるトラッキング情報に基づいて、同期処理部52から供給される本線映像ファイルに含まれている映像に対して、モデル記憶部25からインポートされた3DCGモデルを高精度に合成する合成処理を行う。例えば、合成処理部54は、映像内の風景、および、被写体12の位置や向き、姿勢などに対応するように、映像に対して合成される3DCGモデルの高精度な位置や向き、姿勢などを決定する。そして、合成処理部54は、3DCGモデルの高精度な位置や向き、姿勢などを示す3DCGモデル合成情報を生成してレンダリング部55に供給する。
The
レンダリング部55は、同期処理部52から供給される3DCGメタファイルに含まれている簡易3DCGモデル合成情報を用いて、簡易レンダリング部44と同様に簡易合成映像を生成し、表示部56に供給して表示させる。このように、レンダリング部55において生成された簡易合成映像が表示部56に表示されるバックグラウンドで、トラッキング部53によるトラッキング、および、合成処理部54による合成処理が行われる。
The
さらに、簡易合成映像が表示部56に表示されるバックグラウンドで、レンダリング部55は、合成処理部54から供給される3DCGモデル合成情報に基づいて3DCGモデルを配置し、トラッキング情報に基づいてカメラ21に対応する仮想カメラを設定して、その仮想カメラを用いて3DCGモデルを高精度にレンダリングする。そして、レンダリング部55は、レンダリングによって得られる3DCGモデルの画像を、同期処理部52から供給される本線映像ファイルに含まれている映像の1フレームごとに重畳させることで高精度な合成映像を生成し、表示部56に供給する。
Furthermore, in the background where the simplified composite image is displayed on the
表示部56は、レンダリング部55から供給される簡易合成映像を表示し、その後、簡易合成映像が表示部56から高精度な合成映像が供給されると、その高精度な合成映像を表示する。
The
以上のように映像処理システム11は構成されており、ユーザは、撮影時において、スマートフォン22に表示される簡易合成映像を確認しながら、より適切なフレーミングとなるようなカメラワークで撮影を行うことができる。さらに、ユーザは、本線映像処理時において、パーソナルコンピュータ23に表示される簡易合成映像を確認することで、合成映像のイメージをリアルに想像しながら、映像の編集作業を行うことができる。そして、パーソナルコンピュータ23で簡易合成映像を表示させているバックグラウンドで、より高品位な合成映像を生成することができる。これにより、映像処理システム11は、より完成度の高い合成映像を生成することができる。
The
<映像処理の処理例>
図3および図4を参照して、映像処理システム11において実行される映像処理の処理理について説明する。ここでは、スマートフォン22の姿勢情報は用いられず、カメラ21の姿勢情報が用いられる処理例について説明する。
<Example of video processing>
3 and 4, the image processing executed in the
図3は、撮影時において簡易合成映像を生成する映像処理を説明するフローチャートである。例えば、ユーザが、カメラ21およびスマートフォン22を連携させた映像処理を行う操作を行うと処理が開始される。
FIG. 3 is a flowchart explaining the image processing for generating a simple composite image when shooting. For example, the processing starts when the user performs an operation for performing image processing in cooperation with the
ステップS11において、カメラ21では、撮影部32による被写体12の撮影が開始され、姿勢認識部31によるカメラ21の姿勢の認識、および、タイムコード生成部33によるタイムコードの生成が開始される。そして、データ送信部34は、タイムコードとカメラ21の姿勢情報とが付加された映像をスマートフォン22に順次送信する。
In step S11, the
ステップS12において、簡易トラッキング部42は、ステップS11で送信されてきた映像に付加されているカメラ21の姿勢情報や、ステップS11で送信されてきた映像から抽出される特徴点などに基づいて、カメラ21の自己位置をトラッキングする。そして、簡易トラッキング部42は、カメラ21の自己位置を簡易的にトラッキングした結果を示すトラッキング情報を、簡易合成処理部43に供給する。
In step S12, the
ステップS13において、簡易合成処理部43は、ステップS12で供給されるトラッキング情報に基づいて、ステップS11で送信されてきた映像に対して3DCGモデルを簡易的に合成する合成処理を行い、簡易3DCGモデル合成情報を生成して簡易レンダリング部44に供給する。
In step S13, the simple
ステップS14において、簡易レンダリング部44は、ステップS13で供給される簡易3DCGモデル合成情報に基づいて3DCGモデルを配置し、ステップS12で供給されるトラッキング情報に基づいてカメラ21に対応する仮想カメラを設定して、その仮想カメラを用いて3DCGモデルを簡易的にレンダリングする。そして、簡易レンダリング部44は、レンダリングによって得られる3DCGモデルの画像を、カメラ21から送信されてくる映像に重畳させることで簡易合成映像を生成し、表示部45に供給する。
In step S14, the
ステップS15において、表示部45は、ステップS14で供給された簡易合成映像を表示する。
In step S15, the
ステップS16において、メタファイル作成部46は、例えば、ステップS11で送信されてきた映像に付加されているカメラ21の姿勢情報や、ステップS13で生成された簡易3DCGモデル合成情報などを少なくとも含み、それらにタイムコードが付加された3DCGメタファイルを作成する。
In step S16, the
ステップS16の処理後、処理はステップS11に戻り、例えば、ユーザによって映像処理を終了する操作が行われるまで、以下、同様の処理が繰り返して行われる。 After step S16, the process returns to step S11, and the same process is repeated until, for example, the user performs an operation to end the video processing.
図4は、本線映像処理時において高精度な合成映像を生成する映像処理を説明するフローチャートである。例えば、ユーザが、本線映像ファイルが記録された記録メディア24をパーソナルコンピュータ23にセットし、スマートフォン22およびパーソナルコンピュータ23の通信を接続させた後、映像処理を開始させる操作を行うと処理が開始される。
FIG. 4 is a flowchart explaining the image processing for generating a highly accurate composite image during main line image processing. For example, the process is started when the user inserts the
ステップS21において、スマートフォン22では、メタファイル作成部46が、図3のステップS16で作成した3DCGメタファイルを、パーソナルコンピュータ23へ送信する。
In step S21, the
ステップS22において、記録メディアドライブ51は、記録メディア24から本線映像ファイルを読み出して、同期処理部52に供給する。
In step S22, the recording media drive 51 reads the main line video file from the
ステップS23において、同期処理部52は、ステップS21で送信されてきた3DCGメタファイルと、ステップS22で供給された本線映像ファイルに含まれている映像とを、それぞれのタイムコードに従って同期させる同期処理を行う。そして、同期処理部52は、同期が取られた本線映像ファイルをトラッキング部53およびレンダリング部55に供給し、同期が取られた3DCGメタファイルを合成処理部54およびレンダリング部55に供給する。
In step S23, the
ステップS24において、レンダリング部55は、ステップS23で供給された3DCGメタファイルに含まれている簡易3DCGモデル合成情報を用いて、簡易レンダリング部44と同様に簡易合成映像を生成し、表示部56に供給して表示させる。
In step S24, the
一方、ステップS24の処理と並行して、ステップS25乃至S27の処理が行われる。 Meanwhile, steps S25 to S27 are carried out in parallel with step S24.
ステップS25において、トラッキング部53は、ステップS23で供給された3DCGメタファイルに含まれている姿勢情報や、ステップS23で供給された本線映像ファイルに含まれている映像から抽出される特徴点などに基づいて、カメラ21の自己位置を高精度にトラッキングする。そして、トラッキング部53は、カメラ21の自己位置を高精度にトラッキングした結果を示すトラッキング情報を、合成処理部54に供給する。
In step S25, the
ステップS26において、合成処理部54は、ステップS25で供給されたトラッキング情報に基づいて、ステップS23で供給された本線映像ファイルに含まれている映像に対して3DCGモデルを高精度に合成する合成処理を行い、3DCGモデル合成情報を生成してレンダリング部55に供給する。
In step S26, the
ステップS27において、レンダリング部55は、ステップS26で供給された3DCGモデル合成情報に基づいて3DCGモデルを配置し、ステップS25で供給されたトラッキング情報に基づいてカメラ21に対応する仮想カメラを設定し、その仮想カメラを用いて3DCGモデルを高精度にレンダリングする。そして、レンダリング部55は、レンダリングによって得られる3DCGモデルの画像を、同期処理部52から供給される本線映像ファイルに含まれている映像の1フレームごとに重畳させることで高精度な合成映像を生成し、表示部56に供給する。
In step S27, the
ステップS28において、表示部56は、ステップS24で表示した簡易合成映像に替えて、ステップS27で供給された高精度な合成映像を表示する。
In step S28, the
ステップS28の処理後、処理はステップS21に戻り、例えば、ユーザによって映像処理を終了させる操作が行われるまで、以下、同様の処理が繰り返して行われる。 After step S28, the process returns to step S21, and the same process is repeated until, for example, the user performs an operation to end the video processing.
以上のような映像処理が実行されることで、映像処理システム11では、撮影時に簡易合成映像を表示し、本線映像処理時に簡易合成映像を表示するバックグラウンドで合成映像を生成することで、より完成度の高い合成映像を生成することができる。
By performing the above-described image processing, the
<映像処理システムの利用例>
図5を参照して、映像処理システムで2Dモデルを利用する利用例について説明する。
<Examples of using the video processing system>
An example of using a 2D model in a video processing system will be described with reference to FIG.
上述の図1を参照して説明したように、映像処理システム11は、撮影時および本線映像処理時において、映像に映されている被写体に対して3DCGモデルを合成することができる。さらに、映像処理システム11は、3DCGモデルと同様に、被写体に対して2Dモデルを合成することができる。
As described above with reference to FIG. 1, the
図5の上側に示すように、カメラ21が、被写体13の撮影を行いながら、その撮影により取得される映像をスマートフォン22へ送信し、スマートフォン22が、その映像に映されている被写体13に2Dモデルを簡易的に合成する映像処理を行って、その結果として得られる簡易合成映像を表示する。なお、図5に示す例では、2Dモデルとしてモザイク画像が図示されているが、その他、スタンプなどの画像を2Dモデルとして利用することができる。
As shown in the upper part of Figure 5,
その後、図5の下側に示すように、パーソナルコンピュータ23が、カメラ21から記録メディア24を介して本線映像ファイルを取得するとともに、スマートフォン22と通信を行うことによって2Dメタファイルを取得する。2Dメタファイルは、スマートフォン22において行われた簡易的な映像処理で被写体12に2Dモデルを合成するのに用いられた各種のメタ情報が含まれるファイルである。そして、パーソナルコンピュータ23は、2Dメタファイルを用いて簡易合成映像を再生しながら、そのバックグラウンドで、被写体12に2Dモデルを高精度に合成する映像処理を行って、より高品位な合成映像を生成する。もちろん、被写体13に2Dモデルを合成する他、映像内の被写体13以外の空間に2Dモデルを合成してもよい。
Then, as shown in the lower part of FIG. 5, the
このように、映像処理システム11を利用することで、図1を参照して上述した3DCGモデルを利用する利用例と同様に、より完成度の高い合成映像をパーソナルコンピュータ23に生成させることができる。
In this way, by using the
例えば、2Dメタファイルには、1フレームごとにタイムコードが付加された簡易2Dモデル合成情報(2Dモデルの簡易的な位置情報を示すXYZ座標)が少なくとも含まれる。また、2Dメタファイルには、2Dモデルのモデル名や、ズーム/フォーカス/アイリス(+ゲイン/ホワイトバランス)情報などを含むことができる。なお、2Dモデルは、カメラ21の動きに合わせて向きを変更させる必要はない。
For example, the 2D metafile contains at least simple 2D model synthesis information (XYZ coordinates indicating simple position information of the 2D model) with a time code added for each frame. The 2D metafile can also contain the model name of the 2D model, zoom/focus/iris (+gain/white balance) information, etc. It is not necessary to change the orientation of the 2D model in accordance with the movement of the
<UIイメージの表示例>
図6および図7を参照して、映像処理システム11を利用した映像処理の実行を指示するUI(User Interface)イメージについて説明する。
<UI image display example>
A UI (User Interface) image for instructing the execution of video processing using the
図6は、撮影時において映像処理の実行を指示するUIイメージの一例を示す図である。 Figure 6 shows an example of a UI image that instructs the execution of video processing during shooting.
図6のAには、カメラ21の表示部35に表示されるUIイメージが示されており、「簡易合成を行うために姿勢情報および映像を連携しますか?」というメッセージとともに、「Yes」のGUI(Graphical User Interface)ボタンおよび「No」のGUIボタンが表示されている。図6のBには、スマートフォン22の表示部45に表示されるUIイメージが示されており、「簡易合成を行うために姿勢情報、映像、および2D/3DCGモデルを受信しますか?」というメッセージとともに、「Yes」のGUIボタンおよび「No」のGUIボタンが表示されている。
A in FIG. 6 shows a UI image displayed on the
例えば、ユーザが、図示するようなUIイメージを表示部35および表示部45に表示させ、それぞれの「Yes」のGUIボタンに対するユーザ操作を行うと、カメラ21からスマートフォン22へ姿勢情報および映像の送信が開始される。そして、スマートフォン22では、姿勢情報および映像の受信が開始され、モデル記憶部25から2D/3DCGモデルのインポートが行われる。なお、2D/3DCGモデルのインポートは事前に行われるようにしてもよい。
For example, when a user causes a UI image as shown in the figure to be displayed on
図7は、本線映像処理時において映像処理の実行を指示するUIイメージの一例を示す図である。 FIG. 7 shows an example of a UI image that instructs the execution of video processing during main line video processing.
図7のAには、カメラ21の表示部35に表示されるUIイメージが示されており、「本線映像の編集を行うために映像を送信しますか?」というメッセージとともに、「Yes」のGUIボタンおよび「No」のGUIボタンが表示されている。図7のBには、スマートフォン22の表示部45に表示されるUIイメージが示されており、「本線映像の編集を行うために2D/3DCGメタファイルを送信しますか?」というメッセージとともに、「Yes」のGUIボタンおよび「No」のGUIボタンが表示されている。図7のCには、パーソナルコンピュータ23の表示部56に表示されるUIイメージが示されており、「本線映像の編集を行うために2D/3DCGメタファイル、映像、および2D/3DCGモデルを受信しますか?」というメッセージとともに、「Yes」のGUIボタンおよび「No」のGUIボタンが表示されている。
7A shows a UI image displayed on the
例えば、ユーザが、図示するようなUIイメージを表示部35、表示部45、および表示部56に表示させ、それぞれの「Yes」のGUIボタンに対するユーザ操作を行うと、カメラ21からパーソナルコンピュータ23へ映像の送信が開始されるとともに、スマートフォン22からパーソナルコンピュータ23へ2D/3DCGメタファイルの送信が開始される。そして、パーソナルコンピュータ23では、映像および2D/3DCGメタファイルの受信が開始され、モデル記憶部25から2D/3DCGモデルのインポートが行われる。なお、2D/3DCGモデルのインポートは事前に行われるようにしてもよい。
For example, when a user causes a UI image as shown in the figure to be displayed on
映像処理システム11では、このようなUIイメージを用いて、映像処理の実行を指示することができる。
In the
本実施の形態において、CGの合成処理とは、カメラ21で撮影した映像に対して後段の編集でCGを合成することである。CGは、カメラ21の動きに合わせて移動する必要もある。また、トラッキングとは、カメラ21で撮影した映像内の特徴点、例えば、映像内のオブジェクトなどをトラッキングして、2Dトラッキングや3Dカメラトラッキングを行うことである。2Dトラッキングは、カメラ21で撮影した映像の特徴点や加速度センサを利用して映像内の物体をトラッキングすることであり、例えば、映像内の人間に常にモザイクを追従させたいときなどに使用される。3Dカメラトラッキングは、カメラ21で撮影した映像はどのようにカメラ21を動かして撮影したのかを加速度センサや特徴点などに基づいて解析し、仮想カメラを生成することである。一般的には、3Dカメラトラッキングは、CGと仮想カメラをリンクさせることで、映像の動きに合わせて合成したCGも同じように動き、違和感のない合成が行えるようになる。
In this embodiment, CG synthesis processing refers to synthesizing CG with the image captured by the
なお、カメラ21が備えるジャイロは、6軸または8軸のセンサであり、あるいは、それ以外のセンサであってもよい。また、スマートフォン22に替えて、タブレットを使用したり、外付けジャイロセンサと外付けモニタとを組み合わせて使用したりすることができる。さらに、カメラ21が、3Dトラッキングおよび合成処理を行う機能を備えている場合、スマートフォン22などを外付けする必要はなく、上述したスマートフォン22の処理をカメラ21で実行することができる。また、カメラ21による撮影と同時に簡易合成映像を生成するのではなく、カメラ21によって撮影済みの映像を用いて簡易合成映像を生成してもよい。
The gyro provided in the
また、スマートフォン22がパーソナルコンピュータ23と同等の処理能力を備えている場合、スマートフォン22で本線映像処理を行ってもよく、この場合、本線映像ファイルおよび3DCGメタファイルをパーソナルコンピュータ23に送信する必要はない。さらに、カメラ21がスマートフォン22およびパーソナルコンピュータ23と同等の処理能力を備えていれば、全ての映像処理をカメラ21の内部で実行するようにしてもよく、この場合、カメラ21から外部に映像を送信する必要はない。
Furthermore, if the
<コンピュータの構成例>
次に、上述した一連の処理(映像処理方法)は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
<Example of computer configuration>
Next, the above-mentioned series of processes (video processing method) can be performed by hardware or software. When the series of processes is performed by software, a program constituting the software is installed in a general-purpose computer or the like.
図8は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。 FIG. 8 is a block diagram showing an example of the configuration of one embodiment of a computer on which a program that executes the series of processes described above is installed.
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
The program can be pre-recorded on the
あるいはまた、プログラムは、ドライブ109によって駆動されるリムーバブル記録媒体111に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウェアとして提供することができる。ここで、リムーバブル記録媒体111としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
Alternatively, the program can be stored (recorded) on a
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク105にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
In addition to being installed in a computer from the
コンピュータは、CPU(Central Processing Unit)102を内蔵しており、CPU102には、バス101を介して、入出力インタフェース110が接続されている。
The computer has a built-in CPU (Central Processing Unit) 102, to which an input/
CPU102は、入出力インタフェース110を介して、ユーザによって、入力部107が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、CPU102は、ハードディスク105に格納されたプログラムを、RAM(Random Access Memory)104にロードして実行する。
When a command is input by the user via the input/
これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
As a result, the
なお、入力部107は、キーボードや、マウス、マイク等で構成される。また、出力部106は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
The
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。 In this specification, the processing performed by a computer according to a program does not necessarily have to be performed in chronological order according to the order described in the flowchart. In other words, the processing performed by a computer according to a program also includes processing that is executed in parallel or individually (for example, parallel processing or processing by objects).
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。 The program may be processed by one computer (processor), or may be distributed among multiple computers. Furthermore, the program may be transferred to a remote computer for execution.
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 Furthermore, in this specification, a system refers to a collection of multiple components (devices, modules (parts), etc.), regardless of whether all the components are in the same housing. Therefore, multiple devices housed in separate housings and connected via a network, and a single device in which multiple modules are housed in a single housing, are both systems.
また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。 Also, for example, the configuration described above as one device (or processing unit) may be divided and configured as multiple devices (or processing units). Conversely, the configurations described above as multiple devices (or processing units) may be combined and configured as one device (or processing unit). Of course, configurations other than those described above may also be added to the configuration of each device (or each processing unit). Furthermore, as long as the configuration and operation of the system as a whole are substantially the same, part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit).
また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 Also, for example, this technology can be configured as cloud computing, in which a single function is shared and processed collaboratively by multiple devices via a network.
また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。 Furthermore, for example, the above-mentioned program can be executed in any device. In that case, it is sufficient that the device has the necessary functions (functional blocks, etc.) and is able to obtain the necessary information.
また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。 Furthermore, for example, each step described in the above flowchart can be executed by one device, or can be shared and executed by multiple devices. Furthermore, if one step includes multiple processes, the multiple processes included in that one step can be executed by one device, or can be shared and executed by multiple devices. In other words, multiple processes included in one step can be executed as multiple step processes. Conversely, processes described as multiple steps can be executed collectively as one step.
なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。 In addition, the processing of the steps that describe a program executed by a computer may be executed chronologically in the order described in this specification, or may be executed in parallel, or individually at the required timing, such as when a call is made. In other words, as long as no contradictions arise, the processing of each step may be executed in an order different from the order described above. Furthermore, the processing of the steps that describe this program may be executed in parallel with the processing of other programs, or may be executed in combination with the processing of other programs.
なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。 Note that the multiple present technologies described in this specification can be implemented independently and individually, provided no contradictions arise. Of course, any multiple present technologies can also be implemented in combination. For example, part or all of the present technology described in any embodiment can be implemented in combination with part or all of the present technology described in another embodiment. Also, part or all of any of the present technologies described above can be implemented in combination with other technologies not described above.
<構成の組み合わせ例>
なお、本技術は以下のような構成も取ることができる。
(1)
撮影時に、映像に対してCG(Computer Graphics)を簡易的に合成する第1の映像処理を行うことで簡易合成映像を生成して表示させ、前記映像に対して前記CGを合成するのに用いられたメタ情報を含むメタファイルを作成する第1の映像処理部と、
撮影後、前記メタファイルを用いて生成される前記簡易合成映像が表示されるバックグラウンドで、前記映像に対してCGを高精度に合成する第2の映像処理を行うことで高精度な合成映像を生成する第2の映像処理部と
を備える映像処理システム。
(2)
撮影を行うカメラをさらに備え、
前記カメラの姿勢を示す姿勢情報に基づいて、前記第1の映像処理部および前記第2の映像処理部が行われる
上記(1)に記載の映像処理システム。
(3)
前記第1の映像処理部は、
前記姿勢情報に基づいて特定される前記カメラの撮影方向、および、前記映像から抽出される特徴点に基づいて、前記カメラを簡易的にトラッキングする簡易トラッキング部と、
前記トラッキングの結果に基づいて、前記映像に前記CGを合成するのに必要な簡易合成情報を生成する簡易合成処理部と、
前記簡易合成情報に基づいて前記CGを配置して、前記姿勢情報に基づいて特定される前記カメラに対応する仮想カメラを設定して、その仮想カメラを用いて前記CGを簡易的にレンダリングして前記簡易合成映像を生成する簡易レンダリング部と
を有する上記(2)に記載の映像処理システム。
(4)
前記カメラは、前記カメラにより撮影された前記映像のフレームを特定するタイムコードを生成するタイムコード生成部を有し、
前記第2の映像処理部は、前記メタファイルに付加されている前記タイムコード、および、前記映像のフレームごとに付加されている前記タイムコードに従って、前記メタファイルと前記映像とを同期させる同期処理部を有する
上記(3)に記載の映像処理システム。
(5)
前記第2の映像処理部は、
前記姿勢情報に基づいて特定される前記カメラの撮影方向、および、前記映像から抽出される特徴点に基づいて、前記カメラを高精度にトラッキングするトラッキング部と、
前記トラッキングの結果に基づいて、前記映像に前記CGを合成するのに必要な合成情報を生成する合成処理部と、
前記合成情報に基づいて前記CGを配置して、前記姿勢情報に基づいて特定される前記カメラに対応する仮想カメラを設定して、その仮想カメラを用いて前記CGを高精度にレンダリングして前記合成映像を生成するレンダリング部と
を有する上記(4)に記載の映像処理システム。
(6)
前記レンダリング部が、前記メタファイルに含まれている前記簡易合成情報を用いて前記簡易合成映像を生成して表示させているバックグラウンドで、前記トラッキング部によるトラッキング、前記合成処理部による前記合成情報の生成、前記レンダリング部による前記合成映像の生成が行われる
上記(5)に記載の映像処理システム。
(7)
映像処理システムが、
撮影時に、映像に対してCG(Computer Graphics)を簡易的に合成する第1の映像処理を行うことで簡易合成映像を生成して表示させ、前記映像に対して前記CGを合成するのに用いられたメタ情報を含むメタファイルを作成することと、
撮影後、前記メタファイルを用いて生成される前記簡易合成映像が表示されるバックグラウンドで、前記映像に対してCGを高精度に合成する第2の映像処理を行うことで高精度な合成映像を生成することと
を含む映像処理方法。
(8)
映像処理システムのコンピュータに、
撮影時に、映像に対してCG(Computer Graphics)を簡易的に合成する第1の映像処理を行うことで簡易合成映像を生成して表示させ、前記映像に対して前記CGを合成するのに用いられたメタ情報を含むメタファイルを作成することと、
撮影後、前記メタファイルを用いて生成される前記簡易合成映像が表示されるバックグラウンドで、前記映像に対してCGを高精度に合成する第2の映像処理を行うことで高精度な合成映像を生成することと
を含む映像処理を実行させるためのプログラム。
<Examples of configuration combinations>
The present technology can also be configured as follows.
(1)
a first image processing unit that performs a first image processing for simply synthesizing CG (Computer Graphics) with an image during shooting to generate and display a simplified synthesized image, and creates a metafile including meta information used to synthesize the CG with the image;
and a second image processing unit that generates a highly accurate composite image by performing a second image processing for synthesizing CG with the image with high precision after shooting while the simple composite image generated using the metafile is displayed in the background.
(2)
Further equipped with a camera for taking pictures,
The image processing system according to (1) above, wherein the first image processing unit and the second image processing unit are operated based on posture information indicating a posture of the camera.
(3)
The first image processing unit includes:
a simplified tracking unit that simply tracks the camera based on the shooting direction of the camera identified based on the posture information and feature points extracted from the video;
a simplified synthesis processing unit that generates simplified synthesis information required for synthesizing the CG image on the video based on a result of the tracking;
The video processing system described in (2) above has a simple rendering unit that positions the CG based on the simple synthesis information, sets a virtual camera corresponding to the camera identified based on the posture information, and uses the virtual camera to simply render the CG to generate the simple composite image.
(4)
the camera has a time code generation unit that generates a time code that identifies a frame of the video captured by the camera;
The second video processing unit has a synchronization processing unit that synchronizes the metafile and the video according to the time code added to the metafile and the time code added to each frame of the video.The video processing system described in (3) above.
(5)
The second image processing unit includes:
a tracking unit that tracks the camera with high accuracy based on the shooting direction of the camera specified based on the posture information and feature points extracted from the video;
a synthesis processing unit that generates synthesis information required for synthesizing the CG image on the video based on a result of the tracking;
and a rendering unit that positions the CG based on the synthesis information, sets a virtual camera corresponding to the camera identified based on the posture information, and uses the virtual camera to render the CG with high accuracy to generate the synthetic image.
(6)
The video processing system described in (5) above, in which tracking is performed by the tracking unit, the synthesis information is generated by the synthesis processing unit, and the synthetic video is generated by the rendering unit in the background while the rendering unit generates and displays the simple synthetic video using the simple synthesis information contained in the metafile.
(7)
The video processing system
During shooting, a first image processing is performed to simply combine CG (Computer Graphics) with the image to generate and display a simplified composite image, and a metafile is created that includes meta information used to combine the CG with the image;
After shooting, in the background where the simple composite image generated using the metafile is displayed, a second image processing is performed to composite CG with the image with high accuracy, thereby generating a highly accurate composite image.
(8)
The computer in the video processing system
During shooting, a first image processing is performed to simply combine CG (Computer Graphics) with the image to generate and display a simplified composite image, and a metafile is created that includes meta information used to combine the CG with the image;
After shooting, in the background where the simple composite image generated using the metafile is displayed, a second image processing is performed to synthesize CG with high precision onto the image, thereby generating a highly accurate composite image.
なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 Note that this embodiment is not limited to the above-described embodiment, and various modifications are possible without departing from the gist of this disclosure. Furthermore, the effects described in this specification are merely examples and are not limiting, and other effects may also be present.
11 映像処理システム, 12および13 被写体, 21 カメラ, 22 スマートフォン, 23 パーソナルコンピュータ, 24 記録メディア, 25 モデル記憶部, 31 姿勢認識部, 32 撮影部, 33 タイムコード生成部, 34 データ送信部, 35 表示部, 36 記録メディアドライブ, 41 姿勢認識部, 42 簡易トラッキング部, 43 簡易合成処理部, 44 簡易レンダリング部, 45 表示部, 46 メタファイル作成部, 51 記録メディアドライブ, 52 同期処理部, 53 トラッキング部, 54 合成処理部, 55 レンダリング部, 56 表示部 11 Image processing system, 12 and 13 Subject, 21 Camera, 22 Smartphone, 23 Personal computer, 24 Recording media, 25 Model memory unit, 31 Posture recognition unit, 32 Shooting unit, 33 Time code generation unit, 34 Data transmission unit, 35 Display unit, 36 Recording media drive, 41 Posture recognition unit, 42 Simple tracking unit, 43 Simple synthesis processing unit, 44 Simple rendering unit, 45 Display unit, 46 Metafile creation unit, 51 Recording media drive, 52 Synchronization processing unit, 53 Tracking unit, 54 Synthesis processing unit, 55 Rendering unit, 56 Display unit
Claims (8)
撮影後、前記メタファイルを用いて生成される前記簡易合成映像が表示されるバックグラウンドで、前記映像に対してCGを高精度に合成する第2の映像処理を行うことで高精度な合成映像を生成する第2の映像処理部と
を備える映像処理システム。 a first image processing unit that performs a first image processing for simply synthesizing CG (Computer Graphics) with an image during shooting to generate and display a simplified synthesized image, and creates a metafile including meta information used to synthesize the CG with the image;
and a second image processing unit that generates a highly accurate composite image by performing a second image processing for synthesizing CG with the image with high precision after shooting while the simple composite image generated using the metafile is displayed in the background.
前記カメラの姿勢を示す姿勢情報に基づいて、前記第1の映像処理部および前記第2の映像処理部が行われる
請求項1に記載の映像処理システム。 Further equipped with a camera for taking pictures,
The image processing system according to claim 1 , wherein the first image processing section and the second image processing section are operated based on attitude information indicating an attitude of the camera.
前記姿勢情報に基づいて特定される前記カメラの撮影方向、および、前記映像から抽出される特徴点に基づいて、前記カメラを簡易的にトラッキングする簡易トラッキング部と、
前記トラッキングの結果に基づいて、前記映像に前記CGを合成するのに必要な簡易合成情報を生成する簡易合成処理部と、
前記簡易合成情報に基づいて前記CGを配置して、前記姿勢情報に基づいて特定される前記カメラに対応する仮想カメラを設定して、その仮想カメラを用いて前記CGを簡易的にレンダリングして前記簡易合成映像を生成する簡易レンダリング部と
を有する請求項2に記載の映像処理システム。 The first image processing unit includes:
a simplified tracking unit that simply tracks the camera based on the shooting direction of the camera identified based on the posture information and feature points extracted from the video;
a simplified synthesis processing unit that generates simplified synthesis information required for synthesizing the CG image on the video based on a result of the tracking;
and a simple rendering unit that positions the CG based on the simple synthesis information, sets a virtual camera corresponding to the camera identified based on the posture information, and uses the virtual camera to simply render the CG to generate the simple synthetic image.
前記第2の映像処理部は、前記メタファイルに付加されている前記タイムコード、および、前記映像のフレームごとに付加されている前記タイムコードに従って、前記メタファイルと前記映像とを同期させる同期処理部を有する
請求項3に記載の映像処理システム。 the camera has a time code generation unit that generates a time code that identifies a frame of the video captured by the camera;
The video processing system of claim 3 , wherein the second video processing unit has a synchronization processing unit that synchronizes the metafile and the video in accordance with the time code added to the metafile and the time code added to each frame of the video.
前記姿勢情報に基づいて特定される前記カメラの撮影方向、および、前記映像から抽出される特徴点に基づいて、前記カメラを高精度にトラッキングするトラッキング部と、
前記トラッキングの結果に基づいて、前記映像に前記CGを合成するのに必要な合成情報を生成する合成処理部と、
前記合成情報に基づいて前記CGを配置して、前記姿勢情報に基づいて特定される前記カメラに対応する仮想カメラを設定して、その仮想カメラを用いて前記CGを高精度にレンダリングして前記合成映像を生成するレンダリング部と
を有する請求項4に記載の映像処理システム。 The second image processing unit includes:
a tracking unit that tracks the camera with high accuracy based on the shooting direction of the camera specified based on the posture information and feature points extracted from the video;
a synthesis processing unit that generates synthesis information required for synthesizing the CG image on the video based on a result of the tracking;
a rendering unit that positions the CG based on the synthesis information, sets a virtual camera corresponding to the camera identified based on the posture information, and uses the virtual camera to render the CG with high accuracy to generate the synthetic image.
請求項5に記載の映像処理システム。 The video processing system according to claim 5, wherein tracking by the tracking unit, generation of the synthesis information by the synthesis processing unit, and generation of the synthetic video by the rendering unit are performed in the background while the rendering unit generates and displays the simple synthetic video using the simple synthesis information contained in the metafile.
撮影時に、映像に対してCG(Computer Graphics)を簡易的に合成する第1の映像処理を行うことで簡易合成映像を生成して表示させ、前記映像に対して前記CGを合成するのに用いられたメタ情報を含むメタファイルを作成することと、
撮影後、前記メタファイルを用いて生成される前記簡易合成映像が表示されるバックグラウンドで、前記映像に対してCGを高精度に合成する第2の映像処理を行うことで高精度な合成映像を生成することと
を含む映像処理方法。 The video processing system
During shooting, a first image processing is performed to simply combine CG (Computer Graphics) with the image to generate and display a simplified composite image, and a metafile is created that includes meta information used to combine the CG with the image;
After shooting, in the background where the simple composite image generated using the metafile is displayed, a second image processing is performed to composite CG with the image with high accuracy, thereby generating a highly accurate composite image.
撮影時に、映像に対してCG(Computer Graphics)を簡易的に合成する第1の映像処理を行うことで簡易合成映像を生成して表示させ、前記映像に対して前記CGを合成するのに用いられたメタ情報を含むメタファイルを作成することと、
撮影後、前記メタファイルを用いて生成される前記簡易合成映像が表示されるバックグラウンドで、前記映像に対してCGを高精度に合成する第2の映像処理を行うことで高精度な合成映像を生成することと
を含む映像処理を実行させるためのプログラム。 The computer in the video processing system
During shooting, a first image processing is performed to simply combine CG (Computer Graphics) with the image to generate and display a simplified composite image, and a metafile is created that includes meta information used to combine the CG with the image;
After shooting, in the background where the simplified composite image generated using the metafile is displayed, a second image processing is performed to synthesize CG with high precision onto the image, thereby generating a highly accurate composite image.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023-136907 | 2023-08-25 | ||
| JP2023136907 | 2023-08-25 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025047334A1 true WO2025047334A1 (en) | 2025-03-06 |
Family
ID=94819034
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/028068 Pending WO2025047334A1 (en) | 2023-08-25 | 2024-08-06 | Video processing system, video processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025047334A1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008015576A (en) * | 2006-07-03 | 2008-01-24 | Mitsubishi Precision Co Ltd | Three-dimensional computer graphics synthesis method and apparatus |
| JP2008065698A (en) * | 2006-09-08 | 2008-03-21 | Ritsumeikan | Image generation method and image generation system |
-
2024
- 2024-08-06 WO PCT/JP2024/028068 patent/WO2025047334A1/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008015576A (en) * | 2006-07-03 | 2008-01-24 | Mitsubishi Precision Co Ltd | Three-dimensional computer graphics synthesis method and apparatus |
| JP2008065698A (en) * | 2006-09-08 | 2008-03-21 | Ritsumeikan | Image generation method and image generation system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101713772B1 (en) | Apparatus and method for pre-visualization image | |
| US20080309774A1 (en) | Multiple sensor input data synthesis | |
| US20130215229A1 (en) | Real-time compositing of live recording-based and computer graphics-based media streams | |
| JP7190594B1 (en) | IMAGING DEVICE AND CONTROL METHOD THEREOF, IMAGE PROCESSING DEVICE AND IMAGE PROCESSING SYSTEM | |
| CN101378463B (en) | Composite image generating apparatus, composite image generating method | |
| WO2023090038A1 (en) | Information processing apparatus, image processing method, and program | |
| JP2005020607A (en) | Composite image output apparatus and composite image output processing program | |
| US7002584B2 (en) | Video information producing device | |
| JP5596844B2 (en) | Image processing apparatus, image processing system, and image processing method | |
| JP5401103B2 (en) | Video information management apparatus and method | |
| JP4981370B2 (en) | Movie generation system and movie generation method | |
| WO2025047334A1 (en) | Video processing system, video processing method, and program | |
| JP2005079913A (en) | Content creation system, lecture video creation system, video conference system | |
| WO2023236656A1 (en) | Method and apparatus for rendering interactive picture, and device, storage medium and program product | |
| JP2000270261A (en) | Image pickup device, picture composting method and recording medium | |
| JP7017045B2 (en) | Communication terminal, display method, and program | |
| JP2014212439A (en) | Display control device, control method, and program | |
| JP5874887B2 (en) | Image processing apparatus, image processing system, and image processing method | |
| JP4899733B2 (en) | Image generation method and image generation system | |
| JP2007026090A (en) | Video preparation device | |
| TWI739544B (en) | Method for producing video, system thereof and user interface | |
| JP2014030267A (en) | Imaging apparatus | |
| JP2004080363A (en) | Information transfer system | |
| US12225283B2 (en) | Imaging apparatus and information presentation system | |
| JP5058842B2 (en) | Virtual landscape display device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24859374 Country of ref document: EP Kind code of ref document: A1 |