WO1998046018A1 - Device and method for displaying pictures - Google Patents
Device and method for displaying pictures Download PDFInfo
- Publication number
- WO1998046018A1 WO1998046018A1 PCT/JP1998/001560 JP9801560W WO9846018A1 WO 1998046018 A1 WO1998046018 A1 WO 1998046018A1 JP 9801560 W JP9801560 W JP 9801560W WO 9846018 A1 WO9846018 A1 WO 9846018A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- image data
- moving
- displayed
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/002—Programmed access in sequence to a plurality of record carriers or indexed parts, e.g. tracks, thereof, e.g. for editing
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/40—Combinations of multiple record carriers
- G11B2220/41—Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title
- G11B2220/415—Redundant array of inexpensive disks [RAID] systems
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
- H04N5/45—Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
Definitions
- the present invention relates to an image display apparatus and method, and is suitably applied to, for example, an image display apparatus and method for displaying an image based on a series of moving image data.
- non-linear media having high multi-access characteristics such as a hard disk have been used as a recording medium for moving image data, and when such a recording medium is used, a reproducing device (a hard disk device or the like) is used.
- a reproducing device a hard disk device or the like
- Multiple keys There is a possibility that operations such as simultaneous fast-forward / rewind to a plurality of moving images or the same moving image in parallel from the access point, and reproduction of a one-frame image at a necessary place are frequently performed. Therefore, for example, when a non-linear media is used as a recording medium for moving image data when constructing an editing system, a high function is required as a playback device in terms of data accessibility, data transfer rate, and data transmission speed. There was a problem that it was difficult to build a low-cost system. Disclosure of the invention
- the present invention has been made in view of the above points, and is intended to propose an image display device and an image display method that can easily confirm a summary of a moving image and select a desired scene in a short time. is there.
- a series of moving image data to be displayed two-dimensionally is sampled one-dimensionally in the other direction while sequentially moving the sampling position in one direction.
- a series of moving image data displayed two-dimensionally is based on data obtained by one-dimensionally sampling the sampling position in the other direction while sequentially moving the sampling position in one direction.
- a series of moving image data displayed two-dimensionally on a screen display device is based on data obtained by one-dimensionally sampling a moving sample data in another direction while sequentially moving a sampling position in one direction.
- a moving image based on the moving image data based on the specific frame image and the still image displayed by the operator By providing a display means for displaying the still image based on the created image data along with the time axis together with the still image based on the created image data, a moving image based on the moving image data based on the specific frame image and the still image displayed by the operator The entire flow of the image can be immediately recognized, so that the overview of the moving image and the selection of the desired scene can be performed in a short time.
- An image display device can be realized which can perform the easy.
- a series of two-dimensionally displayed moving image data is sampled one-dimensionally in the other direction while the sampling position is sequentially moved in one direction, and a still image is obtained based on the data obtained.
- FIG. 1 is a conceptual diagram for explaining a video browser.
- FIG. 2 is a block diagram showing a configuration of the image display device according to the present embodiment.
- FIG. 3 is a schematic diagram showing an initial editing screen. .
- FIG. 4 is a schematic diagram showing an editing screen.
- FIG. 5 is a schematic diagram showing an editing screen.
- - Figure 6 is a flowchart showing the signal acquisition mode processing procedure.
- FIG. 7 is a flowchart showing the display mode processing procedure.
- FIG. 8 is a flowchart showing a frame video index display processing procedure.
- FIG. 9 is a schematic diagram showing another embodiment.
- FIG. 10 is a schematic diagram showing another embodiment.
- FIG. 11 is a schematic diagram showing another embodiment. BEST MODE FOR CARRYING OUT THE INVENTION
- a series of moving images based on the moving image data can be considered as frame images at each time point sequentially arranged in the time axis direction.
- the frame frequency of the video signal is 30 [Hz], and therefore a moving image is composed of 30 frame images per second. You.
- a vertical slit (hereinafter referred to as “vertical slit”) 3 is extracted for each of n frame images 2 while sequentially moving in one direction with respect to a video image group 1 constituting such a moving image.
- these extracted vertical slits 3 are sequentially arranged in the other direction to form a still image (hereinafter referred to as a video browser) 4.
- the extraction position of the vertical slit 3 moves rightward from the left end of the screen, and moves rightward again from the left end of the screen when reaching the right end of the screen.
- n l
- the horizontal direction of frame image 2 is X dots
- the slit width of vertical slit 3 is ⁇ dots
- a video browser 4 for one screen is formed.
- the video browser 4 can recognize the content of the moving image based on the f frame images 2 as a compressed still image.
- FIG. 2 shows an image display device 10 to which the present invention is applied, in which a keyboard 11 and a mouse 12 are connected to a host computer 15 via an input / output circuit 13 and a system bus 14 in this order. It is connected.
- the operator can give various commands to the host computer 15 through the keyboard 11 and the mouse 12.
- the host computer 15 controls the switch circuit 16 based on a command given from the operator in the video signal capture mode, so that a plurality of transmission lines 1 connected to the switch circuit 16 are controlled.
- One video signal source is selected from among 7A to 17N and a plurality of video tape recorders 18A to 18N, and video signals S1A to S1N, S supplied from the video signal source are selected. 2 A to S 2N are sent to the analog / digital conversion circuit 19.
- the analog-to-digital converter 19 sequentially converts the supplied video signals S 1 A to S 1 N and S 2 A to S 2 N into digital signals, and sequentially converts the thus obtained moving image data D 1 into frame units.
- the first VRAM Video R and Om ess Memory
- the first VRAM is stored in 20 storage areas (formed corresponding to the actual display screen).
- the moving image data D 1 in frame units stored in the first VRAM 20 is sequentially read out by the image processor 21 via the system bus 14,
- the moving image data is compressed and encoded by the moving image data compression unit 21A of the image processor 21 according to a predetermined standard such as JPEG I or Joint Photographic Experts Group.
- the compression-encoded moving image data D 1 is supplied to an external storage device 22 composed of, for example, an RA ID (Redu ⁇ aaut A rayof Innexpen—sive Disk) via a system bus 14, and Under the control of the computer 15, a new time code is added and the file is filed and stored in the external storage device 22.
- an RA ID Redu ⁇ aaut A rayof Innexpen—sive Disk
- the scene image data extraction unit 21 B of the image processor 21 outputs the first frame image of the scene change and the force based on the image correlation information and luminance correlation information between each frame obtained by the compression processing.
- a frame image at the moment when the flash of the camera is fired (hereinafter, these frame images are collectively referred to as a scene image) is detected, and the detection result is transmitted to the host computer 15 via the system bus 14.
- the host computer 15 sequentially converts the time code of each scene image detected by the scene image data extraction unit 21 B of the image processor 21 into a moving image data file D1 (hereinafter referred to as a moving image data file). Is stored in the external storage device 22 as one element of a database for managing
- the slit data reading unit 21 C of the image processor 21 extracts the extraction position from the moving image data D 1 for one frame sequentially written in the first VRAM 20. While sequentially moving in one direction, the data of the above-mentioned vertical slit 3 (Fig. 1) (hereinafter referred to as slit data) is sampled and extracted.
- the extracted slit data is stored in the second VRAM 23 while the writing position is sequentially moved in one direction by the slit data writing unit 21 F under the control of the output slit moving unit 21 E of the image processor 21. Is sequentially written to the storage area (formed corresponding to the actual display screen).
- the switch circuit 16 is specified from among the video signals S 1 A to S 1 N and S 2 A to S 2 N supplied from a plurality of video signal sources.
- a database composed of compression-encoded data of a moving image based on one video signal S1A to S1N and S2A to S2N, and various data such as a time code of a predetermined scene image and image data of a video browser. Are generated, and these can be stored in the external storage device 22.
- the host computer 15 reads out image data stored in advance in the external storage device 22 and supplies the read image data to the image processor 21.
- the image processor 21 generates image data for displaying a predetermined screen on a monitor (hereinafter, referred to as display image data) based on the image data provided from the external storage device 22, and generates the third image data.
- display image data a predetermined screen on a monitor
- the display image data stored in the third VRAM 24 is sequentially read out at a predetermined cycle, is analog-converted by the digital-analog conversion circuit 25, and is sent to the monitor 26.
- an edit initial screen 30 as shown in FIG.
- the image processor 21 generates the reduced image data of the video browser by thinning out the supplied image data of the video browser in the reduced screen data forming unit 21 G, and also supplies each of the supplied image data.
- the image data of each reduced scene image is generated by decoding and thinning out the image data of the scene image.
- the image processor 21 based on the generated image data Generate display image data and write it to the third VRAM 2.4.
- an edit screen 32 is displayed on the monitor 26, in which the video index window 31 is displayed at a predetermined position on the initial edit screen 30 as shown in FIG.
- the video browsers 33 corresponding to the specified moving image data files are displayed in a plurality of rows in the video index command 31 and the scale 3 4 And a corresponding time code 35 are displayed, and a reduced scene image 36 is displayed at a corresponding position between the video browser 33 and the time scale 34.
- a cursor (not shown) for moving in the editing screen 32 in response to the operation of the mouse 12 is displayed.
- the cursor is placed at an arbitrary position in the video browser 33 or on an arbitrary scene image 36, and by clicking the mouse 12, the corresponding time code frame image or scene image is displayed.
- An image can be displayed in the moving image display area 37.
- the time code of the frame image is displayed in the time code display area 38, and the total length of the moving image data file is displayed in the total duration display area 39.
- the cursor is moved to the mark-in image display area 41 or the mark-out display area 42 and the mouse 12 is clicked.
- a mark-in point or a mark-point at the time of editing can be specified.
- the designated frame image that is, the moving image area
- the time code of the frame image is displayed in the mark-in image time code display area 43 or the mark art image time code display area 44.
- time code information of the designated mark-in point or mark-art point is given to the external storage device 22 and stored therein. Then, the time code information is provided to a subsequent editing device (not shown) as necessary, so that the editing is performed based on the time code information.
- the scene image 36 to be changed can be changed to the first frame image of the scene change (“Scene”) or to the frame image (“F1ash”) whose luminance level changes significantly compared to the frame images before and after. it can.
- the video browser 33 and the scene image 36 are scrolled, and the video browser 33 and the scene image 36 that are not displayed at that time are video indexed.
- the video index window 31 can be displayed in the window 31, and the video index window 31 can be closed by moving the cursor on the window close button 47 and clicking the mouse 12.
- the cursor is placed at an arbitrary position of the video browser 36 or on an arbitrary scene image 35, and by double-clicking the mouse 12, the editing screen 30 is displayed as shown in FIG.
- a frame image index window 50 can be displayed.
- a frame image corresponding to the position where the video browser 36 is double-clicked or a frame image 51 for a plurality of frames before and after the double-clicked scene image 36 are respectively displayed. Displayed with time code 52. At this time, by selecting and clicking one of the display interval frame number designation buttons 53 A to 53 B displayed at the upper left of the frame image index window 50-, the interval between the displayed frame images is displayed. Can be changed to one frame (“l Frame”), 5 frames (“5 Frame”), or 10 frames (“10 Frame”).
- the clicked frame image 51 is displayed in the moving image display area 37. It can be done.
- the frame image 51 displayed in the frame image index window 50 is scrolled by operating the mouthpiece 54 by operating the mouse, and further surrounding frames are displayed.
- the image 51 can be displayed, and the frame image index window 50 can be closed by clicking the window close button 55.
- the video browser 33 and each scene image 36 corresponding to the specified moving image data file are displayed on the monitor, and the video browser 33 and the video browser 33 are displayed. Desired mark-in points and mark-art points can be sequentially designated based on each scene image 36.
- the host computer 15 first performs this signal in step SP1 according to the signal capture processing procedure RT1 shown in FIG.
- the signal acquisition processing procedure RT1 When the signal acquisition processing procedure RT1 is started, in the following step SP2, it waits for the designation of a video signal source from which a signal is to be acquired. Eventually, if a positive result is obtained in step SP2, the host computer 15 proceeds to step SP3 and outputs the video signals S1A to S1N and S2A to S2N given from the video signal source. Then, it is determined whether or not the file name of the moving image data file to be formed is input.
- step SP3 When the host computer 15 eventually obtains a positive result in step SP3, it proceeds to step SP4 and registers the input file name in the external storage device 22.
- step SP5 the host computer 15 proceeds to step SP5 to control the switch circuit 16 to select the designated video signal source, and thus the video signals S1A to S1 supplied from the video signal source are selected.
- the moving image data D1 based on 1N and S2A to S2N is sequentially written into the first VRAM 20 one frame at a time.
- step SP6 controls the image processor 21 to sequentially transfer one frame of moving image data D1 sequentially written to the first VRAM 20.
- the scene image is sequentially detected, and the slit data of the vertical slit 3 is extracted while sequentially moving the sampling position in one direction, and is written to the second VRAM 23.
- the host computer 15 controls the external storage device 22 so that the compression-encoded moving image data D 1 supplied from the image processor 21 via the system bus 14 is newly added.
- a time code is added, a file is stored, and the time of the scene image detected by the image processor 21 is determined.
- the external storage device 2-2 as a database.
- the host computer 15 reads the slit data and sends it to the external storage device 22. Then, the host computer 15 stores the video signals 31 to 311 ⁇ and S2A to S2N from the designated video signal source.
- the switch circuit 16 is controlled to stop capturing the video signals S 1 A to S 1 N and S 2 A to S 2 N, and the image processor 21 is controlled to perform compression processing and a video browser.
- the various processes such as the process for creating the signal are stopped, and thereafter, the process proceeds to step SP7 to terminate the signal capturing mode process procedure RT1.
- the host computer 15 starts the display mode processing procedure RT2 editing processing procedure shown in FIG. 7 in step SP10, and in the subsequent step SP11, executes the external storage device 22.
- the image processor 21 In addition to reading the image data corresponding to the image data, the image processor 21 generates the display image data based on the image data and writes the display image data to the third VRAM 24, thereby allowing the monitor 26 to display the initial editing screen. Display 30 (Fig. 3).
- step SP12 the host computer 15 proceeds to step SP12 and waits for the input of the file name of the moving image data file to be displayed. Thereafter, when the file name is input, the host computer 15 proceeds to step SP13 and executes the external processing. By controlling the storage device 22, a corresponding moving image data file is searched.
- step SP14 the host computer 15 proceeds to step SP14 and compares the image data of the video browser corresponding to the external storage device 22 and the image data of the scene image.
- the image processor 21 generates predetermined display image data based on the image data, and writes the display image data to the third VRAM 24. Editing screen of Fig. 4 with video index window 3 1 displayed at the back of 3 Display 2.
- step SP 15 the host computer 15 confirms in step SP 15 that the mouse 12 has been single-clicked, for example, with the cursor positioned at an arbitrary position on the video browser 33 or on an arbitrary scene image 36. Then, the process proceeds to step SP16, in which the external storage device 22 reads out the image data of the frame image at the clicked position of the video browser 33 or the image data of the clicked scene image 36, and also reads these image data.
- the image processor 21 generates the display image data based on the video data, and writes the display image data to the third VRAM 24 so that the video browser 33 is clicked on the moving image display area 37 on the editing screen 32.
- the frame image at the position or the clicked scene image 36 is displayed.
- the host computer 15 confirms in step SP 17 that the cursor has been positioned on any one of the remote control buttons 40 A to 40 E and the mouse 12 has been clicked on.
- the external storage device 22 A display image data is generated by the image processor 21 based on the image data output from the CPU and written into the third VRAM 24, thereby editing the moving image based on the reproduced moving image data D1. It is displayed on the moving image display area 37 on the screen 32.
- step SP 19 the host computer 15 moves the cursor to the mark-in image display area 41 or the markart display area 42 while the frame image is displayed in the moving image display area 37 of the editing screen 32. If it is confirmed in step SP 19 that the mouse 12 has been clicked, the flow advances to step SP 20 to store the image data of the frame image currently displayed in the moving image display area 37 in the external storage device 22.
- step SP 20 By reading the time code, generating the display image data based on the image data and the time code information, and writing the display image data in the third VRAM 24, the display is displayed in the moving image display area 37 at this time.
- Frame image The image is displayed in the quin image display area 41 or the mark art image display area 42, and the time code of the frame image is displayed in the mark in time code display area 43 or the mark art time code display area 44.
- step SP 21 when the host computer 15 confirms in step SP 21 that the scroll bar 46 has been operated by the mouse operation, the host computer 15 proceeds to step SP 22 and proceeds to step SP 22 to store the image data of the video browser corresponding to the external storage device 22.
- the host computer 15 proceeds to step SP 22 and proceeds to step SP 22 to store the image data of the video browser corresponding to the external storage device 22.
- step SP 23 when the host computer 15 confirms in step SP 23 that the cursor has been moved to the window close switch 47 and the mouse 12 has been tickled, the host computer 15 proceeds to step SP 24 and responds to the external storage device 22.
- the editing screen 3 2 (with the video index window 31 closed) That is, the editing initial screen 30) is displayed on the monitor, and at this time, if the mark-in point and the mark-art point have been designated, the time code of the designated mark-in point and mark-art point is stored in the external storage device 2.
- the host computer 15 confirms in step SP 23 that the cursor has been moved to the window close switch 47 and the mouse 12 has been tickled
- step SP 24 responds to the external storage device 22.
- step SP25 the host computer 15 moves the cursor to an arbitrary position in the video browser 33 or on an arbitrary scene image 36 and moves the mouse 12.
- step SP26 the process proceeds to step SP26 to execute the frame video index display processing procedure RT3 shown in FIG.
- the host computer 15 starts this frame video index display processing procedure RT3 in step SP30, and in the following step SP31, the frame image or the frame image corresponding to the position where the video browser 33 is double-clicked.
- the external storage device 22 causes the external storage device 22 to read image data for a plurality of frames before and after the scene image 36 as a center, and causes the image processor 21 to generate display image data based on the image data, thereby obtaining the third image data.
- the frame video index window 50 (FIG. 5) is displayed in the editing screen 32 by writing to the VRAM 24 of the host computer 15.
- step SP32 the host computer 15 displays the frame video index window If it is confirmed in step SP32 that the mouse 12 has been clicked on any one of the frame images 51 in step 50, the process proceeds to step SP33 to proceed to the above-described edit screen display processing procedure RT2 in step SP33.
- step SP16 the clicked frame image is displayed in the moving image display area 37 of the editing screen 32.
- step SP34 When the host computer 15 confirms in step SP34 that the scroll bar 54 in the frame video index window 50 has been operated by operating the mouse, the host computer 15 proceeds to step SP35 and proceeds to step SP35.
- the display image data based on the image data is sequentially generated by the image processor 21 and sequentially written to the third VRAM 24.
- the frame image 51 displayed in the frame video index window 50 is scroll-displayed.
- the host computer 15 confirms in step SP36 that the cursor has been positioned on any of the display interval frame number designation buttons 5 3 A to 5 3 C and the mouse 12 has been clicked, and in step SP 3 Going to step 7, the external storage device 22 reads the image data of the frame image 51 at the specified interval, and the display processor 21 generates the display image data based on the image data, thereby causing the image processor 21 to generate the third VRAM.
- the external storage device 22 reads the image data of the frame image 51 at the specified interval, and the display processor 21 generates the display image data based on the image data, thereby causing the image processor 21 to generate the third VRAM.
- the host computer 15 has a frame video index ⁇
- the process proceeds to step SP39 and the corresponding image data is stored in the external storage device. 22 so that the frame video index window 50 is closed by causing the image processor 21 to generate display image data based on the image data and writing it to the third VRAM 24. Display screen 3 2 (Fig. 4) on the monitor.
- the host computer 15 proceeds to step SP40, terminates the frame video index display processing procedure RT3, and thereafter returns to the display mode processing procedure RT2.
- the designated video signals S1A to S1N, S2 A to S 2 N are taken in, digitally converted in order, and the video data D 1 thus obtained is compression-encoded, time-coded, filed and stored in the external storage device 22 I do.
- the image display device 10 detects a predetermined scene image based on image correlation information and luminance correlation information between adjacent frames obtained by the compression encoding process, and determines the position information of the detected scene image.
- the moving image data file is stored in the external storage device 22 as a database for managing the moving image data file.
- the display image device 10 extracts slit data while sequentially moving the sampling position of the moving image data, and stores the image data of the video browser obtained based on the slit data in the database.
- a one-dimensional sample A video browser 33 composed of still images that combine one-dimensional images corresponding to slit data obtained by pulling, and a scene image 36 of a key location corresponding to the time axis direction Since they are displayed at the same time, the overall flow of the material and the past and future scenes in the time axis direction based on each scene image 36 can be easily determined by the video browser 33 and each scene image 36. You can figure out. Therefore, in the image display device 10, it is possible to shorten the work time of the work for specifying the desired scene in the separated moving image, and to reduce the number of accesses to the external storage device 22.
- the external storage device 22 since the number of accesses to the external storage device 22 can be reduced, the external storage device 22 does not require high functions such as data accessibility, data transfer rate, and data transfer speed. For example, there is an advantage that a system can be constructed at a low cost even when an editing system is constructed.
- the position of a specific scene image is detected in the capture mode of the video signals S 1 A to S 1 N and S 2 A to S 2 N, and the video signals S 1 A to S 1 N are detected.
- N, S 2 A to S 2 N The image data of the video browser is generated based on S2N, and the video browser and the scene image are displayed on the monitor at the same time on the time axis in the display mode, so that the It is possible to easily grasp the overall flow and past and future scene conditions in the time axis direction based on each scene image 36, and thus to quickly confirm the outline of a moving image and select a desired scene.
- an image display device that can be easily performed can be realized.
- the sampling position is sequentially moved from the right end to the left end of the screen.
- the present invention is not limited to this, and the sampling position is sequentially moved from the left end to the right end of the screen, or the sampling position is sequentially moved from one corner of the screen to another diagonal corner.
- Various other directions can be applied as the direction of movement of the sampling position. it can.
- the specific frame image detected by the image processor 21 a frame image whose luminance level is significantly changed as compared with the first frame image of the scene change and the frame images before and after the scene change is applied.
- the present invention is not limited to this, and the image processor 21 may be able to extract other specific frame images.
- a series of two-dimensionally displayed moving image data is sampled one-dimensionally in the other direction while sequentially moving the sampling position in one direction, and a video processor is used based on the data obtained.
- a single image processor 21 combines the creation means for creating the image data of the image data and the detection means for detecting a specific frame image in a series of moving images based on the moving image data, and processes them in a software manner.
- the present invention is not limited to this, and the creation means and the detection means may be configured separately and processed in hardware.
- the specific frame image detected by the scene image data extraction unit 21 B of the image processor 21 (the luminance level is lower than the first frame image of the scene change and the frame images before and after the scene change)
- the display means for displaying the frame image whose remarkably changes) along with the video browser 33 along with the time axis of the video browser 33 includes a host computer 15, an image processor
- the video browser displayed on the monitor 26 is used.
- the mouse 1 2 and the cursor that moves in response to the operation of the mouse 12 are displayed on the edit screen 3 2 with the point designation means for designating the desired point or the desired scene image 3 6 of 3 3
- the present invention is not limited to this, and various other configurations can be applied.
- the image display apparatus and method according to the present invention can be used when editing a moving image or a still image in an editing apparatus using non-linear media such as a hard disk capable of reproducing image data from an arbitrary recording medium.
Landscapes
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
Description
明 細 書 - 画像表示装置及び方法 技術分野
本発明は画像表示装置及び方法に関し、 例えば一連の動画像データに基づく画 像を表示する画像表示装置及び方法に適用して好適なものである。 背景技術
従来、 いわゆるシネフィルムに記録された映像のように可視画像として記録媒 体に記録されている素材の概要確認や所望シーンの選出は、 単にその記録媒体に 記録されている可視画像を目視することにより行うことができる。
一方、 動画像データのようにビデオテープやディスク等の記録媒体に不可視の 状態で記録されている素材の概要確認や所望シーンの選出は、 動画像データに基 づく動画像を時間の流れに沿って順次、 又は所定フレーム毎の静止画を間欠的に モニタ表示させることにより行うことができる。
しかしながら、 記録媒体に不可視の状態で記録されている素材の概要確認や所 望シーンの選出を上述のようにして行う場合、 各時点でみると作業者は 1枚の 2 次元画像を目視し、 またはある時点における 2次元的な静止画を目視しているに 過ぎない。
このため素材の概要を確認する場合においても時間の短縮化には限界があり、 また所望シーンを選出する場合においても、 ビデオテープレコーダ等の再生装置 に対する再生や、 早送り又は巻戻し等の時間軸方向の操作なしでは必要なシーン の場所を特定することが困難であった。
また近年では動画像データの記録媒体として例えばハードディスク等のマルチ アクセス性の高いノンリニアメディアが用いられており、 記録媒体としてこのよ うなものを用いた場合には再生装置 (ハードディスク装置等) に対して複数のァ
クセスボイントから並列的に複数動画像又は同一動画像への同時早送りゃ卷戻し、 要所要所での 1フレーム画像の再生などの操作が頻繁に行われる可能性がある。 従って例えば編集システムを構築するにあたって動画像データの記録媒体とし てノンリニアメディアを用いる場合には、 再生装置としてデータアクセス性、 デ ータ転送レート及びデータ伝送速度等に高い機能が要求され、 結果として低価格 なシステムの構築が困難な問題があった。 発明の開示
本発明は以上の点を考慮してなされたもので、 動画像の概要確認及び所望シー ンの選出を短時間でかつ容易に行い得る画像表示装置及び画像表示方法を提案し ようとするものである。
かかる課題を解決するため本発明においては、 画像表示装置に、 2次元表示さ れる一連の動画像データをサンプリグ位置を一の方向に順次移動させながら他の 方向に 1次元的にサンプリングして得られるデータに基づいて静止画像の画像デ ータを作成する作成手段と、 動画像データに基づく一連の動画像中の特定のフレ ーム画像を検出する検出手段と、 特定のフレーム画像を、 静止画像と共に時間軸 を一致させて表示する表示手段とを設けるようにした。
この結果オペレータは、 表示された特定のフレーム画像及び静止画像に基づい て動画像データに基づく動画像の全体的な流れを直ちに認識することができる。 また本発明においては、 画像表示方法において、 2次元表示される一連の動画 像データをサンプリグ位置を一の方向に順次移動させながら他の方向に 1次元的 にサンプリングして得られるデータに基づいて静止画像の画像データを作成する と共に、 動画像データに基づく一連の動画像中の特定のフレーム画像を検出する 第 1のステップと、 当該検出した特定のフレーム画像を、 作成手段により作成さ れた画像データに基づく静止画像と共に時間軸を一致させて表示する第 2のステ ップとを設けるようにした。
この結果オペレ一タは、 表示された特定のフレーム画像及び静止画像に基づい
て動画像データに基づく動画像の全体的な流れを直ちに認識することができる。 本発明によれば、 画面表示装置に、 2次元表示される一連の動画像データを サンプリグ位置を一の方向に順次移動させながら他の方向に 1次元的にサンプリ ングして得られるデータに基づいて静止画像の画像データを作成する作成手段と、 動画像データに基づく一連の動画像中の特定のフレーム画像を検出する検出手段 と、 検出手段により検出された特定のフレーム画像を、 作成手段により作成され た画像データに基づく静止画像と共に時間軸を一致させて表示する表示手段とを 設けるようにしたことにより、 オペレータが表示された特定のフレーム画像及び 静止画像に基づいて動画像データに基づく動画像の全体的な流れを直ちに認識し 得るようにすることができ、 かくして動画像の概要確認及び所望シーンの選出を 短時間でかつ容易に行い得る画像表示装置を実現できる。
また本発明によれば、 2次元表示される一連の動画像データをサンプリグ位置 を一の方向に順次移動させながら他の方向に 1次元的にサンプリングして得られ るデータに基づいて静止画像の画像データを作成すると共に、 動画像データに基 づく一連の動画像中の特定のフレーム画像を検出する第 1のステップと、 第 1の ステップにおいて検出した特定のフレーム画像を、 作成手段により作成された画 像データに基づく静止画像と共に時間軸を一致させて表示する第 2のステップと を設けるようにしたことにより、 オペレータが表示された特定のフレーム画像及 び静止画像に基づいて動画像データに基づく動画像の全体的な流れを直ちに認識 し得るようにすることができ、 かくして動画像の概要確認及び所望シーンの選出 を短時間でかつ容易に行い得る画像表示方法を実現できる。 図面の簡単な説明
図 1は、 ビデオブラゥザの説明に供する概念図である。
図 2は、 本実施の形態による画像表示装置の構成を示すブロック図である。 図 3は、 編集初期画面を示す略線図である。 .
図 4は、 編集画面を示す略線図である。
図 5は、 編集画面を示す略線図である。 - 図 6は、 信号取込みモード処理手順を示すフロ一チヤ一トである。
図 7は、 表示モード処理手順を示すフローチャートである。
図 8は、 フレームビデオインデックス表示処理手順を示すフローチヤ一トであ る。
図 9は、 他の実施の形態を示す略線図である。
図 1 0は、 他の実施の形態を示す略線図である。
図 1 1は、 他の実施の形態を示す略線図である。 発明を実施するための最良の形態
以下図面について、 本発明の実施の一形態を詳述する。
(1) ビデオブラウザ
図 1に示すように、 動画像データに基づく一連の動画像は、 各時点のフレーム 画像を時間軸方向に順次並べたものと考えることができる。 実際上 NTS C (Na t i o n a l T e l e v i s i o n S y s t em C omm i t- t e e) 方式ではビデオ信号のフレーム周波数が 30 [H z] であり、 従って動 画像は 1秒間に 30枚のフレーム画像から構成される。
このような動画像を構成するビデオ映像群 1に対し、 n枚のフレーム画像 2ご とに垂直方向のスリット (以下これを垂直スリットと呼ぶ) 3を順次一方向に移 動させながら抽出し、 これら抽出した垂直スリツト 3を他方向に順次並べて静止 画像 (以下、 これをビデオブラウザと呼ぶ) 4を形成する場合について考える。 なお垂直スリット 3の抽出位置は、 画面の左端部から右方向に移動し、 画面の右 端部に達したときには再び画面の左端部から右方向に移動させるものとする。 ここで例えば n = l、 フレーム画像 2の水平方向を Xドットとし、 垂直スリツ ト 3のスリット幅を ΔΧドットとすると、 次式
_ X
上— …… )
で与えられる f 枚のフレーム画像毎にスリツト位 が画面の右端部から左端部に 移動し、 かっこのとき得られた各垂直スリット 3によって水平方向が Xドットの
1画面分のビデオブラウザ 4が形成される。 そしてこのビデオブラウザ 4は、 f 枚分のフレーム画像 2に基づく動画像の内容を圧縮した静止画として認識するこ とができる。
従って素材の最初から最後までに渡ってこのようなビデオブラゥザ 4を作成す ることによって、 当該ビデオブラゥザ 4に基づいて素材の全体的な流れを短時間 にかつ精度良く認識することができる。
(2) 画像表示装置の構成
ここで図 2は、 本発明を適用した画像表示装置 1 0を示し、 キーボード 1 1及 びマウス 1 2が入出力回路 1 3及びシステムバス 1 4を順次介してホストコンピ ュ一タ 1 5と接続されている。 これによりオペレータがこれらキーボード 1 1及 びャウス 1 2を介してホストコンピュータ 1 5に各種コマンドを与える得るよう になされている。
ホストコンピュータ 1 5においては、 ビデオ信号の取込みモ一ド時、 ォペレ一 タから与えられるコマンドに基づいてスィッチ回路 1 6を制御することにより、 当該スィッチ回路 1 6に接続された複数の電送回線 1 7A〜1 7 N及び複数のビ デォテープレコーダ 1 8A〜1 8 Nのなかから 1つのビデオ信号源を選択させ、 当該ビデオ信号源から供給されるビデオ信号 S 1 A〜S 1 N、 S 2 A〜S 2Nを アナログ ·ディジタル変換回路 1 9に送出させる。
アナ口グ ·ディジタル変換回路 1 9は、 供給されるビデオ信号 S 1 A〜S 1 N 、 S 2A〜S 2 Nを順次ディジタル変換し、 かくして得られた動画像データ D 1 を順次フレーム単位で第 1の V R AM (V i d e o R a n d om Acc e s s Memo r y) 20の記憶領域 (実際の表示画面と対応して形成され ている) に格納する。
そしてこの第 1の VRAM20に格納されたフレーム単位の動画像デ一タ D 1 は、 システムバス 1 4を介してイメージプロセッサ 2 1により順次読み出され、
当該イメージプロセッサ 21の動画像データ圧縮部 21 Aにより例えば J PEG I, J o i n t P h o t o g r a p h i c E x p e r t s G r o u p) 等の 所定の規格で圧縮符号化される。
さらにこの圧縮符号化された動画像データ D 1は、 システムバス 1 4を介して 例えば RA I D (R e d u π a a u t A r a y o f I n e x p e n— s i v e D i s k s) 等でなる外部記憶装置 22に与えられ、 ホストコンピュ ータ 1 5の制御のもとに新たなタイムコードが付加されると共にフアイル化され て当該外部記憶装置 22に格納される。
このときイメージプロセッサ 2 1のシーン画像データ抽出部 2 1 Bは、 圧縮処 理により得られた各フレーム間の画像相関情報及ぴ輝度相関情報に基づいて、 シ —ンチェンジの最初のフレーム画像及び力メラのフラッシュがたかれた瞬間のフ レーム画像 (以下、 これらのフレーム画像をまとめてシーン画像と呼ぶ) を検出 し、 検出結果をシステムバス 14を介してホストコンピュータ 1 5に送出する。 またホストコンピュータ 1 5は、 イメージプロセッサ 21のシーン画像データ 抽出部 2 1 Bにより検出された各シーン画像のタイムコードを順次その動画像デ —タ D 1のファイル (以下、 これを動画像データファイルと呼ぶ) を管理するデ ータベースの 1つの要素として外部記憶装置 22に格納する。
さらにこのときイメージプロセッサ 21のスリツトデータ読取り部 2 1 Cは、 入カスリット移動部 2 1 Dの制御のもとに、 第 1の VRAM20に順次書き込ま れた 1フレーム分の動画像データ D 1から抽出位置を順次一方向に移動させなが ら上述した垂直スリッ ト 3 (図 1) のデータ (以下、 これをスリッ トデータと呼 ぶ) をサンプリングして抽出する。
そしてこの抽出されたスリットデータは、 イメージプロセッサ 2 1の出カスリ ット移動部 21 Eの制御のもとにスリツトデータ書込み部 2 1 Fにより書き込み 位置を順次一方向に移動させながら第 2の VRAM 23の記憶領域 (実際の表示 画面と対応して形成されている) に順次書き込まれる。
そして第 2の VRAM23に 1画面分のスリツトデータが書き込まれる毎に、
これがホス トコンピュータ 1 5の制御のもとに読み出され、 システムバス 1 4を 介して外部記憶装置 2 2に与えられてデータべ一スの 1つの要素として当該外部 記憶装置 2 2内に格納される。
このようにしてこの画像表示装置 1 0では、 スィッチ回路 1 6に複数のビデオ 信号源から供給されるビデオ信号 S 1 A〜S 1 N、 S 2 A〜S 2 Nのなかから指 定された 1つのビデオ信号 S 1 A〜S 1 N、 S 2 A〜S 2 Nに基づく動画像の圧 縮符号化データと、 所定のシーン画像のタイムコード及びビデオブラゥザの画像 データ等の各種データからなるデータベースとを生成して、 これらを外部記憶装 置 2 2に記憶保持させ得るようになされている。
一方ホス トコンピュータ 1 5は、 表示モード時、 外部記憶装置 2 2に予め格納 されている画像データを読み出し、 これをイメージプロセッサ 2 1に与える。 イメージプロセッサ 2 1は、 外部記憶装置 2 2から与えられる画像データに基 づいて、 所定画面をモニタ表示させるための画像データ (以下、 これを表示画像 データと呼ぶ) を生成し、 これを第 3の V R AM 2 4に格納する。
このとき第 3の V R AM 2 4に格納された表示画像データは、 所定周期で順次 読み出され、 ディジタルアナログ変換回路 2 5においてアナログ変換された後、 モニタ 2 6に送出される。 この結果初期状態においては、 モニタ 2 6に図 3のよ うな編集初期画面 3 0が表示される。
そしてこの状態においてキーボ一ド 1 1を介して編集対象の動画像デ一タファ ィルのファイル名が入力されると、 対応するビデオブラゥザの画像データ及びシ ーン画像の画像データが外部記憶装置 2 2から読み出され、 これがシステムバス 1 4を介してイメージプロセッサ 2 1に与えられる。
このときイメージプロセッサ 2 1は、 縮小画面データ形成部 2 1 Gにおいて、 供給されるビデオブラウザの画像データを間引きすることにより縮小されたビデ ォブラウザの画像デ一タを生成すると共に、 供給される各シーン画像の画像デー タを復号及ぴ間引きすることにより縮小された各シーン画像の画像デ―タを生成 する。 そしてイメージプロセッサ 2 1は、 これら生成した画像データに基づいて
表示画像データを生成し、 これを第 3の V R AM 2 .4に書き込む。
この結果モニタ 2 6に編集初期画面 3 0の所定位置に図 4のようにビデオイン デックスウインド 3 1が表示されてなる編集画面 3 2が表示される。
この編集画面 3 2では、 ビデオインデックスゥンド 3 1内に、 指定された動画 像データファイルに対応するビデオブラゥザ 3 3が複数段に並べて表示されると 共に、 各ビデオブラウザ 3 3間にスケール 3 4及び対応するタイムコード 3 5が 表示され、 かつビデオブラウザ 3 3及びタイムスケール 3 4間の対応する位置に 縮小されたシーン画像 3 6が表示される。
また編集画面 3 2上には、 イメージプロセッサ 2 1の制御のもとに、 マウス 1 2の操作に応動して編集画面 3 2内を移動するカーソル (図示せず) が表示され る。
そしてこの編集画面 3 2では、 カーソルをビデオブラウザ 3 3の任意の位置又 は任意のシーン画像 3 6上に合わせてマウス 1 2をクリックすることにより、 対 応するタイムコ一ドのフレーム画像又はシーン画像を動画像表示領域 3 7に表示 させることができる。 またこのときタイムコード表示領域 3 8内にそのフレーム 画像のタイムコードが表示されると共に、 トータルデュレ一シヨン表示領域 3 9 内にその動画像データファイル全体の長さが表示される。
この状態において、 力一ソノレをいずれかのリモコンボタン 4 0 A〜4 0 E上に 合わせてマウス 1 2をクリックすることにより、 対応する動作 (巻戻し、 リバ一 ス再生、 停止、 通常再生又は早送り) を外部記憶装置 2 2に実行させることがで きる。 なおリバース再生時及び通常再生時には、 再生された動画像が動画像表示 部 3 7内に表示される。
さらに動画像表示領域 3 7内にフレーム画像が表示された状態において、 カー ソルをマークイン画像表示領域 4 1上又はマークアウト表示領域 4 2上に移動さ せてマウス 1 2をクリックすることにより編集時におけるマ一クイン点又はマ一 クァゥト点を指定することができる。 このときマークイン画像表示領域 4 0又は マ一クァゥト表示領域 4 1には、 指定されたフレーム画像 (すなわち動画像領域
3 7に表示されていたフレーム画像) が表示され、 そのフレーム画像のタイムコ 一ドがマークイン画像タイムコード表示領域 4 3又はマークァゥ ト画像タイムコ 一ド表示領域 4 4内に表示される。
なおこのようにして指定されたマ一クイン点又はマークァゥ ト点のタイムコ一 ド情報は、 外部記憶装置 2 2に与えられて記憶保持される。 そしてこのタイムコ ード情報が必要に応じて後段の編集装置 (図示せず) に与えられることにより、 当該タイムコ一ド情報に基づいて編集が行われる。
さらにこの編集画面 3 2では、 ビデオインデックスウィンド 3 1内の左上に表 示されたシーン画像表示変更指定ボタン 4 5 A、 4 5 B上にカーソルを合わせて マウス 1 2をクリックすることにより、 表示するシーン画像 3 6として、 シーン チェンジの最初のフレーム画像 ( 「S c e n e」 ) 又は前後のフレーム画像に比 ベて輝度レベルが著しく変化するフレーム画像 ( 「F 1 a s h」 ) に変更するこ とができる。
またマウス操作によりスクロールバー 4 6を操作することにより、 ビデオブラ ゥザ 3 3及びシーン画像 3 6等をスクロールさせてそのとき表示されていない部 分のビデオブラゥザ 3 3及びシーン画像 3 6をビデオインデックスウィンド 3 1 内に表示させることができ、 またカーソルをウィンドクローズボタン 4 7上に合 わせてマウス 1 2をクリックすることにより、 ビデオインデックスウィンド 3 1 を閉じさせることができる。
一方この編集画面 3 2では、 カーソルをビデオブラウザ 3 6の任意の位置又は 任意のシーン画像 3 5上に合わせてマウス 1 2をダブルクリックすることにより 、 図 5のように編集画面 3 0内にフレーム画像インデックスウィンド 5 0を表示 させることができる。
この場合フレーム画像インデックスウィンド 5 0内には、 ビデオブラウザ 3 6 のダブルクリックされた位置に対応するフレーム画像又はダブルクリックされた シーン画像 3 6を中心として前後複数フレーム分のフレーム画像 5 1がそれぞれ タイムコード 5 2と共に表示される。
このときフレーム画像ィンデックスウインド 5 0-の左上部に表示された表示間 隔フレーム数指定ボタン 5 3 A〜5 3 Bのいずれかを選択してクリックすること により、 表示されるフレーム画像の間隔を 1フレーム ( 「l F r a m e」 ) 、 5 フレーム ( 「5 F r a m e」 ) 、 10フレーム ( 「10 F r a m e」 ) のいずれか に変更することができる。
さらにこれらフレーム画像ィンデックスウインド 5 1内に表示されたフレーム 画像 5 1のいずれかにカーソルを合わせてマウス 1 2をクリックすることにより 当該クリックしたフレーム画像 5 1を動画像表示領域 3 7に表示させることがで さる。
またこのフレーム画像インデックスウィンド 5 0では、 マウス操作によりスク 口一ルバ一 5 4を操作することにより当該フレーム画像ィンデックスウインド 5 0内に表示されるフレーム画像 5 1をスクロールさせてさらに周囲のフレーム画 像 5 1を表示させることができ、 さらにウィンドクローズボタン 5 5をクリック することにより当該フレーム画像ィンデックスウィンド 5 0を閉じさせることが できる。
従ってフレーム画像ィンデックスウィンド 5 0内の所望するフレーム画像 5 1 上にカーソルを合わせてマウス 1 2をクリックすることにより動画像表示領域 3 7に当該フレーム画像 5 1を表示させた後、 クローズボタン 5 5をクリックして フレーム画像インデックスウィンド 5 0を閉じさせ、 この後マ一クイン画像表示 領域 4 1又はマークァゥト表示領域 4 2をクリックすることによって、 フレーム 画像ィンデッタスウインド 5 0を利用して編集時のマ一クイン点及びマークァゥ ト点を指定することができる。
このようにしてこの画像表示装置 1 0においては、 表示モード時、 指定された 動画像データファイルに対応するビデオブラウザ 3 3及び各シーン画像 3 6をモ ニタ表示すると共に、 これらビデオブラウザ 3 3及び各シーン画像 3 6に基づい て所望するマークイン点及びマークァゥト点を順次指定することができるように なされている。
( 3 ) ホス トコンピュータの各種処理 - ここで上述のような取込みモード時及び表示モード時における動作は、 全てホ ス トコンピュータ 1 5 (図 2 ) の制御のもとに行われる。
実際上ホストコンピュータ 1 5は、 ビデオ信号 S 1 A〜S 1 N、 S 2 A〜S 2 Nの取込みモード時、 図 6に示す信号取込み処理手順 R T 1に従って、 まずステ ップ S P 1においてこの信号取込み処理手順 R T 1を開始すると、 続くステップ S P 2において信号を取り込むべきビデオ信号源が指定されるのを待ち受ける。 やがてホストコンピュータ 1 5は、 このステップ S P 2において肯定結果を得 ると、 ステップ S P 3に進んでそのビデオ信号源から与えられるビデオ信号 S 1 A〜S 1 N、 S 2 A〜S 2 Nに基づき形成される動画像データファイルのフアイ ル名が入力されたか否かを判断する。
そしてホストコンピュータ 1 5は、 やがてこのステップ S P 3において肯定結 果を得ると、 ステップ S P 4に進んで入力されたファイル名を外部記憶装置 2 2 に登録する。
次いでホストコンピュータ 1 5は、 ステップ S P 5に進んでスィツチ回路 1 6 を制御することにより指定されたビデオ信号源を選択させ、 かく して当該ビデオ 信号源から供給されるビデオ信号 S 1 A〜S 1 N、 S 2 A〜S 2 Nに基づく動画 像データ D 1を 1フレーム分ずつ順次第 1の V R AM 2 0に書き込ませる。 次いでホストコンピュータ 1 5は、 ステップ S P 6に進んでィメ一ジプロセッ サ 2 1を制御することにより、 第 1の V R AM 2 0に順次書き込まれる 1フレ一 ム分の動画像データ D 1を順次圧縮符号化させると共に、 順次シーン画像を検出 させ、 かつ順次サンプリング位置を一方向に移動させながら垂直スリツト 3のス リットデータを抽出させてこれを第 2の V R AM 2 3に書き込ませる。
またホストコンピュータ 1 5は、 このとき外部記憶装置 2 2を制御することに より、 イメージプロセッサ 2 1からシステムバス 1 4を介して供給されるこれら 圧縮符号化された動画像データ D 1を新たなタイムコードを付加し、 ファイル化 して記憶させ、 かつイメージプロセッサ 2 1により検出されたシーン画像のタイ
ムコードをデータベースとして当該外部記憶装置 2- 2に記憶させる。
さらにホストコンピュータ 1 5は、 第 2の V R AM 2 3に 1画面分のスリット データが書き込まれると、 これを読み出させて外部記憶装置 2 2に送出させる一 方、 これと同時に外部記憶装置 2 2を制御することによりこれを記憶保持させる そしてホストコンピュータ 1 5は、 この後指定されたビデオ信号源からのビデ ォ信号3 1入〜3 1 1^、 S 2 A〜S 2 Nの供給が終了すると、 スィッチ回路 1 6 を制御して当該ビデオ信号 S 1 A〜S 1 N、 S 2 A〜S 2 Nの取り込みを停止さ せると共に、 イメージプロセッサ 2 1を制御して圧縮処理やビデオブラウザの作 成処理等の各種処理を停止させ、 この後ステップ S P 7に進んでこの信号取込み モード処理手順 R T 1を終了する。
一方ホス トコンピュータ 1 5は、 表示モードが選択されると、 図 7に示す表示 モード処理手順 R T 2編集処理手順をステップ S P 1 0において開始し、 続くス テツプ S P 1 1において外部記憶装置 2 2に対応する画像データを読み出させる と共に、 当該画像データに基づいてイメージプロセッサ 2 1に表示画像データを 生成させて第 3の V R AM 2 4に書き込ませることにより、 モニタ 2 6に編集初 期画面 3 0 (図 3 ) を表示させる。
次いでホストコンピュータ 1 5は、 ステップ S P 1 2に進んで表示対象の動画 像データファイルのファイル名が入力されるのを待ち受け、 この後当該ファイル 名が入力されるとステップ S P 1 3に進んで外部記憶装置 2 2を制御することに より、 対応する動画像データファイルを検索する。
そしてホストコンピュ一タ 1 5は、 対応する動画像データファイルを検出する と、 ステップ S P 1 4に進んで外部記憶装置 2 2に対応するビデオブラウザの画 像データと、 シーン画像の画像データとを読み出させると共に、 これら画像デー タに基づいてイメージプロセッサ 2 1に所定の表示画像データを生成させ、 これ を第 3の V R AM 2 4に書き込ませることにより、 モニタ 2 6に編集初期画面 3 0の後段部にビデオインデックスウィンド 3 1が表示されてなる図 4の編集画面
3 2を表示させる。
この状態においてホストコンピュータ 1 5は、 例えばカーソルがビデオブラウ ザ 3 3上の任意の位置又は任意のシーン画像 3 6上に合わせられてマウス 1 2が シングルクリックされたことをステップ S P 1 5において確認すると、 ステップ S P 1 6に進んで外部記憶装置 2 2にビデオブラウザ 3 3のクリックされた位置 のフレーム画像の画像データ又はクリックされたシーン画像 3 6の画像データを 読み出させると共に、 これら画像データに基づいてイメージプロセッサ 2 1に表 示画像データを生成させ、 これを第 3の V R AM 2 4に書き込ませることにより 、 編集画面 3 2の動画像表示領域 3 7にビデオブラウザ 3 3のクリックされた位 置のフレーム画像又はクリックされたシーン画像 3 6を表示させる。
そしてホストコンピュータ 1 5は、 この状態においてカーソルがいずれかのリ モコンボタン 4 0 A〜4 0 E上に合わせられてマウス 1 2がクリックされたこと をステップ S P 1 7において確認すると、 ステップ S P 1 8に進んで外部記憶装 置 2 2を制御することにより対応する動作を実行させると共に、 このとき指定さ れた動作がリバ一ス再生や通常再生である場合には、 このとき外部記憶装置 2 2 から出力される画像データに基づいてイメージプロセッサ 2 1に表示画像データ を生成させ、 これを第 3の V R AM 2 4に書き込ませることにより、 再生された 動画像データ D 1に基づく動画像を編集画面 3 2の動画像表示領域 3 7に表示さ せる。
さらにホス トコンピュータ 1 5は、 編集画面 3 2の動画像表示領域 3 7にフレ ーム画像が表示された状態においてカーソルがマークイン画像表示領域 4 1又は マークァゥト表示領域 4 2上に合わせられてマウス 1 2がクリックされたことを ステップ S P 1 9において確認すると、 ステップ S P 2 0に進んで外部記憶装置 2 2にこのとき動画像表示領域 3 7に表示されているフレーム画像の画像データ 及ぴタイムコードを読み出させると共に、 当該画像データ及びタイムコード情報 に基づく表示画像データを生成させ、 これを第 3の V R AM 2 4に書き込ませる ことにより、 このとき動画像表示領域 3 7に表示されているフレーム画像をマ一
クイン画像表示領域 4 1又はマークァゥト画像表示領域 4 2に表示させると共に 、 マークインタイムコード表示領域 4 3内又はマークァゥトタイムコード表示領 域 4 4内にそのフレーム画像のタイムコードを表示させる。
さらにホストコンピュータ 1 5は、 マウス操作によりスクロールバ一 4 6が操 作されたことをステップ S P 2 1において確認すると、 ステップ S P 2 2に進ん で外部記憶装置 2 2に対応するビデオブラゥザの画像データ及び各シーン画像の 画像データを読み出させると共に、 これら画像データに基づいてイメージプロセ ッサ 2 1に所定の表示画像データを生成させてこれを第 3の V R AM 2 4に書き 込ませることにより、 編集画面 3 0のビデオインデックスウィンド 3 1のビデオ ブラウザ 3 3及び各シーン画像 3 6等をスクロール表示させる。
さらにホストコンピュータ 1 5は、 カーソルがウインドクローズスィツチ 4 7 上に合わせられてマウス 1 2がタリックしたことをステップ S P 2 3において確 認すると、 ステップ S P 2 4に進んで外部記憶装置 2 2に対応する画像データを 読み出させ、 これに基づく表示画像データをイメージプロセッサ 2 1に生成させ て第 3の V R AM 2 4に格納させることにより、 ビデオインデックスウィンド 3 1が閉じてなる編集画面 3 2 (すなわち編集初期画面 3 0 ) をモニタ表示させる と共に、 このときマ一クイン点及びマークァゥト点が指定されていた場合には、 当該指定されたマ一クイン点及びマークァゥト点のタイムコードを外部記憶装置 2 2に与えて記憶保持させる。
これに対してホストコンピュータ 1 5は、 ビデオインデックスウィンド 3 1が 表示された状態において、 カーソルがビデオブラウザ 3 3内の任意の位置又は任 意のシーン画像 3 6上に合わせられてマウス 1 2がダブルクリックされたことを ステップ S P 2 5において確認すると、 ステップ S P 2 6に進んで図 8に示すフ レームビデオインデックス表示処理手順 R T 3を実行する。
実際上ホストコンピュータ 1 5は、 このフレームビデオインデックス表示処理 手順 R T 3をステップ S P 3 0において開始すると、 続くステップ S P 3 1にお いてビデオブラゥザ 3 3内のダブルクリックされた位置に応じたフレーム画像又
はシーン画像 3 6を中心とする前後複数フレーム分の画像データを外部記憶装置 2 2に読み出させると共に、 当該画像データに基づく表示画像データをィメ一ジ プロセッサ 2 1に生成させて第 3の V R AM 2 4に書き込ませることにより、 編 集画面 3 2内にフレームビデオインデックスウィンド 5 0 (図 5 ) を表示させる この状態においてホス トコンピュータ 1 5は、 力一ソルがフレームビデオイン デックスウィンド 5 0内のいずれかのフレーム画像 5 1上に合わせられてマウス 1 2がクリックされたことをステップ S P 3 2において確認すると、 ステップ S P 3 3に進んで上述した編集画面表示処理手順 R T 2のステップ S P 1 6と同様 の処理を実行することにより、 編集画面 3 2の動画像表示領域 3 7にクリックさ れたフレーム画像を表示させる。
またホス トコンピュータ 1 5は、 マウス操作によりフレームビデオインデック スウィンド 5 0内のスクロールバー 5 4が操作されたことをステップ S P 3 4に おいて確認すると、 ステップ S P 3 5に進んで外部記憶装置 2 2に対応するフレ ーム画像の画像データを順次読み出させると共に、 当該画像データに基づく表示 画像データをイメージプロセッサ 2 1に順次生成させてこれを第 3の V R AM 2 4に順次書き込ませることにより、 フレームビデオインデックスウィンド 5 0内 に表示されるフレーム画像 5 1をスクロール表示させる。
さらにホストコンピュータ 1 5は、 カーソルがいずれかの表示間隔フレーム数 指定ボタン 5 3 A〜5 3 C上に合わせられてマウス 1 2がクリックされたことを ステップ S P 3 6において確認すると、 ステップ S P 3 7に進んで外部記憶装置 2 2に指定された間隔でフレーム画像 5 1の画像データを読み出させると共に、 これら画像データに基づく表示画像データをイメージプロセッサ 2 1に生成させ て第 3の V R AM 2 4に格納させることにより、 フレームビデオインデックスゥ インド 5 0内に表示されるフレーム画像 5 1の間隔を指定された間隔に変更させ る。
さらにホストコンピュータ 1 5は、 力一ソルがフレームビデオインデックスゥ
インド 5 0内のウインドクローズボタン 5 5上に合わせられてマウス 1 2がクリ ックされたことをステップ S P 3 8に確認すると、 ステップ S P 3 9に進んで対 応する画像データを外部記憶装置 2 2に読み出させると共に、 当該画像データに 基づく表示画像デ一タをイメージプロセッサ 2 1に生成させて第 3の V R AM 2 4に書き込ませることにより、 フレームビデオインデックスウィンド 5 0が閉じ た編集画面 3 2 (図 4 ) をモニタ表示させる。 そしてホストコンピュータ 1 5は 、 この後ステップ S P 4 0に進んでこのフレームビデオインデックス表示処理手 順 R T 3を終了し、 この後表示モード処理手順 R T 2に戻るようになされている
( 4 ) 画像表示装置の動作及び効果
以上の構成において、 この画像表示装置 1 0では、 ビデオ信号 S 1 A〜S 1 N 、 S 2 A〜S 2 Nの取込みモード時、 指定されたビデオ信号 S 1 A〜S 1 N、 S 2 A〜S 2 Nを取り込み、 これを順次ディジタル変換した後、 かく して得られた 動画像データ D 1を圧縮符号化した後、 タイムコードを付加し、 ファイル化して 外部記憶装置 2 2に格納する。
この際この画像表示装置 1 0では、 圧縮符号化処理により得られる隣接するフ レーム間の画像相関情報及び輝度相関情報等に基づいて所定のシーン画像を検出 し、 検出したシーン画像の位置情報をその動画像データファイルを管理するデ一 タベースとして外部記憶装置 2 2に格納する。 またこの表示画像装置 1 0では、 この際動画像データについてサンプリング位置を順次移動させながらスリットデ ータを抽出し、 当該スリットデータに基づいて得られるビデオブラウザの画像デ —タをデータベースに格納する。
そしてこの画像表示装置 1 0においては、 この後表示モードが選択されると、 これら外部記憶装置 2 2に格納した動画像データフアイル及びそのデ一タベース に基づいて、 図 4のようなビデオブラウザ 3 3及びシーン画像 3 6が同時に表示 されてなる編集画面 3 2をモニタ 2 6に表示する。
従ってこの画像表示装置 1 0では、 表示モード時、 動画像から一次元的にサン
プリングして得られたスリットデータに対応する一次元的な画像をつなぎ合わせ た静止画でなるビデオブラウザ 3 3と、 その時間軸方向に対応して要所要所のシ ーン画像 3 6とが同時に表示されるため、 これらビデオブラウザ 3 3及び各シー ン画像 3 6によって素材の全体的な流れと、 各シーン画像 3 6を基準とした過去 及び未来の時間軸方向の場面状況とを容易に把握することができる。 従ってこの 画像表示装置 1 0では、 その分動画像中の所望シーンを特定する作業の作業時間 を短縮化させることができ、 また外部記憶装置 2 2に対するアクセス回数を低減 させることができる。
さらにこの画像表示装置 1 0では、 外部記憶装置 2 2に対するアクセス回数を 低減させ得る分、 当該外部記憶装置 2 2にデータアクセス性、 データ転送レート 及びデータ転送速度等に高い機能を必要とせず、 その分例えば編集システムを構 築する場合においても安価にシステムを構築し得る利点がある。
以上の構成によれば、 ビデオ信号 S 1 A〜S 1 N、 S 2 A〜S 2 Nの取込みモ ード時に特定のシーン画像の位置を検出すると共に、 当該ビデオ信号 S 1 A〜S 1 N、 S 2 A〜S 2 Nに基づくビデオブラウザの画像データ生成しておき、 表示 モード時にビデオブラゥザ及びシーン画像を時間軸上において位置を一致させて 同時にモニタ表示するようにしたことにより、 素材の全体的な流れと、 各シーン 画像 3 6を基準とした過去及び未来の時間軸方向の場面状況とを容易に把握する ことができ、 かくして動画像の概要確認及び所望シーンの選出を短時間でかつ容 易に行い得る画像表示装置を実現できる。
( 5 ) 他の実施の形態
なお上述の実施の形態においては、 2次元表示される一連の動画像データから スリツトデータをサンプリングする際、 画面の右端から左端に向けてサンプリン グ位置を順次移動させるようにした場合について述べたが、 本発明はこれに限ら ず、 画面の左端から右端に向けてサンプリング位置を順次移動させたり、 又は画 面の一隅部から対角線上の他隅部に向けてサンプリング位置を順次移動させるよ うにしても良く、 サンプリング位置の移動方向としてはこの他種々の方向を適用
できる。
また上述の実施の形態においては、 イメージプロセッサ 2 1が検出する特定の フレーム画像としてシーンチェンジの最初のフレーム画像及び前後のフレーム画 像に比べて輝度レベルが著しく変化するフレーム画像を適用するようにした場合 について述べたが、 本発明はこれに限らず、 イメージプロセッサ 2 1がこれ以外 の特定のフレーム画像を抽出し得るようにしても良い。
さらに上述の実施の形態においては、 2次元表示される一連の動画像データを サンプリグ位置を一の方向に順次移動させながら他の方向に 1次元的にサンプリ ングして得られるデータに基づいてビデオプラゥザの画像データを作成する作成 手段と、 動画像データに基づく一連の動画像中の特定のフレーム画像を検出する 検出手段とを 1つのイメージプロセッサ 2 1で併用し、 これらをソフトウエア的 に処理するようにした場合について述べたが、 本発明はこれに限らず、 これら作 成手段及び検出手段を別体に構成し、 ハードウエア的に処理するようにしても良 レ、。
さらに上述の実施の形態においては、 イメージプロセッサ 2 1のシーン画像デ ータ抽出部 2 1 Bにより検出された特定のフレーム画像 (シーンチェンジの最初 のフレーム画像及び前後のフレーム画像に比べて輝度レベルが著しく変化するフ レーム画像) を、 ビデオブラウザ 3 3と共に当該ビデオブラウザ 3 3と時間軸を 一致させて表示する表示手段を、 ホストコンピュータ 1 5、 イメージプロセッサ
2 1の動画像縮小画面データ形成部 2 1 G、 第 3の V R AM 2 4、 ディジタルァ ナログ変換回路 2 5及びモニタ 2 6により構成するようにした場合について述べ たが、 本発明はこれに限らず、 この他種々の構成を適用できる。
さらに上述の実施の形態においては、 モニタ 2 6に表示されたビデオブラゥザ
3 3のうちの所望ポイント又は所望のシーン画像 3 6を指定するポイント指定手 段を、 マウス 1 2と、 当該マウス 1 2の操作に応動して移動するカーソルを編集 画面 3 2上に表示するイメージプロセッサ 2 1により構成するようにした場合に ついて述べたが、 本発明はこれに限らず、 この他種々の構成を適用できる。
産業上の利用可能性
本発明による画像表示装置及び方法は、 ハードディスク等のように任意の記録 ェリァから画像データを再生できるノンリニァメディアを用いた編集装置におい て、 動画像や、 静止画像を編集する場合に利用できる。
Claims
1 . 2次元表示される一連の動画像データをサンプリグ位置を一の方向に順次 移動させながら他の方向に 1次元的にサンプリングして得られるデータに基づい て静止画像の画像データを作成する作成手段と、
上記動画像データに基づく一連の動画像中の特定のフレーム画像を検出する検 出手段と、
上記検出手段により検出された上記特定のフレーム画像を、 上記作成手段によ り作成された上記画像データに基づく上記静止画像と共に時間軸を一致させて表 示する表示手段と
を具えることを特徴とする画像表示装置。
2 . 上記特定のフレーム画像は、 シーンチェンジの最初のフレーム画像でなる ことを特徴とする請求の範囲第 1項に記載の画像表示装置。
3 . 上記特定のフレーム画像は、 フラッシュがたかれた瞬間のフレーム画像で なる
ことを特徴とする請求の範囲第 1項に記載の画像表示装置。
4 . 上記表示手段は、 上記特定のフレーム画像及び上記静止画像と共に当該静 止画像と時間軸を一致させてタイムコードを表示する
ことを特徴とする請求の範囲第 1項に記載の画像表示装置。
5 . 上記表示手段により表示された上記静止画像のうちの所望ボイント又は所 望の上記特定のフレーム画像を指定するポイント指定手段
を具え、 上記表示手段は、 上記ポイント指定手段により指定された上記静止画 像の上記所望ボイント又は所望の上記特定のフレーム画像の前後所定フレーム分 のフレーム画像を上記動画像データに基づいて表示する
ことを特徴とする請求の範囲第 1項に記載の画像表示装置。
6 . 2次元表示される一連の動画像データをサンプリグ位置を一の方向に順次
移動させながら他の方向に 1次元的にサンプリングして得られるデータに基づい て静止画像の画像データを作成すると共に、 上記動画像データに基づく一連の動 画像中の特定のフレーム画像を検出する第 1のステップと、
上記第 1のステップにおいて検出した上記特定のフレーム画像を、 上記作成手 段により作成された上記画像データに基づく上記静止画像と共に時間軸を一致さ せて表示する第 2のステップと
を具えることを特徴とする画像表示方法。
7 . 上記特定のフレーム画像は、 シーンチェンジの最初のフレーム画像でなる ことを特徴とする請求の範囲第 6項に記載の画像表示方法。
8 . 上記特定のフレーム画像は、 フラッシュがたかれた瞬間のフレーム画像で なる ことを特徴とする請求の範囲第 6項に記載の画像表示方法。
9 . 上記表示手段は、 上記特定のフレーム画像及び上記静止画像と共に当該静 止画像と時間軸を一致させてタイムコードを表示する
ことを特徴とする請求の範囲第 6項に記載の画像表示方法。
1 0 . 表示した上記静止画像のうちの所望ポイント又は所望の上記特定のフレ ーム画像が指定されたときに、 当該指定された上記静止画像の上記所望ボイント 又は所望の上記特定のフレーム画像の前後所定フレーム分のフレーム画像を上記 動画像データに基づいて表示する
ことを特徴とする請求の範囲第 6項に記載の画像表示方法。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| GB9821389A GB2327171B (en) | 1997-04-06 | 1998-04-03 | Device and method for displaying pictures |
| US09/204,459 US6778223B2 (en) | 1997-04-06 | 1998-12-03 | Image display apparatus and method |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9/103827 | 1997-04-06 | ||
| JP10382797A JP3736706B2 (ja) | 1997-04-06 | 1997-04-06 | 画像表示装置及び方法 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US09/204,459 Continuation US6778223B2 (en) | 1997-04-06 | 1998-12-03 | Image display apparatus and method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO1998046018A1 true WO1998046018A1 (en) | 1998-10-15 |
Family
ID=14364260
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP1998/001560 Ceased WO1998046018A1 (en) | 1997-04-06 | 1998-04-03 | Device and method for displaying pictures |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US6778223B2 (ja) |
| JP (1) | JP3736706B2 (ja) |
| GB (1) | GB2327171B (ja) |
| WO (1) | WO1998046018A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1294750C (zh) * | 2002-06-11 | 2007-01-10 | 索尼株式会社 | 图像检测设备、图像检测方法和图像检测程序 |
Families Citing this family (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6735253B1 (en) | 1997-05-16 | 2004-05-11 | The Trustees Of Columbia University In The City Of New York | Methods and architecture for indexing and editing compressed video over the world wide web |
| US7143434B1 (en) | 1998-11-06 | 2006-11-28 | Seungyup Paek | Video description system and method |
| US6892353B1 (en) * | 1999-04-02 | 2005-05-10 | Apple Computer, Inc. | Edit to tape |
| JP3284542B2 (ja) * | 1999-04-23 | 2002-05-20 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム格納媒体 |
| JP3284546B2 (ja) * | 1999-04-26 | 2002-05-20 | ソニー株式会社 | 画像編集装置、画像編集方法、およびプログラム格納媒体 |
| US7145601B2 (en) * | 2000-01-14 | 2006-12-05 | Fuji Photo Film Co., Ltd. | Multi-modal reproducing apparatus and digital camera |
| JP2001292408A (ja) * | 2000-04-07 | 2001-10-19 | Sony Corp | 映像編集装置、映像編集方法、映像編集システム、および映像編集用プログラムを記録したコンピュータ読み取り可能な記録媒体 |
| US20040125877A1 (en) * | 2000-07-17 | 2004-07-01 | Shin-Fu Chang | Method and system for indexing and content-based adaptive streaming of digital video content |
| TW507235B (en) * | 2000-09-06 | 2002-10-21 | Futaba Denshi Kogyo Kk | Filament for fluorescent display device |
| EP1343168A4 (en) * | 2000-12-05 | 2006-03-22 | Matsushita Electric Industrial Co Ltd | Recording/reproducing apparatus and record medium |
| US7540011B2 (en) * | 2001-06-11 | 2009-05-26 | Arrowsight, Inc. | Caching graphical interface for displaying video and ancillary data from a saved video |
| WO2003003343A2 (en) * | 2001-06-29 | 2003-01-09 | Koninklijke Philips Electronics N.V. | Pictorial timeline |
| US7339992B2 (en) | 2001-12-06 | 2008-03-04 | The Trustees Of Columbia University In The City Of New York | System and method for extracting text captions from video and generating video summaries |
| WO2003056560A1 (en) * | 2001-12-25 | 2003-07-10 | Matsushita Electric Industrial Co., Ltd. | Apparatus, method, and computer-readable program for playing back content |
| US7558318B2 (en) * | 2002-06-11 | 2009-07-07 | Sanyo Electric Co., Ltd. | Method and apparatus for processing images, method and apparatus for recording and reproducing images, and television receiver utilizing the same |
| US8027562B2 (en) * | 2002-06-11 | 2011-09-27 | Sanyo Electric Co., Ltd. | Method and apparatus for recording images, method and apparatus for recording and reproducing images, and television receiver utilizing the same |
| JP4360781B2 (ja) | 2002-07-31 | 2009-11-11 | 富士フイルム株式会社 | デジタルカメラ |
| JP4133121B2 (ja) * | 2002-08-27 | 2008-08-13 | 富士フイルム株式会社 | 画像選択方法および装置並びにプログラム |
| JP3810381B2 (ja) | 2003-04-25 | 2006-08-16 | オリンパス株式会社 | 画像表示装置、画像表示方法および画像表示プログラム |
| JP3988079B2 (ja) * | 2003-05-13 | 2007-10-10 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
| US20040230910A1 (en) * | 2003-05-16 | 2004-11-18 | Brian Lin | Assistant editing display method for media clips |
| KR20060059862A (ko) * | 2003-08-11 | 2006-06-02 | 마츠시타 덴끼 산교 가부시키가이샤 | 촬영 장치, 시나리오 데이터, 촬영 방법 및 프로그램 |
| JP2006165824A (ja) * | 2004-12-03 | 2006-06-22 | Fuji Xerox Co Ltd | 画像表示プログラム、画像表示方法及び画像表示装置 |
| WO2006096612A2 (en) | 2005-03-04 | 2006-09-14 | The Trustees Of Columbia University In The City Of New York | System and method for motion estimation and mode decision for low-complexity h.264 decoder |
| US20090027486A1 (en) * | 2005-08-22 | 2009-01-29 | Katsumi Hirakawa | Image display apparatus |
| US8169472B2 (en) * | 2005-08-22 | 2012-05-01 | Olympus Corporation | Image display apparatus with interactive database |
| JP4670584B2 (ja) * | 2005-10-25 | 2011-04-13 | ソニー株式会社 | 表示制御装置および方法、プログラム並びに記録媒体 |
| JP2007281891A (ja) * | 2006-04-06 | 2007-10-25 | Victor Co Of Japan Ltd | 監視画像表示装置 |
| US20070296734A1 (en) * | 2006-06-26 | 2007-12-27 | Frank Edughom Ekpar | Method and apparatus for creating and managing high impact special effects |
| JP4631826B2 (ja) * | 2006-08-01 | 2011-02-16 | 日本ビクター株式会社 | ハイライト抽出装置 |
| US8307287B2 (en) * | 2007-04-13 | 2012-11-06 | Apple Inc. | Heads-up-display for use in a media manipulation operation |
| JP2009076982A (ja) | 2007-09-18 | 2009-04-09 | Toshiba Corp | 電子機器および顔画像表示方法 |
| WO2009126785A2 (en) | 2008-04-10 | 2009-10-15 | The Trustees Of Columbia University In The City Of New York | Systems and methods for image archaeology |
| WO2009155281A1 (en) | 2008-06-17 | 2009-12-23 | The Trustees Of Columbia University In The City Of New York | System and method for dynamically and interactively searching media data |
| US8671069B2 (en) | 2008-12-22 | 2014-03-11 | The Trustees Of Columbia University, In The City Of New York | Rapid image annotation via brain state decoding and visual pattern mining |
| JP2012165240A (ja) * | 2011-02-08 | 2012-08-30 | Sony Corp | 動画像処理装置、動画像処理方法、及びプログラム |
| US11288820B2 (en) * | 2018-06-09 | 2022-03-29 | Lot Spot Inc. | System and method for transforming video data into directional object count |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05289650A (ja) * | 1992-04-07 | 1993-11-05 | Sony Corp | 画像表示方法 |
| JPH06113253A (ja) * | 1992-09-30 | 1994-04-22 | Sony Corp | 画像表示方法 |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS60113253A (ja) * | 1983-11-24 | 1985-06-19 | Canon Inc | 記録装置 |
| US5459830A (en) * | 1991-07-22 | 1995-10-17 | Sony Corporation | Animation data index creation drawn from image data sampling composites |
| US5999173A (en) * | 1992-04-03 | 1999-12-07 | Adobe Systems Incorporated | Method and apparatus for video editing with video clip representations displayed along a time line |
| EP0625781B1 (en) * | 1993-04-13 | 2000-06-14 | Sony Corporation | Editing apparatus |
| US5767845A (en) * | 1994-08-10 | 1998-06-16 | Matsushita Electric Industrial Co. | Multi-media information record device, and a multi-media information playback device |
| US5870754A (en) * | 1996-04-25 | 1999-02-09 | Philips Electronics North America Corporation | Video retrieval of MPEG compressed sequences using DC and motion signatures |
| US6628303B1 (en) * | 1996-07-29 | 2003-09-30 | Avid Technology, Inc. | Graphical user interface for a motion video planning and editing system for a computer |
| US6154600A (en) * | 1996-08-06 | 2000-11-28 | Applied Magic, Inc. | Media editor for non-linear editing system |
| US6353461B1 (en) * | 1997-06-13 | 2002-03-05 | Panavision, Inc. | Multiple camera video assist control system |
| JP4462654B2 (ja) * | 1998-03-26 | 2010-05-12 | ソニー株式会社 | 映像素材選択装置及び映像素材選択方法 |
-
1997
- 1997-04-06 JP JP10382797A patent/JP3736706B2/ja not_active Expired - Fee Related
-
1998
- 1998-04-03 WO PCT/JP1998/001560 patent/WO1998046018A1/ja not_active Ceased
- 1998-04-03 GB GB9821389A patent/GB2327171B/en not_active Expired - Fee Related
- 1998-12-03 US US09/204,459 patent/US6778223B2/en not_active Expired - Fee Related
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05289650A (ja) * | 1992-04-07 | 1993-11-05 | Sony Corp | 画像表示方法 |
| JPH06113253A (ja) * | 1992-09-30 | 1994-04-22 | Sony Corp | 画像表示方法 |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1294750C (zh) * | 2002-06-11 | 2007-01-10 | 索尼株式会社 | 图像检测设备、图像检测方法和图像检测程序 |
| US7496211B2 (en) | 2002-06-11 | 2009-02-24 | Sony Corporation | Image processing apparatus, image processing method, and image processing program |
Also Published As
| Publication number | Publication date |
|---|---|
| GB2327171B (en) | 2001-04-11 |
| JP3736706B2 (ja) | 2006-01-18 |
| GB9821389D0 (en) | 1998-11-25 |
| GB2327171A (en) | 1999-01-13 |
| US6778223B2 (en) | 2004-08-17 |
| US20020105593A1 (en) | 2002-08-08 |
| JPH10285523A (ja) | 1998-10-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO1998046018A1 (en) | Device and method for displaying pictures | |
| US6714216B2 (en) | Video editing apparatus and method | |
| US5819103A (en) | Information recording/reproducing apparatus and method | |
| US5513306A (en) | Temporal event viewing and editing system | |
| JP4727342B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム及びプログラム格納媒体 | |
| JP3944807B2 (ja) | 素材選択装置及び素材選択方法 | |
| EP0801343B1 (en) | Controlling audio and/or video replay | |
| US20020197067A1 (en) | Recording apparatus and reproducing apparatus | |
| WO1992017875A1 (fr) | Procede et appareil pour traitement d'images ou de donnees, et procede et appareil de controle les mettant en ×uvre | |
| JPH11146325A (ja) | 映像検索方法および装置並びに映像情報作成方法およびその処理プログラムを格納した記憶媒体 | |
| JPS60500312A (ja) | ビデオ編成方法および装置 | |
| US6278497B1 (en) | Moving picture processing method and apparatus, and computer program product having processing procedure recorded therefore | |
| JPH1028250A (ja) | インテリジェントビデオカメラ及びインテリジェントスチルカメラ | |
| JPH05113864A (ja) | マルチウインドウ動画表示方法及び装置 | |
| JP4517310B2 (ja) | 撮像装置、文字情報関連付け方法及び文字情報関連付けプログラム | |
| JPH08279272A (ja) | 映像検索装置 | |
| JP2004511038A (ja) | 記録装置間でデータを転送するシステムおよび方法 | |
| CN201869278U (zh) | 一种演播室图象采集系统 | |
| JP4582427B2 (ja) | 画像編集装置及びその方法 | |
| US20060165354A1 (en) | Digital video recording apparatus | |
| KR20020094576A (ko) | 간략 정보 인덱스를 이용한 dvr 검색 방법 | |
| CN100474391C (zh) | 图像处理装置和图像处理方法 | |
| JP3510619B2 (ja) | 映像データ編集装置 | |
| JP3796757B2 (ja) | 情報処理装置 | |
| JP2007184884A (ja) | 信号ピックアップ方法及び同方法を用いた映像/音声記録再生システム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| ENP | Entry into the national phase |
Ref country code: GB Ref document number: 9821389 Kind code of ref document: A Format of ref document f/p: F |
|
| AK | Designated states |
Kind code of ref document: A1 Designated state(s): GB US |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 09204459 Country of ref document: US |