[go: up one dir, main page]

JP2002008052A - Presentation system and recording medium - Google Patents

Presentation system and recording medium

Info

Publication number
JP2002008052A
JP2002008052A JP2000187709A JP2000187709A JP2002008052A JP 2002008052 A JP2002008052 A JP 2002008052A JP 2000187709 A JP2000187709 A JP 2000187709A JP 2000187709 A JP2000187709 A JP 2000187709A JP 2002008052 A JP2002008052 A JP 2002008052A
Authority
JP
Japan
Prior art keywords
image
information
multimedia information
recording
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000187709A
Other languages
Japanese (ja)
Inventor
Yoji Yamamoto
洋史 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2000187709A priority Critical patent/JP2002008052A/en
Publication of JP2002008052A publication Critical patent/JP2002008052A/en
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

(57)【要約】 【課題】 本発明は、マルチメディア情報を記録してプ
レゼンテーションを行うプレゼンテーションシステムお
よび記録媒体に関し、プレゼンテーションなどしたマル
チメディア情報に時間情報を付加して記録し、操作タイ
ミングで分離してオブジェクトを作成してオブジェクト
テーブルに設定および優先度を設定し、記録として重要
なポイントを強調すると共に視聴者に分かり易くし、利
用性を高めることを目的とする。 【解決手段】 画像、音声などのマルチメディア情報に
時間情報を付加して記録する手段と、記録した時間情報
の付加されたマルチメディア情報について、主操作タイ
ミングでマルチメディア情報を分離してオブジェクトを
作成する手段と、作成したオブジェクトを設定してオブ
ジェクトテーブルを作成および必要に応じてオブジェク
トに優先度を設定する手段とを備えるように構成する。
(57) Abstract: The present invention relates to a presentation system and a recording medium for recording and presenting multimedia information, and adds and records time information to multimedia information such as a presentation, and separates the multimedia information at an operation timing. The object is to create an object, set the settings and priorities in the object table, emphasize important points as a record, make it easy for a viewer to understand, and enhance the usability. SOLUTION: Means for adding time information to multimedia information such as images and sounds and recording the same, and for multimedia information to which the recorded time information is added, the multimedia information is separated at a main operation timing to create an object. It is configured to include a means for creating, and a means for setting the created object to create an object table and setting a priority to the object as necessary.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、マルチメディア情
報を記録してプレゼンテーションを行うプレゼンテーシ
ョンシステムおよび記録媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a presentation system and a recording medium for performing presentation by recording multimedia information.

【0002】[0002]

【従来の技術】従来、講義、講演や各種プレゼンテーシ
ョンで行った内容は、ビデオテープで記録し、記録とし
て残したり、そのままあるいは一部分をカットするなど
の編集を行い、後で教材として使用していた。
2. Description of the Related Art In the past, lectures, lectures, and various presentations were recorded on videotape and edited as a record or cut as it was or used as a teaching material. .

【0003】[0003]

【発明が解決しようとする課題】しかし、上述したプレ
ゼンテーションなどの内容は、記録してそのまま利用し
たりするにすぎなく、単純なことや時間的優位性が少な
いなどの理由で教材として視聴者が利用し難く、また、
記録としても重要なポイントを捉え難たく利用度が低い
などの問題があった。
However, the contents of the above-mentioned presentation and the like are merely recorded and used as they are. Difficult to use,
There was a problem that it was difficult to capture important points as records and the usage was low.

【0004】本発明は、これらの問題を解決するため、
プレゼンテーションなどしたマルチメディア情報に時間
情報を付加して記録し、操作タイミングで分離してオブ
ジェクトを作成してオブジェクトテーブルに設定および
優先度を設定し、記録として重要なポイントを強調する
と共に視聴者に分かり易くし、利用性を高めることを目
的としている。
[0004] The present invention solves these problems,
Adds time information to multimedia information such as presentations and records it, creates objects separately at the operation timing, sets and sets priority in the object table, emphasizes important points as a record, and gives viewers Its purpose is to make it easy to understand and to increase usability.

【0005】[0005]

【課題を解決するための手段】図1を参照して課題を解
決するための手段を説明する。図1において、画像記録
装置2は、画像を記録するものである。
Means for solving the problem will be described with reference to FIG. In FIG. 1, an image recording device 2 records an image.

【0006】音声記録装置3は、音声を記録するもので
ある。情報処理装置4は、時間情報の付加されたマルチ
メディア情報を取り込み、主操作タイミングでマルチメ
ディア情報を分離してオブジェクトを生成し、オブジェ
クトテーブル5を作成したりなどするものである。
[0006] The voice recording device 3 is for recording voice. The information processing device 4 captures multimedia information to which time information is added, separates the multimedia information at a main operation timing, generates an object, and creates an object table 5 and the like.

【0007】オブジェクトテーブル5は、時間軸に対応
づけてオブジェクトおよび優先度などを設定したもので
ある。次に、動作を説明する。
The object table 5 is a table in which objects and priorities are set in association with a time axis. Next, the operation will be described.

【0008】画像記録装置2および音声記録装置3がプ
レゼンテーション中の画像および音声からなるマルチメ
ディア情報に時間情報を付加して記録し、情報処理装置
4が記録されたマルチメディア情報を読み込み、時間情
報の付加されたマルチメディア情報について主操作タイ
ミングで当該マルチメディア情報を分離してオブジェク
トを作成し、作成したオブジェクトをオブジェクトテー
ブル5に設定および必要に応じて優先度を該当オブジェ
クトに設定するようにしている。
[0008] The image recording device 2 and the audio recording device 3 add time information to the multimedia information consisting of the image and audio during the presentation and record it, and the information processing device 4 reads the recorded multimedia information and outputs the time information. With respect to the multimedia information to which is added, the multimedia information is separated at the main operation timing to create an object, the created object is set in the object table 5, and the priority is set to the corresponding object as necessary. I have.

【0009】この際、マルチメディア情報の記録時に、
時間情報を付加する代わりに、特定画像あるいは特定音
声を順次付加して記録するようにしている。また、記録
したマルチメディア情報中でマルチメディア情報がない
あるいは変化しない区間を抽出し、スキップ区間として
オブジェクトテーブル5に設定するようにしている。
At this time, when recording the multimedia information,
Instead of adding time information, specific images or specific sounds are sequentially added and recorded. Further, a section in which the multimedia information is not present or does not change is extracted from the recorded multimedia information, and is set in the object table 5 as a skip section.

【0010】また、作成したオブジェクトテーブル5を
もとに、設定されている各オブジェクトについて設定さ
れている優先度に従い画面上に強調表示あるいは強調し
て音声出力するようにしている。
[0010] Further, based on the created object table 5, each set object is emphasized on the screen according to the set priority, or the sound is output with emphasis.

【0011】また、分離した各オブジェクトからキーワ
ードを抽出してオブジェクトテーブル5の該当オブジェ
クトに対応づけて設定し、画面上にオブジェクトに対応
づけて表示あるいは音声出力するようにしている。
A keyword is extracted from each of the separated objects, set in association with the corresponding object in the object table 5, and is displayed or output as sound in association with the object on the screen.

【0012】また、マルチメディア情報あるいは受講者
を撮影した画像をもとに、受講者の注視している資料あ
るいはその資料の部分を抽出してオブジェクトテーブル
5中の該当オブジェクトの優先度を高く設定するように
している。
Further, based on the multimedia information or the image taken of the student, the material watched by the student or a part of the material is extracted, and the priority of the object in the object table 5 is set high. I am trying to do it.

【0013】また、マルチメディア情報あるいは発表者
を撮影した画像をもとに、発表者が注視している画像、
資料、あるいは発声している音声を抽出して上記オブジ
ェクトテーブル中の該当オブジェクトの優先度を高く設
定するようにしている。
Further, based on the multimedia information or the image of the presenter, an image which the presenter is watching,
Materials or uttered voices are extracted, and the priority of the corresponding object in the object table is set high.

【0014】従って、プレゼンテーションなどしたマル
チメディア情報に時間情報を付加して記録し、操作タイ
ミングで分離してオブジェクトを作成してオブジェクト
テーブルに設定および優先度を設定することにより、記
録として重要なポイントを強調すると共に視聴者に分か
り易くし、利用性を高めることが可能となる。
[0014] Therefore, by recording multimedia information such as presentations with time information added thereto, creating objects separately at operation timing, and setting and setting priorities in an object table, important points for recording are obtained. Can be emphasized and the viewer can be easily understood, and the usability can be improved.

【0015】[0015]

【発明の実施の形態】次に、図1から図12を用いて本
発明の実施の形態および動作を順次詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments and operations of the present invention will be sequentially described in detail with reference to FIGS.

【0016】図1は、本発明のシステム構成図を示す。
図1において、情報表示処理装置1は、画像を表示した
り、音声で説明したりし、プレゼンテーション(講演
等)を行うためのものであって、ここでは、情報表示手
段11、デモ/プレゼン手段12、操作記録手段13、
時間管理手段14などから構成されるものである。
FIG. 1 shows a system configuration diagram of the present invention.
In FIG. 1, an information display processing device 1 is for displaying an image, explaining by sound, and giving a presentation (lecture or the like). In this example, an information display unit 11, a demo / presentation unit 12, operation recording means 13,
It comprises time management means 14 and the like.

【0017】情報表示手段11は、ビデオ画像、スライ
ド画像、コンピュータによるグラフィック画像などの画
像および文字などの情報をスクリーン上に表示して、視
聴者に説明などするためのものである。
The information display means 11 is for displaying information such as images and characters such as video images, slide images, graphic images by a computer, and the like on a screen, for explanation to a viewer.

【0018】デモ/プレゼン手段12は、画像や文字、
音声などを使ってデモンストレーションやプレゼンテー
ションなどを行うものである。操作記録手段13は、デ
モンストレーションやプレゼンテーションなどにおけ
る、各種操作を記録するものである。
The demonstration / presentation means 12 includes images, characters,
Demonstrations and presentations are performed using audio and the like. The operation recording means 13 is for recording various operations in demonstrations and presentations.

【0019】時間管理手段14は、デモンストレーショ
ンやプレゼンテーションなどで使われた画像、音声に時
間情報を付加して記録させるためのものである。画像記
録装置2は、デモンストレーションやプレゼンテーショ
ンなどで使われる画像に時間情報を付加して記録するた
めのものであって、録画手段21、時間管理手段22な
どから構成されるものである。
The time management means 14 is for adding and recording time information to images and sounds used in demonstrations and presentations. The image recording device 2 is for recording time information added to images used in demonstrations and presentations, and is composed of a recording means 21, a time management means 22, and the like.

【0020】録画手段21は、デモンストレーションや
プレゼンテーションなどで使われる画像に時間情報を付
加して記録するものである。時間管理手段22は、録画
手段21が画像を録画するときに時間情報を付加して録
画させるものである。
The recording means 21 records images used for demonstrations and presentations with time information added thereto. The time management unit 22 records the image with the time information added when the recording unit 21 records the image.

【0021】音声記録手段3は、デモンストレーション
やプレゼンテーションなどで使われる音声に時間情報を
付加して記録させるためのものであって、録音手段3
1、時間管理手段32などから構成されるものである。
The voice recording means 3 is for recording the voice used in the demonstration or the presentation with time information added thereto.
1. It comprises a time management means 32 and the like.

【0022】録音手段31は、デモンストレーションや
プレゼンテーションなどで使われる音声に時間情報を付
加して録音するものである。時間管理手段32は、録音
手段31が音声を録音するときに時間情報を付加して録
音させるものである。
The recording means 31 records the sound used in a demonstration or a presentation with time information added thereto. The time management means 32 adds the time information when the recording means 31 records the sound and causes the sound to be recorded.

【0023】情報処理装置4は、時間情報の付加された
マルチメディア情報を取り込み、主操作タイミングでマ
ルチメディア情報を分離してオブジェクトを生成し、オ
ブジェクトテーブル5を作成したりなどするものであっ
て、ここでは、入力手段41、画像/音声処理手段4
2、デモ/プレゼン再生手段43、情報統合手段44、
オブジェクトテーブル5などから構成されるものであ
る。
The information processing apparatus 4 takes in multimedia information to which time information is added, generates an object by separating multimedia information at a main operation timing, and creates an object table 5 and the like. Here, the input means 41, the image / audio processing means 4
2, demo / presentation reproducing means 43, information integrating means 44,
It comprises an object table 5 and the like.

【0024】入力手段41は、時間情報の付加されて録
画および録音された画像、音声などのマルチメディア情
報を取り込む(入力)するものである。画像/音声処理
手段42は、時間情報の付加された画像、音声について
主操作タイミングで分離してオブジェクトを生成し、オ
ブジェクトテーブル5に設定したり、オブジェクトから
キーワードを抽出して設定したり、優先度、強調度、ア
ピール度、変化度などを設定したりなどするものであ
る。
The input means 41 captures (inputs) multimedia information such as images and sounds recorded with the time information added and recorded. The image / sound processing means 42 generates an object by separating the image and the sound to which the time information is added at the main operation timing, sets the object in the object table 5, extracts the keyword from the object, sets the object, and sets the priority. The degree, the degree of emphasis, the degree of appeal, the degree of change, and the like are set.

【0025】デモ/プレゼン再生手段43は、オブジェ
クトテーブル5をもとに、デモンストレーションやプレ
ゼンテーションなどを再生するものである。情報統合手
段44は、画像、音声などのマルチメディア情報を時間
情報をもとに統合するものである。
The demo / presentation reproducing means 43 reproduces a demonstration or a presentation based on the object table 5. The information integrating means 44 integrates multimedia information such as images and sounds based on time information.

【0026】オブジェクトテーブル5は、時間情報の付
加されたマルチメディア情報について、主操作タイミン
グで分離してオブジェクトを作成して設定、および優先
度、強調度、アピール度、変化度などを設定したもので
ある。
The object table 5 is a table in which multimedia information to which time information has been added is created and set separately at the main operation timing, and priority, emphasis, appeal, and change are set. It is.

【0027】図2は、本発明の説明図(その1)を示
す。これは、発表者が情報表示装置1を操作して画像を
表示、音声を出力し、視聴者にデモンストレーション、
プレゼンテーション、講演などを行う。そのときに、情
報表示装置1は各種操作に時間情報を付加して記録する
と共に、画像記録装置2、音声記録装置3、および画像
/音声記録装置6がそれぞれ画像、音声に時間情報を付
加して記録する。これら記録した操作情報、画像情報、
音声情報などからなるマルチメディア情報を情報処理装
置4が図示矢印のように取り込む。そして、後述する図
3から図12で説明するように、主操作タイミングで画
像情報、音声情報などを分離してオブジェクトを作成
し、これら作成したオブジェクトをオブジェクトテーブ
ル5に設定およびオブジェクトからキーワードを抽出し
てオブジェクトテーブル5の該当オブジェクトに設定し
たり、発表者や視聴者の注視する資料に対応するオブジ
ェクトテーブル5中のオブジェクトに優先度、強調度、
アピール度、変化などを設定する。そして、これら情報
を設定したオブジェクトテーブル5をもとに、再生する
ことにより、記録として重要なポイントを強調すると共
に視聴者に分かり易くし、利用性を高めることが可能と
なる。
FIG. 2 is an explanatory view (part 1) of the present invention. This means that the presenter operates the information display device 1 to display an image, outputs sound, and demonstrates to the viewer.
He gives presentations and lectures. At that time, the information display device 1 records the various operations with time information added thereto, and the image recording device 2, the voice recording device 3, and the image / voice recording device 6 add the time information to the image and the voice, respectively. Record. These recorded operation information, image information,
The information processing device 4 takes in multimedia information including audio information and the like as shown by the arrows in the figure. Then, as will be described with reference to FIGS. 3 to 12, which will be described later, objects are created by separating image information, audio information, and the like at the main operation timing, these created objects are set in the object table 5, and keywords are extracted from the objects. And set the object in the object table 5 to a corresponding object, or assign priority, emphasis,
Set appeal level, change, etc. Then, by reproducing based on the object table 5 in which these pieces of information are set, it is possible to emphasize important points as a record, make it easy for a viewer to understand, and improve usability.

【0028】図3は、本発明の説明図(その2)を示
す。図3の(a)は、記録した画像、音声を模式的に表
示した例を示す。ここでは、図2の情報表示処理装置1
が記録した操作(例えば1P表示(1頁を表示))、画
像記録装置2が記録した画像(例えば画像A−1)、音
声記録装置3が記録した音声(例えば音声B−1),画
像/音声記録装置6が記録した画像/音声(例えば画/
音C−1)をイメージ的に表示したものである。
FIG. 3 shows an explanatory diagram (part 2) of the present invention. FIG. 3A shows an example in which recorded images and sounds are schematically displayed. Here, the information display processing device 1 of FIG.
(For example, 1P display (display one page)), an image (for example, image A-1) recorded by the image recording device 2, a sound (for example, sound B-1) recorded by the sound recording device 3, The image / audio recorded by the audio recording device 6 (for example, image / audio
The sound C-1) is displayed as an image.

【0029】図3の(b)は、時間軸上に図3の(a)
の記録した情報をそれぞれ展開した例を示す。ここで
は、時間軸上で情報表示装置1による操作は、1P表
示、2P表示・・・という順番に切り替えられている。
この操作(主操作タイミング)に対応づけて画像記録装
置2、音声記録装置3、および画像/音声記録装置6で
記録した画像、音声、画像/音声について付加されてい
る時間情報で時間軸上に展開すると図示のようになる。
FIG. 3B shows a time axis of FIG.
The following shows an example in which the information recorded by is expanded. Here, the operation of the information display device 1 on the time axis is switched in the order of 1P display, 2P display, and so on.
The time information added to the image, audio, and image / audio recorded by the image recording device 2, the audio recording device 3, and the image / audio recording device 6 in association with this operation (main operation timing) is displayed on the time axis. When expanded, it becomes as shown in the figure.

【0030】以上によって、時間軸上に、情報表示処理
装置1の操作(主操作タイミング)に対応づけて画像記
録装置2、音声記録装置3、および画像/音声記録装置
6で記録した画像、音声、画像/音声をそれぞれ展開す
ることが可能となる。
As described above, on the time axis, the image and sound recorded by the image recording device 2, the sound recording device 3, and the image / sound recording device 6 in association with the operation (main operation timing) of the information display processing device 1. , Image / audio can be developed respectively.

【0031】図4は、本発明の説明図(その3)を示
す。これは、画像、音声に時間情報を付加し、相互に同
期できるようにするためのものである。画像、音声に直
接に記録したときの時間情報(タイムスタンプ)を付加
できれば当該時間情報を付加する。時間情報を直接に画
像、音声に付加できない記録装置の場合には、図示の記
録時間指導器7が一定時間でパルス発光、パルス発音し
て画像および音声に同期信号を付加して記録する。そし
て、これら記録された画像、音声中の一定時間毎のパル
ス状の信号をもとに時間情報を作成して画像、音声に付
加する。
FIG. 4 is an explanatory view (part 3) of the present invention. This is to add time information to images and sounds so that they can be synchronized with each other. If time information (time stamp) at the time of directly recording an image or sound can be added, the time information is added. In the case of a recording apparatus in which time information cannot be directly added to an image or a sound, the illustrated recording time instructor 7 emits a pulse and emits a pulse for a certain period of time, and records the image and the sound by adding a synchronizing signal. Then, time information is created on the basis of the pulse-like signals at predetermined time intervals in the recorded images and sounds, and added to the images and sounds.

【0032】以上によって、記録する記録装置が画像、
音声に直接に時間情報を付加できないときは、パルス状
の発光/発音して画像、音声中に記録し、記録した画
像、音声中のパルス状の信号をもとに時間情報を作成し
て画像、音声に時間情報を付加することが可能となる。
As described above, the recording device for recording is an image,
If time information cannot be added directly to the sound, pulsed light emission / pronunciation is recorded in the image or sound, and time information is created based on the recorded image or pulsed signal in the sound. , It is possible to add time information to the voice.

【0033】図5は、本発明の説明図(その4)を示
す。図5の(a)は、時間軸上に記録した操作、画像、
音声、画像/音声を展開した様子を示す(図3の(b)
と同一)。
FIG. 5 is an explanatory view (part 4) of the present invention. FIG. 5A shows operations, images, and images recorded on the time axis.
FIG. 3B shows a state in which voice and image / voice have been developed.
Same as).

【0034】図5の(b)は、図5の(a)の主操作タ
イミングで分離してオブジェクト(1)、(2)、
(3)・・・を作成した様子を示す。このオブジェクト
(1)、(2),(3)・・・は、主操作タイミング
(ここでは、1P表示、2P表示、3P表示という主操
作タイミング)で分離したものである。
FIG. 5B shows the objects (1), (2), and (4) separated at the main operation timing shown in FIG.
(3)... Are shown. The objects (1), (2), (3),... Are separated at main operation timings (here, main operation timings of 1P display, 2P display, and 3P display).

【0035】図5の(c)は、スキップ指定、早送り指
定する様子を示す。ここで、 ・は、表示切替器で頁を切り替えた直後で、操作の動
作なし期間、画像と音声の無音期間があったので、当該
の期間だけスキップ指定を、図示外のオブジェクトテ
ーブル5に設定し、無意味の部分をスキップさせて、迅
速に再生できるようにしたものである。
FIG. 5C shows how to specify skip and fast forward. Here, indicates that immediately after the page is switched by the display switch, there is a period during which no operation is performed, and there is a period during which the image and the sound are silent. Therefore, skip designation is set in the object table 5 (not shown) for the period. Then, the meaningless portion is skipped so that the content can be quickly reproduced.

【0036】・は、資料指示操作をした直後で、操作
の動作なし期間、音声の無音期間があったので、当該
の期間だけ早送り指定を、図示外のオブジェクトテーブ
ル5に設定し、変化のない部分を早送りさせて、迅速に
再生できるようにしたものである。
Since there is a period in which no operation is performed and a period in which the sound is silent immediately after the material instruction operation is performed, the fast-forward designation is set in the object table 5 (not shown) for that period, and there is no change. The part is fast-forwarded so that it can be played back quickly.

【0037】・は、書き込み動作中であって、音声の
無音期間があったので、当該の期間だけ早送り指定
を、図示外のオブジェクトテーブル5に設定し、音声の
無い部分を早送りさせて、迅速に再生できるようにした
ものである。
Indicates that during the writing operation, there is a sound silence period, so that the fast-forward designation is set in the object table 5 (not shown) for that period, and the portion without sound is fast-forwarded, It can be played back.

【0038】以上のように、操作、画像、音声のない部
分について、スキップ指定、早送り指定をオブジェクト
テーブル5に設定することにより、迅速かつ効率的に再
生することが可能となる。
As described above, by setting skip designation and fast-forward designation in the object table 5 for a portion having no operation, no image, and no sound, it is possible to reproduce quickly and efficiently.

【0039】図6は、本発明の動作説明フローチャート
(記録)を示す。ここで、図6の(a)は画像/音声記
録装置で記録するときのフローチャートを示す、図6の
(b)はプレゼンテーション装置でプレゼンテーション
するときのフローチャートを示す。
FIG. 6 is a flowchart (recording) for explaining the operation of the present invention. Here, FIG. 6A shows a flowchart when recording is performed by the image / audio recording device, and FIG. 6B shows a flowchart when performing presentation using the presentation device.

【0040】図6の(a)において、S1は、時間管理
手段がありか判別する。YESの場合には、S2でプレ
ゼンテーション装置との間で同期合せを行い、S3に進
む。一方、NOの場合には、S3に進む。
In FIG. 6A, S1 determines whether there is time management means. In the case of YES, synchronization is performed with the presentation device in S2, and the process proceeds to S3. On the other hand, in the case of NO, the process proceeds to S3.

【0041】S3は、録画/録音を開始する。これは、
プレゼンテーション装置がプレゼンテーションを開始し
たので、その様子について録画および録音を開始する。
S4は、記録する。
In step S3, recording starts. this is,
Since the presentation device has started the presentation, recording of the state is started.
S4 records.

【0042】S5は、時間管理手段がありか判別する。
YESの場合には、S6でタイムスタンプを画像、音声
に付加して記録し、S8に進む。一方,NOの場合に
は、S7で同期情報を記録、例えば既述した図4の光パ
ルスを画像中に記録、および音声パルスを音声中に記録
し、S8に進む。
In step S5, it is determined whether there is a time management unit.
In the case of YES, the time stamp is added to the image and the sound and recorded in S6, and the process proceeds to S8. On the other hand, in the case of NO, the synchronization information is recorded in S7, for example, the above-described light pulse of FIG. 4 is recorded in the image, and the audio pulse is recorded in the audio, and the process proceeds to S8.

【0043】S8は、録画/録音を停止する。S9は、
録画/録音を終了か判別する。YESの場合には、終了
する。NOの場合には、S3に戻り繰り返す。
In step S8, the recording is stopped. S9 is
It is determined whether the recording is completed. If YES, the process ends. If NO, the process returns to S3 and repeats.

【0044】以上のS1からS9によって、プレゼンテ
ーション中の画像、音声にタイムスタンプを付加、ある
いは発光パルスを画像中、音声パルスを音声中に記録
し、画像、音声、更に、操作に時間情報を付加して記録
することが可能となる。
Through the above steps S1 to S9, a time stamp is added to the image and audio during the presentation, or the light emission pulse is recorded in the image and the audio pulse is recorded in the audio, and time information is added to the image, audio and operation. Can be recorded.

【0045】図6の(b)において、S11は、同期合
せする。これは、既述した図6の(a)のS2に対応し
て画像/音声記録装置との間で同期合せを行う。S12
は、プレゼンテーションを開始する。これは、プレゼン
テーション装置(図1の情報表示処理装置1)を発表者
が操作してプレゼンテーションを開始する。
In FIG. 6B, in step S11, synchronization is performed. In this case, synchronization is performed with the image / sound recording device corresponding to S2 in FIG. 6A described above. S12
Starts the presentation. In this case, the presenter operates the presentation device (the information display processing device 1 in FIG. 1) to start the presentation.

【0046】S13は、プレゼンテーションの進行を記
録する。これは、発表者がプレゼンテーション装置を操
作して頁表示を次の頁表示に切り替えたりなどの操作に
タイムスタンプを付加して記録する。
In step S13, the progress of the presentation is recorded. In this method, the presenter operates the presentation device to switch the page display to the next page display, and records the operation by adding a time stamp.

【0047】S14は、同期情報を発生する。S15
は、プレゼンテーションが終了か判別する。YESの場
合には、終了する。NOの場合には、S13に戻り繰り
返す。
In step S14, synchronization information is generated. S15
Determines whether the presentation is over. If YES, the process ends. If NO, the process returns to S13 and repeats.

【0048】以上のS11からS15によって、発表者
がプレゼンテーション装置を操作して画像を表示および
音声を発声して各種プレゼンテーションを行うと共に、
そのときの操作にタイムスタンプを付加して記録するこ
とが可能となる。
According to the above S11 to S15, the presenter operates the presentation device to display an image and utters a voice to perform various presentations.
The operation at that time can be recorded with a time stamp added.

【0049】図7は、本発明のプレゼンテーション進行
記録テーブル例を示す。これは、既述した図6の(b)
でプレゼンテーション装置を発表者が操作してプレゼン
テーションを行ったときの ・主操作 ・イベント ・時間(タイムスタンプ) ・内容 をそれぞれ記録したものである。
FIG. 7 shows an example of a presentation progress record table according to the present invention. This corresponds to the already described FIG.
When the presenter operates the presentation device to give a presentation, the main operation, the event, the time (time stamp), and the content are recorded.

【0050】図8は、本発明の動作説明フローチャート
(作成)を示す。図8において、S21は、プレゼンテ
ーション進行記録テーブルおよび画像/音声記録情報を
読み込む。これは、既述した図7のプレゼンテーション
進行記録テーブルに記録した時間情報を付加した操作
(主操作)、および記録した時間情報を付加した画像、
音声を読み込む。
FIG. 8 shows a flowchart (creation) for explaining the operation of the present invention. In FIG. 8, S21 reads a presentation progress record table and image / audio record information. This is an operation (main operation) to which the time information recorded in the presentation progress recording table of FIG. 7 is added, an image to which the recorded time information is added,
Load audio.

【0051】S22は、主操作および記録情報を時間軸
上に展開する。S23は、主操作を取り出し、開始(T
s)/終了(Te)時間を抽出する。これらS22、S
23は、例えば既述した図5の(a)のように、主操
作、画像、音声をそれぞれに付加されている時間情報を
もとに時間軸上に展開し、展開した主操作の開始(T
s)および終了(Te)の時間をそれぞれ抽出する。
In step S22, the main operation and the recorded information are developed on the time axis. S23 takes out the main operation and starts (T
s) / End (Te) time is extracted. These S22, S
Reference numeral 23 denotes, for example, as shown in FIG. 5A described above, the main operation, the image, and the sound are developed on the time axis based on the time information added thereto, and the developed main operation is started ( T
The time of s) and the end (Te) are extracted respectively.

【0052】S24は、Ts−Te間にある記録情報
(画像、音声)を抽出する。例えば既述した図5の
(b)のオブジェクト(1),(2)、(3)・・・に
示すように、主操作に対応する画像、音声をそれぞれ抽
出する。
In step S24, recording information (image and sound) existing between Ts and Te is extracted. For example, as shown in the previously described objects (1), (2), (3),... In FIG. 5B, the image and the sound corresponding to the main operation are respectively extracted.

【0053】S25は、主操作をベースとしてS31か
らS36の分析処理を行う。S31は、プレゼンテーシ
ョンのデータ分析、記録画像認識/分析、記録音声認識
/分析を行う。
In step S25, the analysis processing in steps S31 to S36 is performed based on the main operation. In step S31, presentation data analysis, recorded image recognition / analysis, and recorded voice recognition / analysis are performed.

【0054】S32は、キーワードを抽出する。これ
は、S31の分析、認識をもとに、画像、音声からキー
ワードを抽出する。S33は、優先度を判定する。優先
度は例えば下記のように判定する。
In step S32, a keyword is extracted. This extracts keywords from images and voices based on the analysis and recognition in S31. S33 determines the priority. The priority is determined, for example, as follows.

【0055】 ・情報表示処理装置による資料表示 ・発表者の画像 ・聴講者の画像 ・発表者の音声 ・聴講者の音声 を記録し、下記のように優先度をそれぞれ設定する。Material display by the information display processing device Image of the presenter Image of the attendee Voice of the presenter Voice of the audience is recorded, and the priority is set as follows.

【0056】・開始時には、画像は、、の優先度
を高く設定 音声は、の優先度を高く設定 ・それ以降は、 ・発表者が話をしたときには画像の優先度の最高値を
に設定 音声の優先度の最高値をに設定 それ以外の優先度は以前のまま ・発表者が情報表示処理装置を操作した場合には、 画像の優先度ではを最高値に設定 音声の優先度ではを最高値に設定 ・視聴者が質問などを発声した場合には、 画像の優先度ではを最高値に設定 音声の優先度ではを最高値に設定 S34は、強調度を判定する。これは、視聴者の画像を
分析して視聴者の視線の向けている位置、発表者の画像
を分析して発表者の位置と視線の向けている位置、会場
内の資料表示位置をもとに視聴者および発表者が注視し
ている位置の画像、音声の強調度を高く設定する。
At the start, the image has a high priority set for the voice. The voice has a high priority set for the voice. After that, when the presenter speaks, the highest priority of the image is set to the voice. Set the highest value of the priority of the other to the previous priority.If the presenter operates the information display processing device, the priority of the image is set to the highest value.The priority of the sound is set to the highest value. Set to a value If the viewer utters a question or the like, the image priority is set to the highest value The audio priority is set to the highest value S34 determines the degree of emphasis. This is based on the position of the viewer's line of sight by analyzing the viewer's image, the position of the presenter and the line of sight of the presenter by analyzing the image of the presenter, and the material display position in the venue. , The degree of emphasis of the image and sound at the position where the viewer and the presenter are gazing is set high.

【0057】S35は、アピール度を判定する。これ
は、発表者の画像中の顔の表情や音声などをもとにアピ
ールする画像、音声のアピール度を高く設定する。S3
6は、変化度を判定する。これは、画像、音声を分析し
て画像、音声の変化度を判定して設定する。
In step S35, the degree of appeal is determined. In this method, the appeal degree of an image or sound to be appealed based on the facial expression or sound in the image of the presenter is set high. S3
6 determines the degree of change. This is set by analyzing the image and the sound to determine the degree of change of the image and the sound.

【0058】S26は、分析結果をもとに、情報をオブ
ジェクト化する。これにより、後述する図9のオブジェ
クトテーブル例に設定するオブジェクトが作成できたこ
ととなる。
In step S26, the information is converted into an object based on the analysis result. This means that an object to be set in the object table example of FIG. 9 described later has been created.

【0059】S27は、終了か判別する。YESの場合
には、S28でオブジェクトテーブルを作成する。NO
の場合には、S23に戻り繰り返す。以上によって、記
録した時間情報の付加された主操作、画像、音声を読み
込み、主操作タイミングで画像、音声を分離し、分離し
た各画像、音声を分析してキーワードを抽出、および優
先度、強調度、アピール度、変化度などを判定してオブ
ジェクト化し、オブジェクトテーブル5に設定して作成
することが可能となる。
In the step S27, it is determined whether or not the processing is completed. If YES, an object table is created in S28. NO
In the case of, the process returns to S23 and is repeated. As described above, the main operation, the image, and the sound to which the recorded time information is added are read, the image and the sound are separated at the main operation timing, the separated images and the sound are analyzed, and the keywords are extracted. The object can be created by determining the degree, appeal degree, change degree, etc., and setting the object in the object table 5.

【0060】図9は、本発明のオブジェクトテーブル例
を示す。オブジェクトテーブル5は、横軸は時間軸を表
し、縦軸は図示の下記の項目を設定したものである。 ・OHP内容: ・画像/音声1: ・画像2: ・音声2: ・優先度 ・OHP内容: ・画像/音声1: ・画像2: ・音声2: ・強調度: ・アピール度: ・変化度: ・キーワード: ・メモ: 以上のように、既述した図8のフローチャートに示す手
順に従い、記録した主操作タイミング、画像、音声をも
とに当該図8に示すようなオブジェクトテーブル5を自
動作成することが可能となる。
FIG. 9 shows an example of an object table according to the present invention. In the object table 5, the horizontal axis represents the time axis, and the vertical axis sets the following items shown in the figure. -OHP content:-Image / audio 1:-Image 2:-Audio 2:-Priority-OHP content:-Image / audio 1:-Image 2:-Audio 2:-Emphasis:-Appeal:-Change : ・ Keyword: ・ Memo: As described above, the object table 5 as shown in FIG. 8 is automatically created based on the recorded main operation timing, image, and sound according to the procedure shown in the flowchart of FIG. It is possible to do.

【0061】図10は、本発明の説明図を示す。これ
は、オブジェクトテーブル(コンテンツに相当)5を自
動作成する場合のシナリオ概要、およびマルチウィンド
ウ画面構成を決定した例を示す。ここでは、シナリオ概
要は、図示の下記のように遷移する。
FIG. 10 is an explanatory diagram of the present invention. This shows an example of a scenario outline when automatically creating an object table (corresponding to content) 5, and an example in which a multi-window screen configuration is determined. Here, the scenario outline transitions as shown below.

【0062】 ・表紙: ・レジメ: ・マルチウィンドウ画面: ・索引 また、マルチウィンドウ画面は、右側に示すように配置
する。
• Cover: • Regime: • Multi-window screen: • Index Also, the multi-window screen is arranged as shown on the right.

【0063】図11は、本発明の動作説明フローチャー
ト(自動作成)を示す。図11において、S41は、オ
ブジェクトリストを取り出す。S42は、表題/日時/
講師名を抽出して表紙画面を作成する。例えば右側に示
すように表紙画面を作成する。
FIG. 11 is a flow chart for explaining the operation of the present invention (automatic creation). In FIG. 11, S41 extracts an object list. S42 is title / date / time /
Create the cover screen by extracting the instructor name. For example, a cover screen is created as shown on the right side.

【0064】S43は、オブジェクト名(表題)とリン
クを時間軸で並べてレジメを作成する。これは、例えば
右側の矢印で示すレジメ画面の作成例に示すように作成
する。
A step S43 arranges the object names (titles) and the links on the time axis to create a regime. This is created, for example, as shown in a creation example of a registration screen indicated by an arrow on the right side.

【0065】S44は、各オブジェクトを取り出す。S
45は、オブジェクト内情報を、対応するウィンドウに
割り当て、マルチウィンドウ画面を作成する。例えば右
側の矢印で示すメイン画面の作成例に示すように作成す
る。
In step S44, each object is extracted. S
Reference numeral 45 assigns the in-object information to a corresponding window to create a multi-window screen. For example, it is created as shown in an example of creating a main screen indicated by an arrow on the right side.

【0066】S46は、優先度に応じた画面構成を作成
する。例えば右側の矢印で示す優先ウィンドウの拡大表
示例に示すように作成する。S47は、強調度に応じた
強調表現を付加する。例えば右側の矢印で示す強調部の
フラッシュ表現例に示すように、強調表現を付加する。
In step S46, a screen structure corresponding to the priority is created. For example, it is created as shown in an enlarged display example of a priority window indicated by an arrow on the right side. In step S47, an emphasized expression corresponding to the degree of emphasis is added. For example, as shown in a flash expression example of an emphasis portion indicated by an arrow on the right side, an emphasis expression is added.

【0067】S48は、終わりか判別する.YESの場
合には、S49で各オブジェクトのキーワードから索引
画面を作成する。一方、NOの場合には、S44に戻り
繰り返す。
In S48, it is determined whether the processing is over. In the case of YES, an index screen is created from keywords of each object in S49. On the other hand, if NO, the process returns to S44 and repeats.

【0068】以上によって、オブジェクトリストを取り
込み、表題、日時などを抽出して表紙画面を作成、オブ
ジェクト名とリンクを時間軸上で並べてレジメ作成、オ
ブジェクト内情報を対応するウィンドウに割り当ててマ
ルチウィンドウ画面を作成、優先度に応じた画面構成を
作成、強調度に応じた強調表現を付加、各オブジェクト
のキーワードから索引画面を作成することにより、自動
的にコンテンツ(オブジェクトテーブル5)を作成する
ことが可能となる。
As described above, the object list is fetched, the title, date and time, etc. are extracted to create a cover screen, object names and links are arranged on the time axis to create a register, and the information in the object is assigned to the corresponding window to create a multi-window screen. , Create a screen configuration according to the priority, add an emphasis expression according to the degree of emphasis, and create an index screen from keywords of each object, thereby automatically creating content (object table 5). It becomes possible.

【0069】図12は、本発明の説明図を示す。これ
は、ダイジェストコンテンツの作成を説明するものであ
る。図12の(a)は、基本シナリオの例を示す。ここ
では、図示の下記のシナリオを作成する。
FIG. 12 is an explanatory diagram of the present invention. This explains the creation of the digest content. FIG. 12A shows an example of a basic scenario. Here, the following scenario shown in the figure is created.

【0070】 (1) キーワードの押し出し表示: (2) 発表者フラッシュ表示: (3) 強調画面切り替えと押し出し表示: (4) 表題画面の表示: (5) フェードアウト: 図12の(b)は、オブジェクト化の様子を示す。ここ
で、部品全体は、既述した主操作タイミングで分離した
オブジェクト1,2,3,4・・・にする。各オブジェ
クト1,2,3,4・・に対応づけて強調度、アピール
度を図示のように設定する。また、各オブジェクト1,
2,3,4・・から図示のように、画像を切り出し、更
に、キーワードを抽出して設定する。
(1) Keyword push display: (2) Presenter flash display: (3) Emphasis screen switching and push display: (4) Title screen display: (5) Fade out: FIG. The state of object conversion is shown. Here, the entire part is made into objects 1, 2, 3, 4,... Separated at the main operation timing described above. The degree of emphasis and the degree of appeal are set in correspondence with the objects 1, 2, 3, 4,. In addition, each object 1,
As shown in the figure, images are cut out from 2, 3, 4,..., And keywords are extracted and set.

【0071】図12の(c)は、コンテンツ作成した例
を示す。これは、図12の(a)のシナリオの(1)、
(2)、(3)、(4)に従い、図12の(b)で抽出
した画像1,2,3,4,5・・・およびキーワードを
もとに自動作成した画面(1)、(2)、(3)、
(4)の例を示す。
FIG. 12C shows an example in which content is created. This corresponds to the scenario (1) in FIG.
According to (2), (3) and (4), screens (1) and (1) automatically created based on the images 1, 2, 3, 4, 5,... Extracted in FIG. 2), (3),
The example of (4) is shown.

【0072】[0072]

【発明の効果】以上説明したように、本発明によれば、
プレゼンテーションなどしたマルチメディア情報に時間
情報を付加して記録し、操作タイミングで分離してオブ
ジェクトを作成してオブジェクトテーブルに設定および
優先度などを設定する構成を採用しているため、プレゼ
ンテーションなどしたマルチメディア情報について、記
録として重要なポイントを強調すると共に視聴者に分か
り易くし、利用性を高めることが可能となる。
As described above, according to the present invention,
Multimedia information including presentations is recorded by adding time information to multimedia information such as presentations, separating objects at operation timing, creating objects, setting the object table, and setting priorities. With regard to the media information, it is possible to emphasize important points as a record, make it easy for a viewer to understand, and enhance usability.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のシステム構成図である。FIG. 1 is a system configuration diagram of the present invention.

【図2】本発明の説明図(その1)である。FIG. 2 is an explanatory view (No. 1) of the present invention.

【図3】本発明の説明図(その2)である。FIG. 3 is an explanatory view (No. 2) of the present invention.

【図4】本発明の説明図(その3)である。FIG. 4 is an explanatory view (No. 3) of the present invention.

【図5】本発明の説明図(その4)である。FIG. 5 is an explanatory view (No. 4) of the present invention.

【図6】本発明の動作説明フローチャート(記録)であ
る。
FIG. 6 is a flowchart (recording) for explaining the operation of the present invention.

【図7】本発明のプレゼンテーション進行記録テーブル
例である。
FIG. 7 is an example of a presentation progress record table of the present invention.

【図8】本発明の動作説明フローチャート(作成)であ
る。
FIG. 8 is a flowchart (creation) for explaining the operation of the present invention.

【図9】本発明のオブジェクトテーブル例である。FIG. 9 is an example of an object table according to the present invention.

【図10】本発明の説明図である。FIG. 10 is an explanatory diagram of the present invention.

【図11】本発明の動作説明フローチャートである。FIG. 11 is a flowchart illustrating the operation of the present invention.

【図12】本発明の説明図である。FIG. 12 is an explanatory diagram of the present invention.

【符号の説明】[Explanation of symbols]

1:情報表示処理装置 2:画像記録装置 3:音声記録装置 4:情報処理装置 5:オブジェクトテーブル 1: information display processing device 2: image recording device 3: audio recording device 4: information processing device 5: object table

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/91 H04N 5/91 N 5/93 5/93 E Z Fターム(参考) 5B049 FF07 5B050 CA09 FA10 FA17 5C053 FA14 FA30 HA21 JA01 JA22 JA30 KA04 KA05 LA05 LA11 5C082 AA01 AA03 AA37 BA02 BA12 BB26 CA76 CB05 DA61 DA87 MM09 MM10 5E501 AA01 AA20 AB13 AC14 AC15 BA03 BA06 CA02 CA06 CB15 DA11 DA12 EA21 FA14 FA32 FB04 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/91 H04N 5/91 N 5/93 5/93 EZ F term (Reference) 5B049 FF07 5B050 CA09 FA10 FA17 5C053 FA14 FA30 HA21 JA01 JA22 JA30 KA04 KA05 LA05 LA11 5C082 AA01 AA03 AA37 BA02 BA12 BB26 CA76 CB05 DA61 DA87 MM09 MM10 5E501 AA01 AA20 AB13 AC14 AC15 BA03 BA06 CA02 CA06 CB15 DA11 DA12 EA21 FA

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】マルチメディア情報を記録してプレゼンテ
ーションを行うプレゼンテーションシステムにおいて、 画像、音声などのマルチメディア情報に時間情報を付加
して記録する手段と、 上記記録した時間情報の付加されたマルチメディア情報
について、主操作タイミングでマルチメディア情報を分
離してオブジェクトを作成する手段と、 上記作成したオブジェクトを設定してオブジェクトテー
ブルを作成および必要に応じてオブジェクトに優先度を
設定する手段とを備えたことを特徴とするプレゼンテー
ションシステム。
1. A presentation system for performing presentation by recording multimedia information, means for adding and recording time information to multimedia information such as images and sounds, and a multimedia to which the recorded time information is added. Means for creating an object by separating multimedia information at main operation timing, and means for setting the created object, creating an object table, and setting the priority of the object as necessary. A presentation system characterized by the following.
【請求項2】上記マルチメディア情報の記録時に、上記
時間情報を付加する代わりに、特定画像あるいは特定音
声を順次付加して記録したことを特徴とする請求項1に
記載のプレゼンテーションシステム。
2. The presentation system according to claim 1, wherein at the time of recording the multimedia information, a specific image or a specific sound is sequentially added and recorded instead of adding the time information.
【請求項3】上記記録したマルチメディア情報中で当該
マルチメディア情報がないあるいは変化しない区間を抽
出し、スキップ区間として上記オブジェクトテーブルに
設定する手段を備えたことを特徴とする請求項1あるい
は請求項2記載のプレゼンテーションシステム。
3. The apparatus according to claim 1, further comprising means for extracting a section where the multimedia information does not exist or does not change from the recorded multimedia information, and setting the extracted section as a skip section in the object table. Item 3. The presentation system according to Item 2.
【請求項4】上記作成したオブジェクトテーブルをもと
に、設定されている各オブジェクトについて設定されて
いる優先度に従い画面上に強調表示あるいは強調して音
声出力する手段を備えたことを特徴とする請求項1から
請求項3のいずれかに記載のプレゼンテーションシステ
ム。
4. A system according to claim 1, further comprising means for highlighting on a screen or outputting sound by emphasizing the set objects based on the set priority based on the created object table. The presentation system according to claim 1.
【請求項5】上記分離した各オブジェクトからキーワー
ドをそれぞれ抽出して上記オブジェクトテーブルの該当
オブジェクトに対応づけて設定し、画面上に当該オブジ
ェクトに対応づけて表示あるいは音声出力する手段を備
えたことを特徴とする請求項1から請求項4のいずれか
に記載のプレゼンテーションシステム。
5. A method for extracting a keyword from each of the separated objects, setting the keyword in association with the object in the object table, and displaying or outputting the sound in association with the object on a screen. The presentation system according to any one of claims 1 to 4, characterized in that:
【請求項6】上記マルチメディア情報あるいは受講者を
撮影した画像をもとに、受講者の注視している資料ある
いはその資料の部分を抽出して上記オブジェクトテーブ
ル中の該当オブジェクトの優先度を高く設定する手段を
備えたことを特徴とする請求項1から請求項5のいずれ
かに記載のプレゼンテーションシステム。
6. A material watched by the student or a portion of the material is extracted based on the multimedia information or the image of the student, and the priority of the object in the object table is increased. The presentation system according to any one of claims 1 to 5, further comprising a setting unit.
【請求項7】上記マルチメディア情報あるいは発表者を
撮影した画像をもとに、発表者が注視している画像、資
料、あるいは発声している音声を抽出して上記オブジェ
クトテーブル中の該当オブジェクトの優先度を高く設定
する手段を備えたことを特徴とする請求項1から請求項
6のいずれかに記載のプレゼンテーションシステム。
7. An image, a document, or a voice uttered by the presenter is extracted based on the multimedia information or the image obtained by photographing the presenter, and the corresponding object in the object table is extracted. 7. The presentation system according to claim 1, further comprising means for setting a high priority.
【請求項8】画像、音声などのマルチメディア情報に時
間情報を付加して記録する手段と、上記記録した時間情
報の付加されたマルチメディア情報について、主操作タ
イミングでマルチメディア情報を分離してオブジェクト
を作成する手段と、上記作成したオブジェクトについ
て、優先度を設定してオブジェクトテーブルを作成する
手段として機能させるプログラムを記録したコンピュー
タ読取可能な記録媒体。
8. A means for recording by adding time information to multimedia information such as an image and a sound, and separating the multimedia information with the recorded time information by a main operation timing. A computer-readable recording medium recording a means for creating an object, and a program for setting the priority of the created object to function as a means for creating an object table.
JP2000187709A 2000-06-22 2000-06-22 Presentation system and recording medium Pending JP2002008052A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000187709A JP2002008052A (en) 2000-06-22 2000-06-22 Presentation system and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000187709A JP2002008052A (en) 2000-06-22 2000-06-22 Presentation system and recording medium

Publications (1)

Publication Number Publication Date
JP2002008052A true JP2002008052A (en) 2002-01-11

Family

ID=18687646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000187709A Pending JP2002008052A (en) 2000-06-22 2000-06-22 Presentation system and recording medium

Country Status (1)

Country Link
JP (1) JP2002008052A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258745A (en) * 2003-02-24 2004-09-16 Ricoh Co Ltd Event acquisition device, indexing device, event acquisition method, and program
JP2005092879A (en) * 2003-09-12 2005-04-07 Ricoh Co Ltd A method of accessing information captured during a presentation using a paper document distribution for the presentation
WO2007043831A1 (en) * 2005-10-13 2007-04-19 Lg Electronics Inc. Method and apparatus for encoding/decoding
JP2008033736A (en) * 2006-07-31 2008-02-14 Sumitomo Mitsui Banking Corp Terminal device, log storage system, method and program thereof
WO2010150410A1 (en) 2009-06-26 2010-12-29 日本ポリエチレン株式会社 Polyethylene resin, catalyst used for production of the same, method for producing the same, hollow plastic molded article containing polyethylene resin, and use of the hollow plastic molded article
KR101086154B1 (en) 2003-05-13 2011-11-25 마이크로소프트 코포레이션 A method for retrieving a value to be provided for an attribute and a method for providing a value for an attribute for selectively highlighting a presentation theme, and a computer readable recording medium.
US8281230B2 (en) 2003-04-11 2012-10-02 Ricoh Company, Ltd. Techniques for storing multimedia information with source documents
JP2013025608A (en) * 2011-07-22 2013-02-04 Mizuho Information & Research Institute Inc Explanation support system, explanation support method and explanation support program
WO2023182061A1 (en) * 2022-03-23 2023-09-28 パナソニックIpマネジメント株式会社 Conference assistance system, conference assistance device, and conference assistance method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258745A (en) * 2003-02-24 2004-09-16 Ricoh Co Ltd Event acquisition device, indexing device, event acquisition method, and program
US8281230B2 (en) 2003-04-11 2012-10-02 Ricoh Company, Ltd. Techniques for storing multimedia information with source documents
KR101086154B1 (en) 2003-05-13 2011-11-25 마이크로소프트 코포레이션 A method for retrieving a value to be provided for an attribute and a method for providing a value for an attribute for selectively highlighting a presentation theme, and a computer readable recording medium.
JP2005092879A (en) * 2003-09-12 2005-04-07 Ricoh Co Ltd A method of accessing information captured during a presentation using a paper document distribution for the presentation
US8271551B2 (en) 2005-10-13 2012-09-18 Lg Electronics Inc. Method and apparatus for encoding/decoding
US8199826B2 (en) 2005-10-13 2012-06-12 Lg Electronics Inc. Method and apparatus for encoding/decoding
US8255437B2 (en) 2005-10-13 2012-08-28 Lg Electronics Inc. Method and apparatus for encoding/decoding
US8271552B2 (en) 2005-10-13 2012-09-18 Lg Electronics Inc. Method and apparatus for encoding/decoding
US8275813B2 (en) 2005-10-13 2012-09-25 Lg Electronics Inc. Method and apparatus for encoding/decoding
WO2007043831A1 (en) * 2005-10-13 2007-04-19 Lg Electronics Inc. Method and apparatus for encoding/decoding
US8737488B2 (en) 2005-10-13 2014-05-27 Lg Electronics Inc. Method and apparatus for encoding/decoding
JP2008033736A (en) * 2006-07-31 2008-02-14 Sumitomo Mitsui Banking Corp Terminal device, log storage system, method and program thereof
WO2010150410A1 (en) 2009-06-26 2010-12-29 日本ポリエチレン株式会社 Polyethylene resin, catalyst used for production of the same, method for producing the same, hollow plastic molded article containing polyethylene resin, and use of the hollow plastic molded article
JP2013025608A (en) * 2011-07-22 2013-02-04 Mizuho Information & Research Institute Inc Explanation support system, explanation support method and explanation support program
WO2023182061A1 (en) * 2022-03-23 2023-09-28 パナソニックIpマネジメント株式会社 Conference assistance system, conference assistance device, and conference assistance method

Similar Documents

Publication Publication Date Title
JP4360905B2 (en) Multimedia data object for real-time slide presentation and system and method for recording and viewing multimedia data object
CN111538851A (en) Method, system, device and storage medium for automatically generating demonstration video
JP2002202941A (en) Multimedia electronic learning system and learning method
JP2000350159A (en) Visual image editing system
JP2011040921A (en) Content generator, content generating method, and content generating program
JP2002008052A (en) Presentation system and recording medium
JP2000099524A (en) Multimedia information viewing device
JP3637937B2 (en) Information reproducing apparatus and information reproducing method
JP2018180519A (en) Speech recognition error correction support device and program thereof
JP3562981B2 (en) Title information editing method and title information editing device
EP1811523B1 (en) Data outputting device, data outputting method, data outputting program, and recording medium
JP2005167822A (en) Information reproducing apparatus and information reproducing method
JP3507767B2 (en) Multimedia content reproduction system and multimedia content reproduction method
JP2007066018A (en) Information processing method and information processing apparatus
JP2005284490A (en) Data recording apparatus and data reproducing apparatus
KR100459668B1 (en) Index-based authoring and editing system for video contents
JPH1032773A (en) Abstract video browsing method and apparatus
JP3816901B2 (en) Stream data editing method, editing system, and program
WO2006030995A9 (en) Index-based authoring and editing system for video contents
JP7481863B2 (en) Speech recognition error correction support device, program, and method
US20240179381A1 (en) Information processing device, generation method, and program
KR100428382B1 (en) Media Reproducing Device with a Function of Dubbing Voice and Method therefor
JP4273788B2 (en) Supporting device for adding additional data to continuous data
JP2002197488A (en) Device and method for generating lip-synchronization data, information storage medium and manufacturing method of the information storage medium
Brennan et al. DL838: Creative Music Production Professional Project