[go: up one dir, main page]

JP2003114845A - Media conversion method and media conversion device - Google Patents

Media conversion method and media conversion device

Info

Publication number
JP2003114845A
JP2003114845A JP2001307348A JP2001307348A JP2003114845A JP 2003114845 A JP2003114845 A JP 2003114845A JP 2001307348 A JP2001307348 A JP 2001307348A JP 2001307348 A JP2001307348 A JP 2001307348A JP 2003114845 A JP2003114845 A JP 2003114845A
Authority
JP
Japan
Prior art keywords
information
media
stream
media access
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001307348A
Other languages
Japanese (ja)
Other versions
JP2003114845A5 (en
Inventor
Junichi Kimura
淳一 木村
Toru Yokoyama
徹 横山
Norihiro Suzuki
教洋 鈴木
Masahiro Wada
正裕 和田
Yasuhiro Takishima
康弘 滝嶋
Shigeyuki Sakasawa
茂之 酒澤
Satoshi Miyaji
悟史 宮地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
KDDI Corp
Original Assignee
Hitachi Ltd
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, KDDI Corp filed Critical Hitachi Ltd
Priority to JP2001307348A priority Critical patent/JP2003114845A/en
Publication of JP2003114845A publication Critical patent/JP2003114845A/en
Publication of JP2003114845A5 publication Critical patent/JP2003114845A5/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

(57)【要約】 【課題】 従来の映像配信フォーマットは、コンテンツ
の途中から再生する場合、あるいはリアルタイムにてエ
ンコードされているストリームの場合には、直接適応す
ることができなかった。 【解決手段】 上記目的を達成するために、配信サーバ
の変換処理部56において、原ストリーム53のmoof2
3部分をmoov71に変換する。 【効果】 上記手段により、元のコンテンツの途中から
開始されるストリームを、サーバー側はわずかな処理量
にて実現でき、一方、端末側は、従前のストームを受信
再生する処理となんら変更することなく、途中からの再
生を実現することができる。
(57) [Summary] [Problem] A conventional video distribution format cannot be directly applied to a case where the content is reproduced from the middle of the content or a stream which is encoded in real time. SOLUTION: In order to achieve the above-mentioned object, a conversion processing unit 56 of a distribution server performs processing of
Convert the three parts to moov71. According to the above means, the server can realize the stream started from the middle of the original content with a small processing amount, while the terminal side does not change the processing for receiving and reproducing the conventional storm. Instead, playback from the middle can be realized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は映像配信サーバに係
わり、特に映像ファイルを途中から配信する場合および
配信サーバを介してリアルタイムの映像を配信する場合
の処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video distribution server, and more particularly to a processing method for distributing a video file from the middle and for distributing real-time video through the distribution server.

【0002】[0002]

【従来の技術】端末からのリクエストに応じて、映像あ
るいはオーディオ(以下、「オーディオ」を音声または
オーディオの意味で用いる)および映像を伝送路を介し
て、サーバから端末へ該当データを配信する場合には、
各メディア、すなわち映像およびオーディオの再生タイ
ミングを示すための同期情報と、映像データ・オーディ
オデータ・同期情報を1つのデータとして多重化するシ
ステムレイヤが必要となる。これら、システムレイヤお
よび同期情報を規定する方式として、従来は、アイ エ
ス オー/アイ イー シー ISO/IEC 14496-1にて定めら
れた、ファイルフォーマット(以下MP4フォーマット)
があった。MP4フォーマットは図1のようにmoovと呼ば
れる付帯情報部分11と、mdatと呼ばれる符号化された
メディアデータ(映像データあるいはオーディオデータ
部分12)とから構成される。moov11はさらに図2に
示すように、ヘッダ情報・各メディア情報(以下ヘッダ
情報13)と各メディアの格納位置、再生時刻情報(タ
イムスタンプ)部分(以下メディアアクセス情報14)
から構成される。ヘッダ情報13には、例えば、以降の
データに含まれる映像の数、画像サイズ、符号化方式、
ビットレート等が記述されている。一方、メディアアク
セス情報14にはmdat12の中の映像(あるいはオーデ
ィオ)データの再生単位(以降アクセスユニット:AU)
毎の格納位置情報、各AUの再生時刻情報が格納されてい
る。
2. Description of the Related Art In response to a request from a terminal, video or audio (hereinafter, "audio" is used to mean voice or audio) and video are distributed from a server to a terminal via a transmission line. Has
A system layer is required to multiplex video data, audio data, and sync information as one data, and sync information for indicating the reproduction timing of each medium, that is, video and audio. Conventionally, the file format (hereinafter MP4 format) defined by ISO / IEC 14496-1 is used as the method for defining these system layers and synchronization information.
was there. As shown in FIG. 1, the MP4 format is composed of an incidental information part 11 called moov and encoded media data (video data or audio data part 12) called mdat. As shown in FIG. 2, the moov 11 further includes header information / media information (header information 13), storage position of each media, and reproduction time information (time stamp) portion (media access information 14).
Composed of. The header information 13 includes, for example, the number of videos included in the subsequent data, the image size, the encoding method,
The bit rate and the like are described. On the other hand, the media access information 14 includes a reproduction unit of video (or audio) data in mdat 12 (hereinafter, access unit: AU).
Storage location information for each and reproduction time information for each AU are stored.

【0003】図1のようなMP4フォーマットのファイル
の場合、ファイルを伝送路を介して配信し、受信した端
末にて、ファイル受信途中から、受信動作と並行して、
映像の再生を行なう動作を考えた場合、ファイルの先頭
部分再生に使用しないmoov11部分のデータをすべて読
み込む必要があり、ファイル受信開始から再生開始まで
の遅延時間が多くなる。こうした場合の遅延時間を削減
するために、図3のように、コンテンツを短時間のコン
テンツに細分化し、それぞれの短時間コンテンツに対応
するメディアアクセス情報とメディアデータを交互に、
ファイル内に分散して配置する方法、すなわち、先頭の
moov21と複数のmoof23,25に分散して配置する方
法が知られている。moovを、1つのmoovと1つ以上のmo
ofに分散配置するときのmoovの構造は図4のようになっ
ており、moofに関する情報32が存在することにより、
以降moofが存在するころを示す。moofの構造は図5のよ
うに、該当moofの通し番号41と該当moofに引き続くmd
atに含まれる各メディアに対するメディアアクセス情報
(データ位置とタイムスタンプ)から構成される。
In the case of an MP4 format file as shown in FIG. 1, the file is distributed via a transmission line, and the terminal which receives the file receives the file from the middle of receiving the file in parallel with the receiving operation.
Considering the operation of reproducing a video, it is necessary to read all the data of the moov 11 portion that is not used for reproducing the beginning portion of the file, which increases the delay time from the start of file reception to the start of reproduction. In order to reduce the delay time in such a case, as shown in FIG. 3, the contents are subdivided into short-time contents, and the media access information and the media data corresponding to the respective short-time contents are alternately arranged.
How to disperse and arrange in the file, that is, at the beginning
A method is known in which moov 21 and a plurality of moofs 23 and 25 are dispersed and arranged. moov, one moov and one or more mo
The structure of moov when distributed and arranged in of is as shown in FIG. 4, and since the information 32 regarding moof exists,
Hereafter, it shows when moof existed. The structure of moof is, as shown in Fig. 5, the serial number 41 of the corresponding moof and the md following the corresponding moof.
It consists of media access information (data position and time stamp) for each media included in at.

【0004】[0004]

【発明が解決しようとする課題】上記の従来技術は、コ
ンテンツの途中から再生する場合、あるいはリアルタイ
ムにてエンコードされているストリームの場合には、直
接適応することができなかった。本発明は、コンテンツ
の途中からの再生、あるいはリアルタイムにエンコード
されている永続するストリームを、従来技術の方式にの
み対応する端末において再生可能とするストリーム変換
方法を提供することを目的とする。
The above-mentioned prior art cannot be directly applied to the case where the content is reproduced from the middle or the stream which is encoded in real time. SUMMARY OF THE INVENTION It is an object of the present invention to provide a stream conversion method that enables reproduction of a content from the middle or a permanent stream encoded in real time in a terminal compatible only with the conventional technique.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、配信サーバにおいて、原ストリームのmoof部分をmo
ovに変換する。
[Means for Solving the Problems] In order to achieve the above-mentioned object, the moof part of the original stream is mo
convert to ov.

【0006】[0006]

【発明の実施の形態】以下本発明による第1の実施例を
図6に示す。図6は、映像51をエンコード処理52に
より一旦MP4フォーマットに合致した原ストリーム53
を生成し、蓄積処理54により一旦蓄積した後に、再生
開始時刻60を受け、蓄積したストリーム55を読み出
し、変換処理56により、ストリーム53の途中の指定
された付近の時刻から開始される変換ストリーム57を
生成し、生成したストりーム57を配信処理58によ
り、配信ストリーム59として端末へ配信する。
BEST MODE FOR CARRYING OUT THE INVENTION A first embodiment according to the present invention is shown in FIG. FIG. 6 shows an original stream 53 in which the video 51 is once subjected to the encoding process 52 and once conformed to the MP4 format.
Is generated and once accumulated by the accumulation process 54, the reproduction start time 60 is received, the accumulated stream 55 is read out, and the conversion process 56 starts a converted stream 57 that starts from a time near a designated midpoint of the stream 53. Is generated, and the generated storm 57 is distributed to the terminal as a distribution stream 59 by the distribution process 58.

【0007】図7は上記変換処理における、原ストリー
ム53と変換ストリーム57の関係を示したものであ
る。原ストリーム53は先頭にmoov21およびそれに引
き続くmdat22が配置されており、以下moof23/mdat
24、moof25/mdat26と、moofとそれに対応するmd
atの組み合わせが繰り返されている(以下の説明におい
て、メディアデータmdatとそれらに対応するmoofの組を
moof/mdatのように"/"を用いて表す)。開始時刻に該当
するAUがmdat24に含まれているとき、新たな開始点を
mdat24の先頭とし、変換処理56において、moov21
に記載された各メディア(映像およびオーディオ)の情
報と、moof23に記載されたmdat24の情報から、新た
なmoov70が生成される。以降、mdat24、26は原ス
トリーム53のmdatがコピーされ、また、moof25は通
し番号が変更された後、moof71として出力される。な
お、ストリームは55はストリーム53のうち、ストリ
ーム57の生成に必要ない部分、例えばmdat22等を読
み飛ばしたストリームである。
FIG. 7 shows the relationship between the original stream 53 and the converted stream 57 in the above conversion processing. In the original stream 53, moov 21 and mdat 22 following it are arranged at the beginning, and the following moof 23 / mdat
24, moof25 / mdat26, moof and corresponding md
The combination of at is repeated (in the following description, the pair of media data mdat and their corresponding moof are
"/" is used like moof / mdat). When the AU corresponding to the start time is included in mdat24, a new start point is set.
At the beginning of mdat24, in conversion processing 56, moov21
A new moov 70 is generated from the information of each medium (video and audio) described in 1. and the information of mdat 24 described in moof 23. Thereafter, the mdats of the original stream 53 are copied to the mdats 24 and 26, and the moof 25 is output as the moof 71 after the serial number is changed. The stream 55 is a stream of the stream 53, which is not necessary for generating the stream 57, such as mdat 22.

【0008】図8は上述した変換処理の詳細を示したフ
ローチャートである。変換処理56においては、まず、
原ストリームのmoov21を読み出し、そこに記述されて
いるヘッダ情報を読み出す。次に、新たなストリーム開
始位置となるmoof23を検索する。moov出力処理80で
は、上記のヘッダ情報、ストリーム開始位置となるmoof
の情報を用いて新たなmoov70を出力する。moov70に
引き続きmoof23に対応するmdat24を出力した後、所
定数のmoof/mdatの組み合わせを出力するループ処理8
1に入る。ループ処理では、まず引き続くmoof/mdatの
組み合わせがあるか否か、すなわちストリームの終了判
定82を行う。ストリーム終了の場合は処理83に移
り、moov70に書き込まれているコンテンツのデータサ
イズ、再生時間等の情報を更新し、処理を終了する。一
方、終了判定処理70にて未終了の場合は、ループ81
側の処理が行われる。すなわち、次のmoofが読み出さ
れ、通し番号を新たな値に修正した後に、修正したmoof
を主力し、その後、対応するmdatを出力する。これらの
処理を行った後に、再び終了判定処理70を行う。な
お、変換の終了は、(1)コンテンツの最終データを出
力した場合、(2)端末から終了要求が来た場合、
(3)配信エラー、端末からの応答のタイムアウト等に
よりサーバが自主的に終了する場合、が存在する。
FIG. 8 is a flow chart showing the details of the above conversion process. In the conversion process 56, first,
The moov 21 of the original stream is read and the header information described therein is read. Next, the moof 23 which is the new stream start position is searched. In the moov output processing 80, the above header information and moof that is the stream start position
A new moov 70 is output using the information of. Loop process 8 that outputs mdat 24 corresponding to moof 23 after moov 70 and then outputs a predetermined number of moof / mdat combinations
Enter 1. In the loop processing, first, it is determined whether there is a subsequent moof / mdat combination, that is, the stream end determination 82. When the stream ends, the process moves to the process 83, the information such as the data size and the reproduction time of the content written in the moov 70 is updated, and the process ends. On the other hand, if the end determination processing 70 is not finished, the loop 81
Side processing is performed. That is, the next moof is read, the serial number is modified to a new value, and then the modified moof
, And then output the corresponding mdat. After performing these processes, the end determination process 70 is performed again. It should be noted that the conversion is terminated by (1) when the final data of the content is output, (2) when the termination request is received from the terminal,
(3) There is a case where the server voluntarily terminates due to a delivery error, a timeout of a response from the terminal, or the like.

【0009】図9は図8のmoov出力処理80の詳細を説
明するためのフローチャートである。Moov主力処理で
は、まず、既に読み込んだmoov21のヘッダ情報を出力
する。次に各メディアの再生時刻を補正するための同期
補正情報を出力する。その後、先頭moof23のメディア
アクセス情報を出力する。これらの出力データは全てそ
のバイト数が計数されmoov70のサイズとして、moov先
頭に記載される。
FIG. 9 is a flow chart for explaining the details of the moov output process 80 of FIG. In the main processing of Moov, first, the header information of the already read moov 21 is output. Next, the synchronization correction information for correcting the reproduction time of each medium is output. Then, the media access information of the top moof 23 is output. The number of bytes of all of these output data is counted and described as the size of moov 70 at the head of moov.

【0010】図10は図9の同期補正情報の出力処理8
5の内容を説明するための図である。図10では、原ス
トリームとしてオーディオとビデオの2つのメディアか
ら構成されていたものを、その途中から開始されるスト
リームに変換した時の同期補正を示したものである。一
般に、1つのコンテンツ内のオーディオとビデオでは、
それぞれのAUのサンプリング時刻が非同期であるため、
原ストリーム途中からストリームを抽出した場合、先頭
のオーディオAUの再生時刻と先頭ビデオAUの再生時刻は
一致しない。すなわち、図10のように、ビデオAU2と
ビデオAU3の境界付近の点を新たな開始点とする場合、
図のように、ビデオはAU3から、オーディオはAU8から
開始されることになり、時間差Tが生じる。同期補正処
理では、このTの値を変換ストリームに記述することに
より、端末において再生時に、オーディオとビデオの時
間関係を原ストリームに同じ時間位置とすることが可能
となる。図10ではビデオが遅れているため、「ビデオ
信号の再生開始をT遅らせる」旨を示す情報を出力する
が、オーディオが送れている場合は、「オーディオ信号
の再生開始を所定時間遅らせる」旨の情報を出力する。
これらの再生時刻は全て、原ストリームのmoovあるいは
moofに記述されているため、原ストリームのmoovあるい
はmoofに記述されたタイムスタンプの値の大小によって
判定および計算を行う。
FIG. 10 shows an output process 8 of the synchronization correction information of FIG.
It is a figure for demonstrating the content of 5. FIG. 10 shows the synchronization correction when an original stream composed of two media, audio and video, is converted into a stream that starts halfway. Generally, for audio and video within one content,
Since the sampling time of each AU is asynchronous,
When the stream is extracted from the middle of the original stream, the reproduction time of the first audio AU and the reproduction time of the first video AU do not match. That is, as shown in FIG. 10, when a point near the boundary between the video AU2 and the video AU3 is set as a new start point,
As shown in the figure, the video starts from AU3 and the audio starts from AU8, resulting in a time difference T. In the synchronization correction process, by describing the value of T in the conversion stream, it becomes possible to make the time relationship between the audio and video at the same time position in the original stream at the time of reproduction at the terminal. In FIG. 10, since the video is delayed, the information indicating “delay the start of playback of the video signal by T” is output. However, if audio is being sent, a message “delay the start of playback of the audio signal by a predetermined time” is output. Output information.
These playback times are all moov or
Since it is described in moof, judgment and calculation are performed based on the size of the time stamp value described in moov or moof of the original stream.

【0011】なお、低レートの符号化の場合では、オー
ディオのAUの再生時刻が例えば30ms周期で一定で短いの
に対し、ビデオのAUの再生時刻は例えば10フレーム/
秒すなわち100msと長く、さらに可変フレームレー
トであり、その周期が不定期になることが多い。このた
め、端末側ではオーディオ周期を基準周期とし、再生を
行うことが多い。すなわち、端末側では、オーディオ信
号の再生処理を基準に、ビデオの再生処理が必要となっ
た場合にのみ、ビデオ出力処理を行う構成をとる。従っ
て、基準となるオーディオの再生が開始されると同時あ
るいは後にビデオの表示を行う、すなわち「ビデオ信号
の再生開始を遅らせる」ように、再生開始位置をとるこ
とにより、端末側の負担を軽減することができる。逆
に、オーディオ再生を遅らせると、基準となる処理の開
始前にビデオ信号の再生処理を開始させなくてはなら
ず、開始時の処理が通常の処理と異なる制御方法とな
り、端末側に追加のソフトウェアあるいはハードウェア
が必要となってしまう。以上、図6から図10により説
明した実施例により、元のコンテンツの途中から開始さ
れるストリームを、サーバー側は新しいmoovの生成をmo
ofの微修正のみのわずかな処理量にて実現でき、一方、
端末側は、従来のストームを受信再生する処理となんら
変更なく、途中からの再生を実現することができる。
In the case of low rate coding, the reproduction time of the audio AU is constant and short, for example, at a period of 30 ms, whereas the reproduction time of the video AU is, for example, 10 frames / frame.
It is as long as seconds, that is, 100 ms, has a variable frame rate, and its cycle is often irregular. Therefore, on the terminal side, reproduction is often performed with the audio cycle as the reference cycle. That is, the terminal side is configured to perform the video output process only when the video reproduction process is required on the basis of the audio signal reproduction process. Therefore, the load on the terminal side is reduced by setting the reproduction start position so that the video is displayed at the same time as or after the reproduction of the reference audio is started, that is, "the start of the reproduction of the video signal is delayed". be able to. On the other hand, if audio playback is delayed, the video signal playback process must be started before the start of the standard process, and the process at the start becomes a control method different from the normal process, and additional processing is added to the terminal side. Requires software or hardware. As described above, according to the embodiment described with reference to FIG. 6 to FIG. 10, the server starts the generation of a new moov for the stream started from the middle of the original content.
It can be realized with a small amount of processing only by minor correction of of, while
The terminal side can realize the reproduction from the middle without any change from the conventional processing of receiving and reproducing the storm.

【0012】図8の構成は特に、ビデオサーバと組み合
わせると、コンテンツを、コンテンツ先頭から配信する
場合と、コンテンツ途中から配信する場合と、同一の、
しかも単一のデータのみを保持することにより実現で
き、ビデオサーバの蓄積装置の容量を小さくできたり、
あるいは、一定の蓄積装置にてより多くのデータを保持
できる効果がある。
[0012] Especially when the configuration of Fig. 8 is combined with a video server, the same contents are delivered when the contents are delivered from the beginning of the contents and when delivered from the middle of the contents.
Moreover, it can be realized by holding only a single data, and the capacity of the storage device of the video server can be reduced,
Alternatively, there is an effect that more data can be held in a certain storage device.

【0013】図11は本発明の第2の実施例を示したも
のである。図11は、リアルタイムに符号化されている
原ストリーム(リアルタイムの映像)を任意の時点から
切り出し、新たな変換ストリームとして配信する処理構
成である。入力された映像51はエンコード処理52に
よりリアルタイムにてエンコードされ、原ストリーム5
3が生成される。リアルタイムデータ変換処理101で
は、この原ストリーム53を、指示のあった時点から開
始される変換ストリーム57にリアルタイムに変換し、
配信処理58により配信される。これは、例えば、図1
2のように監視カメラ等により、随時撮影されている映
像を複数の端末からアクセスするような用途に使われ
る。
FIG. 11 shows a second embodiment of the present invention. FIG. 11 shows a processing configuration in which an original stream (real-time video) encoded in real time is cut out from an arbitrary time point and delivered as a new converted stream. The input video 51 is encoded in real time by the encoding process 52, and the original stream 5
3 is generated. In the real-time data conversion processing 101, this original stream 53 is converted in real time into a converted stream 57 that starts from the time when there is an instruction,
It is distributed by the distribution process 58. This is for example shown in FIG.
As shown in 2, the surveillance camera or the like is used for the purpose of accessing the image taken at any time from a plurality of terminals.

【0014】図13は図11のリアルタイムデータ変換
処理の詳細を説明するフローチャートである。まず、変
換開始前に、ストリーム53のヘッダ情報を取得し、蓄
積処理120を実行する。次に、端末からの配信要求を
待ち、配信要求がない場合には、ストリーム53の次の
moofあるいは、mdatを検索しておく。
FIG. 13 is a flow chart for explaining the details of the real-time data conversion processing of FIG. First, before the conversion is started, the header information of the stream 53 is acquired and the accumulation process 120 is executed. Next, it waits for a distribution request from the terminal. If there is no distribution request, the next stream 53
Search for moof or mdat.

【0015】配信要求があった場合は、要求後最初のmo
ofを検索し、このmoof情報と先のヘッダ情報からmoovを
生成し出力する。以降の処理は図8と同じである。な
お、リアルタイム処理の終了処理は、図8の場合の終了
処理に加え、「終了しない」場合が含まれる。従って、
先頭moovに記載するデータサイズ、コンテンツの再生時
間(コンテンツ長)等のフィールドには「不定」「無
限」「リアルタイム配信」等の趣旨を表す情報を記載
し、図8の場合のような、データサイズが有限の場合と
区別をする必要がある。なお、図8の場合でも、先頭mo
ovに記載するデータサイズ、再生時間等のフィールドに
は「不定」「無限」「リアルタイム配信」等の趣旨を表
す情報を記載することにより、moov記載データの修正8
3を省略することが可能である。
When a delivery request is made, the first mo after the request is sent.
Search for of, generate moov from this moof information and the previous header information, and output it. Subsequent processing is the same as in FIG. Note that the end processing of the real-time processing includes the case of “not ending” in addition to the end processing of FIG. Therefore,
In the fields such as the data size and the playback time (content length) of the content described in the head moov, information indicating the meaning such as “undefined”, “infinite”, “real-time delivery” is described, and data such as the case of FIG. It is necessary to distinguish it from the case where the size is finite. Even in the case of FIG. 8, the leading mo
Modifying the data described in moov by entering information indicating the meaning such as “undefined”, “infinite”, “real-time delivery” in fields such as the data size and playback time described in ov.
It is possible to omit 3.

【0016】moofおよび対応するmdatをバッファ等に一
時的に蓄えることにより、原ストリームと配信ストリー
ムの遅延時間は大きくなり、若干リアルタイム性は損な
われるものの、端末からの配信要求発行から、映像配信
開始の時間差を補償し、配信要求時点の映像から配信を
することができる。
By temporarily storing the moof and the corresponding mdat in a buffer or the like, the delay time between the original stream and the distribution stream becomes long, and the real-time property is slightly impaired. However, the distribution request is issued from the terminal and the video distribution is started. By compensating for the time difference, the video can be distributed from the video at the distribution request time.

【0017】ヘッダ情報を取得し、蓄積処理120にお
いて、ヘッダ情報の取得は、エンコード開始時に設定す
るが、この他、以下のような処理でも構わない。 (1)ストリーム53中あるいは、ストリーム53に併
設されるチャネルにより、定期的にヘッダ情報を配信す
る。 (2)リアルタイム変換処理部よりエンコーダ部へ、ヘ
ッダ情報を問い合わせ、エンコーダ部では問い合わせ毎
にストリーム53中あるいは、ストリーム53に併設さ
れるチャネルにより、ヘッダ情報を通知する。 (3)あらかじめ、ヘッダ情報をリアルタイム変換処理
部に記録しておき、エンコーダ部ではこれと同じパラメ
ータにて処理を行う。
In the accumulating process 120 for acquiring the header information, the acquisition of the header information is set at the start of encoding, but the following process may be used. (1) The header information is periodically delivered in the stream 53 or by a channel provided in the stream 53. (2) The real-time conversion processing unit inquires of the encoder unit about the header information, and the encoder unit notifies the header information for each inquiry in the stream 53 or by the channel provided in the stream 53. (3) Header information is recorded in advance in the real-time conversion processing unit, and the encoder unit performs processing with the same parameters.

【0018】図14はリアルタイムデータ用のmoov出力
処理である。処理の内容は図9と同じであるが、リアル
タイム性を確保するために、生成するmoovの出力を一時
バッファとし、moov生成が終了した後にバッファ内のデ
ータ主力処理125により、moovデータをすぐに配信す
る。
FIG. 14 shows a moov output process for real-time data. The content of the processing is the same as that of FIG. 9, but in order to secure the real-time property, the output of the generated moov is used as a temporary buffer, and the moov data is immediately processed by the data main processing 125 in the buffer after the moov generation is completed. To deliver.

【0019】図15は、本発明の第3の実施例である。
図15では、同一コンテンツにつき、ビットレートの異
なる複数(図16の例では3つ)のストリームを用意し
ておき、端末からの要求に応じて、moof/mdatの組み合
わせ単位で複数のストリームを切り替えることによって
ビットレート可変の伝送が可能となる。図16は、ビッ
トレート可変の例として、端末への回線のビットレート
が変動するようなシステムに適用した例であり、ネット
ワークのビットレートに適応したビットレートにて配信
することが可能になる。
FIG. 15 shows a third embodiment of the present invention.
In FIG. 15, a plurality of streams (three in the example of FIG. 16) having different bit rates are prepared for the same content, and a plurality of streams are switched in units of moof / mdat combinations in response to a request from the terminal. This enables variable bit rate transmission. FIG. 16 shows an example in which the bit rate is variable and is applied to a system in which the bit rate of the line to the terminal fluctuates, and it is possible to deliver at a bit rate adapted to the bit rate of the network.

【0020】図16では当初32kbpsにて開始した
配信を、時刻4付近からのバンド幅の拡大に伴い、時刻
4の最中48kbpsへの変更要求があり、時刻5から
レートを変更、以降時刻11より64kpbsに、時刻
13より32kbpsへと、ビットレートを変更してい
る。
In FIG. 16, there is a request to change the distribution initially started at 32 kbps to 48 kbps in the middle of time 4 due to the expansion of the bandwidth from around time 4, and the rate is changed from time 5 and thereafter time 11 The bit rate is changed from 64 kbps to 64 kbps and from time 13 to 32 kbps.

【0021】図17は図15の処理に対応したリアルタ
イムデータ変換処理の詳細を説明するためのフローチャ
ートである。処理の内容は図13とほぼ同じであるが、
配信開始時にビットレート設定処理150、各moof/mda
t配信前にビットレート変更要求有無判定151および
ビットレート変更要求有りの場合にビットレート変更処
理152が追加されている点が図13と異なる。また、
各moof/mdatは、それぞれの時点で設定されているビッ
トレートに対応するストリームから読み出す。一方、上
記に該当しないビットレートのストリームに関しては、
処理160,161にてmoof/mdatを読み飛ばし、常に
同期をとっておく。なお、本発明第3の実施例は、第2
の実施例を基にして説明をしたが、本発明の第1の実施
例とも組み合わせが可能であることは明白である。
FIG. 17 is a flow chart for explaining the details of the real-time data conversion processing corresponding to the processing of FIG. Although the contents of the process are almost the same as those in FIG. 13,
Bitrate setting process 150, each moof / mda at the start of distribution
13 is different from FIG. 13 in that a bit rate change request presence / absence determination 151 is added before distribution and a bit rate change processing 152 is added when there is a bit rate change request. Also,
Each moof / mdat is read from the stream corresponding to the bit rate set at each time point. On the other hand, for bit rate streams that do not correspond to the above,
In steps 160 and 161, moof / mdat is skipped and always synchronized. The third embodiment of the present invention is the second embodiment.
Although the description has been given based on the first embodiment of the present invention, it is obvious that it can be combined with the first embodiment of the present invention.

【0022】図15から図17の処理により、端末への
回線レートが変動するシステムにおいても、その時々の
回線レートにあったレートにより配信することが可能と
なる。また、配信中の回線レートの変動は少ないが、実
際の回線レートが周囲環境等により決定され、事前に決
定されない場合にも有効である。なお、回線レートの計
測は以下のような環境の情報を用いて行う。
By the processing of FIGS. 15 to 17, even in a system in which the line rate to the terminal fluctuates, it is possible to deliver at a rate suitable for the line rate at that time. Further, it is also effective when the line rate does not fluctuate during distribution but the actual line rate is determined by the surrounding environment or the like and is not decided in advance. The line rate is measured using the following environment information.

【0023】(1)端末より、端末にて計測した受信ビ
ットレートを通知する。 (2)端末より、回線レートに関連する情報を通知し、
配信側は受信した情報をもとに適切なビットレートを設
定する。例えば、最大ビットレート等、複数回線を束ね
る通信路では取得回線数、無線通信路では電波の強度、
エラーレートの値等が使われる。 (3)サーバと端末が同期して動作する、すなわち、端
末側よりデータ受信完了の通知あるいは、次データの送
信要求が得られるシステムの場合は、サーバにて送信ビ
ットレートを計測する。 (4)サーバと端末が同期して動作する場合、送信バッ
ファの残量から送信ビットレートを推定する。 (5)ネットワークより、通信ビットレート通知する。 (6)ネットワークより、回線レートに関連する情報を
通知する。 (7)上記の組み合わせ。
(1) The terminal notifies the reception bit rate measured by the terminal. (2) From the terminal, notify the information related to the line rate,
The distributor sets an appropriate bit rate based on the received information. For example, the maximum bit rate etc., the number of acquired lines in a communication path that bundles multiple lines, the strength of radio waves in a wireless communication path,
The error rate value is used. (3) In the case of a system in which the server and the terminal operate in synchronization with each other, that is, in a system in which a notification of data reception completion or a request for transmitting the next data is obtained from the terminal side, the server measures the transmission bit rate. (4) When the server and the terminal operate in synchronization, the transmission bit rate is estimated from the remaining amount of the transmission buffer. (5) The communication bit rate is notified from the network. (6) The network notifies the information related to the line rate. (7) A combination of the above.

【0024】図18は本発明の第4の実施例の概要を説
明する図である。第4の実施例は図6の第1の実施例の
変形例であり、第1の実施例では図8の形のmoofを用い
たストリームを対象にしていたが、第4の実施例では、
図1のmoofを用いないストリームを対象とする。
FIG. 18 is a diagram for explaining the outline of the fourth embodiment of the present invention. The fourth embodiment is a modification of the first embodiment of FIG. 6, and in the first embodiment, the stream using the moof in the form of FIG. 8 is targeted, but in the fourth embodiment,
The target is a stream that does not use moof in FIG.

【0025】第4の実施例では、入力する原ストリーム
は図1の形式であるため、その内容は図18の上部のよ
うになる。すなわち、moovは1つしかなく、その中は、
ヘッダ情報13とメディアアクセス情報14からなる。
ここで、メディアアクセス情報14は、論理的に、短い
時間から構成される、細分データ毎のデータ位置・タイ
ムスタンプに分けて考えれることができる。再生開始時
刻が指定された場合、その時刻に対応するメディアアク
セス情報201と、ヘッダ情報13から変換ストリーム
のmoov70を生成する。また、該当する細分データ20
2をmdat24として出力する。以降mdat12内の細分da
taとそれに該当する、moov11内のメディアアクセス情
報を順次出力する。
In the fourth embodiment, since the input original stream has the format shown in FIG. 1, the contents are as shown in the upper part of FIG. That is, there is only one moov, and among them,
It consists of header information 13 and media access information 14.
Here, the media access information 14 can be logically considered by dividing it into data positions and time stamps for each subdivided data, which are composed of a short time. When the reproduction start time is specified, the moov 70 of the converted stream is generated from the media access information 201 corresponding to the time and the header information 13. Also, the corresponding subdivision data 20
2 is output as mdat24. Subsequent da in mdat12
The ta and corresponding media access information in moov 11 are sequentially output.

【0026】図19は第4の実施例の処理を説明するた
めのフローチャートである。基本的な処理は図8の処理
と同じであるが、図19では、図8のmoof23検索のか
わりに、開始データのメディアアクセス情報201検索
処理210を行う。また、図8において、先頭mdat24を
そのまま出力するのに対し、図19では、処理210に
おいて得られたデータ位置をもとに、開始データ202
検索211を行い、得られたmdatを先頭mdat24として出
力する。
FIG. 19 is a flow chart for explaining the processing of the fourth embodiment. Although the basic processing is the same as the processing of FIG. 8, in FIG. 19, the media access information 201 search processing 210 of the start data is performed instead of the moof 23 search of FIG. Further, in FIG. 8, the head mdat24 is output as it is, whereas in FIG. 19, the start data 202 is obtained based on the data position obtained in the process 210.
The search 211 is performed and the obtained mdat is output as the head mdat24.

【0027】以下、ループ220においても、同様にメ
ディアアクセス情報読出212、mdat内の次データ読出
処理214を行う。また、図8においては、読み出した
moofを通し番号のみを修正して出力していたが、図19
の場合は、対応するmoovのデータから処理213におい
て、moofを生成して出力する。
Thereafter, in the loop 220, similarly, the medium access information reading 212 and the next data reading processing 214 in mdat are performed. In addition, in FIG.
Only the serial number of moof was corrected and output.
In the case of, in step 213, moof is generated from the corresponding moov data and is output.

【0028】このように、本発明はmoofを使用していな
いストリームに対しても適用は可能である。moofを使用
していないストリームに適用すると、moov内のデータの
解析が必要となり、処理量はmoofを使用した場合に比べ
多くかかる。一方、moofを使用している場合には、moof
の単位でしか開始点を設定しなかったが、第4の実施例
では、任意のAUから開始することができる。ただし、開
始AUは、ランダムアクセス可能なAUである必要がある。
また、第4の実施例を応用し、moovあるいはmoofの内部
を解析する処理をおこなうことにより、moofを使用した
ストリームに対し、moofの途中のAUを開始点とするスト
リームを生成することができる。
As described above, the present invention can be applied to a stream that does not use moof. When applied to a stream that does not use moof, data in moov needs to be analyzed, and the processing amount is higher than when moof is used. On the other hand, if you are using moof,
Although the starting point was set only in units of, in the fourth embodiment, it is possible to start from any AU. However, the starting AU needs to be a randomly accessible AU.
Further, by applying the fourth embodiment and performing a process of analyzing the inside of moov or moof, it is possible to generate a stream having an AU in the middle of moof as a start point for a stream using moof. .

【0029】第2の実施例から第4の実施例までも、第
1の実施例と同様に、ビデオサーバと組み合わせると、
以下の効果がある。第2の実施例では、リアルタイムデ
ータを任意のmoof/mdatから配信することができる。ま
た、変換の処理量が少ないため、限られたCPUにて、配
信開始位置のそれぞれ異なる、より多くの端末に対し
て、同時に配信を行うことが可能となる。
When the second to fourth embodiments are combined with the video server as in the first embodiment,
It has the following effects. In the second embodiment, real-time data can be delivered from any moof / mdat. Further, since the conversion processing amount is small, it is possible to simultaneously deliver to more terminals having different delivery start positions with a limited CPU.

【0030】第3の実施例では、ビデオサーバからの配
信時に、ビットレートを変換するために、トランスコー
デック(デコーダとエンコーダを組み合わせた変換装
置)を設置したり、非圧縮のコンテンツを用意してお
き、端末毎にリアルタイムにエンコード処理を行いなが
ら配信をすることに比べ、非常に少ない処理量にて、帯
域変動に対応する配信を実現することができる。また、
端末毎の帯域の変動はそれぞれ異なっていても、同じ処
理量にて処理ができるため、一定の処理量のCPUにて、
処理できる端末数が変動することがない。
In the third embodiment, a transcodec (conversion device combining a decoder and an encoder) is installed in order to convert the bit rate at the time of distribution from the video server, and uncompressed contents are prepared. In addition, it is possible to realize the distribution corresponding to the band fluctuation with a very small processing amount as compared with the distribution while performing the encoding process in real time for each terminal. Also,
Even if the fluctuation of the band for each terminal is different, it is possible to process with the same processing amount, so with a CPU with a constant processing amount,
The number of terminals that can be processed does not change.

【0031】[0031]

【発明の効果】第1の実施例においては、元のコンテン
ツの途中から開始されるストリームを、サーバー側はmo
ovの生成、moofの微修正のみのわずかな処理量にて実現
でき、一方、端末側は、従前のストームを受信再生する
処理となんら変更することなく、途中からの再生を実現
することができる。第2の実施例においては、リアルタ
イムに符号化されているストリームを任意の時点から切
り出し、新たなストリームとして配信する処理を、わず
かな処理量にて実現でき、一方、端末側は、従前のスト
ームを受信再生する処理となんら変更なく、リアルタイ
ムの映像を再生をすることができる。
In the first embodiment, the stream started from the middle of the original content is displayed on the server side as mo.
It can be realized with a small amount of processing only by generating ov and finely adjusting moof. On the other hand, the terminal side can realize reproduction from the middle without any change from the processing of receiving and reproducing the previous storm. . In the second embodiment, the processing of cutting out the stream coded in real time from an arbitrary time point and delivering it as a new stream can be realized with a small processing amount, while the terminal side can use the conventional storm. Real-time video can be played back without any change to the process of receiving and playing back.

【0032】第3の実施例では、端末への回線レートが
変動するシステムにおいても、その時々の回線レートに
あったレートにより配信することが可能となる。また、
配信中の回線レートの変動は少ないが、実際の回線レー
トが周囲環境等により決定され、事前に決定されない場
合にも有効である。
In the third embodiment, even in a system where the line rate to the terminal fluctuates, it is possible to deliver at a rate that matches the line rate at that time. Also,
Although the line rate does not fluctuate during distribution, it is also effective when the actual line rate is determined by the surrounding environment or the like and is not determined in advance.

【図面の簡単な説明】[Brief description of drawings]

【図1】MP4ファイルフォーマットを説明する図。FIG. 1 is a diagram illustrating an MP4 file format.

【図2】MP4ファイルフォーマットのmoov11の詳細を
説明する図。
FIG. 2 is a diagram illustrating details of moov11 in MP4 file format.

【図3】moofを使用したファイルフォーマットを説明す
る図。
FIG. 3 is a diagram illustrating a file format using moof.

【図4】moofを使用する時のmoov21の詳細を説明する
図。
FIG. 4 is a diagram illustrating details of moov 21 when using moof.

【図5】moof23の詳細を説明する図。FIG. 5 is a diagram illustrating details of moof 23.

【図6】本発明の第1の実施例の構成図。FIG. 6 is a configuration diagram of a first embodiment of the present invention.

【図7】本発明の第1の実施例の変換処理の概要を説明
する図。
FIG. 7 is a diagram illustrating an outline of conversion processing according to the first embodiment of this invention.

【図8】本発明の第1の実施例の詳細アルゴリズムを説
明するフローチャート。
FIG. 8 is a flowchart illustrating a detailed algorithm of the first exemplary embodiment of the present invention.

【図9】図8のmoov出力処理の詳細を説明するフローチ
ャート。
9 is a flowchart illustrating details of moov output processing in FIG.

【図10】メディア間の同期補正を説明する図。FIG. 10 is a diagram for explaining synchronization correction between media.

【図11】本発明の第2の実施例の変換処理の概要を説
明する図。
FIG. 11 is a diagram illustrating an outline of conversion processing according to the second embodiment of this invention.

【図12】本発明の第2の実施例の応用例を説明する
図。
FIG. 12 is a diagram illustrating an application example of the second embodiment of the present invention.

【図13】本発明の第2の実施例の詳細アルゴリズムを
説明するフローチャート。
FIG. 13 is a flowchart illustrating a detailed algorithm of the second exemplary embodiment of the present invention.

【図14】図13のmoov出力処理の詳細を説明するフロ
ーチャート。
14 is a flowchart illustrating details of moov output processing in FIG.

【図15】本発明の第3の実施例の変換処理の概要を説
明する図。
FIG. 15 is a diagram illustrating an outline of conversion processing according to the third embodiment of this invention.

【図16】本発明の第3の実施例の動作の概要を説明す
る図。
FIG. 16 is a diagram for explaining the outline of the operation of the third embodiment of the present invention.

【図17】本発明の第3の実施例の詳細アルゴリズムを
説明するフローチャート。
FIG. 17 is a flowchart illustrating a detailed algorithm of a third exemplary embodiment of the present invention.

【図18】本発明の第4の実施例の動作の概要を説明す
る図。
FIG. 18 is a diagram for explaining the outline of the operation of the fourth embodiment of the present invention.

【図19】本発明の第4の実施例の詳細アルゴリズムを
説明するフローチャート。
FIG. 19 is a flowchart illustrating a detailed algorithm of a fourth exemplary embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11 moov 12 mdat 53 原ストリーム 56 変換処理 57 途中再生ストリーム 80 moov出力処理 101 リアルタイムデータ変換処理 130 ビットレート変更要求 11 moov 12 mdat 53 Hara Stream 56 Conversion process 57 Midway Play Stream 80 moov output processing 101 Real-time data conversion processing 130 Bit rate change request

フロントページの続き (72)発明者 横山 徹 東京都国分寺市東恋ヶ窪一丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 鈴木 教洋 東京都国分寺市東恋ヶ窪一丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 和田 正裕 埼玉県上福岡市大原二丁目1番15号 株式 会社ケイディーディーアイ研究所内 (72)発明者 滝嶋 康弘 埼玉県上福岡市大原二丁目1番15号 株式 会社ケイディーディーアイ研究所内 (72)発明者 酒澤 茂之 埼玉県上福岡市大原二丁目1番15号 株式 会社ケイディーディーアイ研究所内 (72)発明者 宮地 悟史 埼玉県上福岡市大原二丁目1番15号 株式 会社ケイディーディーアイ研究所内 Fターム(参考) 5C064 BA01 BB05 BC10 BC16 BD02 BD07 Continued front page    (72) Inventor Toru Yokoyama             1-280, Higashikoigakubo, Kokubunji, Tokyo             Central Research Laboratory, Hitachi, Ltd. (72) Inventor Norihiro Suzuki             1-280, Higashikoigakubo, Kokubunji, Tokyo             Central Research Laboratory, Hitachi, Ltd. (72) Inventor Masahiro Wada             2-15-1 Ohara, Kamifukuoka City, Saitama Stock             Company CAD Research Institute (72) Inventor Yasuhiro Takishima             2-15-1 Ohara, Kamifukuoka City, Saitama Stock             Company CAD Research Institute (72) Inventor Shigeyuki Sazawa             2-15-1 Ohara, Kamifukuoka City, Saitama Stock             Company CAD Research Institute (72) Inventor Satoshi Miyaji             2-15-1 Ohara, Kamifukuoka City, Saitama Stock             Company CAD Research Institute F-term (reference) 5C064 BA01 BB05 BC10 BC16 BD02                       BD07

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 ヘッダ情報と、該ヘッダ情報に対し細分
化されて配置したメディアアクセス情報と、該メディア
アクセス情報に対応するメディアデータとから構成され
る符号を入力し、さらに、再生開始位置情報を入力し、
前記ヘッダ情報と前記再生開始位置情報に該当するメデ
ィアアクセス情報とから新たなヘッダ情報を生成し、該
新たなヘッダ情報と前記再生開始位置情報に対応する開
始位置以降のメディアアクセス情報及びメディアデータ
とから新たな符号を生成し出力することを特徴とするメ
ディア変換方法。
1. A code including header information, media access information subdivided with respect to the header information, and media data corresponding to the media access information is input, and further reproduction start position information is input. Enter
New header information is generated from the header information and media access information corresponding to the reproduction start position information, and media access information and media data after the start position corresponding to the new header information and the reproduction start position information. A media conversion method characterized in that a new code is generated from and output.
【請求項2】 前記ヘッダ情報を蓄積し、符号を生成の
要求を前記再生開始位置情報の入力とみなし、新たな符
号を生成し出力することを特徴とする請求項1記載のメ
ディア変換方法。
2. The media conversion method according to claim 1, wherein the header information is accumulated, and a request to generate a code is regarded as an input of the reproduction start position information, and a new code is generated and output.
【請求項3】 ヘッダ情報と細分化されて配置されたメ
ディアアクセス情報とメディアデータとから構成される
特性の異なる複数の符号と、前記複数の符号から1つの
符号を選択判定するための環境情報を入力し、前記環境
情報をもとに1つのメディアアクセス情報及びメディア
データを選択する選択情報を生成し、前記選択情報を用
いて各細分化されたメディアアクセス情報及びメディア
データ毎に、1つのメディアアクセス情報及びメディア
データ選択し、前記選択により得られる一連のメディア
アクセス情報及びメディアデータと前記ヘッダ情報さら
に指定された変換後の先頭のメディアアクセス情報から
新たなに生成されたヘッダ情報を1つの新たな符号とし
て出力するすることを特徴とするメディア変換方法。
3. A plurality of codes having different characteristics composed of header information, media access information subdivided and arranged, and media data, and environment information for selectively judging one code from the plurality of codes. Is generated, selection information for selecting one piece of media access information and media data is generated based on the environment information, and one piece is created for each piece of media access information and media data that is subdivided using the selection information. The media access information and the media data are selected, and a series of media access information and the media data obtained by the selection and the header information, and the newly generated header information from the specified media access information after conversion are combined into one. A media conversion method characterized by outputting as a new code.
【請求項4】 前記特性の異なる複数の符号が、複数の
それぞれビットレートの異なる符号であることを特徴と
する請求項3記載のメディア変換方法。
4. The media conversion method according to claim 3, wherein the plurality of codes having different characteristics are a plurality of codes having different bit rates.
【請求項5】 前記環境情報をもとに1つのメディアア
クセス情報及びメディアデータを選択する選択情報を生
成する処理を、1回のメディア変換の開始時に1回のみ
実行ことを特徴とする請求項3あるいは請求項4記載の
メディア変換方法。
5. The process of generating one piece of media access information and selection information for selecting media data based on the environment information is executed only once at the start of one media conversion. 3. The media conversion method according to claim 3 or claim 4.
【請求項6】 映像をエンコードし原ストリームを出力
するエンコード処理部と、前記エンコード処理部からの
原ストリームを蓄積する蓄積処理部と、再生開始時刻の
入力を受け新たなヘッダ情報を生成することにより前記
蓄積処理部に蓄積された原ストリームの途中の指定され
た付近の時刻から変換ストリームを生成する変換処理部
と、変換ストリームを配信する配信処理部とを有するこ
とを特徴とするメディア配信装置。
6. An encoding processing unit for encoding an image and outputting an original stream, a storage processing unit for accumulating the original stream from the encoding processing unit, and inputting a reproduction start time to generate new header information. A media distribution apparatus comprising: a conversion processing unit that generates a conversion stream from a time near a specified point in the middle of the original stream stored in the storage processing unit, and a distribution processing unit that distributes the conversion stream. .
JP2001307348A 2001-10-03 2001-10-03 Media conversion method and media conversion device Pending JP2003114845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001307348A JP2003114845A (en) 2001-10-03 2001-10-03 Media conversion method and media conversion device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001307348A JP2003114845A (en) 2001-10-03 2001-10-03 Media conversion method and media conversion device

Publications (2)

Publication Number Publication Date
JP2003114845A true JP2003114845A (en) 2003-04-18
JP2003114845A5 JP2003114845A5 (en) 2005-06-02

Family

ID=19126823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001307348A Pending JP2003114845A (en) 2001-10-03 2001-10-03 Media conversion method and media conversion device

Country Status (1)

Country Link
JP (1) JP2003114845A (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006090852A1 (en) 2005-02-24 2006-08-31 Matsushita Electric Industrial Co., Ltd. Data regeneration device
JP2007266830A (en) * 2006-03-28 2007-10-11 Alpine Electronics Inc Video output system
JP2008504793A (en) * 2004-06-07 2008-02-14 スリング メディア,インク. Personal media broadcasting system
US7555009B2 (en) 2003-11-14 2009-06-30 Canon Kabushiki Kaisha Data processing method and apparatus, and data distribution method and information processing apparatus
US7567584B2 (en) 2004-01-15 2009-07-28 Panasonic Corporation Multiplex scheme conversion apparatus
CN100562088C (en) * 2003-10-10 2009-11-18 索尼株式会社 file reproduction method
US7917932B2 (en) 2005-06-07 2011-03-29 Sling Media, Inc. Personal video recorder functionality for placeshifting systems
US7975062B2 (en) 2004-06-07 2011-07-05 Sling Media, Inc. Capturing and sharing media content
US7992176B2 (en) 1999-05-26 2011-08-02 Sling Media, Inc. Apparatus and method for effectively implementing a wireless television system
US8060609B2 (en) 2008-01-04 2011-11-15 Sling Media Inc. Systems and methods for determining attributes of media items accessed via a personal media broadcaster
US8099755B2 (en) 2004-06-07 2012-01-17 Sling Media Pvt. Ltd. Systems and methods for controlling the encoding of a media stream
JP2012175608A (en) * 2011-02-24 2012-09-10 Nec Personal Computers Ltd Converter, information distribution device, communication system, control method, and program
US8266657B2 (en) 2001-03-15 2012-09-11 Sling Media Inc. Method for effectively implementing a multi-room television system
US8286213B2 (en) * 2003-05-13 2012-10-09 Lg Electronics Inc. HTTP based video streaming apparatus and method in mobile communication system
CN102723090A (en) * 2012-07-04 2012-10-10 深圳锐取信息技术股份有限公司 Moving picture experts group 4 (MP4) file generation and reading method
US8346605B2 (en) 2004-06-07 2013-01-01 Sling Media, Inc. Management of shared media content
CN102969013A (en) * 2011-08-31 2013-03-13 佳能株式会社 Data processing apparatus, method, and control program
US8406431B2 (en) 2009-07-23 2013-03-26 Sling Media Pvt. Ltd. Adaptive gain control for digital audio samples in a media stream
US8532472B2 (en) 2009-08-10 2013-09-10 Sling Media Pvt Ltd Methods and apparatus for fast seeking within a media stream buffer
JP2014131307A (en) * 2014-02-06 2014-07-10 Sony Corp Information processing apparatus, information processing method, and program
US8799408B2 (en) 2009-08-10 2014-08-05 Sling Media Pvt Ltd Localization systems and methods
US8966101B2 (en) 2009-08-10 2015-02-24 Sling Media Pvt Ltd Systems and methods for updating firmware over a network
JP2015515167A (en) * 2012-02-16 2015-05-21 ブライトコーブ インコーポレイテッド System and method for dynamically making a file available during encoding
US9131253B2 (en) 2004-06-07 2015-09-08 Sling Media, Inc. Selection and presentation of context-relevant supplemental content and advertising
US9191610B2 (en) 2008-11-26 2015-11-17 Sling Media Pvt Ltd. Systems and methods for creating logical media streams for media storage and playback
US9479737B2 (en) 2009-08-06 2016-10-25 Echostar Technologies L.L.C. Systems and methods for event programming via a remote media player
US9525838B2 (en) 2009-08-10 2016-12-20 Sling Media Pvt. Ltd. Systems and methods for virtual remote control of streamed media
US9565479B2 (en) 2009-08-10 2017-02-07 Sling Media Pvt Ltd. Methods and apparatus for seeking within a media stream using scene detection
US9998802B2 (en) 2004-06-07 2018-06-12 Sling Media LLC Systems and methods for creating variable length clips from a media stream
JP2021508429A (en) * 2018-05-29 2021-03-04 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. Media file conversion method, device and storage medium

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7992176B2 (en) 1999-05-26 2011-08-02 Sling Media, Inc. Apparatus and method for effectively implementing a wireless television system
US9781473B2 (en) 1999-05-26 2017-10-03 Echostar Technologies L.L.C. Method for effectively implementing a multi-room television system
US9584757B2 (en) 1999-05-26 2017-02-28 Sling Media, Inc. Apparatus and method for effectively implementing a wireless television system
US9491523B2 (en) 1999-05-26 2016-11-08 Echostar Technologies L.L.C. Method for effectively implementing a multi-room television system
US8266657B2 (en) 2001-03-15 2012-09-11 Sling Media Inc. Method for effectively implementing a multi-room television system
US8286213B2 (en) * 2003-05-13 2012-10-09 Lg Electronics Inc. HTTP based video streaming apparatus and method in mobile communication system
CN100562088C (en) * 2003-10-10 2009-11-18 索尼株式会社 file reproduction method
US7653286B2 (en) * 2003-10-10 2010-01-26 Sony Corporation File reproduction apparatus, file reproduction method, file reproduction method program and recording medium for recording file reproduction method program
US20100074601A1 (en) * 2003-10-10 2010-03-25 Sony Corporation File reproduction apparatus, file reproduction method, file reproduction method program and recording medium for recording file reproduction method program
EP1672923A4 (en) * 2003-10-10 2011-09-21 Sony Corp FILE REPRODUCTION DEVICE, FILE REPRODUCTION METHOD, FILE REPRODUCTION METHOD, AND RECORDING MEDIUM CONTAINING THE METHOD OF REPRODUCING FILES
US7555009B2 (en) 2003-11-14 2009-06-30 Canon Kabushiki Kaisha Data processing method and apparatus, and data distribution method and information processing apparatus
US7567584B2 (en) 2004-01-15 2009-07-28 Panasonic Corporation Multiplex scheme conversion apparatus
US9356984B2 (en) 2004-06-07 2016-05-31 Sling Media, Inc. Capturing and sharing media content
US7975062B2 (en) 2004-06-07 2011-07-05 Sling Media, Inc. Capturing and sharing media content
US9253241B2 (en) 2004-06-07 2016-02-02 Sling Media Inc. Personal media broadcasting system with output buffer
US8051454B2 (en) 2004-06-07 2011-11-01 Sling Media, Inc. Personal media broadcasting system with output buffer
US8060909B2 (en) 2004-06-07 2011-11-15 Sling Media, Inc. Personal media broadcasting system
US9131253B2 (en) 2004-06-07 2015-09-08 Sling Media, Inc. Selection and presentation of context-relevant supplemental content and advertising
US8099755B2 (en) 2004-06-07 2012-01-17 Sling Media Pvt. Ltd. Systems and methods for controlling the encoding of a media stream
US10419809B2 (en) 2004-06-07 2019-09-17 Sling Media LLC Selection and presentation of context-relevant supplemental content and advertising
US7921446B2 (en) 2004-06-07 2011-04-05 Sling Media, Inc. Fast-start streaming and buffering of streaming content for personal media player
US7877776B2 (en) 2004-06-07 2011-01-25 Sling Media, Inc. Personal media broadcasting system
US10123067B2 (en) 2004-06-07 2018-11-06 Sling Media L.L.C. Personal video recorder functionality for placeshifting systems
US8346605B2 (en) 2004-06-07 2013-01-01 Sling Media, Inc. Management of shared media content
US8365236B2 (en) 2004-06-07 2013-01-29 Sling Media, Inc. Personal media broadcasting system with output buffer
US9998802B2 (en) 2004-06-07 2018-06-12 Sling Media LLC Systems and methods for creating variable length clips from a media stream
US9106723B2 (en) 2004-06-07 2015-08-11 Sling Media, Inc. Fast-start streaming and buffering of streaming content for personal media player
US8904455B2 (en) 2004-06-07 2014-12-02 Sling Media Inc. Personal video recorder functionality for placeshifting systems
US8621533B2 (en) 2004-06-07 2013-12-31 Sling Media, Inc. Fast-start streaming and buffering of streaming content for personal media player
US9716910B2 (en) 2004-06-07 2017-07-25 Sling Media, L.L.C. Personal video recorder functionality for placeshifting systems
JP2008504793A (en) * 2004-06-07 2008-02-14 スリング メディア,インク. Personal media broadcasting system
US8799969B2 (en) 2004-06-07 2014-08-05 Sling Media, Inc. Capturing and sharing media content
US8819750B2 (en) 2004-06-07 2014-08-26 Sling Media, Inc. Personal media broadcasting system with output buffer
US7970602B2 (en) 2005-02-24 2011-06-28 Panasonic Corporation Data reproduction device
WO2006090852A1 (en) 2005-02-24 2006-08-31 Matsushita Electric Industrial Co., Ltd. Data regeneration device
US7917932B2 (en) 2005-06-07 2011-03-29 Sling Media, Inc. Personal video recorder functionality for placeshifting systems
US9237300B2 (en) 2005-06-07 2016-01-12 Sling Media Inc. Personal video recorder functionality for placeshifting systems
JP2007266830A (en) * 2006-03-28 2007-10-11 Alpine Electronics Inc Video output system
US8060609B2 (en) 2008-01-04 2011-11-15 Sling Media Inc. Systems and methods for determining attributes of media items accessed via a personal media broadcaster
US9191610B2 (en) 2008-11-26 2015-11-17 Sling Media Pvt Ltd. Systems and methods for creating logical media streams for media storage and playback
US9491538B2 (en) 2009-07-23 2016-11-08 Sling Media Pvt Ltd. Adaptive gain control for digital audio samples in a media stream
US8406431B2 (en) 2009-07-23 2013-03-26 Sling Media Pvt. Ltd. Adaptive gain control for digital audio samples in a media stream
US9479737B2 (en) 2009-08-06 2016-10-25 Echostar Technologies L.L.C. Systems and methods for event programming via a remote media player
US9525838B2 (en) 2009-08-10 2016-12-20 Sling Media Pvt. Ltd. Systems and methods for virtual remote control of streamed media
US8532472B2 (en) 2009-08-10 2013-09-10 Sling Media Pvt Ltd Methods and apparatus for fast seeking within a media stream buffer
US10620827B2 (en) 2009-08-10 2020-04-14 Sling Media Pvt Ltd Systems and methods for virtual remote control of streamed media
US8966101B2 (en) 2009-08-10 2015-02-24 Sling Media Pvt Ltd Systems and methods for updating firmware over a network
US9565479B2 (en) 2009-08-10 2017-02-07 Sling Media Pvt Ltd. Methods and apparatus for seeking within a media stream using scene detection
US8799408B2 (en) 2009-08-10 2014-08-05 Sling Media Pvt Ltd Localization systems and methods
JP2012175608A (en) * 2011-02-24 2012-09-10 Nec Personal Computers Ltd Converter, information distribution device, communication system, control method, and program
CN102969013B (en) * 2011-08-31 2015-08-26 佳能株式会社 Data processing equipment and control method thereof
CN102969013A (en) * 2011-08-31 2013-03-13 佳能株式会社 Data processing apparatus, method, and control program
US10079710B2 (en) 2012-02-16 2018-09-18 Brightcove, Inc. System and method for dynamic file availability during encoding
JP2015515167A (en) * 2012-02-16 2015-05-21 ブライトコーブ インコーポレイテッド System and method for dynamically making a file available during encoding
CN102723090A (en) * 2012-07-04 2012-10-10 深圳锐取信息技术股份有限公司 Moving picture experts group 4 (MP4) file generation and reading method
JP2014131307A (en) * 2014-02-06 2014-07-10 Sony Corp Information processing apparatus, information processing method, and program
JP2021508429A (en) * 2018-05-29 2021-03-04 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. Media file conversion method, device and storage medium
JP7068489B2 (en) 2018-05-29 2022-05-16 北京字節跳動網絡技術有限公司 Media file conversion method, device and storage medium

Similar Documents

Publication Publication Date Title
JP2003114845A (en) Media conversion method and media conversion device
JP5288710B2 (en) Information storage medium recording multimedia data, reproducing method and reproducing apparatus thereof
CN102752669B (en) The transfer processing method of multichannel real time flow medium file and system, receiving system
CN101917613B (en) Acquiring and coding service system of streaming media
EP3096526B1 (en) Communication apparatus, communication data generation method, and communication data processing method
US8433678B2 (en) Method and device for editing composite content file and reproduction apparatus
WO2008061416A1 (en) A method and a system for supporting media data of various coding formats
CN102883152A (en) Media streaming with adaptation
JP2005504480A (en) Streaming multimedia files including metadata and media data
WO2017138387A1 (en) Information processing device and information processing method
US20060140591A1 (en) Systems and methods for load balancing audio/video streams
JP4526294B2 (en) STREAM DATA TRANSMITTING DEVICE, RECEIVING DEVICE, RECORDING MEDIUM CONTAINING PROGRAM, AND SYSTEM
EP1719130A1 (en) Storage medium storing multimedia data, and method and apparatus for reproducing the multimedia data
JP2015136059A (en) Communication device, communication data generation method, and communication data processing method
JP5135147B2 (en) Video file transmission server and operation control method thereof
US10298975B2 (en) Communication apparatus, communication data generation method, and communication data processing method
JP2014131142A (en) Receiver, reception method and program, imaging apparatus, imaging method and program, transmitter, transmission method and program
JP4715306B2 (en) STREAM CONTROL DEVICE, STREAM REPRODUCTION METHOD, VIDEO RECORDING / REPRODUCTION SYSTEM
JP3894362B2 (en) Multiple moving image viewing apparatus and recording medium
JP2008136044A (en) Video segmentation server and control method thereof
JP4993390B2 (en) Multiple video browsing device
JP2005176094A (en) Data processing apparatus, data processing method, program, and storage medium
JP2017225164A (en) Receiving device, receiving method, transmitting device, transmitting method, and program
JP2023161219A (en) Transmitting device, receiving device and their programs
JP2006074759A (en) Multiple moving image browsing device and distribution device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070320