JP2016009262A - 動画処理装置、動画処理プログラム及び動画処理方法 - Google Patents
動画処理装置、動画処理プログラム及び動画処理方法 Download PDFInfo
- Publication number
- JP2016009262A JP2016009262A JP2014128460A JP2014128460A JP2016009262A JP 2016009262 A JP2016009262 A JP 2016009262A JP 2014128460 A JP2014128460 A JP 2014128460A JP 2014128460 A JP2014128460 A JP 2014128460A JP 2016009262 A JP2016009262 A JP 2016009262A
- Authority
- JP
- Japan
- Prior art keywords
- information
- moving image
- unit
- image data
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】ユーザが簡単に動画を処理する装置、プログラム及び方法を提供する。
【解決手段】動画データに関する複数の情報のうち第1情報が選択されると、第1情報と関連のある第1関連情報を表示部20に表示させる。第1情報に基づいて動画データを処理する。また、第1情報と、第1関連情報のうち選択された第2情報と、に基づいて動画データを処理する。第2情報が選択されると、第2情報と関連のある第2関連情報または処理された動画データに基づく動画像を表示させる。
【選択図】図1
【解決手段】動画データに関する複数の情報のうち第1情報が選択されると、第1情報と関連のある第1関連情報を表示部20に表示させる。第1情報に基づいて動画データを処理する。また、第1情報と、第1関連情報のうち選択された第2情報と、に基づいて動画データを処理する。第2情報が選択されると、第2情報と関連のある第2関連情報または処理された動画データに基づく動画像を表示させる。
【選択図】図1
Description
本発明は、動画処理装置、動画処理プログラム及び動画処理方法に関するものである。
従来、フレーム単位で人間に理解可能なインデックスを付与し、そのインデックスを用いて任意の場面を検索できる動画検索方法が知られている。例えば、特許文献1では、動画内容を処理して得られる物理量をもとに単語データベースの中から複数の単語を計算機に自動的に選択させ、これをフレーム単位で付与しインデックスとする。検索実行時には、検索したい場面に相当する単語を入力して、一致した動画像のフレームを候補画像とする技術が開示されている。
しかしながら、従来技術では、各インデックスが互いに関連付いていない。そのため、動画を処理することはユーザにとって手間がかかる作業であった。
本発明は、このような問題点に鑑みてなされたものであり、ユーザが簡単に動画を処理することを目的とする。
本発明の一態様に係る動画処理装置は、動画データに関する複数の情報のうち第1情報が選択されると前記第1情報と関連のある第1関連情報を表示部に表示させる制御部と、少なくとも前記第1情報に基づいて前記動画データを処理する処理部とを備える。
本発明の一態様に係る動画処理方法は、動画データに関する複数の情報のうち第1情報が選択されると前記第1情報と関連のある第1関連情報を表示部に表示し、少なくとも前記第1情報に基づいて前記動画データを処理する。
本発明の一態様に係る動画処理プログラムは、動画データに関する複数の情報のうち第1情報が選択されると前記第1情報と関連のある第1関連情報を表示部に表示させる制御ステップと、少なくとも前記第1情報に基づいて前記動画データを処理する処理ステップとを実行させる。
本発明によれば、ユーザは簡単に動画データを処理することができる。
本発明による動画処理装置ついて、以下、図面やフローチャートを参照しながら説明する。
≪実施形態1≫
≪実施形態1≫
図1は、本実施形態に係る動画処理装置1の機能ブロック図の一例である。
動画処理装置1は、動画取得部10と、処理部11と、制御部12と、を備える。
外部装置2は、表示部20と、選択部21と、を備える。本実施形態の表示部20は、例えばパーソナルコンピュータやスマートフォン、タブレット、デジタルカメラ、その他電子機器等のディスプレイ等が挙げられる。選択部21は、マウスやキーボード、マイク、トラックボール、カメラ、ライトペン、タッチパネル等が挙げられる。
動画処理装置1は、制御部12の制御により、動画取得部10を介して、動画取得部10に接続されたUSBメモリやメモリーカード、メモリースティック等の外部記憶装置や、インターネットを介して通信接続されたサーバ上に記憶されている動画ファイルを取得する。本実施形態での動画ファイルには、動画データ、音声データ、動画データと音声データを同期させるための信号などが含まれる。字幕やメタデータなどのテキストが含まれていてもよい。さらに本実施形態では、動画データに関する複数の情報があらかじめ関連付いており、これら情報は動画ファイルに含まれているとする。つまり、動画取得部10は、図2aまたは図2bに示すような、動画データに関する複数の情報が互いに関連付いて記憶されている情報テーブルが含まれる動画ファイルを取得する。本実施形態でいう動画データに関する複数の情報とは、動画データに記録されている被写体や、被写体の動作、被写体の大きさ、場所、時間、天気、状況、色、音輝度、エッジ等、様々な情報が挙げられる。図2aまたは図2bでは、情報は文字として情報テーブルに記憶されているが、画像やアイコンで記憶されていてもよい。
制御部12は、動画取得部10が取得した情報テーブルに記憶されている情報のうち少なくとも1つを外部装置2の表示部20に表示させる。外部装置2の選択部21は、表示部20に表示された情報を選択する。ここで、表示部20に表示された情報に関連付けられた情報がある場合、情報を選択すると、表示部20に情報に関連付いた情報が表示されるといった表示の仕方がある。例えば、動画処理装置1の制御部12は、選択部21によって選択された情報を取得し、取得した情報と関連付いている情報を表示部20に表示させる。
処理部11は、制御部12が選択部21から取得した情報に基づいて、動画取得部10を介して取得した動画データを処理する。動画データの処理については後に詳述する。
制御部12は、処理部11で処理された動画データを複号化して、表示部20に動画を再生させる。このとき、動画データとともに処理された、音声データ、動画データと音声データを同期させるための信号、字幕やメタデータなどのテキストを複合化し、動画を再生してもよい。動画データのみを複合化し、動画として再生してもよい。制御部12は、動画処理装置1の動画取得部10と処理部11とを制御する。また、制御部12は、外部装置2の表示部20と選択部21とを制御する。
次に、本実施形態に係る動画処理装置1の動作を図3に示すフローチャートを用いて説明する。
(S1)ユーザが動画処理装置1のスイッチをONにする。なお、本実施形態ではユーザが動画処理装置1のスイッチをONにすることに基づいて図3に示す処理を実行するが、それに限定されるものではない。外部装置2の表示部20にメニュー画面を表示させ、メニュー画面を操作することによって、図3に示す処理を実行してもよい。また、必ずしもユーザによる操作は必要なく、自動的に図3に示す処理が実行されてもよい。
(S2)動画取得部10は、動画ファイルを取得する。本実施形態での動画ファイルには、動画データ、音声データ、動画データと音声データを同期させるための信号、字幕、メタデータなどのテキスト、情報テーブル等が含まれている。本実施形態で情報テーブルとは、動画データに関する複数の情報があらかじめ互いに関連付いて記憶されているテーブルである。図2aは、「A君が運動会で走る」場面を録画した動画データに対応する情報テーブルの一例である。図2bは、「A君が運動会で走る」場面と「B君が運動会で食べる」場面と2つの場面を録画した動画データに対応する情報テーブルの一例である。情報テーブルは、音声データや字幕、テキストなどに関する複数の情報があらかじめ互いに関連付いて記憶されていてもよい。この情報テーブルは、あらかじめ動画データに関連付いて外部(USBメモリやメモリーカード、メモリースティック等の外部記憶装置や、インターネットを介して通信接続されたサーバ等)に記憶されていてもよいし、動画処理装置1が作成してもよい。動画処理装置1が作成する場合については、実施形態2で詳述する。
(S3)制御部12は、動画取得部10が取得した情報テーブルに記憶されている情報のうち少なくとも1つを外部装置2の表示部20の第1領域201に表示させる(図4a)。例えば図2bに示すような情報テーブルを取得した場合、図4aに示すように、「A君」「運動会」「走る」「B君」「食べる」が表示部20の第1領域201に表示される。表示方法としては、各情報に対応する文字または画像、アイコン等を表示部20の第1領域201に表示する方法が挙げられる。本実施形態では、各情報を文字として表示させる。各情報に対応する画像またはアイコンを表示させる方法に関しては、実施形態2で詳述する。
(S4)ユーザは外部装置2の選択部21を介して、表示部20に表示された情報のうち1つを第1情報401として選択する。選択部21はマウスを使用して図4aに示すようなカーソルを移動することで選択してもよいし、キーボード、マイク、トラックボール、カメラ、ライトペン、タッチパネル等を使用してユーザが選択してもよい。情報が選択されない場合、S3へ戻り情報を表示し続ける。また、一定時間ユーザからの選択がなければ処理を終了してもよい。情報が選択されたらS5へ進む。
(S5)制御部12は、ユーザが選択部21を介して選択した情報と関連付いている情報を表示部20に表示させる。例えば制御部12は、第1領域201に表示された情報のうち選択部21によって選択された情報を第1情報401として取得する。さらに制御部12は、第1情報401と関連付いている情報を第1関連情報302として表示部20の第2領域202に表示させる。図4bにおいて、図4aと同様の構成は番号を省略して記載している。図4bは、第1領域201に表示された情報のうち「A君」が選択部21によって選択され、「A君」と関連付いている第1関連情報302を第2領域202に表示した一例である。この表示例は、図2bに示すような情報テーブルを取得した場合である。「A君」は第1情報401となる。このとき第1情報401を強調して表示してもよい。例えば、「A君」の文字の色を変える、文字の大きさを大きくする、文字の太さを太くする、文字を回転等の動きをつけて表示する、等が挙げられる。また、第1情報401以外の第1領域に表示されている情報(「運動会」「走る」「B君」「食べる」)をうすく表示する、表示しない等も挙げられる。第1関連情報302を表示したらS6へ進む。ユーザが、動画データ処理の実行を指示する実行ボタン100を選択したらS8へ進んでもよい。
(S6)ユーザは外部装置2の選択部21を介して、第1関連情報302のうち1つを第2情報402として選択する。制御部12は、ユーザが選択した情報を第2情報402として取得する(図4c)。図4cにおいて、図4aまたはbと同様の構成は番号を省略して記載している。情報が選択されない場合、S5へ戻り第1関連情報302を表示し続ける。また、一定時間ユーザからの選択がなければ処理を終了してもよいし、S8へ進んでもよい。情報が選択されたらS7へ進む。ユーザが、動画データ処理の実行を指示する実行ボタン100を選択したらS8へ進んでもよい。
(S7)ユーザは第1情報401かつ第2情報402と関連付いている情報をさらに表示するか、しないかを決定する。表示する場合、S5へ戻る。つまり、制御部12は、第1情報401かつ第2情報402と関連付いている情報を、第2関連情報303として図4cに示すように第3領域203に表示させる。第1情報401かつ第2情報402と関連付いている情報は、図2bに示す情報テーブルから決定できる。第2情報402と関連付いている情報を表示させてもよい。表示する情報がない場合(選択した情報と関連付いている情報がなくなった場合)は、選択した情報に関連付いている情報がこれ以上存在しない旨を示す情報を表示部20に表示させてもよい。表示しない場合、S8へ進む。ユーザが、動画データ処理の実行を指示する実行ボタン100を選択したらS8へ進んでもよい。
(S8)処理部11は、選択部21が選択した情報(第1情報401等)に基づいて、動画取得部10を介して取得した動画データを処理する。例えば図4dに示すように、ユーザは第1情報401として「A君」、第2情報402として「走る」、第3情報403として「運動会」を選択したとする。処理部11は、動画取得部10を介して取得した動画データから「A君が運動会で走る」場面を取得する。少なくとも第1情報401「A君」の場面だけ取得するようにしてもよい。第1情報401「A君」と第2情報402「走る」の場面、つまり「A君が走る」場面を取得するようにしてもよい。取得方法としては、各情報には、動画データの中でどこからどこまでが各情報に対応する場面かを示す時間情報が関連付いており、その時間情報に基づいて動画データから対応する場面を取得する方法が考えられる。例えば、「A君」に対応する場面は0秒から30秒、「走る」に対応する場面は10秒から30秒と40秒から50秒、「運動会」に対応する場面は0秒から50秒とする。この場合、「A君」「走る」「運動会」に基づいて動画データを処理すると、処理部11は10秒から30秒の範囲の動画データを取得する。また、動画データに基づくフレームには、そのフレームに関連する情報がタグ付けされており、「A君」「走る」「運動会」全てがタグ付けされているフレームを取得してもよい。
(S9)制御部12は、図4dに示すように、S8で処理部が取得した範囲の動画データに基づく動画を表示部20の動画領域204で再生させる。また処理部が取得した範囲の動画データに基づく代表画像(サムネイル画像)を動画領域204に表示させ、ユーザが選択部21を介して代表画像を選択すると、動画を再生するようにしてもよい。代表画像は、動画再生時の先頭の画像、被写体の大きさが最も大きい画像、被写体の動きが少ない範囲での画像などが考えられる。代表画像ではなく、再生を示すアイコン等でもよい。また、処理部が取得した範囲の動画データと対応する音声データ、動画データと音声データを同期させるための信号、字幕やメタデータなどのテキストも共に再生してもよい。
以上のように、本実施形態によれば、各情報が互いに関連付いているため、ユーザは簡単に動画データを処理することができる。また、各情報に関連付いている情報が表示されるため、ユーザにとって見やすい表示を提供することができる。さらに、動画の内容を文字で提供できるので、ユーザは動画の内容を把握しやすい。
本実施形態では、情報テーブルは動画ファイルに含まれているとしたが、それに限定されるものではない。例えば、動画ファイルには情報テーブルの記憶場所を示すアドレスが含まれており、そのアドレスを参照することにより情報テーブルを使用してもよい。
本実施形態では、動画処理装置1は情報テーブルを含む動画ファイルを取得したがそれに限定されるものではない。情報テーブルは取得されなくてもよい。例えば、動画データに基づくフレームには、そのフレームに関連する情報がタグ付けされており、同じフレームにタグ付けされている情報は互いに関連付いているとして、表示部20に表示させてもよい。その結果、情報テーブルがなくても、ユーザが選択した情報と関連のある情報を表示することができる。
本実施形態では、表示部20と選択部21は外部装置2に備えられるとしたが、それに限定されるものではない。表示部20と選択部21は動画処理装置1に備えられてもよい。例えば、動画処理装置1がカメラや、スマートフォン、タブレット、PC等で、動画処理装置1の処理を行うアプリケーションを使用する場合が考えられる。
本実施形態では、動画取得部10が外部記憶装置等から動画ファイルを取得したが、それに限定されるものではない。例えば、動画処理装置1にはあらかじめ動画ファイルが記憶されていてもよい。
本実施形態では、動画処理装置1のスイッチがONされ、動画ファイルを取得すると、情報テーブルに記憶されている情報のうち少なくとも1つを外部装置2の表示部20に表示させ、表示された情報から第1情報401を選択するとしたがそれに限定されるものではない。ユーザがマイクまたはキーボード等の図示しない入力部から第1情報401を入力してもよい。動画処理装置1は、マイクによって取得した音(音声)を電気信号に変換し、変換された電気信号を解析した結果である文字データを第1情報401として表示部20に表示する。例えば、ユーザは「A君」がうつっている場面を動画データから取得したいとき、マイクに対して「A君」と発声する。動画処理装置1は、「A君」という音声を音声認識等で解析し、「A君」という文字データを取得する。動画処理装置1は、取得した「A君」という文字データを第1情報401として表示部20に表示する。第1情報401「A君」を表示部20に表示した後、第1情報401「A君」に関連づいている情報がある場合は、「A君」に関連付いている情報を第1関連情報302として表示部20に表示させてもよい。第1情報401「A君」に関連付いている情報がない場合は、「A君」に関連付いている情報がない旨を表示部20に表示させてもよい。動画データに「A君」がうつっている場面がない場合は、動画データにA君がうつっている場面がない旨を表示部20に表示させてもよい。あらかじめ動画データに関する複数の情報を表示部20に表示し、表示された複数の情報のいずれかを、第1情報401としてマイクを使用して選択してもよい。また、ユーザがマイクに対して「A君がうつっている場面がほしい」と発声した場合、動画処理装置1は、音声認識等を用いて「A君がうつっている場面がほしい」という文字データを取得し、さらに形態素解析等で「A君」という名詞を取得する。その後、名詞である「A君」を第1情報401として表示部20に表示させてもよい。名詞が複数取得された場合は、複数の名詞を表示部20に表示させてもよい。名詞でなく、動詞や形容詞、形容動詞を表示させてもよい。例えばユーザが「走る場面がほしい」とマイクに対して発声した場合、動画処理装置1は、音声認識や形態素解析等で「走る」という動詞を文字データで取得し、第1情報401として表示部20に表示させてもよい。「走る」という動詞を取得する方法は、名詞を取得する場合と同様の方法があげられる。また、動画処理装置1は、ユーザがキーボードから入力した文字データを第1情報401として表示部20に表示してもよい。動画処理装置が、文字データを第1情報401として表示部20に表示する方法は、マイクを通して第1情報401を表示する場合と同様の方法があげられる。動画処理装置1は、ユーザから入力された第1情報と、その第1情報と関連付いている第1関連情報を表示部20に表示させてもよい。
本実施形態では、ユーザは情報を各領域で1つずつ選択したが、それに限定されるものではない。複数の情報を選択して、選択された各情報に関連付いている情報をそれぞれ表示部20に表示してもよい。例えば図5に示すように第1領域201に表示された情報のうち、第1情報401として「A君」と「食べる」の2つを選択してもよい。その結果、1つの動画データから2つの場面をそれぞれ同時に取得することができる。図5に示すように第1情報401として「A君」と「食べる」、第2情報402として「運動会」と「B君」が選択されたとする。その場合、1つの動画データから、「A君」「運動会」に対応する場面と、「食べる」「B君」に対応する場面とがそれぞれ取得され、動画領域204に表示される。
本実施形態では、第1領域、第2領域、第3領域、動画領域は表示部に表示したままであるが、それに限定されるものではない。例えば第2領域が表示部20に表示されるタイミングで、第1領域は表示部20から削除してもよい。第3領域が表示部20に表示されるタイミングで、第1領域及び第2領域は表示部20から削除してもよい。動画領域が表示部20に表示されるタイミングで、その他の領域は表示部20から削除してもよい。また表示部20が十分な大きさでなかった場合、ユーザがスクロール等の動作をすることで、各領域を表示部20に表示させたり、表示部20に表示させなかったりを制御してもよい。
処理部11は、動画データから対応する場面を取得する方法として、時間情報と一致する範囲の動画データを取得するとした。この場合、時間情報と一致する範囲の動画データに基づくフレームを全て取得してもよいし、一部を取得してもよい。また、処理部11は、動画データから対応する場面を取得する方法として、選択された情報がタグ付けされているフレームを取得するとした。この場合、選択された情報がタグ付けされているフレームを全て取得してもよいし、一部を取得してもよい。取得するフレームはユーザが手動で選択してもよいし、動画処理装置1が自動で選択してもよい。自動で選択する場合は、5フレームごと等で間引きして取得してもよいし、手振れやボケを検出してうまく撮れているフレームを取得するようにしてもよい。ユーザが動画データの再生時間を指定して、その時間内におさまるようにフレーム数を決めてもよい。
本実施形態では、情報は互いに関連付いているとした。例えば、「A君は座る、B君は食べる」場面からは、「A君」「B君」「座る」「食べる」という情報が取得され、関連付けられる。ユーザが「A君」という情報を第1情報401として選択すると、「B君」「座る」「食べる」が第1関連情報302として表示部20に表示される。その後、第1関連情報302「B君」「座る」「食べる」のうち第2情報402として「食べる」を選択したとする。つまり、第1情報401として「A君」を、第2情報402として「食べる」を選択したとする。この場合、「A君」と「食べる」に関連する場面を表示部20に表示してもよい。例えば、「A君は走る、B君は食べる」場面や、「A君は笑う、C君は食べる」場面等を表示部20に表示してもよい。もしくは、動画データには「A君が食べる」場面が含まれていないため、動画処理装置1は「A君は食べる」場面はない旨を示す情報を表示部20に表示してもよい。また、動画処理装置1は、「A君」と「食べる」、「B君」と「座る」は関連付いていない情報テーブルを取得するようにしてもよい。また、実施形態2で説明するように、動画処理装置1が情報テーブルを作成する場合は、「A君」と「食べる」、「B君」と「座る」を関連付けずに情報テーブルを作成する。具体的には、フレームから「食べる」という情報が取得された場合、「食べる」という情報は、フレームの中で「食べる」を取得した部分の近くから取得される被写体(この場合はA君)と関連付ける。その結果、第1情報401「A君」を選択した場合、第1関連情報302として「食べる」は表示されない。「A君は食べる」場面がある場合、第1関連情報302として「食べる」が表示部20に表示され、第2情報402として「食べる」が選択されると、「A君は食べる」場面が表示20に表示される。
表示部20は、戻るボタンを表示しており、ユーザが戻るボタンを押すと、前の処理に戻ることができる。
≪実施形態2≫
≪実施形態2≫
実施形態1では、動画処理装置は、動画データに関する複数の情報が関連付いている情報テーブルを含む動画ファイルを取得した。実施形態2では、動画処理装置が情報テーブルの作成を行う。また、実施形態1では、情報を文字で表示部20に表示した。実施形態2では、情報を画像、またはアイコンで表示部20に表示する。実施形態1に係る動画処理装置1と実施形態2に係る動画処理装置1との主な相違点は、情報テーブル作成部が追加された点である。なお本実施形態において、実施形態1と同様の構成部、動作の説明は省略する。
図6は、実施形態2に係る動画処理装置1の機能ブロック図の一例である。実施形態2において、実施形態1と同様の構成部は、実施形態1と同様の数字で表している。
動画処理装置1は、動画取得部10と、情報テーブル作成部13と、処理部11と、制御部12とを備える。
動画処理装置1は、制御部12の制御により、動画取得部10を介して、動画取得部10に接続されたUSBメモリやメモリーカード、メモリースティック等の外部記憶装置や、インターネットを介して通信接続されたサーバ上記憶されている動画ファイルを取得する。実施形態1では、動画データに関する情報が互いに関連付いている情報テーブルが動画ファイル含まれていたが、本実施形態では、情報テーブルは動画ファイルに含まれてなくてよい。本実施形態での動画ファイルには、動画データ、音声データ、動画データと音声データを同期させるための信号などが含まれる。字幕やメタデータなどのテキストが含まれていてもよい。
情報テーブル作成部13は、動画取得部10を介して取得した動画ファイルに含まれる動画データから情報を取得し、取得した情報を互いに関連付けて、情報テーブルを作成する。情報テーブルの作成方法については、後に詳述する。動画ファイルに含まれる音声データや、字幕、メタデータなどのテキストから情報を取得してもよい。
制御部12は、情報テーブル作成部13で作成した情報テーブルに記憶されている情報のうち少なくとも1つを外部装置2の表示部20に表示させる。外部装置2の選択部21は、表示部20に表示された情報を選択する。動画処理装置1の制御部12は、選択部21によって選択された情報を取得し、取得した情報に基づいて、表示部20を制御する。また、制御部12は、処理部11で処理した動画データに基づく動画を表示部20で再生する。
処理部11は、制御部12が選択部21から取得した情報に基づいて、動画取得部10を介して取得した動画データを処理する。
制御部12は、動画処理装置1の動画取得部10と情報テーブル作成部13と処理部11とを制御する。また、制御部12は、外部装置2の表示部20と選択部21とを制御する。
次に、本実施形態に係る動画処理装置1の動作を図7に示すフローチャートを用いて説明する。実施形態1と同様の処理は、実施形態1のフローチャート図3と同様のステップ番号がついている。実施形態1と同様の処理は説明を省略する。また、図7に示すフローチャートの「A」は図3に示すフローチャートの「A」に続くことを意味している。
(S2)動画取得部10は、動画データを取得する。実施形態1では、動画データに関する情報が互いに関連付いている情報テーブルを含む動画ファイルを取得したが、本実施形態では、情報テーブルは取得しなくてよい。本実施形態では、動画データ、音声データ、動画データと音声データを同期させるための信号、字幕、メタデータなどのテキストを含む動画ファイルを取得する。
(S21)情報テーブル作成部13は、動画取得部10を介して取得した動画データから、動画データに基づくフレームを選択する。選択されたフレームをフレームiとする。本実施形態では、取得した動画データの先頭のフレームから1枚ずつ選択するとするが、それに限定されるものではない。
(S22)情報テーブル作成部13は、S21で選択されたフレームiに関する情報を取得する。フレームiに関する情報とは、フレームiにうつっている被写体や、被写体の動作、被写体の大きさ、フレームiが記録された場所や、時間、天気、状況、フレームiの色や、輝度、エッジ等、様々な情報が挙げられる。情報の取得方法は、例えば、あらかじめ被写体になりうるものの画像を動画処理装置1が記憶していて、その記憶されている画像の特徴とフレームiの特徴(例えば色や輝度、エッジ等)とを比較することで被写体を特定することができる。また、複数のフレームとフレームレートとを使用して、フレームiからフレームi+nまでに被写体が移動した距離と時間とを把握し、被写体の動き(「走る」「歩く」「止まる」等)の情報を取得することができる。また、フレームiの被写体のエッジとレンズのズーム率とから、被写体の大きさを取得することができる。また、メタデータから、フレームiが記録された場所や時間を取得することができる。また、サーバにアクセスすることで、フレームiが記録されたときの天気や状況を取得することができる。さらに、音声データから、「静か」「にぎやか」等の状況を取得することができる。その他ここに記載した以外の既存の技術を使用してフレームiに関する情報を取得してもよい。
(S23)情報テーブル作成部13は、S22で取得した情報を互いに関連づけることで、情報テーブルを作成する。例えば、フレームiに関する情報として「A君」「運動会」「走る」という3つの情報が取得された場合、図2aに示すような情報テーブルを作成する。次に、フレームi+nで、「B君」「運動会」「食べる」という3つの情報が取得されたとする。すでに「運動会」という情報は情報テーブルに記録されているので、「運動会」という情報に「B君」「食べる」をさらに関連付ける。その結果、情報テーブルは図2bに示すような情報テーブルとなる。
(S24)フレームiが最後のフレームでなければS21に戻る。最後のフレームならS3へ進む。
(S3)制御部12は、情報テーブル作成部13が作成した情報テーブルに記憶されている情報のうち少なくなくとも1つを外部装置2の表示部20の第1領域201に表示させる。実施形態1では、情報を文字で表示部20に表示したが、本実施形態では図8aに示すように情報を画像またはアイコンで表示部20に表示する。図8aに示す表示例では文字も表示しているが、文字は表示せずに画像またはアイコンのみを表示してもよい。
図8a〜cは、実施形態2での表示部20の表示例である。実施形態1と同様の表示内容は、図4と同様の番号がついている。図8aに示すように第1領域201に表示された情報から第1情報401として「B君」が選択されると「B君」の画像またはアイコンが強調表示される。図8aでは「B君」の画像またはアイコンの枠を太くすることで強調表示しているが、それに限定されるものではない。例えば、「B君」以外の画像またはアイコンの表示を薄くしてもよいし、表示しないようにしてもよい。また「B君」の画像またはアイコンを光らせる、回転させる、点滅させる、色を変える、大きく表示する等が考えられる。第1情報401が選択されると、第2領域202に第1関連情報302が表示される。
図8bに示すように、第1関連情報302から第2情報402として「食べる」が選択されると「食べる」の画像またはアイコンが強調表示される。第2情報402が選択されると第3領域203に第2関連情報303が表示される。図8cに示すように、第2関連情報303から第3情報403が選択され、ユーザが動画データ処理の実行を指示する実行ボタン100を押すと、動画領域204に処理部11で処理された動画データに基づく動画が再生される。処理された動画データに基づく代表画像(サムネイル画像)を動画領域204に表示させ、ユーザが選択部21を介して代表画像を選択すると、動画を再生するようにしてもよい。代表画像は、動画再生時の先頭の画像、被写体の大きさが最も大きい画像、被写体の動きが少ない範囲での画像などが考えられる。代表画像ではなく、再生を示すアイコン等でもよい。また、処理部が取得した範囲の動画データと対応する音声データ、動画データと音声データを同期させるための信号、字幕やメタデータなどのテキストも共に再生してもよい。本実施形態では、「B君」「食べる」「運動会」という3つの情報に基づいて動画データを処理する。そのため、「B君が運動会で食べる」場面の動画データに基づく動画が再生される。または、「B君が運動会で食べる」場面の代表画像が表示され、ユーザが代表画像を選択すると、動画が再生される。代表画像ではなく、再生をしめすアイコン等でもよい。また、表示部20の大きさには限りがあるため、情報または動画データを表示するスペースが表示部20にない場合、ユーザが表示部20をスクロールする等の指示をすることで図8a、図8b、図8cと表示を変えるようにしてもよい。
また、ユーザは、第1情報401を選択したら実行ボタン100を押してもよい。その場合、第1情報401「B君」がうつっている場面が取得される。さらにユーザは、第2情報402を選択したら実行ボタン100を押してもよい。その場合、第1選択情報「B君」と第2選択情報「食べる」とに基づいた場面、つまり「B君が食べる」場面が取得される。
以上のように、本実施形態によれば、各情報が互いに関連付いているため、ユーザは簡単に動画データを処理することができる。各情報に関連付いている情報が表示されるため、ユーザにとって見やすい表示を提供することができる。また、動画の内容を画像またはアイコンで表示するため、ユーザは直観的に動画の内容を把握できる。さらに、動画データから情報を取得できるため、情報テーブルを取得しなくてよい。
本実施形態では、動画処理装置1に情報テーブル作成部13を備えたがそれに限定されるものではない。例えば、情報テーブル作成部13は図示しない外部情報処理部3に備えられており、動画処理装置1は外部情報処理部3から処理結果を取得してもよい。
本実施形態では、情報テーブル作成部13が動画データから情報を取得しているが、それに限定されるものではない。例えばユーザが、図示しない入力部から情報を入力してもよい。
本実施形態では、動画データから情報を取得する際、フレームを1枚ずつ選択したが、それに限定されるものではない。例えば、フレームを5枚ごとや、10枚ごとに選択してもよい。選択する間隔は、自動に設定してあってもよいし、ユーザが設定してもよい。また、1枚ずつではなく複数枚を選択することで、「走る」等の被写体の動きに関する情報が取得できる。
≪実施形態3≫
≪実施形態3≫
実施形態3は、情報を選択する際に、ユーザは文章を作成する感覚で情報を選択することができる動画処理装置である。実施形態1に係る動画処理装置1と実施形態3に係る動画処理装置1との主な相違点は、表示順決定部が追加された点である。なお本実施形態において、実施形態1と同様の構成部、動作の説明は省略する。
図9は、実施形態3に係る動画処理装置1の機能ブロック図の一例である。実施形態3において、実施形態1と同様の構成部は、実施形態1と同様の数字で表している。
動画処理装置1は、動画取得部10と、表示順決定部14と、処理部11と、制御部12とを備える。表示順決定部14は、品詞特定部14aと情報分類部14bとを備える。
動画処理装置1は、制御部12の制御により、動画取得部10を介して、動画取得部10に接続されたUSBメモリやメモリーカード、メモリースティック等の外部記憶装置や、インターネットを介して通信接続されたサーバ上に記憶されている動画データを取得する。実施形態3では、実施形態1と同様に動画データに関する情報が予め互いに関連付いている情報テーブルと動画データとを共に取得する。また、実施形態2のように動画処理装置1が情報テーブル作成部13を備えていて、動画処理装置1が情報テーブルを作成してもよい。
表示順決定部14は、外部装置2の表示部20に表示する情報の順番を決定する。品詞特定部14aは、動画取得部10を介して取得した情報テーブルに記憶されている情報について、各情報に対応する品詞を特定する。情報分類部14bは、品詞特定部14aが特定した各情報の品詞に基づき、各情報を対応するカテゴリに分類する。
制御部12は、動画取得部10を介して取得した情報テーブルを表示順決定部14に送信し、表示順決定部14が決定した表示順に基づいて、外部装置2の表示部20に情報を表示させる。外部装置2の選択部21は、表示部20に表示された情報を選択する。制御部12は、選択部21によって選択された情報を取得し、取得した情報と表示順決定部14が決定した表示順に基づいて、さらに表示部20を制御する。また、制御部12は、処理部11で処理した動画データに基づく動画像を表示部20に再生させる。
処理部11は、制御部12が選択部21から取得した情報に基づいて、制御部12が動画取得部10を介して取得した動画データを処理する
次に、本実施形態に係る動画処理装置1の動作を図10に示すフローチャートを用いて説明する。実施形態1と同様の処理は、実施形態1のフローチャート図3と同様のステップ番号がついている。実施形態1と同様の処理は説明を省略する。また、図10に示すフローチャートの「A」は図3に示すフローチャートの「A」に続くことを意味している。
(S2)動画取得部10は、動画ファイルを取得する。本実施形態では、実施形態1と同様に、動画ファイルには情報テーブルが含まれている。実施形態2のように動画処理装置1が情報テーブル作成部13を備えていて、動画処理装置1が情報テーブルを作成してもよい。
(S31)品詞特定部14aは、動画取得部10が取得した動画ファイルに含まれる情報テーブルを制御部12を介して取得し、情報テーブルに記憶されている情報について、各情報に対応する品詞を特定する。品詞を特定する方法は、単語とその単語の品詞が関連付けられている単語辞書を動画処理装置1が有しており、単語辞書と各情報を照らし合わせることで情報の品詞を特定する。単語辞書は外部サーバが有しており、有線または無線で外部サーバと通信することで単語辞書と各情報を照らし合わせ品詞を特定してもよい。その他ここに記載した以外の方法や既存の技術を使用して、各情報に対応する品詞を特定してもよい。
(S32)情報分類部14bは、品詞特定部14aが特定した品詞に基づき、各情報を対応するカテゴリに分類する。本実施形態では、カテゴリを「主語」「述語」「目的語または修飾語」とする。例えば情報分類部14bは、名詞を第1カテゴリ「主語」に分類し、動詞を第2カテゴリ「述語」に分類し、それ以外の品詞を第3カテゴリ「目的語または修飾語」に分類する。
(S3)制御部12は、情報分類部14bで第1カテゴリ「主語」に分類された情報を第1領域201に表示させる。
(S5)制御部12は、第1領域201に表示された情報のうち、ユーザが選択部21を介して選択した情報を第1情報401として取得する。制御部12は、第1情報401と関連付いている情報のうち第2カテゴリ「述語」に分類された情報を第1関連情報302として、第2領域202に表示させる。第1情報401と関連付いており、かつ第2カテゴリ「述語」に分類された情報がない場合は、その旨を示す情報を表示部20に表示させてもよい。その後、S7へ進む。ユーザが、動画データ処理の実行を指示する実行ボタン100を選択したらS8へ進んでもよい。
(S7)ユーザは次の情報をさらに表示するか、しないかを決定する。表示する場合、S5へ戻る。つまり、制御部12は、第1情報401かつ第2情報402と関連付いている情報のうち第3カテゴリ「目的語または修飾語」に分類された情報を第2関連情報303として、第3領域203に表示させる。第1情報401と第2情報402とに関連付いており、かつ第3カテゴリ「目的語または修飾語」に分類された情報がない場合は、その旨を示す情報を表示部20に表示させてもよい。次の情報をさらに表示しない場合、S8へ進む。ユーザが、動画データ処理の実行を指示する実行ボタン100を選択したらS8へ進んでもよい。
以上のように、本実施形態によれば、ユーザは主語、述語、目的語または修飾語の順に情報を選択できるため、文章を作成する感覚で情報を選択し、動画データを処理することができる。例えば図12は、図11に示すような情報テーブルがあったときの表示例である。第1領域201には、第1カテゴリ「主語」に分類された情報「A君」「B君」「Cさん」が表示される。第1情報401「A君」と関連付いている情報「走る」「にぎやか」「笑う」「楽しい」のうち、第2カテゴリ「述語」に分類された情報「走る」「笑う」が第2領域202に表示される。さらに、第1情報401「A君」かつ第2情報402「笑う」と関連付いている情報「楽しい」のうち、第3カテゴリ「目的語または修飾語」に分類された情報「楽しい」が第3領域203に表示される。第1情報401として「A君」、第2情報402として「笑う」、第3選択情報として「楽しい」が選択されているため、「A君が楽しく笑う」場面の動画データが取得され、動画領域204に表示される。このように情報がカテゴリごとに表示されるので、ユーザは情報を選択しやすい。また、第1カテゴリ「主語」に分類された情報から表示されるので、ユーザは日常使い慣れた文章を作成する感覚で簡単に情報を選択できる。
本実施形態では、情報を主語、述語、目的語または修飾語の順に表示部20に表示したが、それに限定されるものではない。表示する順番はユーザが好みの順番を指定するようにしてもよい。また、表示部20に「主語を選択してください。」「述語を選択してください。」「目的語または修飾語を選択してください。」というような指示を表示してもよい。
本実施形態では、名詞を第1カテゴリ「主語」、動詞を第2カテゴリ「述語」、その他の品詞を第3カテゴリ「目的語または修飾語」として分類したが、それに限定されるものではない。例えば、人物名を示す名詞を第1カテゴリ「主語」に分類してもよい。被写体を示す名詞を第1カテゴリ「主語」に分類してもよい。動詞または形容詞または形容動詞を第2カテゴリ「述語」に分類してもよい。被写体の状態を示す動詞または形容詞または形容動詞を第2カテゴリ「述語」に分類してもよい。これらの分類方法は、ユーザが指定してもよい。
本実施形態では、カテゴリを「主語」「述語」「目的語または修飾語」としたがこれに限定されるものではない。品詞の種類をカテゴリにしてもよいし、「人物」「風景」「動作」「場所」「時間」「その他」等をカテゴリにしてもよい。カテゴリの数はいくつあってもよい。「人物」「風景」「動作」「場所」「時間」「その他」等で分類した場合は、例えば「人物」または「風景」に分類された情報を、第1カテゴリとし、第1領域201に表示させ、「動作」に分類された情報を第2カテゴリとし、第2領域202に表示させ、「場所」または「時間」または「その他」に分類された情報を第3カテゴリとし、第3領域203に表示させてもよい。その結果、被写体を示す名詞がまず表示され、次に被写体の状態を示す動詞または形容詞または形容動詞が表示される。表示させる順番はこれに限らない。
≪実施形態4≫
≪実施形態4≫
実施形態4は、選択された情報で文章を作成し、作成された文章をユーザが選択することで、動画データを処理することができる動画処理装置である。その結果、ユーザは何度も情報を選択する必要なく動画データを処理することができる。また、作成された文章を記憶しておくことで、ユーザは1度利用した文章を再度利用しやすくなる。実施形態1に係る動画処理装置1と実施形態4に係る動画処理装置1との主な相違点は、文章作成部と文章記憶部が追加された点である。なお本実施形態において、実施形態1と同様の構成部、動作の説明は省略する。
図13は、実施形態4に係る動画処理装置1の機能ブロック図の一例である。実施形態4において、実施形態1と同様の構成部は、実施形態1と同様の数字で表している。
動画処理装置1は、動画取得部10と、文章作成部15と、文章記憶部16と、処理部11と、制御部12とを備える。
文章作成部15は、選択部21によって選択された情報に基づいて文章を作成する。文章を作成する方法は、後に詳述する。
文章記憶部16は、文章作成部15で作成された文章を記憶する。
制御部12は、動画取得部10を介して取得した情報テーブルに記憶されている情報のうち少なくとも1つを表示部20に表示させる。選択部21は、表示部20に表示された情報を選択する。制御部12は、選択部21によって選択された情報を取得し、取得した情報に基づいて、表示部20をさらに制御する。また、制御部12は、選択部21で選択された情報を文章作成部15へ送信する。文章作成部15は制御部12から送信された情報に基づいて文章を作成し、文章記憶部16へ記憶する。制御部12は、文章記憶部16に記憶されている文章を取得し、表示部20に表示させる。また、制御部12は、選択部21が選択した情報を処理部11へ送信する。さらに、制御部12は、処理部11で処理した動画データを表示部20に表示させる。
次に、本実施形態に係る動画処理装置1の動作を図14に示すフローチャートを用いて説明する。実施形態1と同様の処理は、実施形態1のフローチャート図3と同様のステップ番号がついている。実施形態1と同様の処理は説明を省略する。
(S41)制御部12は、図15に示すように情報を選択して動画データを処理するか、文章を選択して動画データを処理するかをユーザに問う内容を表示部20に表示させる。情報を選択して動画データを処理するとは、実施形態1から3で記載した動画処理方法である。すなわち、ユーザが情報を選択していき、選択された情報に基づいて動画データを処理する。文章を選択して動画データを処理するとは、本実施形態の動画処理方法である。すなわち、文章記憶部に記憶されている文章を表示部20に表示し、ユーザが選択した文章に基づいて動画データを処理する。この場合、ユーザが何度も情報を選択する手間が省け、1回の選択で動画データを処理することができる。また、作成された文章を記憶しておくことで、ユーザは1度利用した文章を再度利用しやすくなる。ユーザが、情報を選択して動画データを処理することを選択したらS3へ進む。ユーザが、文章を選択して動画データを処理することを選択したらS44へ進む。
ユーザが、情報を選択して動画データを処理することを選択してS3へ進む場合、S3からS7までは実施形態1と同様の処理をする。その後S42へ進み、選択された情報に基づいて文章を作成し、作成した文章を文章記憶部16へ記憶する。文章を記憶したら、実施形態1と同様の処理で動画データを処理し、処理された動画データに基づく動画像を表示部20に再生する。
(S42)文章作成部15は、選択部21が選択した情報を制御部12を介して取得し、取得した情報に基づいて文章を作成する。例えば、実施形態3のように情報を表示する順番が決められており、図12に示すように「A君」「笑う」「楽しい」が選択されたとする。この場合、主語は「A君」、述語は「笑う」、目的語または修飾語は「楽しい」となる。文章作成部15は、適当な助詞または助動詞を各情報と組み合わせたり、目的語または修飾語の語尾を変形させることで「A君が楽しく笑う。」という文章を作成する。また、実施形態1のように情報を表示する順願が決められてなく、図4dに示すように「A君」「走る」「運動会」が選択されたとする。この場合、文章作成部15は各情報の品詞を特定し、品詞が名詞と特定された情報に関しては、その名詞が人物名かどうかを判定する。取得した情報の中に人物名に対応する情報があった場合、文章作成部15は人物名に対応する情報を主語、動詞を述語、その他の品詞を修飾語、人物名以外の名詞を目的語とする。文章作成部15は、適当な助詞または助動詞を各情報と組み合わせたり、目的語または修飾語の語尾を変形させることで「A君が運動会で走る。」という文章を作成する。文章を作成したらS43へ進む。
(S43)文章記憶部16は、S42で文章作成部15が作成した文章を記憶する。文章を記憶したら、S8へ進む。実施形態1と同様に動画データを処理し、処理された動画データに基づく動画像を表示部20に再生する。
(S44)ユーザが、S41で文章を選択して動画データを処理することを選択したらS44の処理を行う。制御部12は、文章記憶部16に記憶されている文章を表示部20に表示させる。文章記憶部16に記憶されている文章がない場合、その旨をユーザに通知してもよい。通知する方法は、表示部20に表示してもよいし、音で通知してもよい。処理を終了してもよい。
(S45)ユーザは選択部21を介して、表示部20に表示された文章の中から1つを選択する。文章が選択されない場合、S44へ戻り文章を表示し続ける。また、一定時間ユーザからの選択がなければ処理を終了してもよい。文章が選択されたらS46へ進む。
(S46)選択された文章で動画データを処理するか、選択された文章を一部修正して動画データを処理するかをユーザに問う内容を表示部20に表示させる。選択された文章で動画データを処理する場合、S8へ進み、実施形態1と同様の処理で動画データを処理する。選択された文章を一部修正して動画データを処理する場合、S47へ進む。
(S47)ユーザは、選択した文章のうち修正したい箇所を選択部21で選択する。制御部12は、選択部21で選択された修正したい箇所を取得し、その代わりとなる情報を表示する。ユーザは表示された情報の中から、ユーザの意図する情報を選択する。表示された情報の中に、ユーザの意図する情報がない場合、図示しない入力部からユーザが入力してもよい。例えば、ユーザが「A君が運動会で走る」という文章を選択し、この文章を修正するとする。図16に示すように、修正したい箇所として「A君」をユーザが選択する。「A君」は人物名なので、「A君」の代わりとなる情報として、情報テーブルに記憶されている「A君」以外の人物名を表示領域5に表示する。ユーザは表示領域5に表示された代わりの情報のうち、ユーザの意図する情報を選択する。意図する情報が表示されなかった場合、入力部6から入力してもよい。
(S48)文章記憶部16は、S47で修正した文章を記憶する。文章を記憶したら、S8へ進む。
(S8)処理部11は、動画取得部10を介して取得した動画データを処理する。S41で情報を選択して動画データを処理した場合、処理部11は実施形態1と同様に選択部21が選択した情報(第1情報401等)に基づいて、動画取得部10を介して取得した動画データを処理する。S41で文章を選択し、さらに選択した文章を修正した場合、S47で修正した文章に基づいて動画データを処理する。すなわち、修正した文章に含まれる情報と対応する場面を動画データから取得する。S41で文章を選択し、選択した文章を修正しなかった場合、S45で選択した文章に基づいて動画データを処理する。すなわち、選択した文章に含まれる情報と対応する場面を動画データから取得する。
以上のように、本実施形態によれば、ユーザが文章記憶部16に記憶されている文章を選択することで、ユーザは何度も情報を選択する必要なく動画データを処理することができる。また、作成された文章を記憶しておくことで、ユーザは1度利用した文章を再度利用しやすくなる。
本実施形態では、主語、述語、修飾語、目的語を自動で判断し、適当な助詞または助動詞を組み合わせ、目的語または修飾語の語尾を変形させることで、動画処理装置1が自動で文章を作成したが、それに限定されるものではない。ユーザが手動で行ってもよい。例えば、ユーザは主語、述語、目的語または修飾語となる情報を選択する。主語、述語、目的語または修飾語をつなぐ助詞や助動詞はユーザが図示しない入力部から入力する。または、助詞や助動詞を表示部20に表示させ、表示された助詞や助動詞から適当なものをユーザが選択する。自動で文章を作成するとき、主語または動詞がないと判断され、文章作成部15が文章を作成できなかった場合はその旨をユーザに通知してもよい。
本実施形態では、文章作成部15が作成した文章を全て文章記憶部16に記憶させたがそれに限定されるものではない。例えば、制御部12は、文章作成部15が作成した文章を表示部20に表示させる。ユーザが表示された文章を文章記憶部16に記憶する指示をした場合のみ、制御部12は作成された文章を文章記憶部16に記憶させてもよい。
本実施形態では、文章記憶部16に記憶されている文章を表示部20に表示するとした。表示する順番としては、使用頻度の高い順、作成された日順、文章が長い順等が考えられる。
本実施形態では、文章が1つだけの場合を説明したがそれに限定されるものではない。例えば、接続詞を使用して、2つの文章をつなげることにより、2つの場面を動画データから取得することも考えられる。具体的に図17を使用して説明する。まず図17aに示すように、ユーザが「A君が運動会で走る」という文章を選択したとする。ユーザが複数の文章で動画データを処理したいと考えた場合、接続詞ボタン7を押す。接続詞ボタン7を押すと、複数の接続詞が表示部20に表示され、ユーザは意図する接続詞「そして」を選択する(図17b)。ユーザが接続詞を選択すると、2つ目の文章の候補が表示部20に表示さる(図17c)。表示された2つ目の文章の候補の中から、ユーザは意図する2つ目の文章「B君は運動会で食べる。」を選択する。すると、「A君は運動会で走る。そして、B君は運動会で食べる。」という文章ができる(図17d)。ユーザがこの文章で動画データを処理する指示をすると、動画処理装置1は「A君が運動会で走る」場面と「B君が運動会で食べる」場面とを動画データから取得し、2つの場面をつなげて表示部20に表示させる。このとき使用した接続詞によって、2つの場面間に効果を付け加えてもよい。例えば、「そして」という接続詞は順接であるので、動画処理装置1は2つの場面は似たような場面であると判断し、フェード等2つの場面のつながりを持たせられるような効果を2つの場面間に挿入して、表示部20に表示させる。「ところで」等の転換の接続詞の場合は、ページをめくる演出等の場面の転換を連想させる効果を2つの場面間に挿入してもよい。接続詞と効果の対応は、あらかじめ設定されていてもよいし、ユーザが指定してもよい。
本発明の表示部20として図18に示すような表示例も考えられる。動画領域204は、複数の領域に分割されている。図18では領域8、領域9、領域10に分割されている。これら分割された領域は、各領域の下にある第1領域201と第2領域202と第3領域203にそれぞれ表示された情報に対応する場面を表示する。例えば、領域8には「A君が運動会で走る」場面が表示される。領域9には「B君が運動会で走る」場面が表示され、領域10には「C君が運動会で走る」場面が表示される。第1情報201または第2情報202または第3情報203に表示されている情報は、ユーザが表示部20をスライドすることで表示する情報を変えるようにしてもよい。
本発明では、動画取得部10を介して、動画データ、音声データ、動画データと音声データを同期させるための信号などが含まれる動画ファイルを取得したが、それに限定されるものではない。例えば、動画データを取得してもよい。その場合、動画処理装置1は動画データを処理する。
以上、本発明の実施形態について図面やフローチャートを使用して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。
なお、本発明の実施形態における各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
なお、本発明の実施形態における制御部12は、メモリおよびCPU(中央演算装置)により構成され、制御部12の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
また、制御部12の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部12による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Claims (17)
- 動画データに関する複数の情報のうち第1情報が選択されると、前記第1情報と関連のある第1関連情報を表示部に表示させる制御部と、
少なくとも前記第1情報に基づいて前記動画データを処理する処理部と、を備える
ことを特徴とする動画処理装置。 - 前記制御部は、前記動画データから取得された前記複数の情報のうち前記第1情報が選択されると、前記第1関連情報を前記表示部に表示させる
ことを特徴とする請求項1に記載の動画処理装置。 - 前記処理部は、前記第1情報と、前記第1関連情報のうち選択された第2情報と、に基づいて前記動画データを処理する
ことを特徴とする請求項1から2に記載の動画処理装置。 - 前記制御部は、前記第2情報が選択されると、前記第2情報と関連のある第2関連情報または前記処理部で処理された前記動画データに基づく動画像を前記表示部に表示させる
ことを特徴とする請求項3に記載の動画処理装置。 - 前記制御部は、前記第1情報が選択されると前記第1情報を強調して前記表示部に表示させ、前記第2情報が選択されると前記第2情報を強調して前記表示部に表示させる
ことを特徴とする請求項3から4に記載の動画処理装置。 - 前記制御部は、前記動画データが前記処理部で処理されると、前記処理部で処理された前記動画データに基づく動画像を前記表示部に表示させる
ことを特徴とする請求項1から5に記載の動画処理装置。 - 前記制御部は、前記複数の情報のうち第1カテゴリに分類された情報を前記表示部に表示させ、前記第1カテゴリに分類された情報のうち前記第1情報が選択されると、前記複数の情報のうち第2カテゴリに分類された前記第1関連情報を前記表示部に表示させる
ことを特徴とする請求項1から6に記載の動画処理装置。 - 前記第1カテゴリに分類された情報は被写体を示す名詞であり、
前記制御部は、前記被写体を示す名詞を前記表示部に表示させる
ことを特徴とする請求項7に記載の動画処理装置。 - 前記制御部は、前記複数の情報のうち前記第1カテゴリに分類された前記被写体を示す名詞と、前記複数の情報のうち前記第2カテゴリに分類された前記被写体の状態を示す動詞または形容詞または形容動詞と、を前記表示部に表示させる
ことを特徴とする請求項8に記載の動画処理装置。 - 前記制御部は、前記動画データから取得された前記複数の情報または前記動画データに関するフレームから取得された前記複数の情報のうち前記第1情報が選択されると、前記第1関連情報を前記表示部に表示させる
ことを特徴とする請求項1から9に記載の動画処理装置。 - 前記処理部は、前記第1情報と前記第2情報とが取得されたフレームを前記動画データから取得する
ことを特徴とする請求項3に記載の動画処理装置。 - 前記複数の情報は、前記複数の情報が取得されたフレームに対応する時間情報が関連付いており、
前記処理部は、前記第1情報と関連付いている前記時間情報と、前記第2情報と関連付いている前記時間情報と、に対応するフレームを前記動画データから取得する
ことを特徴とする請求項11に記載の動画処理装置。 - 少なくとも前記第1情報に基づいて文章を作成する文章作成部を備え、
前記処理部は、前記文章作成部で作成された前記文章が選択されると、選択された前記文章に基づいて前記動画データを処理する
ことを特徴とする請求項1から12に記載の動画処理装置。 - 前記文章作成部で作成された前記文章を記憶する文章記憶部を備え、
前記制御部は、前記文章記憶部に記憶された前記文章を前記表示部に表示させ、
前記処理部は、前記表示部に表示された前記文章が少なくとも1つ選択されると、選択された前記文章に基づいて前記動画データを処理する
ことを特徴とする請求項13に記載の動画処理装置。 - 前記制御部は、少なくとも1つの接続詞を前記表示部に表示させ、
前記処理部は、前記表示部に表示された前記接続詞のうち少なくとも1つが選択されると、選択された前記接続詞に基づいて前記動画データを処理する
ことを特徴とする請求項1から14に記載の動画処理装置。 - 動画データに関する複数の情報のうち第1情報が選択されると、前記第1情報と関連のある第1関連情報を表示部に表示させる制御方法と、
少なくとも前記第1情報に基づいて前記動画データを処理する処理方法と、を備える
ことを特徴とする動画処理方法。 - 動画データに関する複数の情報のうち第1情報が選択されると、前記第1情報と関連のある第1関連情報を表示部に表示させる制御ステップと、
少なくとも前記第1情報に基づいて前記動画データを処理する処理ステップと、を備える
ことを特徴とする動画処理プログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014128460A JP2016009262A (ja) | 2014-06-23 | 2014-06-23 | 動画処理装置、動画処理プログラム及び動画処理方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014128460A JP2016009262A (ja) | 2014-06-23 | 2014-06-23 | 動画処理装置、動画処理プログラム及び動画処理方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016009262A true JP2016009262A (ja) | 2016-01-18 |
Family
ID=55226791
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014128460A Pending JP2016009262A (ja) | 2014-06-23 | 2014-06-23 | 動画処理装置、動画処理プログラム及び動画処理方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016009262A (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11128927B2 (en) | 2017-06-07 | 2021-09-21 | Naver Corporation | Content providing server, content providing terminal, and content providing method |
-
2014
- 2014-06-23 JP JP2014128460A patent/JP2016009262A/ja active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11128927B2 (en) | 2017-06-07 | 2021-09-21 | Naver Corporation | Content providing server, content providing terminal, and content providing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112449231B (zh) | 多媒体文件素材的处理方法、装置、电子设备及存储介质 | |
| US10325397B2 (en) | Systems and methods for assembling and/or displaying multimedia objects, modules or presentations | |
| KR102290419B1 (ko) | 디지털 컨텐츠의 시각적 내용 분석을 통해 포토 스토리를 생성하는 방법 및 장치 | |
| KR102161230B1 (ko) | 멀티미디어 콘텐츠 검색을 위한 사용자 인터페이스 방법 및 장치 | |
| US8719029B2 (en) | File format, server, viewer device for digital comic, digital comic generation device | |
| JP5634853B2 (ja) | 電子コミックのビューワ装置、電子コミックの閲覧システム、ビューワプログラム、ならびに電子コミックの表示方法 | |
| US20170206243A1 (en) | Control apparatus, control method and computer program | |
| US9558784B1 (en) | Intelligent video navigation techniques | |
| US9564177B1 (en) | Intelligent video navigation techniques | |
| CN113194346A (zh) | 一种显示设备 | |
| CN109325143B (zh) | 制作歌单的方法及装置、存储介质、处理器 | |
| CN109977390A (zh) | 一种生成文本的方法及装置 | |
| CN110502117B (zh) | 电子终端中的截图方法以及电子终端 | |
| CN113269855A (zh) | 一种文字语义转场景动画的方法、设备及存储介质 | |
| US20150111189A1 (en) | System and method for browsing multimedia file | |
| JP5342509B2 (ja) | コンテンツ再生装置、コンテンツ再生装置の制御方法、制御プログラム、及び記録媒体 | |
| KR20130076852A (ko) | 어학 컨텐츠 생성 방법 및 이를 위한 단말기 | |
| JP6602423B6 (ja) | コンテンツ提供サーバ、コンテンツ提供端末及びコンテンツ提供方法 | |
| JP2016009262A (ja) | 動画処理装置、動画処理プログラム及び動画処理方法 | |
| US20240378850A1 (en) | Auto-reframing and multi-cam functions of video editing application | |
| US20140297678A1 (en) | Method for searching and sorting digital data | |
| US20240347045A1 (en) | Information processing device, information processing method, and program | |
| WO2019069997A1 (ja) | 情報処理装置、画面出力方法及びプログラム | |
| CN115665508A (zh) | 视频摘要生成的方法、装置、电子设备及存储介质 | |
| JP7619823B2 (ja) | 情報処理システム、情報処理方法、及び情報処理プログラム |