[go: up one dir, main page]

JP2010066844A - 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム - Google Patents

動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム Download PDF

Info

Publication number
JP2010066844A
JP2010066844A JP2008230442A JP2008230442A JP2010066844A JP 2010066844 A JP2010066844 A JP 2010066844A JP 2008230442 A JP2008230442 A JP 2008230442A JP 2008230442 A JP2008230442 A JP 2008230442A JP 2010066844 A JP2010066844 A JP 2010066844A
Authority
JP
Japan
Prior art keywords
unit
emotion
face
voice
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008230442A
Other languages
English (en)
Inventor
Kentaro Miyamoto
健太郎 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008230442A priority Critical patent/JP2010066844A/ja
Publication of JP2010066844A publication Critical patent/JP2010066844A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

【課題】写っている人物の感情を的確に判定し、判定した感情に基づいて動画コンテンツを加工する。
【解決手段】顔検出部36は、動画コンテンツを構成する静止画の各フレームから顔を検出したり、時系列的変化や動きを検出したりする。表情認識部37は、検出された顔の表情を認識する。動き検知部38は、顔が検出された人物の動きを検知する。声抽出部39は、顔が検出された人物の声を抽出する。音声感情認識部40は、顔が検出された人物の音声感情を認識する。感情判定部41は、感情DB45に格納された感情テーブル51を参照しながら、顔が検出された人物の感情を判定する。装飾画像取得部42は、感情判定部41で判定された感情に対応する装飾画像を、装飾画像DB46から取得する。合成処理部43は、装飾画像取得部42で取得された装飾画像を、動画コンテンツに合成する。
【選択図】図9

Description

本発明は、写っている人物の感情に基づいて動画コンテンツを加工する動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラムに関する。
インターネット上には、動画コンテンツの配信サービスを提供するYouTube(登録商標)、ニコニコ動画(登録商標)、Yahoo!(登録商標)動画などといった配信サイトが存在する。最近の動画コンテンツの配信サイトでは、ユーザーからのコメントや装飾画像を合成した動画コンテンツを提供することでサービスの付加価値を高めている。
動画コンテンツの加工技術としては、写っている人物の顔付きから感情を判定し、判定した感情に対応する装飾画像を合成するものがある(例えば、特許文献1、2参照)。
特開2008−084213号公報 特開2006−185329号公報
ところで、総じて大人は、人前において顔に感情を出すことを我慢することがある。例えば、怒りを抑えて笑うこともあり、このような顔付き(顔の表情)からは感情を判定することが難しい。すなわち、顔付きだけから感情を判定する特許文献1、2の発明では、感情を的確に判定できず、動画コンテンツに相応しい装飾画像を合成することができないおそれがある。
本発明は、上記課題を鑑みてなされたものであり、写っている人物の感情を的確に判定し、判定した感情に基づいて動画コンテンツを加工する動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラムを提供することを目的とする。
上記目的を達成するために、本発明の動画コンテンツの加工装置は、動画コンテンツから顔を検出する顔検出部と、前記顔検出部で検出された顔の表情を認識する表情認識部と、動画コンテンツから、前記顔検出部で顔が検出された人物の動きを検知する動き検知部と、動画コンテンツから、前記顔検出部で顔が検出された人物の声を抽出する声抽出部と、前記表情認識部で認識された表情、前記動き検知部で検知された人物の動き、及び前記声抽出部で抽出された声から、前記顔検出部で顔が検出された人物の感情を判定する感情判定部と、前記感情判定部で判定された感情に基づいて動画コンテンツを加工する加工処理部とを備えている。
請求項2に記載の発明では、前記声抽出部で抽出された声から音声感情を認識する音声感情認識部と、顔から認識される表情、人物の動き、及び音声感情の組合せと、感情とを対応させて記憶した感情テーブルを格納した感情データベースとを備え、前記感情判定部は、前記感情テーブルを用いて、前記表情認識部で認識された表情、前記動き検知部で検知された人物の動き、及び前記音声感情認識部で認識された音声感情の組合せに対応する感情を、前記顔検出部で顔が検出された人物の感情であると判定する。
請求項3に記載の発明では、動画コンテンツに装飾する装飾コンテンツを、感情と対応させて記憶した装飾コンテンツデータベースと、前記感情判定部で判定された感情に対応する前記装飾コンテンツを前記装飾コンテンツデータベースから取得する装飾コンテンツ取得部とを備え、前記加工処理部は、前記装飾コンテンツ取得部で取得された前記装飾コンテンツを動画コンテンツに合成する合成処理部である。
請求項4に記載の発明では、前記装飾コンテンツデータベースに感情と対応して記憶された前記装飾コンテンツは複数種類であり、前記装飾コンテンツ取得部は、入力された種類の前記装飾コンテンツを取得する。
請求項5に記載の発明では、前記顔検出部で検出された顔、及び前記声抽出部で抽出された声から、前記顔検出部で顔が検出された人物の性別を推定する性別推定部を備え、前記加工処理部は、前記性別判別部で推定された性別に基づいて動画コンテンツを加工する。
請求項6に記載の発明では、前記顔検出部で検出された顔、及び前記声抽出部で抽出された声から、前記顔検出部で顔が検出された人物の年齢を推定する年齢推定部を備え、前記加工処理部は、前記年齢判別部で推定された年齢に基づいて動画コンテンツを加工する。
本発明の動画コンテンツの加工方法は、顔検出部において、動画コンテンツから顔を検出する顔検出ステップと、前記顔検出ステップで検出された顔から表情を表情認識部で認識する表情認識ステップと、動画コンテンツから、前記顔検出ステップで顔が検出された人物の動きを動き検知部で検知する動き検知ステップと、動画コンテンツから、前記顔検出ステップで顔が検出された人物の声を声抽出部で抽出する声抽出ステップと、前記表情認識ステップで認識された表情、前記動き検知ステップで検知された人物の動き、及び前記声抽出ステップで抽出された声から、前記顔検出ステップで顔が検出された人物の感情を感情判定部で判定する感情判定ステップと、前記感情判定ステップで判定された感情に基づいて動画コンテンツを加工処理部で加工する加工ステップとを備えている。
本発明の動画コンテンツの加工プログラムは、動画コンテンツから顔を検出する顔検出ステップと、前記顔検出ステップで検出された顔から表情を認識する表情認識ステップと、動画コンテンツから、前記顔検出ステップで顔が検出された人物の動きを検知する動き検知ステップと、動画コンテンツから、前記顔検出ステップで顔が検出された人物の声を抽出する声抽出ステップと、前記表情認識ステップで認識された表情、前記動き検知ステップで検知された人物の動き、及び前記声抽出ステップで抽出された声から、前記顔検出ステップで顔が検出された人物の感情を判定する感情判定ステップと、前記感情判定ステップで判定された感情に基づいて動画コンテンツを加工する加工ステップとをコンピュータに実行させる。
本発明の動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラムによれば、写っている人物の感情を的確に判定し、判定した感情に基づいて動画コンテンツを加工することができる。
[第1実施形態]
図1において、第1実施形態における動画コンテンツの加工装置は、動画コンテンツの加工プログラム44(図3参照)のインストールによってサーバ11に構築される形式で実現される。動画コンテンツの加工装置は、写っている人物の感情に基づいて動画コンテンツを加工する。本明細書において動画コンテンツとは、音声を伴う動画のことを意味する。なお、本実施形態では、動画コンテンツを構成する静止画のフレームに装飾画像を合成することによって動画コンテンツを加工する場合を例に説明するが、音声その他のコンテンツを合成することによって動画コンテンツを加工するようにしてもよい。
サーバ11は、インターネット12を介して接続されたクライアント端末13とともに、ネットワークシステム14を構成する。クライアント端末13は、例えば周知のパーソナルコンピュータやワークステーションであり、各種操作画面などを表示するモニタ15と、操作信号を出力するマウス16及びキーボード17からなる操作部18とを備えている。
クライアント端末13には、デジタルカメラ19で撮影して得られた動画コンテンツや、メモリカードやCD−Rなどの記録媒体20に記録された動画コンテンツが送信され、あるいは、インターネット12を経由して動画コンテンツが転送される。
デジタルカメラ19は、例えば、IEEE1394、USB(Universal Serial Bus)などに準拠した通信ケーブルや、無線LANなどによりクライアント端末13に接続され、クライアント端末13とのデータの相互通信が可能となっている。また、記録媒体20も同様に、専用のドライバを介してクライアント端末13とのデータの遣り取りが可能となっている。
図2に示すように、クライアント端末13を構成するCPU21は、操作部18から入力される操作信号などに従ってクライアント端末13全体を統括的に制御する。CPU21には、操作部18の他に、データバス22を介して、RAM23、ハードディスクドライブ(HDD)24、通信インターフェース(通信I/F)25、及びモニタ15が接続されている。
RAM23は、CPU21が処理を実行するための作業用メモリである。HDD24には、クライアント端末13を動作させるための各種プログラムやデータが記憶されている他に、デジタルカメラ19、記録媒体20、あるいは、インターネット12から取り込まれた動画コンテンツが記憶される。CPU21は、HDD24からプログラムを読み出してRAM23に展開し、読み出したプログラムを逐次処理する。
通信I/F25は、例えばモデムやルータであり、インターネット12に適合した通信プロトコルの制御を行い、インターネット12を経由したデータの遣り取りをする。また、通信I/F25は、デジタルカメラ19や記録媒体20などの外部機器とのデータ通信も行う。
図3に示すように、サーバ11を構成するCPU31は、インターネット12を経由してクライアント端末13から入力される操作信号に従ってサーバ11全体を統括的に制御する。CPU31には、データバス32を介して、RAM33、ハードディスクドライブ(HDD)34、通信インターフェース(通信I/F)35、顔検出部36、表情認識部37、動き検知部38、声抽出部39、音声感情認識部40、感情判定部41、装飾画像取得部42、及び合成処理部(加工処理部)43が接続されている。
RAM33は、CPU31が処理を実行するための作業用メモリである。HDD34には、サーバ11を動作させるための各種プログラムやデータが記憶されている。また、HDD34には、動画コンテンツの加工プログラム44が記憶されている。CPU31は、HDD34からプログラムを読み出してRAM33に展開し、読み出したプログラムを逐次処理する。
HDD34には、感情データベース(感情DB)45と、装飾画像データベース(装飾画像DB)46とが設けられている。感情DB45には、図4に示す感情テーブル51が格納されている。
感情テーブル51は、顔の表情、人物の動き、及び音声感情の組合せと、この組合せから観念される感情とを対応させて記憶している。音声感情とは、声から認識される感情のことを意味するが、以下では、感情の強弱を示す要素である場合を例に説明する。顔の表情が「無表情」、「笑顔」、「怒り顔」、「悲しみ顔」の四つであり、人物の動きが「なし」、「小」、「中」、「大」の四段階であり、音声感情が「無音」、「なし」、「小」、「中」、「大」の五段階であれば、80(=4×4×5)通りの組合せそれぞれに対応した感情が記憶されていることになる。例えば図4に示すように、顔の表情が「笑顔」であり、人物の動きが「なし」であり、音声感情が「無音」である組合せに対応して、感情として「愛想笑い」が記憶されている。
装飾画像DB46には、複数種類の装飾画像が、感情と対応させて記憶されている。例えば図5に示すように、感情「愛想笑い」に対応して、三種類の装飾画像が記憶されている。一種類目は、心の内を示す吹出しとして「早く帰りたいな〜。」が記憶され、二種類目は、擬音及び漫符として「たら〜/汗マーク」が記憶され、三種類目は、台詞の吹出しとして「。。。」が記憶されている。漫符とは、感情や感覚を視覚化した符号のことをいう。デフォルトでは、一種類目の心の内を示す吹出しの装飾画像が選択される。クライアント端末13からの操作指示に基づいて、選択される装飾画像は切り替わる。具体的には、二種類目の擬音及び漫符の装飾画像、若しくは三種類目の台詞の吹出しの装飾画像が選択されたり、複数種類の装飾画像が選択されたり、又はランダムに選択されたりするように切り替わる。
通信I/F35は、例えばモデムやルータであり、インターネット12に適合した通信プロトコルの制御を行い、インターネット12を経由したデータの遣り取りをする。通信I/F35を介して入力されたデータは、RAM33に一時的に記憶される。
顔検出部36は、動画コンテンツがサーバ11に入力されると、その動画コンテンツを構成する静止画の各フレームから顔を検出したり、時系列的変化や動きを検出したりする。顔の検出には、特開2005−267512号公報で開示されている赤目検出を用いた方法などを利用する。詳しい説明は、特開2005−267512号公報などを参照されたい。なお、顔の検出には、パターンマッチングや、肌色検出などを用いた技術を利用してもよい。
表情認識部37は、顔検出部36で検出された顔の表情を認識する。顔の表情の認識には、特開平10−255043号公報で開示されている隠れマルコフモデル(HMM)を用いた技術などを利用する。なお、詳しい説明は、特開平10−255043号公報などを参照されたい。
動き検知部38は、顔検出部36で顔が検出された人物の動きを検知する。人物の動きの検知には、特開平09−251542号公報で開示されている統計的データを用いた技術などを利用する。なお、詳しい説明は、特開09−251542号公報などを参照されたい。また、顔検出部36で検出された顔の位置をフレーム間で比較することによって、人物の動きを検知してもよい。
声抽出部39は、サーバ11に入力された動画コンテンツを構成する音声から、人物の声を抽出する。そして、抽出された声が、顔検出部36で顔が検出された人物の声であるか否かを判定する。声の抽出にはバンドパスフィルタなどを、上記の判定には特開平09−127975号公報、あるいは特開平11−119791号公報などで開示されている技術をそれぞれ利用する。上記の判定についての詳しい説明は、特開平09−127975号公報、特開平11−119791号公報などを参照されたい。なお、上記の判定には、口角の変化、すなわち口角の動きを検知して判定をする技術を利用してもよい。
音声感情認識部40は、声抽出部39で抽出された声を元に、顔検出部36で顔が検出された人物の音声感情を認識する。音声感情の認識には、特開平09−127975号公報、特開平10−049188号公報あるいは特開平11−119791号公報などで開示されている技術を利用する。なお、詳しい説明は、特開平09−127975号公報、特開平10−049188号公報、特開平11−119791号公報などを参照されたい。
感情判定部41は、感情DB45にアクセスし、図4に示す感情テーブル51を用いて、顔検出部36で顔が検出された人物の感情を、所定のスパン(例えば5秒のスパン)毎に判定する。具体的には、顔検出部36で顔が検出された人物毎に、表情認識部37で認識された顔の表情、動き検知部38で検知された人物の動き、及び音声感情認識部40で認識された音声感情の組合せに対応する感情を、当該人物の感情であると判定する。
例えば、顔検出部36で顔が検出された人物について、表情認識部37で顔の表情が「笑顔」であると認識され、動き検知部38で人物の動きが「なし」であると検知され、且つ、音声感情認識部40で音声感情が「無音」であると認識された場合、感情判定部41は、当該人物の感情が「愛想笑い」と判定する(図4の上から3段目の欄参照)。なお、所定のスパンの中で、表情認識部37で認識された顔の表情、又は音声感情認識部40で認識された音声感情が変化している場合には、感情判定部41は、変化前の顔の表情、又は音声感情を用いて上記の判定を行う。
装飾画像取得部42は、装飾画像DB46にアクセスし、感情判定部41で判定された感情に対応する装飾画像を取得する。例えば、感情判定部41で感情が「愛想笑い」と判定された場合、デフォルトでは、心の内を示す吹出しの装飾画像である「早く帰りたいな〜。」を取得する。クライアント端末13からの操作指示があった場合には、その操作指示に基づいて、擬音及び漫符の装飾画像である「たら〜/汗マーク」、又は台詞の吹出しの装飾画像である「。。。」を取得したりする。
合成処理部43は、装飾画像取得部42が取得した装飾画像を、動画コンテンツを構成する静止画の各フレームに合成する。図6を参照しながら、顔検出部36で三つの顔が検出された場合を例に説明する。顔の表情が「笑顔」で、人物の動きが「なし」で、且つ、音声感情が「無音」であるフレーム上方に写る人物は、感情が「愛想笑い」と判定され、デフォルトでは、装飾画像取得部42で一種類目の心の内を示す吹出しの装飾画像である「早く帰りたいな〜。」が取得されている。合成処理部43は、装飾画像取得部42で取得された装飾画像である「早く帰りたいな〜。」を、フレーム上方に写る人物の周囲に配置するように、動画コンテンツを構成する静止画のフレームに合成する。
顔の表情が「笑顔」で、人物の動きが「小」で、且つ、音声感情が「小」であるフレーム左方に写る人物は、感情が「ややふざけている」と判定され、デフォルトでは、装飾画像取得部42で一種類目の心の内を示す吹出しの装飾画像である「うふふふ。ワタシ写ってる?」が取得されている。合成処理部43は、装飾画像取得部42で取得された装飾画像である「うふふふ。ワタシ写ってる?」を、フレーム左方に写る人物の周囲に配置するように、動画コンテンツを構成する静止画のフレームに合成する。
顔の表情が「笑顔」で、人物の動きが「大」で、且つ、音声感情が「大」であるフレーム右方に写る人物は、感情が「とても楽しい」と判定され、デフォルトでは、装飾画像取得部42で一種類目の心の内を示す吹出しの装飾画像である「すごく楽しいな♪」が取得されている。合成処理部43は、装飾画像取得部42で取得された装飾画像である「すごく楽しいな♪」を、フレーム右方に写る人物の周囲に配置するように、動画コンテンツを構成する静止画のフレームに合成する。
また、図7に示すように、フレーム上方に写る人物について、二種類目の擬音及び漫符の装飾画像である「たら〜/汗マーク」が取得されている場合には、合成処理部43は、取得されている装飾画像である「たら〜/汗マーク」を、フレーム上方に写る人物の周囲に配置するように、動画コンテンツを構成する静止画のフレームに合成する。
フレーム左方に写る人物について、二種類目の擬音及び漫符の装飾画像である「ニヤニヤ」が取得されている場合には、合成処理部43は、取得されている装飾画像である「ニヤニヤ」を、フレーム左方に写る人物の周囲に配置するように、動画コンテンツを構成する静止画のフレームに合成する。
フレーム右方に写る人物について、二種類目の擬音及び漫符の装飾画像である「あはは(笑)」が取得されている場合には、合成処理部43は、取得されている装飾画像である「あはは(笑)」を、フレーム右方に写る人物の周囲に配置するように、動画コンテンツを構成する静止画のフレームに合成する。
同様に、図8に示すように、フレーム上方に写る人物について、三種類目の台詞の吹出しの装飾画像である「。。。」が取得されている場合には、合成処理部34は、取得されている装飾画像である「。。。」を、フレーム上方に写る人物の周囲に配置するように、動画コンテンツを構成する静止画のフレームに合成する。
フレーム左方に写る人物について、三種類目の台詞の吹出しの装飾画像である「現金ですかぁ!!」が取得されている場合には、合成処理部43は、取得されている装飾画像である「現金ですかぁ!!」を、フレーム左方に写る人物の周囲に配置するように、動画コンテンツを構成する静止画のフレームに合成する。
フレーム右方に写る人物について、三種類目の台詞の吹出しの装飾画像である「元気ですかぁ!!」が取得されている場合には、合成処理部43は、取得されている装飾画像である「元気ですかぁ!!」を、フレーム右方に写る人物の周囲に配置するように、動画コンテンツを構成する静止画の各フレームに合成する。
次に、上記構成のサーバ11(図1及び図3参照)が動画コンテンツの加工装置として機能したときの処理手順について、図9のフローチャートを参照しながら説明する。ユーザーは、クライアント端末13の操作部18を操作して、サーバ11に動画コンテンツを入力する。サーバ11に入力された動画コンテンツは、RAM33に記憶される。
サーバ11に入力された動画コンテンツは、所定のスパン(例えば5秒のスパン(150フレーム))毎にリアルタイムで加工処理が施される。動画コンテンツは、まず、RAM33から顔検出部36、動き検知部38、声抽出部39にそれぞれ読み出される。顔検出部36では、動画コンテンツを構成する静止画の各フレームから顔が検出されたり、時系列的変化や動きが検出されたりする。検出された顔や、時系列的変化及び動きは、RAM33に記憶される。
顔検出部36で検出された顔や、時系列的変化及び動きは、RAM33から表情認識部37に読み出される。表情認識部37では、顔検出部36で検出された顔の表情が認識される。認識された顔の表情は、RAM33に記憶される。
表情認識部37で認識された顔の表情は、RAM33から動き検知部38に読み出される。動き検知部38では、顔検出部36で顔が検出された人物の動きが検知される。検知された人物の動きは、RAM33に記憶される。
声抽出部39では、動画コンテンツを構成する音声から、顔検出部36で顔が検出された人物の声が抽出される。抽出された人物の声は、RAM33に記憶される。
声抽出部39で抽出された人物の声は、RAM33から音声感情認識部40に読み出される。音声感情認識部40では、顔検出部36で顔が検出された人物の音声感情が認識される。認識された人物の音声感情は、RAM33に記憶される。
表情認識部37で認識された顔の表情、動き検知部38で検知された人物の動き、及び音声感情認識部40で認識された音声感情は、RAM33から感情判定部41に読み出される。感情判定部41では、感情DB45に格納された感情テーブル51(図4参照)が参照されながら、顔検出部36で顔が検出された人物の感情が判定される。判定された感情は、RAM33に記憶される。
感情判定部41で判定された感情は、RAM33から装飾画像取得部42に読み出される。装飾画像取得部42では、感情判定部41で判定された感情に対応する装飾画像(図5参照)が、装飾画像DB46から取得される。取得された装飾画像は、RAM33に記憶される。
装飾画像取得部42で取得された装飾画像は、RAM33から合成処理部43に読み出される。合成処理部43では、装飾画像取得部42で取得された装飾画像が、動画コンテンツを構成する静止画のフレームに合成される。装飾画像が合成された動画コンテンツは、RAM33に記憶される。
合成処理部43で装飾画像が合成された動画コンテンツは、顔検出→表情認識→動き検知→声抽出→音声感情認識→感情判定→性別判定→年齢判定→装飾画像取得→画像合成の一連の処理が終了した所定のスパン毎に、RAM33から読み出される。
RAM33から読み出された動画コンテンツは、インターネット12を介してクライアント端末13に送信される。クライアント端末13に送信された動画コンテンツは、RAM23に記憶される。
クライアント端末13に送信された動画コンテンツは、RAM23から読み出され、リアルタイムでモニタ15に表示される。
以上説明したように、顔の表情だけでなく、人物の動き、及び音声感情を用いて総合的に感情を判定し、判定した感情に対応する装飾画像を合成したから、動画コンテンツに相応しい装飾画像を合成することができる。また、感情に関連性のない装飾画像を当該感情に対応させて装飾画像DB46に記憶させておくことで、意外性のある新しいストーリーを有した動画コンテンツを加工することができる(図8参照)。
[第2実施形態]
上記第1実施形態の動画コンテンツの加工装置では、写っている人物の性別・年齢と関連性のない装飾画像を合成するから、例えば、女児が写っている動画コンテンツに対して老父の台詞の吹出しの装飾画像を合成した場合、女児が老父の台詞を発していることになり、当該動画コンテンツを見た人に違和感を与えてしまう。確かに、男性が写っている動画コンテンツに対して女性の台詞の吹出しの装飾画像を合成した場合、男性が女性の台詞を発していることになるから、その動画コンテンツを見た人にその男性がニューハーフであると感じさせるなど、意外性を楽しませることも可能である。しかし、全ての人物について性別・年齢と関連性のない装飾画像を合成することは、違和感を与えるだけであり好ましいことではない。そこで、次に説明する第2実施形態の動画コンテンツの加工装置では、写っている人物の性別・年齢と関連性のある装飾画像を合成し、動画コンテンツを見た人に違和感を与えないようにする。
図10において、第2実施形態における動画コンテンツの加工装置は、動画コンテンツの加工プログラム44のインストールによってサーバ61に構築される形式で実現される。CPU31には、データバス32を介して、性別推定部62、及び年齢推定部63などが接続されている。
装飾画像DB46には、複数種類の装飾画像が、感情、性別、及び年齢の組合せと対応させて記憶されている。
性別推定部62は、顔検出部36で顔が検出された人物の性別を推定する。具体的には、顔検出部36で検出された顔、表情認識部37で認識された顔の表情、声抽出部39で抽出された人物の声、及び音声感情認識部40で認識された音声感情を元に、人物の性別を推定する。性別の推定には、特開2007−080057号公報などで開示されている技術を利用する。なお、詳しい説明は、特開2007−080057号公報などを参照されたい。
年齢推定部63は、顔検出部36で顔が検出された人物の年齢を推定する。具体的には、顔検出部36で検出された顔、表情認識部37で認識された顔の表情、声抽出部39で抽出された人物の声、及び音声感情認識部40で認識された音声感情を元に、人物の年齢を推定する。年齢の推定には、特開2007−080057号公報などで開示されている技術を利用する。なお、詳しい説明は、特開2007−080057号公報などを参照されたい。
装飾画像取得部42は、装飾画像DB46にアクセスし、感情判定部41で判定された感情、性別推定部62で推定された性別、及び年齢推定部63で推定された年齢の組合せに対応する装飾画像を取得する。なお、上記第1実施形態と同様の構成については、その説明を省略する。
次に、上記構成のサーバ61(図10参照)が動画コンテンツの加工装置として機能したときの処理手順について、図11のフローチャートを参照しながら説明する。なお、上記第1実施形態と同様の処理手順については、その説明を省略する。
顔検出部36で検出された顔、表情認識部37で認識された顔の表情、声抽出部39で抽出された人物の声、及び音声感情認識部40で認識された音声感情は、RAM33から性別推定部62、及び年齢推定部63のそれぞれに読み出される。性別推定部62では、顔検出部36で顔が検出された人物の性別が推定される。推定された性別は、RAM33に記憶される。なお、顔検出部36で顔が検出された人物の性別が一旦推定された場合、該当する人物については、性別推定部62による処理を省略してもよい。
年齢推定部63では、顔検出部36で顔が検出された人物の性別が推定される。推定さえた年齢は、RAM33に記憶される。なお、顔検出部36で顔が検出された人物の年齢が一旦推定された場合、該当する人物については、年齢推定部63による処理を省略してもよい。
感情判定部41で判定された感情、性別推定部62で推定された性別、及び年齢推定部63で推定された年齢は、RAM33から装飾画像取得部42に読み出される。装飾画像取得部42では、感情判定部41で判定された感情、性別推定部62で推定された性別、及び年齢推定部63で推定された年齢の組合せに対応する装飾画像が、装飾画像DB46から取得される。
合成処理部43で装飾画像が合成された動画コンテンツは、顔検出→表情認識→動き検知→声抽出→音声感情認識→感情判定→性別推定→年齢推定→装飾画像取得→画像合成の一連の処理が終了した所定のスパン毎に、RAM33から読み出される。
以上説明したように、写っている人物の性別・年齢と関連性のある装飾画像を合成するようにしたから、例えば、女児が老父の台詞を発しているような動画コンテンツになることはなく、動画コンテンツを見た人に違和感を与えることはない。
なお、上記各実施形態では、インターネット12に接続されたサーバ11に動画コンテンツの加工装置が構築され、万人がアクセス可能である場合を例に説明したが、これに限定されるものではない。例えば、個人が使用するパーソナルコンピュータに動画コンテンツの加工装置が構築されるようにしてもよい。また、動画撮影可能なデジタルカメラに、動画コンテンツの加工機能を備えるようにしてもよい。
また、上記各実施形態では、所定のスパンに区切られた全てに対して加工処理が施されたが、感情が変化した時にだけ加工処理が施されるようにしてもよい。この場合、装飾画像取得部42及び合成処理部43は、感情判定部41で判定された感情が変化した時にだけ処理を実行することになる。
また、上記各実施形態では、心の内を示す吹出し、擬音及び漫符、及び台詞の吹出しの装飾画像の場合を例に説明したが、この場合に限定されることはない。また、旅行、結婚式、入学式、誕生日などの場面に応じた装飾画像を用いてもよい。
また、上記各実施形態では、ユーザーがクライアント端末13で選択した種類の装飾画像が合成される場合を例に説明したが、動画コンテンツの加工装置がランダムに選択した種類の装飾画像が合成されるようにしてもよい。
また、上記各実施形態では、静止画である装飾画像を合成する場合を例に説明したが、動画、音声、その他のコンテンツを合成するようにしてもよい。
また、上記各実施形態で示した動画コンテンツの加工装置は一例にすぎず、本発明の趣旨を逸脱しなければ、如何様な態様にも適宜変更することができる。
ネットワークシステムの構成を示す概略図である。 クライアント端末の内部構成を示すブロック図である。 サーバの内部構成を示すブロック図である。 感情テーブルの構成を示す説明図である。 装飾画像DBに記憶されている装飾画像の一覧表である。 動画コンテンツを構成する静止画のフレームに、一種類目の装飾画像を合成する処理を説明した図である。 動画コンテンツを構成する静止画のフレームに、二種類目の装飾画像を合成する処理を説明した図である。 動画コンテンツを構成する静止画のフレームに、二種類目の装飾画像を合成する処理を説明した図である。 動画コンテンツの加工処理手順を説明するフローチャートである。 別の形態のサーバの内部構成を示すブロック図である。 別の形態の動画コンテンツの加工処理手順を説明するフローチャートである。
符号の説明
11、61 サーバ(動画コンテンツの加工装置)
36 顔検出部
37 表情認識部
38 動き検知部
39 声抽出部
40 音声感情認識部
41 感情判定部
42 装飾画像取得部
43 合成処理部
44 動画コンテンツの加工プログラム
45 感情データベース(感情DB)
46 装飾画像データベース(装飾画像DB)
51 感情テーブル
62 性別推定部
63 年齢推定部

Claims (8)

  1. 動画コンテンツから顔を検出する顔検出部と、
    前記顔検出部で検出された顔の表情を認識する表情認識部と、
    動画コンテンツから、前記顔検出部で顔が検出された人物の動きを検知する動き検知部と、
    動画コンテンツから、前記顔検出部で顔が検出された人物の声を抽出する声抽出部と、
    前記表情認識部で認識された顔の表情、前記動き検知部で検知された人物の動き、及び前記声抽出部で抽出された声から、前記顔検出部で顔が検出された人物の感情を判定する感情判定部と、
    前記感情判定部で判定された感情に基づいて動画コンテンツを加工する加工処理部とを備えたことを特徴とする動画コンテンツの加工装置。
  2. 前記声抽出部で抽出された声から音声感情を認識する音声感情認識部と、
    顔の表情、人物の動き、及び音声感情の組合せと、感情とを対応させて記憶した感情テーブルを格納した感情データベースとを備え、
    前記感情判定部は、前記感情テーブルを用いて、前記表情認識部で認識された顔の表情、前記動き検知部で検知された人物の動き、及び前記音声感情認識部で認識された音声感情の組合せに対応する感情を、前記顔検出部で顔が検出された人物の感情であると判定することを特徴とする請求項1に記載の動画コンテンツの加工装置。
  3. 動画コンテンツに装飾する装飾コンテンツを、感情と対応させて記憶した装飾コンテンツデータベースと、
    前記感情判定部で判定された感情に対応する前記装飾コンテンツを前記装飾コンテンツデータベースから取得する装飾コンテンツ取得部とを備え、
    前記加工処理部は、前記装飾コンテンツ取得部で取得された前記装飾コンテンツを動画コンテンツに合成する合成処理部であることを特徴とする請求項1又は2に記載の動画コンテンツの加工装置。
  4. 前記装飾コンテンツデータベースに感情と対応して記憶された前記装飾コンテンツは複数種類であり、
    前記装飾コンテンツ取得部は、入力された種類の前記装飾コンテンツを取得することを特徴とする請求項3に記載の動画コンテンツの加工装置。
  5. 前記顔検出部で検出された顔、及び前記声抽出部で抽出された声から、前記顔検出部で顔が検出された人物の性別を推定する性別推定部を備え、
    前記加工処理部は、前記性別判別部で推定された性別に基づいて動画コンテンツを加工することを特徴とする請求項1〜4のいずれかに記載の動画コンテンツの加工装置。
  6. 前記顔検出部で検出された顔、及び前記声抽出部で抽出された声から、前記顔検出部で顔が検出された人物の年齢を推定する年齢推定部を備え、
    前記加工処理部は、前記年齢判別部で推定された年齢に基づいて動画コンテンツを加工することを特徴とする請求項1〜5のいずれかに記載の動画コンテンツの加工装置。
  7. 顔検出部において、動画コンテンツから顔を検出する顔検出ステップと、
    前記顔検出ステップで検出された顔の表情を表情認識部で認識する表情認識ステップと、
    動画コンテンツから、前記顔検出ステップで顔が検出された人物の動きを動き検知部で検知する動き検知ステップと、
    動画コンテンツから、前記顔検出ステップで顔が検出された人物の声を声抽出部で抽出する声抽出ステップと、
    前記表情認識ステップで認識された顔の表情、前記動き検知ステップで検知された人物の動き、及び前記声抽出ステップで抽出された声から、前記顔検出ステップで顔が検出された人物の感情を感情判定部で判定する感情判定ステップと、
    前記感情判定ステップで判定された感情に基づいて動画コンテンツを加工処理部で加工する加工ステップとを備えたことを特徴とする動画コンテンツの加工方法。
  8. 動画コンテンツから顔を検出する顔検出ステップと、
    前記顔検出ステップで検出された顔の表情を認識する表情認識ステップと、
    動画コンテンツから、前記顔検出ステップで顔が検出された人物の動きを検知する動き検知ステップと、
    動画コンテンツから、前記顔検出ステップで顔が検出された人物の声を抽出する声抽出ステップと、
    前記表情認識ステップで認識された顔の表情、前記動き検知ステップで検知された人物の動き、及び前記声抽出ステップで抽出された声から、前記顔検出ステップで顔が検出された人物の感情を判定する感情判定ステップと、
    前記感情判定ステップで判定された感情に基づいて動画コンテンツを加工する加工ステップとをコンピュータに実行させることを特徴とする動画コンテンツの加工プログラム。
JP2008230442A 2008-09-09 2008-09-09 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム Pending JP2010066844A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008230442A JP2010066844A (ja) 2008-09-09 2008-09-09 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008230442A JP2010066844A (ja) 2008-09-09 2008-09-09 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム

Publications (1)

Publication Number Publication Date
JP2010066844A true JP2010066844A (ja) 2010-03-25

Family

ID=42192404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008230442A Pending JP2010066844A (ja) 2008-09-09 2008-09-09 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム

Country Status (1)

Country Link
JP (1) JP2010066844A (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100329505A1 (en) * 2009-06-30 2010-12-30 Kabushiki Kaisha Toshiba Image processing apparatus and method for processing image
JP2011139329A (ja) * 2009-12-28 2011-07-14 Casio Computer Co Ltd 画像処理装置、及び、画像加工プログラム
WO2012070428A1 (ja) * 2010-11-24 2012-05-31 日本電気株式会社 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム
WO2012070430A1 (ja) * 2010-11-24 2012-05-31 日本電気株式会社 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム
WO2012070429A1 (ja) * 2010-11-24 2012-05-31 日本電気株式会社 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム
JP2013069185A (ja) * 2011-09-26 2013-04-18 Dainippon Printing Co Ltd テキスト入力支援システム、テキスト挿入方法、サーバおよびプログラム
KR20130125367A (ko) * 2010-11-12 2013-11-18 마이크로소프트 코포레이션 콘텐츠의 시청자 기반 제공 및 맞춤화
EP2793167A2 (en) 2013-04-15 2014-10-22 Omron Corporation Expression estimation device, control method, control program, and recording medium
CN105791692A (zh) * 2016-03-14 2016-07-20 腾讯科技(深圳)有限公司 一种信息处理方法及终端
WO2016174784A1 (ja) * 2015-04-28 2016-11-03 シャープ株式会社 制御装置および表示装置
JP2017054241A (ja) * 2015-09-08 2017-03-16 株式会社東芝 表示制御装置、方法及びプログラム
CN107943279A (zh) * 2017-10-27 2018-04-20 捷开通讯(深圳)有限公司 智能穿戴设备及工作方法、具有存储功能的装置
CN109688451A (zh) * 2017-10-18 2019-04-26 纳宝株式会社 摄像机效应的提供方法及系统
JP2019537298A (ja) * 2016-10-01 2019-12-19 フェイスブック,インク. クライアントデバイスによって得られたビデオデータをレンダリング中に1つまたは複数のエフェクトで拡張するための構成
US10580188B2 (en) 2017-09-05 2020-03-03 Kakao Corp. Method of creating animated image based on key input, and user terminal for performing the method
WO2020138545A1 (ko) * 2018-12-27 2020-07-02 주식회사 사이 사용자 질의 기반 트레일러 영상 생성 시스템
WO2020138546A1 (ko) * 2018-12-27 2020-07-02 주식회사 사이 사용자 선호 기반 트레일러 영상 생성 시스템
WO2020153785A1 (ko) * 2019-01-24 2020-07-30 삼성전자 주식회사 전자 장치 및 이를 이용한 감정 정보에 대응하는 그래픽 오브젝트를 제공하는 방법
KR102192010B1 (ko) * 2019-12-27 2020-12-16 쿨클라우드(주) 추론 엔진 및 배포 엔진 기반 콘텐츠 제공 방법 및 이를 사용하는 전자 장치
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
JP2021064067A (ja) * 2019-10-10 2021-04-22 沖電気工業株式会社 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法
JP2022015167A (ja) * 2020-07-08 2022-01-21 株式会社Jvcケンウッド 画像処理装置および画像処理方法
JPWO2022249241A1 (ja) * 2021-05-24 2022-12-01

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8391544B2 (en) * 2009-06-30 2013-03-05 Kabushiki Kaisha Toshiba Image processing apparatus and method for processing image
JP2011013384A (ja) * 2009-06-30 2011-01-20 Toshiba Corp 画像処理装置および画像処理方法
US20100329505A1 (en) * 2009-06-30 2010-12-30 Kabushiki Kaisha Toshiba Image processing apparatus and method for processing image
JP2011139329A (ja) * 2009-12-28 2011-07-14 Casio Computer Co Ltd 画像処理装置、及び、画像加工プログラム
KR101871526B1 (ko) * 2010-11-12 2018-06-26 지구 홀딩스 리미티드 콘텐츠의 시청자 기반 제공 및 맞춤화
KR20130125367A (ko) * 2010-11-12 2013-11-18 마이크로소프트 코포레이션 콘텐츠의 시청자 기반 제공 및 맞춤화
WO2012070429A1 (ja) * 2010-11-24 2012-05-31 日本電気株式会社 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム
WO2012070430A1 (ja) * 2010-11-24 2012-05-31 日本電気株式会社 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム
US20130188835A1 (en) * 2010-11-24 2013-07-25 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
US20130279747A1 (en) * 2010-11-24 2013-10-24 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
WO2012070428A1 (ja) * 2010-11-24 2012-05-31 日本電気株式会社 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム
US9224033B2 (en) 2010-11-24 2015-12-29 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
US9183632B2 (en) 2010-11-24 2015-11-10 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
US9196042B2 (en) 2010-11-24 2015-11-24 Nec Corporation Feeling-expressing-word processing device, feeling-expressing-word processing method, and feeling-expressing-word processing program
JP2013069185A (ja) * 2011-09-26 2013-04-18 Dainippon Printing Co Ltd テキスト入力支援システム、テキスト挿入方法、サーバおよびプログラム
EP2793167A2 (en) 2013-04-15 2014-10-22 Omron Corporation Expression estimation device, control method, control program, and recording medium
US9256953B2 (en) 2013-04-15 2016-02-09 Omron Corporation Expression estimation device, control method, control program, and recording medium
WO2016174784A1 (ja) * 2015-04-28 2016-11-03 シャープ株式会社 制御装置および表示装置
JPWO2016174784A1 (ja) * 2015-04-28 2018-02-22 シャープ株式会社 制御装置および表示装置
JP2017054241A (ja) * 2015-09-08 2017-03-16 株式会社東芝 表示制御装置、方法及びプログラム
JP2019504532A (ja) * 2016-03-14 2019-02-14 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 情報処理方法及び端末
CN105791692B (zh) * 2016-03-14 2020-04-07 腾讯科技(深圳)有限公司 一种信息处理方法、终端及存储介质
WO2017157272A1 (zh) * 2016-03-14 2017-09-21 腾讯科技(深圳)有限公司 一种信息处理方法及终端
KR20180112848A (ko) * 2016-03-14 2018-10-12 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 정보 처리 방법 및 단말
CN105791692A (zh) * 2016-03-14 2016-07-20 腾讯科技(深圳)有限公司 一种信息处理方法及终端
US11140436B2 (en) 2016-03-14 2021-10-05 Tencent Technology (Shenzhen) Company Limited Information processing method and terminal
KR102135215B1 (ko) * 2016-03-14 2020-07-17 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 정보 처리 방법 및 단말
US10977847B2 (en) 2016-10-01 2021-04-13 Facebook, Inc. Architecture for augmenting video data obtained by a client device with one or more effects during rendering
JP2019537298A (ja) * 2016-10-01 2019-12-19 フェイスブック,インク. クライアントデバイスによって得られたビデオデータをレンダリング中に1つまたは複数のエフェクトで拡張するための構成
US10580188B2 (en) 2017-09-05 2020-03-03 Kakao Corp. Method of creating animated image based on key input, and user terminal for performing the method
CN109688451B (zh) * 2017-10-18 2021-04-02 纳宝株式会社 摄像机效应的提供方法及系统
JP2019075124A (ja) * 2017-10-18 2019-05-16 ネイバー コーポレーションNAVER Corporation カメラエフェクトを提供する方法およびシステム
US10742900B2 (en) 2017-10-18 2020-08-11 Naver Corporation Method and system for providing camera effect
CN109688451A (zh) * 2017-10-18 2019-04-26 纳宝株式会社 摄像机效应的提供方法及系统
CN107943279A (zh) * 2017-10-27 2018-04-20 捷开通讯(深圳)有限公司 智能穿戴设备及工作方法、具有存储功能的装置
WO2020138545A1 (ko) * 2018-12-27 2020-07-02 주식회사 사이 사용자 질의 기반 트레일러 영상 생성 시스템
WO2020138546A1 (ko) * 2018-12-27 2020-07-02 주식회사 사이 사용자 선호 기반 트레일러 영상 생성 시스템
WO2020153785A1 (ko) * 2019-01-24 2020-07-30 삼성전자 주식회사 전자 장치 및 이를 이용한 감정 정보에 대응하는 그래픽 오브젝트를 제공하는 방법
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
KR102807150B1 (ko) 2019-08-14 2025-05-16 엘지전자 주식회사 로봇 및 그의 제어 방법
JP2021064067A (ja) * 2019-10-10 2021-04-22 沖電気工業株式会社 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法
JP7392377B2 (ja) 2019-10-10 2023-12-06 沖電気工業株式会社 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法
KR102192027B1 (ko) * 2019-12-27 2020-12-16 쿨클라우드(주) 추론 엔진 기반 콘텐츠 제공 방법 및 이를 사용하는 전자 장치
KR102192010B1 (ko) * 2019-12-27 2020-12-16 쿨클라우드(주) 추론 엔진 및 배포 엔진 기반 콘텐츠 제공 방법 및 이를 사용하는 전자 장치
JP2022015167A (ja) * 2020-07-08 2022-01-21 株式会社Jvcケンウッド 画像処理装置および画像処理方法
JP7532963B2 (ja) 2020-07-08 2024-08-14 株式会社Jvcケンウッド 画像処理装置および画像処理方法
JPWO2022249241A1 (ja) * 2021-05-24 2022-12-01
WO2022249241A1 (ja) * 2021-05-24 2022-12-01 日本電信電話株式会社 学習装置、学習方法、および、学習プログラム

Similar Documents

Publication Publication Date Title
JP2010066844A (ja) 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム
Chou et al. NNIME: The NTHU-NTUA Chinese interactive multimodal emotion corpus
JP6369462B2 (ja) クライアント装置、制御方法、システム、およびプログラム
CN113592985B (zh) 混合变形值的输出方法及装置、存储介质、电子装置
KR101445263B1 (ko) 맞춤형 콘텐츠 제공 시스템 및 방법
JP4641389B2 (ja) 情報処理方法、情報処理装置
CN107825429A (zh) 对话装置和方法
JPH11219446A (ja) 映像音響再生システム
JP2018014094A (ja) 仮想ロボットのインタラクション方法、システム及びロボット
WO2017061149A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20180027090A1 (en) Information processing device, information processing method, and program
CN113395569B (zh) 视频生成方法及装置
KR101913811B1 (ko) 얼굴 표현 및 심리 상태 파악과 보상을 위한 얼굴 정보 분석 방법 및 얼굴 정보 분석 장치
CN117462130A (zh) 一种基于数字人的心理健康评估方法与系统
JP2017064853A (ja) ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム
JP7313518B1 (ja) 評価方法、評価装置、および、評価プログラム
JP5532661B2 (ja) 画像抽出プログラムおよび画像抽出装置
JP2007101945A (ja) 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム
JP6977463B2 (ja) 通信装置、通信システムおよびプログラム
CN119516060B (zh) 三维数字人生成方法以及三维数字人模型的训练方法
JP4254400B2 (ja) 画像生成装置およびその画像生成方法、ならびにコンピュータ読み取り可能な記録媒体
JP7206741B2 (ja) 健康状態判定システム、健康状態判定装置、サーバ、健康状態判定方法、及びプログラム
JP2012169743A (ja) 情報処理装置及び情報処理方法
JP5310682B2 (ja) カラオケ装置
CN111160051A (zh) 数据处理方法、装置、电子设备及存储介质