JP2015114798A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2015114798A JP2015114798A JP2013255669A JP2013255669A JP2015114798A JP 2015114798 A JP2015114798 A JP 2015114798A JP 2013255669 A JP2013255669 A JP 2013255669A JP 2013255669 A JP2013255669 A JP 2013255669A JP 2015114798 A JP2015114798 A JP 2015114798A
- Authority
- JP
- Japan
- Prior art keywords
- area
- information
- document
- display
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】閲覧者の閲覧する文書の注視度に応じた拡張情報の表示を可能とする。【解決手段】視点情報入力部より文書閲覧者の視点情報の取得を実行し(7010)、視点座標がどの文書領域にあるのかを特定し(7020)、領域ごとに視点滞留時間を加算し(7030)、視点滞留時間カウンタの値に基づいて閲覧者の注視度を求め(7040)、所定時間が経過し(7050,Yes)、注視度が設定レベルを超えている場合に(7070,Yes)、領域に関連付けられたARコンテンツを取得し(7080)、取得したARコンテンツを注視度レベルに応じた表示形態でAR端末の表示部に表示する(7090)。【選択図】図7Extended information corresponding to the degree of gaze of a document viewed by a viewer is displayed. The viewpoint information input unit obtains the viewpoint information of the document viewer (7010), specifies which document area the viewpoint coordinates are in (7020), and adds the viewpoint dwell time for each area (7020). 7030), the viewer's gaze degree is calculated based on the value of the viewpoint dwell time counter (7040), and when a predetermined time has passed (7050, Yes) and the gaze degree exceeds the set level (7070, Yes). The AR content associated with the area is acquired (7080), and the acquired AR content is displayed on the display unit of the AR terminal in a display form according to the gaze degree level (7090). [Selection] Figure 7
Description
本発明は、表示された情報に関する拡張情報を出力する情報処理方法および情報処理装置、プログラムに関するものである。 The present invention relates to an information processing method, information processing apparatus, and program for outputting extended information related to displayed information.
タブレット端末やスマートフォンといったスマート端末に備え付けられている、カメラで撮像した被写体に関連する情報をスマート端末の画面に表示するAugmented Reality(以降、AR)と呼ばれる拡張現実感表示技術が知られている。当該技術においては、カメラで撮像された被写体に関連する情報を特定し、特定された関連情報をカメラで撮像された実世界の物体が表示される画面に重畳表示する。さらに、当該技術における被写体を紙文書として、紙文書を撮像すると、撮像された紙文書が表示される画面に関連情報(以降、ARコンテンツとも記載する)が重畳表示されるサービスも展開されている。紙文書では、動画等のコンテンツを紙面上で表現(再生)することができないが、紙文書に印刷されている静止画のARコンテンツとして動画を特定し、当該動画をスマート端末の画面において静止画に重畳表示することが可能になる。 An augmented reality display technology called Augmented Reality (hereinafter referred to as AR), which is provided in a smart terminal such as a tablet terminal or a smartphone and displays information related to a subject captured by a camera on the screen of the smart terminal, is known. In this technique, information related to a subject imaged by a camera is specified, and the specified related information is superimposed on a screen on which a real-world object imaged by the camera is displayed. Furthermore, a service is also developed in which related information (hereinafter also referred to as AR content) is superimposed on a screen on which a captured paper document is displayed when the subject is a paper document and the captured paper document is captured. . In a paper document, content such as moving images cannot be expressed (reproduced) on paper. However, a moving image is specified as AR content of a still image printed on a paper document, and the moving image is displayed on the screen of a smart terminal. Can be displayed in a superimposed manner.
特許文献1では、頭部装着ディスプレイHMD(Head Mounted Display)を用いて紙に拡張現実感表示するシステムにおいて、視野中の領域検出方法が開示されている。
前述した従来の拡張現実感表示技術は、文書に対する拡張情報が存在すれば、当該情報を漏らさず閲覧者に提示することを可能とするのに有効である。一方、複数の拡張情報が関連付けられた文書を、閲覧者が自らの閲覧意図をもって、閲覧する場合、すべての拡張情報を提示すると、閲覧者が煩雑と感じることがある。そこで、閲覧者に適宜に拡張情報の提示を行うことが求められるという課題があった。 The above-described conventional augmented reality display technology is effective in making it possible to present information to a viewer without leaking the information if there is extended information for the document. On the other hand, when a viewer browses a document associated with a plurality of pieces of extended information with his / her intention to browse, the viewer may feel troublesome if all the extended information is presented. Therefore, there has been a problem that it is required to present extended information to the viewer as appropriate.
本発明は上記の課題に鑑みてなされたものであり、閲覧者に対して閲覧者の視点領域に応じて適宜に拡張情報を提供できる情報処理装置を提供することを目的とする。また、その方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing apparatus that can provide extended information to a viewer appropriately according to the viewpoint area of the viewer. Moreover, it aims at providing the method and program.
上述の課題を解決するための情報処理装置は以下の構成を備える。すなわち表示された情報を閲覧する閲覧者の視点領域を特定する特定手段と、前記視点領域に関連付けられた拡張情報を取得する取得手段と、前記視点領域における前記閲覧者の注視度が所定レベルを超えたと判定した場合に、取得された前記拡張情報を前記情報に重畳して表示させる表示制御手段と、を備える。 An information processing apparatus for solving the above-described problems has the following configuration. That is, the specifying means for specifying the viewer's viewpoint area for browsing the displayed information, the acquisition means for acquiring the extended information associated with the viewpoint area, and the viewer's gaze degree in the viewpoint area has a predetermined level. Display control means for superimposing and displaying the acquired extended information on the information when it is determined that it has been exceeded.
本発明によれば、閲覧者に対して閲覧者の視点領域に応じて適宜に拡張情報を提示することができる。 ADVANTAGE OF THE INVENTION According to this invention, extended information can be suitably shown with respect to a browser according to a viewer's viewpoint area | region.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.
(第1の実施形態)
図1は、本実施形態を適用する情報処理装置の一例としての拡張現実感表示システムを示す構成図である。拡張現実感表示システムは撮像した現実の映像に拡張現実感を与える拡張情報を重畳表示することができる。本実施形態の拡張現実感表示システムは、拡張現実感表示端末(以下、AR端末とも記載する。)101とサーバ109で構成され、AR端末101とサーバ109は、通信部108および通信部114を介して、インターネットやイントラネット経由で接続することができる。AR端末101の撮像画像入力部105が撮像した被写体に関連する拡張情報をサーバ109から特定し、特定された拡張情報を被写体が表示される画面に重畳表示する。
(First embodiment)
FIG. 1 is a configuration diagram illustrating an augmented reality display system as an example of an information processing apparatus to which the present embodiment is applied. The augmented reality display system can superimpose and display augmented information that gives augmented reality to a captured real image. The augmented reality display system of this embodiment includes an augmented reality display terminal (hereinafter also referred to as an AR terminal) 101 and a
本実施形態のAR端末101は、現実空間の撮像機能とAR端末利用者が撮像範囲のいずれの箇所を見ているかを検出する視点情報入力部と撮像画像入力部とデジタルデータの重畳表示が可能な表示部とを有する。好適な実施形態としてスマート端末を用いるもの、又は特許文献1にて開示されるヘッドマウント型のカメラとディスプレイを搭載したメガネ・ゴーグルタイプを用いるものとする。かかるスマート端末、又はヘッドマウント型ディスプレイにおいては、撮像した映像に拡張現実感を与える拡張情報である画像あるいは映像等(以下、ARコンテンツとも記載する)を重畳表示することができる。
The
なお、本実施形態のAR端末101を用いて文書を表示する場合は、紙文書を撮像した映像の表示に限らず、AR端末101のROM103に格納されている文書ファイルを用いて文書を表示することもできる。
When a document is displayed using the
CPU102は、ROM103に格納されている制御プログラムを実行することにより、AR端末101の制御を行う。ROM103は、AR端末101が実行するプログラム、文書ファイルなどを格納するための格納手段である。AR端末101がプログラムを実行することにより、当該システムは後述するフローチャートに示す各処理を実行するための各種手段として機能する。RAM104は、各構成要素からの各種データを一時記憶する。また、プログラムを展開し、AR端末101によって実行する。撮像画像入力部105は、光学装置および撮像素子等によって構成され、CPU102からの指示に応じて、被写体の撮像を行う。視点情報入力部106は、公知の視点領域を検知する方法を採用して視点領域の検知を行う(例えば、特許文献2参照)。
The
表示部107は、液晶パネル等で構成され、撮像画像入力部105で撮像された映像とARコンテンツを重畳表示する。130は102乃至108間のデジタル信号を伝達するバスである。サーバ109は、AR端末101に提供するARコンテンツを管理し、また表示部107に表示する重畳表示データを生成する。CPU110は、ROM111に格納されている制御プログラムを実行することにより、サーバ109の制御を行う。ROM111は、サーバ109が実行するプログラムを格納する。サーバ109がプログラムを実行することにより、当該システムは後述するフローチャートに示す各処理を実行するための各種手段として機能する。RAM112は、各構成要素からの各種データを一時記憶する。また、プログラムを展開し、サーバ109によって実行する。記憶部113は、本実施形態の処理対象となるデータを保持している。たとえば、ARコンテンツの識別を行うための識別情報やARコンテンツのデータを保持している。記憶部113としては、フラッシュメモリ、HDDなどを用いることができる。131は110乃至114間のデジタル信号を伝達するバスである。
The
なお、本実施形態では後述するフローチャートの各ステップに対応する処理を、CPU102およびCPU110を用いてソフトウェアで実現するが、その処理の一部又は全部を電子回路などのハードウェアで実現するようにしても良い。
In this embodiment, processing corresponding to each step of the flowchart described later is realized by software using the
図2は第1の実施形態におけるARコンテンツの重畳表示対象となる文書の一例である。枠201はページ端となる文書枠である。領域202乃至205は段落など文字ブロックの個々の文字領域を示す。206は表領域であり、207は図形領域又は画像領域である。つまり、本実施形態の一例として文書201は202乃至207の6個の領域から構成されている。ただし、文書201はこれらの領域を含む場合に限定する必要はない。例えば、複数の文字領域のみ、又は地図や画像領域のみを含んでもよい。
FIG. 2 is an example of a document that is a target for superimposed display of AR content in the first embodiment. A
図3は第1の実施形態において、図2に示した文書に対するARコンテンツの重畳表示形態の例である。枠301、305が図2の文書枠201と相当であり、領域302、306は図2の文書における領域206に相当する。
FIG. 3 is an example of a superimposed display form of AR content with respect to the document shown in FIG. 2 in the first embodiment.
線303、307はARコンテンツ304、308が文書301、305中のいずれの領域に関連付けられたコンテンツであるかを明示する視認可能なリンクコネクタであり、本実施形態では当該対応領域とARコンテンツとを線分で結合表示する。領域304は領域302に関連付けられたARコンテンツの表示例を示す。文書301を閲覧する閲覧者の領域302、における注視度が図8に示すレベル1を超えたと判定される場合の表示形態である。
領域308は領域306に関連付けられたARコンテンツの表示例を示す。文書305を閲覧する閲覧者の領域306における注視度が図8に示すレベル2を超えたと判定する場合であり、注視度は図8に示すレベル2を超えた場合のARコンテンツ表示形態はレベル1を超えた場合の表示形態と異なる表示形態となる。図3において注視度はレベル2を超えた場合のARコンテンツ表示308は注視度がレベル1を超えた場合のARコンテンツ表示304に対して相対的に表示面積が大きなものとなっている。即ち、本実施形態では領域注視度レベルの相違によって表示形態を変更させている。また、注視度レベルの相違によるARコンテンツの表示形態の変更は表示面積の変更以外による提示方法も可能である。例えば、リンクコネクタの長さや幅を変え、注視度レベル2の場合のリンクコネクタを注視度レベル1の場合のリンクコネクタより短く、あるいは太くすることで見やすく誘導することが可能である。あるいは関連領域に対して、より近傍に表示するといった表示形態とすることも可能である。
An
即ち、注視度が長い領域に関する拡張情報は、注視度が短い領域に優先して表示される。優先的に表示する方法として、説明した表示面積を大きくする方法以外に、例えば、拡張情報同士の表示はなるべく重ならないように表示領域のレイアウトを決めるが、どうして重なって表示される場合は、注視度がより長い領域に関する拡張情報は他の拡張情報の上に表示する。 That is, the extended information related to the region with a high gaze degree is displayed with priority over the region with a short gaze degree. In addition to the method of increasing the display area as described above, for example, the layout of the display area is determined so that display of extended information is not overlapped as much as possible. Extended information regarding the longer region is displayed on top of other extended information.
図4は第1の実施形態において、図2に示した文書の領域202乃至207の情報を格納する文書領域情報テーブルであり、図1の記憶部113に格納される。領域番号401は各領域を識別するラベルである。領域座標402は文書201の左下端点を原点として水平方向、垂直方向に正の値をとる座標系において、各領域の左上座標を格納する。領域座標403は同座標系において各領域の右下座標を格納する。領域座標402、403により文書201における矩形領域の位置と大きさが確定される。ARコンテンツ数404は領域に関連付けられ格納されたARコンテンツの数を格納する。例えば、領域番号r1に対応する領域に関連付けられたARコンテンツを保持せず、領域番号r6に対応する領域に関連付けられたARコンテンツは2個を保持することになる。
FIG. 4 is a document area information table for storing information of the
図5は第1の実施形態において、各領域の保持するARコンテンツのリストを格納するARコンテンツリストテーブルであり、図1の記憶部113に格納される。領域番号501は図4の401に定義される領域番号と同じである。502はARコンテンツ番号であり、当該領域番号の領域に関連付けられたARコンテンツを特定するARコンテンツの識別番号を格納する。例えば、領域番号r6にARコンテンツ番号C3、C5の2個のARコンテンツが関連付けられて保持する。
FIG. 5 is an AR content list table that stores a list of AR content held in each area in the first embodiment, and is stored in the
図6は第1の実施形態において、図5のARコンテンツリストテーブルで参照されるARコンテンツの情報を格納したARコンテンツ管理テーブルであり、図1の記憶部113に格納される。ARコンテンツ番号601はARコンテンツを識別する識別番号であり、図5のARコンテンツ番号502と同じである。横幅602はARコンテンツの初期表示サイズの横幅を格納し、縦幅603はARコンテンツの初期表示サイズの縦幅を格納する。初期表示サイズは注視度レベル1の表示サイズとなる。604はARコンテンツのデータ実体を格納した場所を示すURL(Universal Resource Locator)である。URLで指し示すことができ、データ取得が可能な場所であれば、ネットワーク上の図1には不図示の記憶部上に格納してもよいし、図1の記憶部113に格納してもよい。
FIG. 6 is an AR content management table storing AR content information referred to in the AR content list table of FIG. 5 in the first embodiment, and is stored in the
図7は第1の実施形態において、AR端末101とサーバ109による処理の手順を示したフローチャートである。このフローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
FIG. 7 is a flowchart showing a processing procedure performed by the
システムが起動し、AR端末101およびサーバ109の各種初期化処理が行われ、AR端末101とサーバ109の接続が確立される。閲覧者はAR端末101を装着し、AR端末101の表示部107に透過・重畳表示されるビューを通して紙文書201の閲覧を開始する。なお、AR端末101の表示部107では、オリジナルの電子データに基づいて文書201を表示することもできる。また、文書以外のオブジェクトを撮像した画像などを表示することもできる。
The system is activated, various initialization processes of the
ステップS7010で視点情報入力部106より文書閲覧者の視点情報の取得を実行する。すなわち、時刻Tiにおける文書201上の視点座標を取得する。視点の取得は特許文献2に開示される方法などにより検出することが可能である。取得された視点座標は通信部108を介してサーバ109へ送信される。
In step S7010, the viewpoint
ステップS7020においてサーバ109のCPU110の演算により、記憶部113に格納された図4の文書領域情報格納テーブルを参照し、ステップS7010で取得された視点座標がどの文書領域にあるのか、又は視点の近傍に存在する文書領域があるのかを特定し、特定された文書領域を閲覧者の視点の存在領域として領域番号を求める。
In step S7020, the document area information storage table of FIG. 4 stored in the
ステップS7030でRAM112に確保される不図示の領域毎に視点滞留時間カウンタに加算する。その際、前回の視点滞留領域を記憶しておき、前回視点滞留領域と同一領域であったなら、当該領域のカウンタ値を1.5倍することにより連続して同一領域を見た場合に重みをつける。前回の視点滞留領域と異なっていたなら、前回視点滞留領域番号を今回の視点滞留領域番号に更新し、当該領域のカウンタ値に1を加算する。
In step S7030, the viewpoint residence time counter is added for each area (not shown) secured in the
次にステップS7040で時刻Tiにおいて視点が滞留していなかった文書201の他の領域の視点滞留時間カウンタ値をそれぞれ1減じる。本実施形態では、ステップS7030及びステップS7040において、領域ごとに求めた視点滞留時間カウンタの値に基づいて閲覧者の注視度を求める。その計算の一例として、視点滞留時間カウンタの値に一定の係数を乗じて閲覧者の注視度とする。その係数は例えば1である。
Next, in step S7040, the viewpoint staying time counter value of the other area of the
ステップS7050でシステム起動から図8に示す所定時間Tmが経過したかどうかをCPU110が判定する。所定時間Tmを経過していたなら、ステップS7060へ進む。、所定時間Tmを経過していないのであればステップS7010へループする。所定時間Tmを経過している場合は、ステップS7060以降の処理で文書201の全領域201乃至207についてARコンテンツの表示要否を判定する。全領域の表示要否の判定を完了したならばステップS7100へ、未完了であればステップS7070へ進む。なお、全領域201乃至207の一部の領域についてARコンテンツが関連付けられている場合は、ARコンテンツの関連付けられている領域だけについてARコンテンツの表示要否を判定してもよい。
In step S7050, the
ステップS7070はステップS7030およびステップS7040で求められた判定対象の領域の視点滞留時間カウンタ値を参照し、当該領域の注視度のレベルを判定する。すなわち、各領域の注視度が図8に示す注視度レベル1を超えているか、あるいは注視度レベル2を超えているかを判定する。判定の結果、ある領域の注視度が設定されていたレベルを超えているのであればステップS7080へ、そうでなければ他の領域の注視度チェックを行うべくステップS7060へループする。
Step S7070 refers to the viewpoint dwell time counter value of the determination target area obtained in steps S7030 and S7040, and determines the gaze level of the area. That is, it is determined whether the gaze degree of each area exceeds the
ステップS7080で注視度が図8に示すレベル1を超えた領域に関連付けられたARコンテンツを取得する。即ち、当該領域の領域番号と合致する図5のARコンテンツリストテーブルの領域番号501が存在するかどうかをチェックし、存在しなければ表示すべきARコンテンツなしと判定する。合致する領域番号501が存在すればARコンテンツリストから合致するARコンテンツ番号502を取得する。次に、取得したARコンテンツ番号502に対応するARコンテンツを取得する。
In step S7080, AR content associated with an area where the gaze degree exceeds
次に取得されたARコンテンツ番号のARコンテンツ表示データを図6のARコンテンツ管理テーブルから取得する。ARコンテンツの表示データはARコンテンツを格納しているサーバ109の記憶部又はAR端末101からを取得する。表示データはURL604に示されるアドレスから取得され、横幅602、縦幅603に示されるARコンテンツの表示領域サイズが関心度レベル1に対する表示サイズとして取得される。ステップS7080で取得されたARコンテンツをステップS7090で注視度レベルに応じた表示形態でAR端末101の表示部107に表示する。
Next, the AR content display data of the acquired AR content number is acquired from the AR content management table of FIG. The display data of the AR content is acquired from the storage unit of the
1つの文書領域に複数のARコンテンツが関連付けられている場合は、図8に示すレベルに応じて、ARコンテンツリスト上のARコンテンツ番号502を順に取得する。例えば、注視度がレベル1を超えた場合はARコンテンツリスト上の最初のARコンテンツ番号502を取得し、注視度がレベル2を超えた場合はARコンテンツリスト上の2番目のARコンテンツ番号502までを取得し、又はすべてのARコンテンツ番号502を取得する。
When a plurality of AR contents are associated with one document area,
ステップS7080でARコンテンツなしと判定されたならば、ステップS7060へループする。ステップS7080でARコンテンツが取得されたならば、注視度レベル1であれば、図6の横幅602、縦幅603から得られた表示サイズとする。あるいは、注視度レベル2であれば図6の横幅602、縦幅603から得られた表示サイズを縦横1.5倍に拡大した表示サイズとし、表示画面内の当該注視文書領域および他のARコンテンツ表示領域と重ならないよう配置を決定する。
If it is determined in step S7080 that there is no AR content, the process loops to step S7060. If AR content is acquired in step S7080, if it is
そして、決定された配置位置の表示部107における表示座標情報をRAM112に不図示のARコンテンツ表示領域情報として格納する。CPU110はARコンテンツ表示領域と関係付けられた文書領域とをリンクコネクタで接続した表示データと当該表示座標情報をAR端末101に送信し、表示部107にて図9に示す例のようにARコンテンツが文書201と重畳表示される。
Then, display coordinate information on the
ステップS7090のARコンテンツ表示処理が終了すれば、ステップS7060へループし、他の処理対象領域について同様の処理を行う。ステップS7100で拡張現実感表示システムの終了が閲覧者よりなされたならば、システムを終了するが、そうでなければステップS7010へループし、拡張現実感表示による文書閲覧処理を継続する。 When the AR content display process in step S7090 ends, the process loops to step S7060 and the same process is performed for the other process target areas. If the viewer ends the augmented reality display system in step S7100, the system is terminated. If not, the process loops to step S7010 to continue the document browsing process using the augmented reality display.
図8は第1の実施形態における動作フロー(図7)に従って、閲覧者が文書201を閲覧した場合の領域204および206に対する、閲覧者の注視度の経時推移の例を示したグラフである。図8において縦軸は図7のステップS7030および7040で求められる注視度を表し、レベル1及び、レベル2を示す。横軸は閲覧経過時間を表し、軸上の所定値tmはARコンテンツの表示留保時間を示す。時間tmは図7のステップS7050の所定時間Tmと同じ値に設定してもいい。
FIG. 8 is a graph showing an example of the temporal transition of the viewer's gaze degree in the
時間tmを経過後、ARコンテンツの表示が可能となるよう制御される。軸上の時刻t1、t2、t3、t4はそれぞれ、ある時間経過後の時刻を意味する。点線801は図2の領域206に対する閲覧者の注視度の推移を表した例であり、実線802は図2の領域204に対する閲覧者の注視度の推移を表した例である。図8においては省略したが、図2の他の領域202、203、205、207についても同様に注視度の推移をみることが可能である。
After the elapse of time tm, the AR content is controlled to be displayed. On-axis times t1, t2, t3, and t4 mean times after a certain period of time has elapsed. A dotted
図9は第1の実施形態における図8における閲覧時間経過後の時刻t1、t2、t3、t4のARコンテンツ表示状態を示している。図9(a)は時刻t1における表示状態である。枠901は文書201に相当し、領域902は領域206に相当する。時刻t1は表示留保時間後の時間であり、その時点において領域902に対する注視度801はレベル1を超えているため、ARコンテンツ903がレベル1の表示形態で表示される。レベル1を超えている他の領域は存在しない。
FIG. 9 shows an AR content display state at times t 1 , t 2 , t 3 , and t 4 after the browsing time in FIG. 8 in the first embodiment. FIG. 9A shows the display state at time t 1 . A
図9(b)は時刻t2における表示状態である。時刻t2では領域902に対する注視度801がレベル2を超えているため、ARコンテンツ904がレベル2の表示形態で表示される。ARコンテンツ903と904を比較すると、ARコンテンツ904が相対的にARコンテンツ903より大きく表示される。
9 (b) is a display state at time t 2. Since
図9(c)は時刻t3における表示状態である。時刻t3では領域902に対する注視度801が度レベル2を下回っているため、ARコンテンツ906が図9(a)のARコンテンツ903と同様の大きさのレベル1の表示形態で表示される。一方、領域204に相当する領域905の注視度802がレベル1を超えたため、ARコンテンツ907がレベル1の表示形態で表示される。このように複数のARコンテンツが表示される場合、ARコンテンツ同士が重畳し合わないように表示位置が決定される。レベル1と度レベル2の表示形態差異をリンクコネクタの長さで変える場合、重畳しあわないように配置するとリンクコネクタの長さが関心度の大きさを反映できない場合が生ずる。その際はリンクコネクタの太さや色を変えることにより関心度の大きさを表現するようにすることができる。
Figure 9 (c) is a display state at time t 3. At time t 3 , the
図9(d)は時刻t4における表示状態である。時刻t4では領域902に対する注視度801はレベル1を超えているが、領域905に対する注視度802はレベル1を下回っているためARコンテンツ908のみが重畳表示される。
FIG. 9D shows the display state at time t4. Although
また、上記領域902に対する注視度801の代わりに、ARコンテンツ903、904に対する注視度を用いてもよい。同様に、上記領域905に対する領域注視度801の代わりに、ARコンテンツ906、908に対する注視度を用いてもよい。
Further, instead of the
以上、詳細に説明したように、表示された文書の領域ごとの注視度に基づき、拡張情報であるARコンテンツの表示有無および表示形態を動的に変更することで、閲覧者の必要に応じた拡張現実感表示をすることが可能になる。 As described above in detail, based on the degree of gaze for each area of the displayed document, the presence / absence and display mode of the AR content, which is the extended information, are dynamically changed to meet the needs of the viewer It becomes possible to display augmented reality.
第1の実施形態では、所定単一の文書を閲覧する際に予め領域ごとに表示対象とするARコンテンツを決めておき、その表示あるいは非表示を決定する方法を説明した。 In the first embodiment, a method has been described in which AR content to be displayed is determined for each region in advance when browsing a predetermined single document, and whether to display or not display the AR content.
一方、複数種類の文書であっても、文書の領域ごとに固有の局所特徴量の異同で領域を特定することにより、ARコンテンツを関連付けて保持するように構成することができる。複数種類の文書に、文字領域を含むテキスト文書、表領域を含む表文章、図形領域を含む文章、画像領域を含む文書、又は異なる領域を同時に含む文書が含まれる。 On the other hand, even for a plurality of types of documents, the AR content can be associated and held by specifying a region with a difference in unique local feature amount for each region of the document. The plurality of types of documents include a text document including a character area, a table sentence including a table area, a sentence including a graphic area, a document including an image area, or a document including different areas simultaneously.
第1の実施形態によれば、不要な拡張情報表示を抑制し、不要な拡張情報表示を抑制し、閲覧者に必要な拡張情報に絞って適宜に表示することが可能となる。 According to the first embodiment, unnecessary extension information display can be suppressed, unnecessary extension information display can be suppressed, and the extension information necessary for the viewer can be appropriately displayed.
<第2の実施形態>
第1の実施形態では、メガネ・ゴーグルタイプの表示装置を用いた拡張現実感表示の態様を説明した。本実施形態では、撮像画像入力部105および表示部107を備えたタブレット端末やスマートフォン端末と視点情報入力部106を持つ視点入力装置とを分離した装置を用いた拡張現実感表示の態様を説明する。第1の実施形態と同様のハードウェア構成で実現される。
<Second Embodiment>
In the first embodiment, an aspect of augmented reality display using a glasses / goggles type display device has been described. In the present embodiment, an aspect of augmented reality display using a device in which a tablet terminal or smartphone terminal including the captured
本実施形態において閲覧者の領域ごとの注視度などを求める処理である図7のステップS7010乃至ステップS7060は第1の実施形態と同一である。ステップS7070乃至ステップS7090において、第1の実施形態と異なる処理を説明する。ステップS7070において対象領域が表示部107で表示されている範囲であるかどうか判定し、表示範囲内である場合にステップS7080へ進み、そうでなければステップS7060へループするように処理することが追加される。第2の実施形態の表示部107であるタブレット端末やスマートフォン端末のディスプレーの視角は比較的に狭いために、このような処理が必要である。
Steps S7010 to S7060 in FIG. 7, which are processes for obtaining a gaze degree for each area of the viewer in the present embodiment, are the same as those in the first embodiment. In steps S7070 to S7090, processing different from that of the first embodiment will be described. In step S7070, it is determined whether or not the target area is in the range displayed on the
以上、説明したように、タブレット端末のように表示範囲が限定される拡張現実感表示装置に対しても、不要な拡張情報表示を抑制し、不要な拡張情報表示を抑制し、閲覧者に必要な拡張情報に絞って適宜に表示することが可能となる。 As described above, it is necessary for viewers to suppress unnecessary extended information display and suppress unnecessary extended information display even for augmented reality display devices with a limited display range such as tablet terminals. Therefore, it is possible to display the information as appropriate by narrowing down the extended information.
<その他の実施形態>
本発明の第1の実施形態及び第2の実施形態では、AR端末を例に説明したが、AR端末以外の表示装置を有する情報処理装置でも、例えば、文書の表示装置と拡張情報の表示装置を別々に設けた場合でも本発明を実施することができる。
<Other embodiments>
In the first embodiment and the second embodiment of the present invention, the AR terminal has been described as an example. However, in an information processing apparatus having a display device other than the AR terminal, for example, a document display device and an extended information display device. Even when these are provided separately, the present invention can be implemented.
また、本発明の第1の実施形態及び第2の実施形態では、紙文書の撮像データを表示装置に表示させているが、文書のオリジナルの電子ファイル(文書の元データ)を利用可能な環境においては、撮像した紙文書画像の代わりに文書のオリジナルの電子ファイルを用いて文書を表示装置に表示させていることができる。
また、本発明の実施形態の目的は、以下のようにすることによって達成される。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明の実施形態を構成することになる。
In the first embodiment and the second embodiment of the present invention, image data of a paper document is displayed on a display device. However, an environment in which an original electronic file (original document data) of the document can be used. In the method, the original electronic file of the document can be displayed on the display device instead of the captured paper document image.
The object of the embodiment of the present invention is achieved by the following way. That is, a recording medium (or storage medium) that records a program code (computer program) of software that implements the functions of the above-described embodiments is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the embodiment of the present invention.
また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれる。 An operating system (OS) running on the computer performs part or all of the actual processing based on the instruction of the program code read by the computer. The case where the function of the above-described embodiment is realized by the processing is also included.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。 Furthermore, it is assumed that the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized by the processing. It is.
本発明の実施形態を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the embodiment of the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.
101 AR端末
102 CPU
103 ROM
104 RAM
105 撮像画像入力部
106 視点情報入力部
107 表示部
108 通信部
109 サーバ
101
103 ROM
104 RAM
105 Captured
Claims (14)
前記視点領域に関連付けられた拡張情報を取得する取得手段と、
前記視点領域における前記閲覧者の注視度が所定レベルを超えたと判定した場合に、取得された前記拡張情報を前記情報に重畳して表示させる表示制御手段と、
を有することを特徴とする情報処理装置。 A specifying means for specifying a viewer's viewpoint area for browsing the displayed information;
Obtaining means for obtaining extended information associated with the viewpoint area;
Display control means for superimposing and displaying the acquired extended information on the information when it is determined that the gaze degree of the viewer in the viewpoint area exceeds a predetermined level;
An information processing apparatus comprising:
表示された前記文書を閲覧する閲覧者の視点領域を特定する特定工程と、
前記視点領域に関連付けられた拡張情報を取得する取得工程と、
前記視点領域における前記閲覧者の注視度が所定レベルを超えたと判定した場合に、取得された前記拡張情報を前記文書に重畳して表示させる表示制御工程と、
を有することを特徴とする情報処理装置の情報処理方法。 An information processing method of an information processing apparatus for displaying a document,
A specifying step for specifying a viewpoint area of a viewer who browses the displayed document;
An acquisition step of acquiring extended information associated with the viewpoint region;
A display control step of superimposing and displaying the acquired extended information on the document when it is determined that the gaze degree of the viewer in the viewpoint area exceeds a predetermined level;
An information processing method for an information processing apparatus, comprising:
情報処理装置に文書を表示する表示手順と、
表示された前記文書を閲覧する閲覧者の視点領域を特定する特定手順と、
前記視点領域に関連付けられた拡張情報を取得する取得手順と、
前記視点領域における前記閲覧者の注視度が所定レベルを超えたと判定した場合に、取得された前記拡張情報を前記文書に重畳して表示させる表示制御手順と、
を実行させるためのプログラム。
On the computer,
A display procedure for displaying a document on the information processing apparatus;
A specific procedure for identifying a viewpoint area of a viewer who browses the displayed document;
An acquisition procedure for acquiring extended information associated with the viewpoint area;
When it is determined that the viewer's gaze degree in the viewpoint region exceeds a predetermined level, a display control procedure for displaying the acquired extended information superimposed on the document;
A program for running
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013255669A JP2015114798A (en) | 2013-12-11 | 2013-12-11 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013255669A JP2015114798A (en) | 2013-12-11 | 2013-12-11 | Information processing apparatus, information processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015114798A true JP2015114798A (en) | 2015-06-22 |
Family
ID=53528561
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013255669A Pending JP2015114798A (en) | 2013-12-11 | 2013-12-11 | Information processing apparatus, information processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2015114798A (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017041229A (en) * | 2016-06-08 | 2017-02-23 | 株式会社コロプラ | Method and program for controlling head mounted display system |
| JP2017040970A (en) * | 2015-08-17 | 2017-02-23 | 株式会社コロプラ | Method and program for controlling head-mounted display system |
| JP2017182218A (en) * | 2016-03-28 | 2017-10-05 | 株式会社バンダイナムコエンターテインメント | Simulation controller and simulation control program |
| JP2017199343A (en) * | 2016-04-25 | 2017-11-02 | 富士ゼロックス株式会社 | Calculation execution method for visualizing related document and person during document browsing in desktop camera-projector system, program, and calculation processing system |
| JP2017199298A (en) * | 2016-04-28 | 2017-11-02 | 京セラドキュメントソリューションズ株式会社 | Information display system |
| WO2017221509A1 (en) * | 2016-06-20 | 2017-12-28 | シャープ株式会社 | Image processing device, display device, image processing device control method, and control program |
| CN109672798A (en) * | 2017-10-16 | 2019-04-23 | 富士施乐株式会社 | Information processing unit and storage media |
| US11972619B2 (en) | 2019-02-20 | 2024-04-30 | Evident Corporation | Information processing device, information processing system, information processing method and computer-readable recording medium |
-
2013
- 2013-12-11 JP JP2013255669A patent/JP2015114798A/en active Pending
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017040970A (en) * | 2015-08-17 | 2017-02-23 | 株式会社コロプラ | Method and program for controlling head-mounted display system |
| WO2017030037A1 (en) * | 2015-08-17 | 2017-02-23 | 株式会社コロプラ | Computer-implemented method for presenting virtual space, program for causing computer to implement method, and device for presenting virtual space |
| US10311640B2 (en) | 2015-08-17 | 2019-06-04 | Colopl, Inc. | Method and apparatus for providing virtual space, and non-transitory computer readable data storage medium storing program causing computer to perform method |
| JP2017182218A (en) * | 2016-03-28 | 2017-10-05 | 株式会社バンダイナムコエンターテインメント | Simulation controller and simulation control program |
| JP2017199343A (en) * | 2016-04-25 | 2017-11-02 | 富士ゼロックス株式会社 | Calculation execution method for visualizing related document and person during document browsing in desktop camera-projector system, program, and calculation processing system |
| JP2017199298A (en) * | 2016-04-28 | 2017-11-02 | 京セラドキュメントソリューションズ株式会社 | Information display system |
| JP2017041229A (en) * | 2016-06-08 | 2017-02-23 | 株式会社コロプラ | Method and program for controlling head mounted display system |
| WO2017221509A1 (en) * | 2016-06-20 | 2017-12-28 | シャープ株式会社 | Image processing device, display device, image processing device control method, and control program |
| CN109672798A (en) * | 2017-10-16 | 2019-04-23 | 富士施乐株式会社 | Information processing unit and storage media |
| US11972619B2 (en) | 2019-02-20 | 2024-04-30 | Evident Corporation | Information processing device, information processing system, information processing method and computer-readable recording medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2015114798A (en) | Information processing apparatus, information processing method, and program | |
| CN109743626B (en) | An image display method, image processing method and related equipment | |
| CN111741274B (en) | Ultrahigh-definition video monitoring method supporting local amplification and roaming of picture | |
| EP3039476B1 (en) | Head mounted display device and method for controlling the same | |
| JP5464130B2 (en) | Information display system, apparatus, method and program | |
| KR102450236B1 (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
| EP3096517A1 (en) | Wearable smart glasses | |
| US9619707B2 (en) | Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium | |
| CN106970467B (en) | Information display method and head-mounted display equipment | |
| CN113849148A (en) | Picture display method and device, display equipment and computer readable storage medium | |
| CN117170556A (en) | Image processing equipment, image processing method and storage medium | |
| US10586392B2 (en) | Image display apparatus using foveated rendering | |
| WO2014060025A1 (en) | Method and system for image capture and facilitated annotation | |
| US11962743B2 (en) | 3D display system and 3D display method | |
| TWI784645B (en) | Augmented reality system and operation method thereof | |
| JP5109182B2 (en) | Image processing system and image processing method | |
| JP2012181328A (en) | Advertisement distribution system, advertisement distribution device, advertisement distribution method, and program | |
| WO2017221509A1 (en) | Image processing device, display device, image processing device control method, and control program | |
| JP2017183937A (en) | Document reading support system | |
| CN114359516A (en) | Virtual and real image fusion method, virtual and real image fusion system and non-transitory computer readable medium | |
| CN115942022B (en) | Information preview method, related equipment and storage medium | |
| CN112419134A (en) | An image processing method and device | |
| CN111290721A (en) | Online interaction control method, system, electronic device and storage medium | |
| CN114827343B (en) | Method and apparatus for screen sharing | |
| US20250245932A1 (en) | Tile processing and transformation for video see-through (vst) extended reality (xr) |