JP7528621B2 - 情報処理装置及び情報処理プログラム - Google Patents
情報処理装置及び情報処理プログラム Download PDFInfo
- Publication number
- JP7528621B2 JP7528621B2 JP2020133265A JP2020133265A JP7528621B2 JP 7528621 B2 JP7528621 B2 JP 7528621B2 JP 2020133265 A JP2020133265 A JP 2020133265A JP 2020133265 A JP2020133265 A JP 2020133265A JP 7528621 B2 JP7528621 B2 JP 7528621B2
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- documents
- space
- document
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明に係る情報処理装置JSの実施形態1について説明する。
図1は、実施形態1の情報処理装置JSの構成を示す。以下、実施形態1の情報処理装置JSの構成について、図1を参照して説明する。
図3は、実施形態1の文書群情報BJを示す。
図4は、実施形態1の書誌情報SJを示す。
図5は、実施形態1の文書配置図BHを示す。
図6は、実施形態1の情報処理装置JSの動作を示すフローチャートである。以下、実施形態1の情報処理装置JSの動作について、図6のフローチャートを参照して説明する。
実施形態2の情報処理装置JSについて説明する。
実施形態2の情報処理装置JSは、実施形態1の情報処理装置JSの構成(図1に図示。)及び機能(図2に図示。)と同様の構成及び機能を有する。
図13は、実施形態2の情報処理装置JSの動作を示すフローチャートである。以下、実施形態2の情報処理装置JSの動作について、図13のフローチャートを参照して説明する。
CPU2は、上記したステップS22、S23に代えて、配置部14として、例えば、ユーザによる操作に応じて、図17に示されるように、仮想空間KKで、文書BS1~BS25のうち、その一部である、例えば、文書BS2~BS5、BS7~BS10、BS12~BS15、BS17~BS20を拡大して配置する。これにより、CPU2は、表示部12として、図18に示されるように、複合空間FKに、机TK、空き領域AR、拡大された文書BS2~BS5、BS7~BS10、BS12~BS15、BS17~BS20を表示させても良い。
実施形態3の情報処理装置JSについて説明する。
実施形態3の情報処理装置JSは、実施形態1の情報処理装置JSの構成(図1に図示。)及び機能(図2に図示。)と同様の構成及び機能を有する。
図19は、実施形態3の情報処理装置JSの動作を示すフローチャートである。以下、実施形態3の情報処理装置JSの動作について、図19のフローチャートを参照して説明する。
実施形態4の情報処理装置JSについて説明する。
実施形態4の情報処理装置JSは、実施形態1の情報処理装置JSの構成(図1に図示。)及び機能(図2に図示。)と同様の構成及び機能を有する。
図24は、実施形態4の情報処理装置JSの動作を示すフローチャートである。以下、実施形態4の情報処理装置JSの動作について、図24のフローチャートを参照して説明する。
実施形態5の情報処理装置JSについて説明する。
実施形態5の情報処理装置JSは、実施形態1の情報処理装置JSの構成(図1に図示。)及び機能(図2に図示。)と同様の構成及び機能を有する。
図27は、実施形態5の情報処理装置JSの動作を示すフローチャートである。以下、実施形態5の情報処理装置JSの動作について、図27のフローチャートを参照して説明する。
実施形態6の情報処理装置JSについて説明する。
実施形態6の情報処理装置JSは、実施形態1の情報処理装置JSの構成(図1に図示。)及び機能(図2に図示。)と同様の構成及び機能を有する。
図31は、実施形態6の情報処理装置JSの動作を示すフローチャートである。以下、実施形態6の情報処理装置JSの動作について、図31のフローチャートを参照して説明する。
実施形態7の情報処理装置JSについて説明する。
実施形態7の情報処理装置JSは、実施形態1の情報処理装置JSの構成(図1に図示。)及び機能(図2に図示。)と同様の構成及び機能を有する。
図35は、実施形態7の情報処理装置JSの動作を示すフローチャートである。以下、実施形態7の情報処理装置JSの動作について、図35のフローチャートを参照して説明する。
実施形態8の情報処理装置JSについて説明する。
実施形態8の情報処理装置JSは、実施形態1の情報処理装置JSの構成(図1に図示。)及び機能(図2に図示。)と同様の構成及び機能を有する。
図39は、実施形態8の情報処理装置JSの動作を示すフローチャートである。以下、実施形態8の情報処理装置JSの動作について、図39のフローチャートを参照して説明する。
実施形態9の情報処理装置JSについて説明する。
実施形態9の情報処理装置JSは、実施形態1の情報処理装置JSの構成(図1に図示。)及び機能(図2に図示。)と同様の構成及び機能を有する。
図43は、実施形態9の情報処理装置JSの動作を示すフローチャートである。以下、実施形態9の情報処理装置JSの動作について、図43のフローチャートを参照して説明する。
実施形態10の情報処理装置JSについて説明する。
実施形態10の情報処理装置JSは、実施形態1の情報処理装置JSの構成(図1に図示。)及び機能(図2に図示。)と同様の構成及び機能を有する。
図51は、実施形態10の情報処理装置JSの動作を示すフローチャートである。以下、実施形態10の情報処理装置JSの動作について、図51のフローチャートを参照して説明する。
実施形態11の情報処理装置JSについて説明する。
実施形態11の情報処理装置JSは、実施形態1の情報処理装置JSの構成(図1に図示。)及び機能(図2に図示。)と同様の構成及び機能を有する。
図55は、実施形態11の情報処理装置JSの動作を示すフローチャートである。以下、実施形態11の情報処理装置JSの動作について、図55のフローチャートを参照して説明する。
上述した実施形態1~実施形態11の情報処理装置JSは、各々、単独で構成されかつ動作することに代えて、2つ以上の実施形態の情報処理装置JSが組み合わされて構成されかつ動作することも可能である。
上記した実施形態において、プロセッサとは、広義的なプロセッサを指す。汎用的なプロセッサ(例えば、CPU: Central Processing Unit等)に加えて、専用のプロセッサ(例えば、GPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス等)を含む。
1 入力部
2 CPU
3 出力部
4 記憶媒体
5 メモリ
PR プログラム
BJ 文書群情報
SJ 書誌情報
BH 文書配置図
11 検知部
12 表示部
13 受付部
14 配置部
15 重ね合わせ部
16 取得部
17 形成部
18 制御部
19 記憶部
Claims (11)
- プロセッサを備え、
前記プロセッサは、
現実空間での対象物の空き領域を検知し、
複数の仮想対象物の配置を取得し、
前記空き領域に、前記複数の仮想対象物を、取得した配置で表示させ、
ユーザが、前記対象物の空き領域から、前記複数の仮想対象物のうち1つ以上の仮想対象物を取り上げる身振りを行った際に表示される仮想対象物に対する操作は、前記空き領域に表示されている仮想対象物に対する操作よりも制限させる、
情報処理装置。 - 前記プロセッサは、
ユーザに近い位置に配置されている前記仮想対象物ほど、前記仮想対象物の大きさを大きく表示させる、
請求項1に記載の情報処理装置。 - 前記プロセッサは、
前記対象物において、障害物が存在しない領域を、空き領域として検知する、
請求項1または請求項2に記載の情報処理装置。 - 前記プロセッサは、
前記対象物の空き領域を可視化した、仮想空間での補助目印を表示させる、
請求項1から請求項3までのいずれか1項に記載の情報処理装置。 - 前記プロセッサは、
ユーザが、前記対象物の空き領域に対して、前記複数の仮想対象物の手前への移動指示を行った場合、前記複数の仮想対象物の全てを、手前方向に移動させ、
移動させた仮想対象物が前記空き領域外に位置する場合は、前記移動させた仮想対象物を表示させない、
請求項1から請求項4までのいずれか1項に記載の情報処理装置。 - 前記プロセッサは、
前記空き領域に表示されない仮想対象物を、前記空き領域の外側に位置する外側領域に表示させる、
請求項5に記載の情報処理装置。 - 前記プロセッサは、
前記外側領域に、前記仮想対象物を表示する際は、前記仮想対象物の重要度が大きいものほど、前記外側領域において、ユーザに近い位置に表示させる、
請求項6に記載の情報処理装置。 - 前記プロセッサは、
ユーザが、前記空き領域のうち手前の領域を見ているとき、前記複数の仮想対象物のうち、前記手前の領域に位置する1つ以上の仮想対象物の大きさを拡大して表示させる、
請求項1から請求項7までのいずれか1項に記載の情報処理装置。 - 前記プロセッサは、
ユーザが、前記空き領域のうち奥の領域を見ているとき、前記複数の仮想対象物のうち、前記奥の領域に位置する1つ以上の仮想対象物の大きさを縮小して表示させる、
請求項1から請求項8までのいずれか1項に記載の情報処理装置。 - 前記プロセッサは、
前記ユーザが前記1つ以上の仮想対象物を見ている時間の長さに応じて、前記1つ以上の仮想対象物の大きさを拡大または縮小して表示させる、
請求項8又は請求項9に記載の情報処理装置。 - コンピュータに、
現実空間での対象物の空き領域を検知し、
複数の仮想対象物の配置を取得し、
前記空き領域に、前記複数の仮想対象物を、取得した配置で表示させ、
ユーザが、前記対象物の空き領域から、前記複数の仮想対象物のうち1つ以上の仮想対象物を取り上げる身振りを行った際に表示される仮想対象物に対する操作は、前記空き領域に表示されている仮想対象物に対する操作よりも制限させる、
処理を実行させるための情報処理プログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020133265A JP7528621B2 (ja) | 2020-08-05 | 2020-08-05 | 情報処理装置及び情報処理プログラム |
| US17/146,445 US20220043506A1 (en) | 2020-08-05 | 2021-01-11 | Information processing apparatus and non-transitory computer readable medium storing information processing program |
| CN202110246740.3A CN114063766A (zh) | 2020-08-05 | 2021-03-05 | 信息处理装置、存储介质及信息处理方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020133265A JP7528621B2 (ja) | 2020-08-05 | 2020-08-05 | 情報処理装置及び情報処理プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022029773A JP2022029773A (ja) | 2022-02-18 |
| JP7528621B2 true JP7528621B2 (ja) | 2024-08-06 |
Family
ID=80113792
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020133265A Active JP7528621B2 (ja) | 2020-08-05 | 2020-08-05 | 情報処理装置及び情報処理プログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20220043506A1 (ja) |
| JP (1) | JP7528621B2 (ja) |
| CN (1) | CN114063766A (ja) |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20130083011A1 (en) | 2011-09-30 | 2013-04-04 | Kevin A. Geisner | Representing a location at a previous time period using an augmented reality display |
| JP2014514652A (ja) | 2011-03-29 | 2014-06-19 | クアルコム,インコーポレイテッド | 骨格追跡を使用した物理的表面上への仮想投影上での選択的な手のオクルージョン |
| JP2015153169A (ja) | 2014-02-14 | 2015-08-24 | 富士通株式会社 | 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム |
| WO2016203792A1 (ja) | 2015-06-15 | 2016-12-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP2017032870A (ja) | 2015-08-04 | 2017-02-09 | 富士通株式会社 | 画像投影装置及び画像表示システム |
| JP2018041201A (ja) | 2016-09-06 | 2018-03-15 | 富士通株式会社 | 表示制御プログラム、表示制御方法および情報処理装置 |
| JP2019028603A (ja) | 2017-07-27 | 2019-02-21 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP2019532382A (ja) | 2016-08-11 | 2019-11-07 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 3次元空間内の仮想オブジェクトの自動配置 |
| JP2020080154A (ja) | 2018-11-09 | 2020-05-28 | 株式会社テンアップ | 情報処理システム |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102159767B1 (ko) * | 2020-04-01 | 2020-09-24 | 삼성전자주식회사 | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |
-
2020
- 2020-08-05 JP JP2020133265A patent/JP7528621B2/ja active Active
-
2021
- 2021-01-11 US US17/146,445 patent/US20220043506A1/en not_active Abandoned
- 2021-03-05 CN CN202110246740.3A patent/CN114063766A/zh active Pending
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014514652A (ja) | 2011-03-29 | 2014-06-19 | クアルコム,インコーポレイテッド | 骨格追跡を使用した物理的表面上への仮想投影上での選択的な手のオクルージョン |
| US20130083011A1 (en) | 2011-09-30 | 2013-04-04 | Kevin A. Geisner | Representing a location at a previous time period using an augmented reality display |
| JP2015153169A (ja) | 2014-02-14 | 2015-08-24 | 富士通株式会社 | 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム |
| WO2016203792A1 (ja) | 2015-06-15 | 2016-12-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
| JP2017032870A (ja) | 2015-08-04 | 2017-02-09 | 富士通株式会社 | 画像投影装置及び画像表示システム |
| JP2019532382A (ja) | 2016-08-11 | 2019-11-07 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 3次元空間内の仮想オブジェクトの自動配置 |
| JP2018041201A (ja) | 2016-09-06 | 2018-03-15 | 富士通株式会社 | 表示制御プログラム、表示制御方法および情報処理装置 |
| JP2019028603A (ja) | 2017-07-27 | 2019-02-21 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP2020080154A (ja) | 2018-11-09 | 2020-05-28 | 株式会社テンアップ | 情報処理システム |
Also Published As
| Publication number | Publication date |
|---|---|
| CN114063766A (zh) | 2022-02-18 |
| US20220043506A1 (en) | 2022-02-10 |
| JP2022029773A (ja) | 2022-02-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20230092282A1 (en) | Methods for moving objects in a three-dimensional environment | |
| US11636660B2 (en) | Object creation with physical manipulation | |
| CN114585996B (zh) | 在多屏计算设备上移动应用 | |
| US9704285B2 (en) | Detection of partially obscured objects in three dimensional stereoscopic scenes | |
| KR101491035B1 (ko) | 3-d 모델 뷰 조작 장치 | |
| US9766793B2 (en) | Information processing device, information processing method and program | |
| CN105637564B (zh) | 产生未知对象的扩增现实内容 | |
| US9047004B2 (en) | Interface element for manipulating displayed objects on a computer interface | |
| JP5592011B2 (ja) | マルチスケール3次元配向 | |
| US9880727B2 (en) | Gesture manipulations for configuring system settings | |
| US20100287493A1 (en) | Method and system for viewing and editing an image in a magnified view | |
| JP5924407B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| US20130155108A1 (en) | Augmented Reality User Interaction Methods, Computing Devices, And Articles Of Manufacture | |
| JP4912377B2 (ja) | 表示装置、表示方法、ならびに、プログラム | |
| CN113504830B (zh) | 用于头戴式显示设备的显示方法及装置 | |
| JP2019174984A (ja) | 表示制御装置、その制御方法、プログラム及び記憶媒体 | |
| CN117882034A (zh) | 显示和操纵用户界面元素 | |
| CN115115812A (zh) | 虚拟场景的显示方法、装置及存储介质 | |
| JP5446700B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
| JP7528621B2 (ja) | 情報処理装置及び情報処理プログラム | |
| US8645857B2 (en) | Method for controlling information display | |
| US20240404219A1 (en) | Devices, methods and graphical user interfaces for preview of computer-generated virtual objects for extended reality applications | |
| US10649526B1 (en) | Method for updating field of view of graphical user interface on augmented reality | |
| KR20190068880A (ko) | Vr 기반의 프레젠테이션 문서의 출력이 가능한 hmd 장치 및 그 동작 방법 | |
| US12394167B1 (en) | Window resizing and virtual object rearrangement in 3D environments |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230720 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240220 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240227 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240416 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240625 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240708 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7528621 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |