[go: up one dir, main page]

JP4000570B2 - Information processing apparatus and method - Google Patents

Information processing apparatus and method Download PDF

Info

Publication number
JP4000570B2
JP4000570B2 JP2004119371A JP2004119371A JP4000570B2 JP 4000570 B2 JP4000570 B2 JP 4000570B2 JP 2004119371 A JP2004119371 A JP 2004119371A JP 2004119371 A JP2004119371 A JP 2004119371A JP 4000570 B2 JP4000570 B2 JP 4000570B2
Authority
JP
Japan
Prior art keywords
information
map
line
graphic data
sight direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004119371A
Other languages
Japanese (ja)
Other versions
JP2004246920A (en
Inventor
純一 暦本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004119371A priority Critical patent/JP4000570B2/en
Publication of JP2004246920A publication Critical patent/JP2004246920A/en
Application granted granted Critical
Publication of JP4000570B2 publication Critical patent/JP4000570B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instructional Devices (AREA)

Description

本発明は、情報処理装置および方法に関し、例えば、装置全体を片手で保持し、回転させることにより、情報を入力することができるようにした、情報処理装置および方法に関する。   The present invention relates to an information processing apparatus and method, and, for example, relates to an information processing apparatus and method in which information can be input by holding and rotating the entire apparatus with one hand.

従来より、例えば、電子手帳、携帯電話、ポケベル等の携帯型の電子機器においては、情報を入力する手段として、ボタン、ペン、タッチパネル等を用いている。例えば、電子手帳においては、片手で機器本体を保持し、もう一方の手でペンを持ち、機器本体に設けられたタッチパネルをペンで操作して、所定の情報を入力するようにしている。   2. Description of the Related Art Conventionally, for example, in portable electronic devices such as electronic notebooks, mobile phones, and pagers, buttons, pens, touch panels, and the like are used as means for inputting information. For example, in an electronic notebook, a device main body is held with one hand, a pen is held with the other hand, and a touch panel provided on the device main body is operated with the pen to input predetermined information.

また、携帯電話においては、電話番号を入力するための数字キー、各機能に対応した機能ボタンが設けられ、所定の操作を行うようにしている。ポケベル等においては、各機能に対応した必要最低限の機能ボタンが設けられており、これらを操作するようにしている。   In addition, the cellular phone is provided with numeric keys for inputting a telephone number and function buttons corresponding to the respective functions to perform predetermined operations. In a pager or the like, necessary minimum function buttons corresponding to each function are provided, and these buttons are operated.

しかしながら、ペンとタッチパネルを用いて情報を入力する電子手帳のような携帯機器の場合、片手でタッチパネルが設けられた機器本体を保持し、もう一方の手でペンを保持しなければならず、操作時に両手を必要とし、使い勝手が悪い場合がある課題があった。例えば、片手に荷物を持ったままで操作することは困難である。   However, in the case of a portable device such as an electronic notebook that inputs information using a pen and a touch panel, the device body with the touch panel must be held with one hand and the pen must be held with the other hand. There is a problem that sometimes requires both hands and is not easy to use. For example, it is difficult to operate with a load in one hand.

また、携帯電話等においては、電話番号を入力するための数字キーがかなりのスペースを要し、小型化の妨げとなる場合がある課題があった。   Further, in a mobile phone or the like, there is a problem that a numeric key for inputting a telephone number requires a considerable space, which may hinder downsizing.

本発明はこのような状況に鑑みてなされたものであり、操作ボタンの数を少なくするとともに、片手でも簡単に操作することができるようにするものである。   The present invention has been made in view of such a situation, and reduces the number of operation buttons and enables easy operation with one hand.

本発明の情報処理装置は、情報を表示する表示手段と、ユーザからの操作を入力する入力手段と、図形データから構成される地図情報を格納する地図情報格納手段と、筐体全体の回転に伴う筐体の姿勢の変位を検出し、検出結果に対応する変位情報を生成する回転角度検出手段と、現在位置を検出し、検出結果に対応する現在位置情報を生成する位置検出手段と、変位情報および現在位置情報に基づいて、視点位置および視線方向を決定する視点位置視線方向決定手段と、視点位置および視線方向に基づき、地図情報を構成する図形データの座標を変換する図形データ座標変換手段と、座標変換された図形データから構成される地図情報に基づいて地図画像を生成する地図画像生成手段とを含み、ユーザから所定の操作が継続的に入力されている場合、視点位置視線方向決定手段は、操作開始後の変位情報および現在位置情報に基づいて、視点位置および視線方向を決定し、図形データ座標変換手段は、決定された視点位置および視線方向に基づき、地図情報を構成する図形データの座標を変換し、地図画像生成手段は、座標変換された図形データから構成される地図情報に基づいて、視線方向の地域を示す第1の地図画像を生成し、表示手段は、生成された第1の地図画像を表示し、ユーザからの所定の操作の継続的な入力が終了された場合、表示手段は、操作終了時点の視線方向の地域を示す第2の地図画像を表示することを特徴とする。 An information processing apparatus according to the present invention includes a display unit for displaying information, an input unit for inputting an operation from a user, a map information storage unit for storing map information composed of graphic data , and a rotation of the entire casing. A rotation angle detecting means for detecting displacement of the accompanying housing posture and generating displacement information corresponding to the detection result; a position detecting means for detecting the current position and generating current position information corresponding to the detection result; Viewpoint position and line-of-sight direction determining means for determining the viewpoint position and line-of-sight direction based on the information and current position information, and figure data coordinate conversion means for converting the coordinates of the graphic data constituting the map information based on the viewpoint position and line-of-sight direction When, viewed contains a map image generating means for generating a map image based on map information composed of the coordinates converted graphic data, a predetermined operation is continuously input from a user The viewpoint position line-of-sight direction determining means determines the viewpoint position and line-of-sight direction based on the displacement information after the start of operation and the current position information, and the graphic data coordinate conversion means determines the determined viewpoint position and line-of-sight direction. And converting the coordinates of the graphic data constituting the map information, and the map image generating means generates a first map image indicating the region in the line-of-sight direction based on the map information including the coordinate-converted graphic data. Then, the display means displays the generated first map image, and when the continuous input of the predetermined operation from the user is terminated, the display means displays the first line-of-sight area at the end of the operation. Two map images are displayed .

位置検出手段は、GPSを利用して現在位置を検出するようにすることができる。   The position detection means can detect the current position using GPS.

前記地図画像は、前記視点位置および前記視線方向に基づいた鳥瞰図であるようにすることができる。 The map image may be a bird's eye view based on the viewpoint position and the line-of-sight direction.

地図情報格納手段は、ハードディスクカードであるようにすることができる。   The map information storage means can be a hard disk card.

回転角度検出手段は、互いに直交する3軸方向の回転角度を各々検出するようにすることができる。   The rotation angle detection means can detect rotation angles in three axial directions orthogonal to each other.

前記筐体は、片手で保持可能な大きさであるようにすることができる。
ユーザから所定の操作が継続的に入力されている場合、前記視点位置視線方向決定手段は、操作開始後の変位情報および現在位置情報に基づいて、視点位置を、ユーザから所定の操作が入力されていない場合の視点位置よりも高い位置に決定するとともに視線方向を決定し、前記図形データ座標変換手段は、決定された視点位置および視線方向に基づき、地図情報を構成する図形データの座標を変換し、前記地図画像生成手段は、座標変換された図形データから構成される地図情報に基づいて、現在位置の地図画像の少なくとも一部と予め設定されている移動先を含み、かつ、視線方向の地域を示す第1の鳥瞰地図画像を生成し、前記表示手段は、生成された第1の鳥瞰地図画像を表示するようすることができ、ユーザからの所定の操作の継続的な入力が終了された場合、前記視点位置視線方向決定手段は、予め設定されている移動先に基づいて、視点位置を移動先の真上まで、視線方向を真下方向まで徐々に変化させ、前記図形データ座標変換手段は、徐々に変化された視点位置および視線方向に基づき、地図情報を構成する図形データの座標を順次変換し、前記地図画像生成手段は、順次座標変換された図形データから構成される地図情報に基づいて移動先を示す第2の鳥瞰地図画像を順次生成し、前記表示手段は、順次生成された第2の鳥瞰地図画像を表示するようにすることができる。
The housing can be sized to be held with one hand.
When a predetermined operation is continuously input from the user, the viewpoint position line-of-sight direction determining means receives the predetermined position from the user based on the displacement information and the current position information after the operation is started. If not, the visual line direction is determined and the graphic data coordinate conversion unit converts the coordinates of graphic data constituting the map information based on the determined visual point position and visual line direction. The map image generation means includes at least a part of the map image at the current position and a preset destination based on the map information composed of the coordinate-converted graphic data, and has a line-of-sight direction. A first bird's-eye view map image showing a region is generated, and the display means can display the generated first bird's-eye view map image, and a predetermined operation from the user can be continued. When the input is completed, the viewpoint position line-of-sight direction determining means gradually changes the viewpoint position to a position directly above the movement destination and the line-of-sight direction to a direction directly below based on a preset movement destination, The graphic data coordinate conversion means sequentially converts the coordinates of the graphic data constituting the map information based on the gradually changed viewpoint position and line-of-sight direction, and the map image generation means converts the coordinate data from the sequentially converted graphic data. A second bird's-eye view map image indicating a destination can be sequentially generated based on the configured map information, and the display means can display the second bird's-eye view map image generated in sequence.

本発明の情報処理方法は、ユーザから所定の操作が継続的に入力されている場合、操作開始後の変位情報および現在位置情報に基づいて、視点位置および視線方向を決定し、決定された視点位置および視線方向に基づき、地図情報を構成する図形データの座標を変換し、座標変換された図形データから構成される地図情報に基づいて、視線方向の地域を示す第1の地図画像を生成し、生成された第1の地図画像を表示し、ユーザからの所定の操作の継続的な入力が終了された場合、操作終了時点の視線方向の地域を示す第2の地図画像を表示するステップを含むことを特徴とする。 In the information processing method of the present invention, when a predetermined operation is continuously input from the user, the viewpoint position and the line-of-sight direction are determined based on the displacement information and the current position information after the operation is started, and the determined viewpoint Based on the position and the line-of-sight direction, the coordinates of the graphic data constituting the map information are converted, and on the basis of the map information formed from the coordinate-converted graphic data, a first map image indicating the area in the line-of-sight direction is generated. Displaying the generated first map image and displaying a second map image indicating a region in the line-of-sight direction at the end of the operation when the continuous input of the predetermined operation from the user is terminated. It is characterized by including .

本発において、ユーザから所定の操作が継続的に入力されている場合、操作開始後の変位情報および現在位置情報に基づいて、視点位置および視線方向が決定され、決定された視点位置および視線方向に基づき、地図情報を構成する図形データの座標が変換され、座標変換された図形データから構成される地図情報に基づいて、視線方向の地域を示す第1の地図画像が生成されて、生成された第1の地図画像が表示される。そして、ユーザからの所定の操作の継続的な入力が終了された場合、操作終了時点の視線方向の地域を示す第2の地図画像が表示される。 In the onset bright, if the predetermined operation from the user is continuously input, based on the displacement information and the current position information after the operation start, the viewpoint position and the sight line direction is determined, the determined viewpoint position and the sight line Based on the direction, the coordinates of the graphic data constituting the map information are converted, and based on the map information configured from the coordinate-converted graphic data, a first map image indicating the region in the line-of-sight direction is generated and generated The first map image thus displayed is displayed. Then, when the continuous input of the predetermined operation from the user is ended, a second map image indicating the region in the line-of-sight direction at the end of the operation is displayed.

本発明によれば、装置全体の回転操作により、情報の入力を行うことができ、片手で入力を行うようにしたり、操作ボタンの数を削減することができる。従って、携帯型機器の使い勝手を向上させるとともに、機器を小型化することが可能となる。   According to the present invention, information can be input by rotating the entire apparatus, and input can be performed with one hand, or the number of operation buttons can be reduced. Therefore, the usability of the portable device can be improved and the device can be miniaturized.

以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Therefore, even if there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.

さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加されたりする発明の存在を否定するものではない。   Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. It does not deny the existence of an invention that is added by correction.

本発明の情報処理装置(例えば、1のPDA50)は、情報を表示する表示手段(例えば、図2のLCD3)と、ユーザからの操作を入力する入力手段(例えば、図1の操作ボタン2)と、図形データから構成される地図情報を格納する地図情報格納手段(例えば、図14の地図データ格納部47)と、筐体全体の回転に伴う筐体の姿勢の変位を検出し、検出結果に対応する変位情報を生成する回転角度検出手段(例えば、図2の3軸ジャイロセンサ13)と、現在位置を常時検出し、検出結果に対応する現在位置情報を生成する位置検出手段(例えば、図2のGPSカード22)と、変位情報および現在位置情報に基づいて、視点位置および視線方向を決定する視点位置視線方向決定手段(例えば、図14の視点位置・視線方向決定部44)と、視点位置および視線方向に基づき、地図情報を構成する図形データの座標を変換する図形データ座標変換手段(例えば、図14の図形データ座標変換部45)と、座標変換された図形データから構成される地図情報に基づいて地図画像を生成する地図画像生成手段(例えば、図14の画像データ出力部46)とを含む The information processing apparatus of the present invention (for example, PDA 50 in FIG. 1) includes display means (for example, LCD 3 in FIG. 2) for displaying information and input means for inputting operations from the user (for example, operation button 2 in FIG. 1). ) And map information storage means for storing map information composed of graphic data (for example, the map data storage unit 47 in FIG. 14), and the displacement of the posture of the housing accompanying the rotation of the entire housing is detected and detected. Rotation angle detection means for generating displacement information corresponding to the result (for example, the three-axis gyro sensor 13 in FIG. 2) and position detection means for detecting the current position at all times and generating current position information corresponding to the detection result (for example, 2, and a viewpoint position gaze direction determining means (for example, a viewpoint position / gaze direction determining unit 44 in FIG. 14) that determines the viewpoint position and the gaze direction based on the displacement information and the current position information. ,point of view Based on the location and viewing direction, and graphic data coordinate conversion means for converting the coordinates of the graphic data of the map information (e.g., graphic data coordinate transformation unit 45 of FIG. 14), the map consists of a coordinate transformed graphic data based on the information and a map image generating means for generating a map image (e.g., image data output section 46 in FIG. 14).

図1は、本発明を応用した携帯型情報処理装置(PDA:personal digital assistants)50の外観図を示している。3軸ジャイロセンサ1は、装置全体がX軸、Y軸、およびZ軸回りに回転したとき、各回転角度を検出するようになされている。操作ボタン2は、装置に対して所定の指示を行うようになされている。LCD3は、メニュー画面や地図等の画像を表示するようになされている。   FIG. 1 is an external view of a portable information processing apparatus (PDA: personal digital assistants) 50 to which the present invention is applied. The triaxial gyro sensor 1 detects each rotation angle when the entire apparatus rotates around the X axis, the Y axis, and the Z axis. The operation button 2 is configured to give a predetermined instruction to the apparatus. The LCD 3 is configured to display an image such as a menu screen or a map.

図2は、図1に示したPDA50の内部の構成例を示すブロック図である。3軸ジャイロセンサ1は、X軸、Y軸、Z軸の各座標軸に対応した振動ジャイロ1a、1b、1cからなる。   FIG. 2 is a block diagram showing an example of the internal configuration of the PDA 50 shown in FIG. The three-axis gyro sensor 1 includes vibration gyros 1a, 1b, and 1c corresponding to the coordinate axes of the X axis, the Y axis, and the Z axis.

振動ジャイロは、振動している物体に回転角速度を加えると、その振動と直角方向にコリオリ力が生じる特性を有しており、このコリオリ力Fは、次のように表される。   The vibrating gyroscope has a characteristic that when a rotational angular velocity is applied to a vibrating object, a Coriolis force is generated in a direction perpendicular to the vibration, and this Coriolis force F is expressed as follows.

F=2mvω
(ただし、mは質量、vは速度、ωは角速度)
F = 2mvω
(Where m is mass, v is velocity, ω is angular velocity)

従って、角速度ωは、コリオリ力Fに比例することになり、コリオリ力Fを検出することにより、回転角速度を検出することができる。   Accordingly, the angular velocity ω is proportional to the Coriolis force F, and the rotational angular velocity can be detected by detecting the Coriolis force F.

振動ジャイロ1aには、駆動用圧電磁器4aと検出用圧電磁器4bが設けられており、駆動用圧電磁器4aにはオシレータ25の発振出力である交番信号が印加されるようになされている。この状態で、振動ジャイロ1aがθ方向に回転されると、検出用圧電磁器4bにコリオリ力Fが加わり、電圧Eが発生する。   The vibration gyro 1a is provided with a driving piezoelectric ceramic 4a and a detecting piezoelectric ceramic 4b, and an alternating signal which is an oscillation output of the oscillator 25 is applied to the driving piezoelectric ceramic 4a. In this state, when the vibration gyro 1a is rotated in the θ direction, a Coriolis force F is applied to the detection piezoelectric ceramic 4b, and a voltage E is generated.

検出用圧電磁器4bより出力される微小な電圧は、アンプ7において増幅され、A/D変換器10においてディジタルのデータとされる。   The minute voltage output from the detection piezoelectric ceramic 4 b is amplified by the amplifier 7 and converted into digital data by the A / D converter 10.

振動ジャイロ1aに加わった角速度ωと、発生する電圧Eは、比例関係を有しており、例えば、X軸回りに右方向に回転させたとき、電圧Eが上昇し、左方向に回転させたとき、電圧Eが下降するように配置される。   The angular velocity ω applied to the vibrating gyroscope 1a and the generated voltage E have a proportional relationship. For example, when rotating clockwise around the X axis, the voltage E increases and rotates leftward. Is arranged such that the voltage E drops.

振動ジャイロ1b,1cについても、振動ジャイロ1aの場合と基本的に同様であり、振動ジャイロ1bによってY軸回りの角速度が検出され、アンプ8において増幅された後、A/D変換器11においてディジタルのデータに変換される。同様に、振動ジャイロ1cによって、Z軸回りの角速度が検出され、アンプ9において増幅された後、A/D変換器12においてディジタルのデータに変換される。   The vibration gyros 1b and 1c are basically the same as the case of the vibration gyro 1a. The angular velocity around the Y axis is detected by the vibration gyro 1b, amplified by the amplifier 8, and then digitalized by the A / D converter 11. It is converted into data. Similarly, the angular velocity around the Z axis is detected by the vibration gyro 1c, amplified by the amplifier 9, and then converted into digital data by the A / D converter 12.

操作ボタン2は、ユーザの操作に対応して所定の信号を発生し、入力インタフェース13に供給するようになされている。CPU14は、バス26を介して各種のICなどと接続されている。ROM15は、装置全体のシステムプログラムの他、例えば、ワードプロセッサ機能用のカナ漢字変換プログラムおよびそのための辞書テーブル、さらに手書き入力に対する認識プログラム、およびそのための辞書テーブルなどが書き込まれている。RAM16には、動作上必要なデータが随時記憶される。   The operation button 2 generates a predetermined signal corresponding to the user's operation and supplies it to the input interface 13. The CPU 14 is connected to various ICs via a bus 26. In addition to the system program for the entire apparatus, the ROM 15 stores, for example, a kana-kanji conversion program for the word processor function and a dictionary table therefor, a recognition program for handwritten input, a dictionary table therefor, and the like. The RAM 16 stores data necessary for operation as needed.

LCD3は、カラーLCDコントローラ18の制御により、所定の表示を行うようになされている。感圧型透明タブレット29は、感圧型透明タブレットコントローラ17の制御により、所定の入力を検出するようになされている。バックライト30は、バックライトコントローラ19の制御により、感圧型透明タブレットを通して、LCD3を後方から照明するようになされている。   The LCD 3 performs a predetermined display under the control of the color LCD controller 18. The pressure-sensitive transparent tablet 29 is configured to detect a predetermined input under the control of the pressure-sensitive transparent tablet controller 17. The backlight 30 illuminates the LCD 3 from behind through a pressure-sensitive transparent tablet under the control of the backlight controller 19.

PCカードインタフェース20にはコネクタ27が設けられ、GPS装置としてのPCMCIA(Personal Computer Memory Card International Association)規格に適合したPCMCIA型GPS(Global Positioning System)カード(以下、単にGPSカードと略記する)22(位置検出手段)が挿入される。CPU14は、PCカードインタフェース20を介して、GPSカード22とデータ、プログラム等の授受ができるようになされている。また、GPSカード22には、GPS衛星からの電波を受信し、対応する信号を出力するGPSアンテナ23が接続されるようになされている。GPSカード22は、GPSアンテナ23によって受信された信号に基づいて現在位置を検出し、現在位置に対応する位置データを出力するようになされている。   The PC card interface 20 is provided with a connector 27, and a PCMCIA type Global Positioning System (GPS) card (hereinafter simply abbreviated as a GPS card) 22 conforming to the PCMCIA (Personal Computer Memory Card International Association) standard as a GPS device 22 ( Position detecting means) is inserted. The CPU 14 can exchange data, programs, and the like with the GPS card 22 via the PC card interface 20. The GPS card 22 is connected to a GPS antenna 23 that receives radio waves from GPS satellites and outputs corresponding signals. The GPS card 22 detects a current position based on a signal received by the GPS antenna 23 and outputs position data corresponding to the current position.

PCカードインタフェース21にはコネクタ28が設けられ、例えば記憶装置としてのPCMCIA型ハードディスクカード(以下、単にHDDカードと略記する)24が接続されるようになされている。HDDカード24には、地図データ等が記憶される。   The PC card interface 21 is provided with a connector 28, for example, to which a PCMCIA type hard disk card (hereinafter simply referred to as an HDD card) 24 as a storage device is connected. The HDD card 24 stores map data and the like.

また、入力インタフェース13は、A/D変換器10乃至12より供給された3軸ジャイロセンサ1の検出信号をバス26を介してCPU14に供給するようになされている。また、操作ボタン2より供給される所定の操作に対応した信号を、バス26を介してCPU14に供給するようになされている。   The input interface 13 supplies the detection signal of the three-axis gyro sensor 1 supplied from the A / D converters 10 to 12 to the CPU 14 via the bus 26. Further, a signal corresponding to a predetermined operation supplied from the operation button 2 is supplied to the CPU 14 via the bus 26.

次に、図3と図4を参照して、上記構成のPDA50を用いて、メニュー選択を行う場合の動作について説明する。この操作を行う場合、現在の位置に関するデータは必要がないので、図2において、GPSカード22をPCカードインタフェース20のコネクタ27に挿入する必要はない。また、地図データについても不要なため、HDDカード24をコネクタ28に挿入する必要はない。   Next, with reference to FIG. 3 and FIG. 4, the operation in the case of performing menu selection using the PDA 50 having the above configuration will be described. When this operation is performed, there is no need for data regarding the current position, and therefore it is not necessary to insert the GPS card 22 into the connector 27 of the PC card interface 20 in FIG. Further, since the map data is unnecessary, it is not necessary to insert the HDD card 24 into the connector 28.

図3は、メニュー選択を行う場合の一連の操作画面の例を示しており、図4は、操作手順を説明するためのフローチャートである。最初、図4のステップS1において、CPU14により、ユーザによって操作ボタン2が押下されたか否かが判定される。このとき、図3(a)に示すように、PDA50の画面には何も表示されていない。   FIG. 3 shows an example of a series of operation screens when menu selection is performed, and FIG. 4 is a flowchart for explaining an operation procedure. First, in step S1 of FIG. 4, the CPU 14 determines whether or not the operation button 2 has been pressed by the user. At this time, nothing is displayed on the screen of the PDA 50 as shown in FIG.

いま、ユーザによって操作ボタン2が押下されると、所定の信号が発生し、入力インタフェース13、バス26を介して、CPU14に供給される。これにより、CPU14は、ボタン2が操作されたと判定し、ステップS2に進む。一方、ユーザによるボタン2の操作がなされない場合、ステップS1の処理が繰り返される。   Now, when the operation button 2 is pressed by the user, a predetermined signal is generated and supplied to the CPU 14 via the input interface 13 and the bus 26. Thereby, CPU14 determines with the button 2 having been operated, and progresses to step S2. On the other hand, when the button 2 is not operated by the user, the process of step S1 is repeated.

ステップS2においては、CPU14は、所定のメニューに対応する表示データ(ビットマップデータ)を生成し、画面上での表示位置に対応するデータとともに、バス26を介してカラーLCDコントローラ18に供給する。あるいは、予め、メニューに対応するビットマップデータをROM15に記憶させておき、バス26を介してそれを読み出し、カラーLCDコントローラ18に供給するようにしてもよい。   In step S2, the CPU 14 generates display data (bitmap data) corresponding to a predetermined menu, and supplies the display data (bitmap data) to the color LCD controller 18 via the bus 26 together with data corresponding to the display position on the screen. Alternatively, bitmap data corresponding to the menu may be stored in the ROM 15 in advance, read out via the bus 26, and supplied to the color LCD controller 18.

カラーLCDコントローラ18は、図示せぬVRAM(ビデオRAM)を有しており、VRAMに書き込まれたデータに従ってLCD3を制御し、所定の画像を表示させるようになされている。従って、CPU14より供給された所定のメニューに対応する表示データは、カラーLCDコントローラのVRAMに記憶される。カラーLCDコントローラ18は、VRAMに記憶した表示データに従って、LCD3に制御信号を供給し、所定のメニューを表示させる。   The color LCD controller 18 has a VRAM (video RAM) (not shown), and controls the LCD 3 according to data written in the VRAM to display a predetermined image. Accordingly, display data corresponding to a predetermined menu supplied from the CPU 14 is stored in the VRAM of the color LCD controller. The color LCD controller 18 supplies a control signal to the LCD 3 according to the display data stored in the VRAM to display a predetermined menu.

次に、ステップS3において、CPU14は、例えば、ROM15より、所定のカーソルに対応する表示データを読み出し、画面上での表示位置に対応するデータとともに、カラーLCDコントローラ18に供給する。カラーLCDコントローラ18は、CPU14より供給されたカーソルに対応する表示データをVRAMに記憶し、VRAMに記憶した表示データに従って、LCD3を制御する。   Next, in step S3, the CPU 14 reads display data corresponding to a predetermined cursor from the ROM 15, for example, and supplies the display data to the color LCD controller 18 together with data corresponding to the display position on the screen. The color LCD controller 18 stores display data corresponding to the cursor supplied from the CPU 14 in the VRAM, and controls the LCD 3 according to the display data stored in the VRAM.

その結果、図3の(b)に示すように、所定のメニューと、所定のカーソル(この場合、十字型の形状をしている)がLCD3の画面に表示される。この場合、最初、カーソルはメニューの中央に表示される。   As a result, as shown in FIG. 3B, a predetermined menu and a predetermined cursor (in this case, having a cross shape) are displayed on the screen of the LCD 3. In this case, the cursor is initially displayed in the center of the menu.

次に、ステップS4に進み、CPU14により、機器(PDA)50全体が回転されたか否かが判定される。例えば、ユーザが図1に示したように、機器全体を片手で保持した状態で、例えば、X軸回りに機器全体を回転させると、この回転により、検出用圧電磁器4bに所定の電圧が発生し、アンプ7において増幅され、A/D変換器10においてディジタルデータとされる。このディジタルデータは、入力インタフェース13を介して入力され、バス26を介してCPU14に供給される。これにより、CPU14は、機器全体がX軸回りに回転されたことを認識することができる。Y軸回りの回転、およびZ軸回りの回転についても同様である。   In step S4, the CPU 14 determines whether the entire device (PDA) 50 has been rotated. For example, as shown in FIG. 1, when the user holds the entire device with one hand, for example, when the entire device is rotated around the X axis, a predetermined voltage is generated in the detection piezoelectric ceramic 4b by this rotation. Then, it is amplified by the amplifier 7 and converted into digital data by the A / D converter 10. This digital data is input via the input interface 13 and supplied to the CPU 14 via the bus 26. Thereby, the CPU 14 can recognize that the entire device has been rotated around the X axis. The same applies to rotation around the Y axis and rotation around the Z axis.

ステップS4において、機器全体が回転されたと判定された場合、ステップS5に進み、CPU14は、X軸に関する回転量を抽出する。次に、ステップS6において、Y軸に関する回転量を抽出する。ステップS7においては、X軸とY軸のそれぞれの回転量に応じて、カーソルを上下左右方向に移動させる。   If it is determined in step S4 that the entire device has been rotated, the process proceeds to step S5, and the CPU 14 extracts the rotation amount related to the X axis. Next, in step S6, the amount of rotation about the Y axis is extracted. In step S7, the cursor is moved in the up / down / left / right directions according to the respective rotation amounts of the X-axis and the Y-axis.

即ち、機器全体の回転に応じて、カーソルを上下左右方向に移動させるために、カーソルに対応するビットマップデータと、画面上にいま表示されているカーソルに対して上下左右方向にずらした表示位置に対応するデータをカラーLCDコントローラ18に供給する。この表示位置のずれの大きさは、検出用圧電磁器4b,5bの各出力電圧に対応する。カラーLCDコントローラ18は、CPU14より供給されたビットマップデータを、その表示位置に対応するデータに基づいて、VRAMの所定の場所に記憶させる。   That is, in order to move the cursor in the vertical and horizontal directions according to the rotation of the entire device, the bitmap data corresponding to the cursor and the display position shifted in the vertical and horizontal directions with respect to the cursor currently displayed on the screen Is supplied to the color LCD controller 18. The magnitude of this display position shift corresponds to each output voltage of the detecting piezoelectric ceramics 4b and 5b. The color LCD controller 18 stores the bitmap data supplied from the CPU 14 at a predetermined location in the VRAM based on the data corresponding to the display position.

カラーLCDコントローラ18は、VRAMに記憶した移動後のカーソルに対応するビットマップデータに従ってLCD3を制御する。これにより、最初、図3(b)に示したようにカーソルが画面の中央にある状態で、機器全体をX軸回りに回転させたとき、例えば、図3(c)に示すように、カーソルが項目「banana」に移動する。また、最初、図3(b)に示したようにカーソルが画面の中央にある状態で、機器全体をY軸回りに回転させたとき、例えば、図3(d)に示すように、カーソルが項目「Apple」に移動する。   The color LCD controller 18 controls the LCD 3 according to the bitmap data corresponding to the moved cursor stored in the VRAM. As a result, when the entire device is first rotated around the X axis with the cursor being at the center of the screen as shown in FIG. 3B, for example, as shown in FIG. Moves to the item “banana”. In addition, when the entire device is rotated around the Y axis with the cursor at the center of the screen as shown in FIG. 3B, for example, as shown in FIG. Go to item "Apple".

次に、ステップS8に進み、CPU14は、カーソルがメニュー項目のいずれかに位置している場合、そのメニュー項目が強調表示された状態のメニューに対応する表示データを生成し、カラーLCDコントローラ18に供給する。例えば、図3(c)に示すように、カーソルがメニュー項目「Banana」に位置している場合、メニュー項目「Banana」が強調表示されたメニューに対応する表示データを生成し、カラーLCDコントローラ18に供給する。   Next, proceeding to step S8, if the cursor is positioned on any of the menu items, the CPU 14 generates display data corresponding to the menu with the menu item highlighted, and sends it to the color LCD controller 18. Supply. For example, as shown in FIG. 3C, when the cursor is positioned on the menu item “Banana”, display data corresponding to the menu in which the menu item “Banana” is highlighted is generated, and the color LCD controller 18 is displayed. To supply.

これにより、カラーLCDコントローラ18は、カーソルが位置するメニュー項目「Banana」が強調表示されたメニューに対応する表示データをVRAMに記憶する。そして、VRAMに記憶された表示データに従って、LCD3を制御し、メニュー項目「Banana」が強調表示された画面を表示させる。   As a result, the color LCD controller 18 stores the display data corresponding to the menu in which the menu item “Banana” where the cursor is positioned is highlighted in the VRAM. Then, the LCD 3 is controlled according to the display data stored in the VRAM to display a screen on which the menu item “Banana” is highlighted.

また、例えば、図3(d)に示すように、カーソルがメニュー項目「Apple」に位置している場合、メニュー項目「Apple」が強調表示されたメニューに対応する表示データを生成し、カラーLCDコントローラ18に供給する。   For example, as shown in FIG. 3D, when the cursor is positioned on the menu item “Apple”, display data corresponding to the menu in which the menu item “Apple” is highlighted is generated, and the color LCD is displayed. This is supplied to the controller 18.

これにより、カラーLCDコントローラ18は、カーソルが位置するメニュー項目「Apple」が強調表示されたメニューに対応する表示データをVRAMに記憶する。そして、VRAMに記憶された表示データに従って、LCD3を制御し、メニュー項目「Apple」が強調表示された画面を表示させる。   Thereby, the color LCD controller 18 stores the display data corresponding to the menu in which the menu item “Apple” where the cursor is positioned is highlighted in the VRAM. Then, the LCD 3 is controlled in accordance with the display data stored in the VRAM to display a screen on which the menu item “Apple” is highlighted.

ステップS8における処理が終了すると、ステップS4に戻り、ステップS4以降の処理が繰り返し実行される。   When the process in step S8 ends, the process returns to step S4, and the processes after step S4 are repeatedly executed.

ステップS4において、機器全体が回転していないと判定された場合、ステップS9に進み、操作ボタン2が離されたか否かが判定される。操作ボタン2が離されていないと判定された場合、ステップS4に戻り、ステップS4以降の処理が繰り返し実行される。一方、例えば、図4(d)のような画面が表示された状態で、操作ボタン2を離すと、ステップS9において、操作ボタン2が離されたと判定され、ステップS10に進み、CPU14は、ステップS8において強調表示されたメニュー項目の選択を確定する。   When it is determined in step S4 that the entire device is not rotating, the process proceeds to step S9, and it is determined whether or not the operation button 2 has been released. If it is determined that the operation button 2 has not been released, the process returns to step S4, and the processes after step S4 are repeatedly executed. On the other hand, for example, if the operation button 2 is released while the screen as shown in FIG. 4D is displayed, it is determined in step S9 that the operation button 2 has been released, and the process proceeds to step S10. The selection of the menu item highlighted in S8 is confirmed.

これにより、ステップS11において、メニューが画面から消去され、ステップS1に戻り、ステップS1以降の処理が繰り返し実行される。   Thereby, in step S11, the menu is erased from the screen, the process returns to step S1, and the processes after step S1 are repeatedly executed.

このようにして、装置全体を片手で保持し、X軸、およびY軸の回りに回転させることにより、所定のメニュー項目の選択を行うことができる。ここでは、X軸とY軸の2軸の回りに回転させる場合について説明したが、勿論、X軸、Y軸、およびZ軸の3軸の回りに回転させることにより、メニュー項目の選択を行うようにすることも可能である。   In this manner, a predetermined menu item can be selected by holding the entire apparatus with one hand and rotating it around the X axis and the Y axis. Here, the case of rotating around the two axes of the X axis and the Y axis has been described. Of course, the menu item is selected by rotating around the X axis, the Y axis, and the Z axis. It is also possible to do so.

また、ここでは、装置が回転すると、カーソルがメニュー上を移動し、所定のメニュー項目を選択できるようにしたが、図5に示すように、カーソルを画面内の所定の位置、例えば中央に固定し、装置が回転すると、メニューが画面内を移動するようにすることも可能である。このようにしても、メニュー項目の所定のものを選択することができる。   Here, when the apparatus is rotated, the cursor moves on the menu so that a predetermined menu item can be selected. However, as shown in FIG. 5, the cursor is fixed at a predetermined position on the screen, for example, at the center. However, it is also possible for the menu to move within the screen as the device rotates. Even in this way, a predetermined menu item can be selected.

図6は、本発明を電子手帳に応用した場合のLCD3の表示例を示している。例えば、電子手帳を片手で保持し、操作ボタン2を押下して円環状のメニューを表示させる。この場合、電子手帳で用いられるメニュー項目、例えば、「スケジュール」、「辞書」、「メモ」、「リマインダ」、「電話帳」、「TO DO(やるべき事項)」等が表示され、画面の中央にカーソルが表示される。   FIG. 6 shows a display example of the LCD 3 when the present invention is applied to an electronic notebook. For example, the electronic notebook is held with one hand, and the operation button 2 is pressed to display an annular menu. In this case, menu items used in the electronic organizer, such as “Schedule”, “Dictionary”, “Memo”, “Reminder”, “Phone Book”, “TO DO (Matter to be done)”, etc. are displayed. A cursor appears in the center.

次に、操作ボタン2を押下したまま、電子手帳全体を、X軸、Y軸の回りに回転させることにより、所定のメニュー項目にカーソルを移動させる。そして、所望のメニュー項目にカーソルが位置している状態で、操作ボタン2を離すと、カーソルが位置していたメニュー項目の選択が確定する。   Next, the cursor is moved to a predetermined menu item by rotating the entire electronic notebook around the X axis and the Y axis while pressing the operation button 2. Then, when the operation button 2 is released while the cursor is positioned on the desired menu item, the selection of the menu item on which the cursor is positioned is confirmed.

このようにして、電子手帳を片手で操作し、メニュー項目の選択を行うことができる。また、上記メニューの代わりに、数字、アルファベット、平仮名、あるいは片仮名等をメニュー項目とするメニューを表示させ、カーソルで所望の数字あるいは文字を選択することにより、電話番号や文章等を入力するようにすることもできる。   In this way, the menu item can be selected by operating the electronic notebook with one hand. Also, instead of the above menu, a menu with numbers, alphabets, hiragana, katakana, etc. as menu items is displayed, and a desired number or character is selected with the cursor so that a telephone number or text can be entered. You can also

図7は、ドラム状のメニューの例を示している。このように、あたかもドラム上にメニュー項目が配置されるかの如く表示され、所定の位置に矩形のカーソルが表示される。ユーザは、まず、操作ボタン2を押下し、次に、装置をX軸の回りに回転させる。これにより、ドラムが回転し、カーソル内に所望のメニュー項目が移動したとき、操作ボタン2を離す。このようにして、ドラム状のメニューの所望のメニュー項目を選択し、確定することができる。   FIG. 7 shows an example of a drum-like menu. In this way, menu items are displayed as if they were arranged on the drum, and a rectangular cursor is displayed at a predetermined position. The user first presses the operation button 2 and then rotates the apparatus around the X axis. Thereby, when the drum rotates and a desired menu item moves within the cursor, the operation button 2 is released. In this way, the desired menu item of the drum-like menu can be selected and confirmed.

次に、図8乃至図13を参照して、上記構成のPDA50を用いて、ディジタルマップを表示する場合について説明する。この表示を行う場合、現在の位置に関するデータが必要となるので、図2において、GPSカード22をPCカードインタフェース20のコネクタ27に挿入する。これにより、GPSカード22は、GPSアンテナ23により受信されたGPS衛星からの電波に基づいて、現在位置を算出することが可能となる。また、HDDカード24をコネクタ28に挿入し、地図データの読み出しが可能な状態とする。   Next, a case where a digital map is displayed using the PDA 50 having the above configuration will be described with reference to FIGS. When this display is performed, data relating to the current position is required. Therefore, the GPS card 22 is inserted into the connector 27 of the PC card interface 20 in FIG. Thereby, the GPS card 22 can calculate the current position based on the radio wave from the GPS satellite received by the GPS antenna 23. Further, the HDD card 24 is inserted into the connector 28 so that the map data can be read out.

図8は、PDA50に回転操作を加え、仮想的な地図または図面等の所定の領域を、画面に表示させることを示す概念図である。PDA50において、HDDカード24には、地図データが記憶されており、CPU14は、PCカードインタフェース21を介してHDDカード24より地図データを読み出す。そして、読み出した地図データに、図14乃至図16を参照して後述するような鳥瞰図表示のための座標変換処理を施し、座標変換処理が施された地図データに対応するビットマップデータを生成し、カラーLCDコントローラ18に供給する。   FIG. 8 is a conceptual diagram showing that a rotation operation is applied to the PDA 50 to display a predetermined area such as a virtual map or a drawing on the screen. In the PDA 50, map data is stored in the HDD card 24, and the CPU 14 reads map data from the HDD card 24 via the PC card interface 21. Then, the read map data is subjected to coordinate conversion processing for bird's-eye view display as will be described later with reference to FIGS. 14 to 16 to generate bitmap data corresponding to the map data subjected to the coordinate conversion processing. To the color LCD controller 18.

カラーLCDコントローラ18は、CPU14より供給されたビットマップデータをVRAMに記憶させる。そして、カラーLCDコントローラ18は、VRAMに記憶したビットマップデータに従ってLCD3を制御し、ビットマップデータに対応する地図を表示させる。このようにして、所定の地図の現在位置に対応した領域を表示させることができる。この場合、GPSカード22から供給された現在位置に対応する地図データがHDDカード24より読み出され、LCD3によって表示される。   The color LCD controller 18 stores the bitmap data supplied from the CPU 14 in the VRAM. Then, the color LCD controller 18 controls the LCD 3 according to the bitmap data stored in the VRAM, and displays a map corresponding to the bitmap data. In this way, an area corresponding to the current position of a predetermined map can be displayed. In this case, the map data corresponding to the current position supplied from the GPS card 22 is read from the HDD card 24 and displayed on the LCD 3.

PDA50の画面に現在位置の地図を表示させた状態で、例えば、ユーザが、操作ボタン2を押下し、PDA50を画面に対して水平な軸(X軸)の回りに回転させると、検出用圧電磁器4bにより所定の電圧が発生し、アンプ7によって増幅され、A/D変換器10においてディジタルのデータに変換された後、バス26を介してCPU14に供給される。これにより、CPU14は、X軸の回りにPDA50が回転されたことを認識する。   With the map of the current position displayed on the screen of the PDA 50, for example, when the user presses the operation button 2 and rotates the PDA 50 about an axis (X axis) that is horizontal with respect to the screen, the detection piezoelectric A predetermined voltage is generated by the porcelain 4b, amplified by the amplifier 7, converted into digital data by the A / D converter 10, and then supplied to the CPU 14 via the bus 26. Thereby, the CPU 14 recognizes that the PDA 50 is rotated around the X axis.

次に、CPU14は、LCD3に表示されている地図が上方向または下方向に移動するように、HDDカード24より読み出した地図データに基づいて、いまLCD3の画面に表示されている部分から上または下にずれた地図データに対応するビットマップデータを生成し、カラーLCDコントローラ18に供給する。   Next, based on the map data read from the HDD card 24, the CPU 14 moves upward or downward from the portion currently displayed on the LCD 3 so that the map displayed on the LCD 3 moves upward or downward. Bit map data corresponding to the map data shifted downward is generated and supplied to the color LCD controller 18.

カラーLCDコントローラ18は、CPU14より供給されたビットマップデータをVRAMに一旦記憶させる。次に、VRAMに記憶されたビットマップデータに従って、LCD3を制御し、対応する地図を表示させる。これにより、PDA50のLCD3の画面に表示されている地図が、ユーザによる回転操作に応じて、上下方向に移動する。この移動量は、PDA50の回転角に対応する。   The color LCD controller 18 temporarily stores the bitmap data supplied from the CPU 14 in the VRAM. Next, according to the bitmap data stored in the VRAM, the LCD 3 is controlled to display a corresponding map. As a result, the map displayed on the screen of the LCD 3 of the PDA 50 moves in the vertical direction according to the rotation operation by the user. This movement amount corresponds to the rotation angle of the PDA 50.

また、操作ボタン2を押したまま、画面に対して垂直な軸(Y軸)の回りにPDA50を回転させると、今度は、検出用圧電磁器5bにより、電圧が発生され、Y軸回りの回転操作がなされたことがCPU14によって認識される。   Further, when the PDA 50 is rotated around the axis (Y axis) perpendicular to the screen while the operation button 2 is being pressed, a voltage is generated by the detection piezoelectric ceramic 5b and the rotation about the Y axis is performed. The CPU 14 recognizes that the operation has been performed.

次に、CPU14は、LCD3に表示されている地図が左方向または右方向に移動するように、HDDカード24より読み出した地図データに基づいて、いまLCD3の画面に表示されている部分より左または右にずれた地図データに対応するビットマップデータ生成し、カラーLCDコントローラ18に供給する。   Next, based on the map data read out from the HDD card 24, the CPU 14 moves left or right from the part currently displayed on the LCD 3 so that the map displayed on the LCD 3 moves leftward or rightward. Bitmap data corresponding to the map data shifted to the right is generated and supplied to the color LCD controller 18.

カラーLCDコントローラ18は、CPU14より供給されたビットマップデータをVRAMに一旦記憶させる。次に、VRAMに記憶されたビットマップデータに従って、LCD3を制御し、対応する地図を表示させる。これにより、PDA50のLCD3の画面に表示されている地図が、ユーザによる回転操作に応じて、左右方向に移動する。この移動量は、PDA50の回転角に対応する。   The color LCD controller 18 temporarily stores the bitmap data supplied from the CPU 14 in the VRAM. Next, according to the bitmap data stored in the VRAM, the LCD 3 is controlled to display a corresponding map. As a result, the map displayed on the screen of the LCD 3 of the PDA 50 moves in the left-right direction according to the rotation operation by the user. This movement amount corresponds to the rotation angle of the PDA 50.

また、上記回転操作を組み合わせることにより、地図の任意の部分をLCD3の画面に表示させることができる。このようにして、地図の所定の領域を表示させた状態で操作ボタン2を離す(解除する)と、いま表示されている領域の地図が確定され、その部分の地図が以後継続して画面に表示される。なお、X軸回りの回転操作およびY軸回りの回転操作は、同時に行うことが可能である。   In addition, any part of the map can be displayed on the screen of the LCD 3 by combining the above rotation operations. In this way, when the operation button 2 is released (released) in a state where a predetermined area of the map is displayed, the map of the currently displayed area is fixed, and the map of the area is continuously displayed on the screen. Is displayed. Note that the rotation operation around the X axis and the rotation operation around the Y axis can be performed simultaneously.

図9は、仮想的な地図に対して、PDA50を傾けて位置させた様子を表している。PDA50のLCD3の画面に対して垂直な方向(Z軸方向)から、LCD3の画面の裏面にある仮想的な地図を観察すると、地図上の領域Aを観察することができる。そこで、PDA50のLCD3に、図10に示すような地図を表示させる。これにより、あたかも、現実に地図を広げ、それを様々な角度から眺めているような画像を画面に表示することができる。   FIG. 9 shows a state where the PDA 50 is tilted with respect to a virtual map. When a virtual map on the back surface of the LCD 3 screen is observed from a direction perpendicular to the LCD 3 screen of the PDA 50 (Z-axis direction), a region A on the map can be observed. Therefore, a map as shown in FIG. 10 is displayed on the LCD 3 of the PDA 50. As a result, it is possible to display an image on the screen as if the map was actually expanded and viewed from various angles.

さらに、図9、図10に示すように、次に、移動しようとしている移動先を示す指標Mを表示することができる。これにより、ユーザは、いま地図上のどの部分に移動しようとしているのかを認識することができるので、地図上の所望の部分に移動する際の操作を容易にすることができる。また、移動先が遠方にある場合でも、現在の表示領域と移動先とを同時に画面に納めることができるので、移動先と現在位置との関係を容易に認識することができる。   Further, as shown in FIGS. 9 and 10, an index M indicating the destination to be moved can be displayed next. Thereby, since the user can recognize which part on the map the user is about to move to, the user can easily perform an operation when moving to a desired part on the map. Further, even when the destination is far away, the current display area and the destination can be simultaneously displayed on the screen, so that the relationship between the destination and the current position can be easily recognized.

図11は、仮想的な地図上を移動するPDA50の軌跡を、地図表面の真横から観察したときの図を表している。最初、視点P1において、地図を真上から観察し、図12に示すような地図をLCD3の画面に表示させる。次に、PDA50の操作ボタン2を押し、そのまま、PDA50を所定の軸の回りに回転させる。すると、視点が、視点P1からその上方に位置する視点P2に自動的に移動し、斜め上空から地図を観察することができる。   FIG. 11 shows a diagram when the trajectory of the PDA 50 moving on a virtual map is observed from the side of the map surface. First, at the viewpoint P1, the map is observed from directly above, and a map as shown in FIG. Next, the operation button 2 of the PDA 50 is pressed, and the PDA 50 is rotated around a predetermined axis as it is. Then, the viewpoint automatically moves from the viewpoint P1 to the viewpoint P2 positioned above the viewpoint P1, and the map can be observed from diagonally above.

このとき、視点P1において観察していた地図上の領域の全部または一部がPDA50の画面内に入るようにすることができる。これにより、現在位置と移動先との間の位置関係を容易に把握することができ、所望の移動先を迅速に見つけ出すことができる。   At this time, all or part of the area on the map observed at the viewpoint P1 can be included in the screen of the PDA 50. Thereby, the positional relationship between the current position and the destination can be easily grasped, and a desired destination can be quickly found.

視点P2において、PDA50のLCD3の画面には、図13に示すように、仮想的な地図を斜め上空から観察したような鳥瞰図が表示され、移動先の指標Mが表示される。そして、指標Mが、所望の移動先と合致したとき、操作ボタン2を離すと、視点P2から視点P3を経由して、視点P4に移動する。そして、視点P4において、地図を真上から観察した画像がPDA50のLCD3に表示される。   At the viewpoint P2, as shown in FIG. 13, a bird's-eye view as if a virtual map was observed obliquely above is displayed on the screen of the LCD 3 of the PDA 50, and an index M of the movement destination is displayed. When the index M matches the desired destination, when the operation button 2 is released, the index M moves from the viewpoint P2 to the viewpoint P4 via the viewpoint P3. Then, at the viewpoint P4, an image obtained by observing the map from directly above is displayed on the LCD 3 of the PDA 50.

このようにして、ユーザは、片手でPDA50を操作することにより、地図上の所望の場所を簡単に表示させることができる。   In this way, the user can easily display a desired location on the map by operating the PDA 50 with one hand.

次に、図14乃至図16を参照して、鳥瞰図表示の方法について説明する。これは、地図をあたかも上空から見おろしたように表示する方法であり、最近では、ナビゲーション装置等において用いられ、自車両が位置する表示基準点周辺の詳細な道路形態を表示するとともに、遠方の道路形態をも表示することができるようになされている。   Next, a bird's eye view display method will be described with reference to FIGS. This is a method of displaying a map as if viewed from the sky. Recently, it is used in a navigation device or the like, and displays a detailed road form around a display reference point where the host vehicle is located, and a distant road. The form can also be displayed.

図14は、鳥瞰図表示を実現するための一般的なシステムの構成例を示している。このシステムは、現在位置P0(Xp,YP,ZP)を入力する現在位置入力部41と、現在位置を変更するための視点変換用キー入力部42と、現在位置入力部41からの情報に基づいて、視点位置・視線方向を決定する視点位置・視線方向決定部44、視点位置・視線方向決定部44からの情報および地図情報に基づいて、図形データの座標を変換する図形データ座標変換部45、図形データ座標変換部45からの情報に基づいて、画像データを出力する画像データ出力部46からなる鳥瞰図表示計算部43と、各種地図情報を格納し、上記図形データ座標変換部45に対して、格納している地図情報を出力する地図データ格納部47と、画像データ出力部46から出力される画像情報に対応する画像を表示する画像表示部48とから構成されている。 FIG. 14 shows a configuration example of a general system for realizing bird's-eye view display. This system includes a current position input unit 41 for inputting a current position P 0 (X p , Y P , Z P ), a viewpoint conversion key input unit 42 for changing the current position, and a current position input unit 41. Graphic data for converting coordinates of graphic data based on the information from the viewpoint position / gaze direction determining unit 44, the viewpoint position / gaze direction determining unit 44, and the map information Based on information from the coordinate conversion unit 45 and the graphic data coordinate conversion unit 45, a bird's eye view display calculation unit 43 including an image data output unit 46 that outputs image data, and various types of map information are stored, and the graphic data coordinate conversion unit 45, a map data storage unit 47 that outputs stored map information and an image display unit 48 that displays an image corresponding to the image information output from the image data output unit 46. It is.

このシステムは、図2に示したPDA50において、GPSカード22を装着することにより実現することができる。即ち、現在位置入力部41は、図2におけるGPSカード22、GPSアンテナ23に対応し、視点変換用キー入力部42は、3軸ジャイロセンサ1に対応する。鳥瞰図表示計算部43を構成する視点位置・視線方向決定部44と図形データ座標変換部45は、CPU14に対応し、画像データ出力部46は、カラーLCDコントローラ18に対応する。地図データ格納部47は、HDDカード24に対応し、画像表示部48は、LCD3に対応する。   This system can be realized by mounting the GPS card 22 in the PDA 50 shown in FIG. That is, the current position input unit 41 corresponds to the GPS card 22 and the GPS antenna 23 in FIG. 2, and the viewpoint conversion key input unit 42 corresponds to the three-axis gyro sensor 1. The viewpoint position / gaze direction determination unit 44 and the graphic data coordinate conversion unit 45 constituting the bird's eye view display calculation unit 43 correspond to the CPU 14, and the image data output unit 46 corresponds to the color LCD controller 18. The map data storage unit 47 corresponds to the HDD card 24, and the image display unit 48 corresponds to the LCD 3.

透視投影図は、図15に示すように、XYZ平面のXY平面基準として表現される地図ABCD領域を、視点E(X0,Y0,Z0)から参照点B(Xb,Yb,Zb)に対して俯角θで見おろした映像をその視線方向に対し、垂直に配置された視平面Gに投影される映像が鳥瞰図として画面に表示されたものである。 As shown in FIG. 15, the perspective projection view shows a map ABCD area expressed as the XY plane reference of the XYZ plane from the viewpoint E (X 0 , Y 0 , Z 0 ) to the reference point B (X b , Y b , The image projected on the viewing plane G arranged perpendicular to the viewing direction of the image viewed at the depression angle θ with respect to Z b ) is displayed on the screen as a bird's eye view.

このとき、視点Eからの視線方向は、XY平面に対する回転方向情報角度αを有するものとする。また、視点Eと、視平面Gとの間の距離をVdとする。そして、透視投影された表示画像において、中央線上にある縦線を基準線とし、この基準線上にある定められた点Qを透視投影の基準点と呼ぶことにする。この基準点Qは、地図データ上において、XY平面で考えたときの視点Eと、透視投影の参照点B(画面中心)とを結ぶ直線上にある点となり、表示画面の下辺から参照点Bに向かって、距離Dcの地点に表示される。 At this time, the line-of-sight direction from the viewpoint E has a rotation direction information angle α with respect to the XY plane. Further, the distance between the viewpoint E and the viewing plane G is V d . In the perspectively projected display image, a vertical line on the center line is used as a reference line, and a predetermined point Q on the reference line is called a reference point for perspective projection. This reference point Q is a point on a straight line connecting the viewpoint E when considered on the XY plane and the reference point B (the center of the screen) of perspective projection on the map data, and the reference point B from the lower side of the display screen. towards, is displayed at the point of distance D c.

図16は、図14に示したシステムによる処理動作を示すフローチャートである。この処理は、一般的なコンピュータの演算により実現されるものであり、現在位置P0を視点位置Eとする方法と、現在位置P0を透視投影の基準点Qとする方法があるが、ここでは、現在位置P0を基準点Q、そして、この基準点Qが参照点Bと一致する場合について説明する。 FIG. 16 is a flowchart showing the processing operation by the system shown in FIG. This processing is realized by a general computer calculation. There are a method of setting the current position P 0 as the viewpoint position E and a method of setting the current position P 0 as the reference point Q of the perspective projection. Now, a case where the current position P 0 is the reference point Q and the reference point Q coincides with the reference point B will be described.

最初に、ステップS1において、視点変換用キー入力部42と現在位置入力部41により、現在位置P0を基準点、かつ、参照点Bとし、ステップS22において、視線俯角θ、視点高さh、および進行方向αをそれぞれセットする。 First, in step S1, the viewpoint conversion key input unit 42 and the current position input unit 41 set the current position P 0 as a reference point and a reference point B. In step S22, the line-of-sight depression angle θ, the viewpoint height h, And the traveling direction α are set.

次に、ステップS23に進み、視点位置・視線方向決定部44により、視点位置を下記の数式により算出する。ここでは、視点Eは、参照点Bの情報に基づいて次のように決定することができる。即ち、いま、参照点Bの座標を(x,y,0)とすると、視点E(X0,Y0,Z0)は、下記のように表すことができる。
0=x−h×cosα(t)/tanθ
0=y−h×sinα(t)/tanθ
0=h
In step S23, the viewpoint position / gaze direction determination unit 44 calculates the viewpoint position using the following mathematical formula. Here, the viewpoint E can be determined based on the information of the reference point B as follows. That is, now, assuming that the coordinates of the reference point B are (x, y, 0), the viewpoint E (X 0 , Y 0 , Z 0 ) can be expressed as follows.
X 0 = x−h × cos α (t) / tan θ
Y 0 = y−h × sin α (t) / tan θ
Z 0 = h

次に、ステップS24において、図形データ座標変換部45により、地図データに対して、上記算出された視点に基づいて透視投影変換を行う。ここでは、XY平面上の点M(Mx,My,Mz)の視平面G(Sx,Sy)への座標変換の関係式は下記の式により表される。なお、平地図の場合、Mz=0となる。 Next, in step S24, the graphic data coordinate conversion unit 45 performs perspective projection conversion on the map data based on the calculated viewpoint. Here, a point M on the XY plane equation of coordinate transformation (M x, M y, M z) of the viewing plane G (S x, S y) to is represented by the following equation. In the case of a flat map, M z = 0.

Figure 0004000570
Figure 0004000570

次に、ステップS25において、画像データ出力部46が、座標変換後の各データ(Sxi,Syi)を画像表示部48に供給し、画像表示部48は、画像データ出力部46より供給されたデータに対応する画像を表示し、処理を終了する。これにより、XY平面を基準として表現される地図データは、視平面Gに透視投影され、鳥瞰図表示されることになる。 Next, in step S <b> 25, the image data output unit 46 supplies each data (S xi , S yi ) after coordinate conversion to the image display unit 48, and the image display unit 48 is supplied from the image data output unit 46. The image corresponding to the received data is displayed, and the process ends. Thereby, the map data expressed on the basis of the XY plane is perspective-projected on the viewing plane G and displayed as a bird's eye view.

なお、上記実施例において、視点を仮想的に前進または後退させるためのボタンを別に設けるようにすることも可能である。これにより、地図を任意の高度から観察するようにすることができる。   In the above embodiment, a button for virtually moving the viewpoint forward or backward may be provided separately. Thereby, the map can be observed from an arbitrary altitude.

また、上記実施例においては、情報を記憶する記憶装置としてPCMCIA型HDDカードを用いるようにしたが、半導体メモリ等のその他の記憶装置を用いるようにすることも可能である。   In the above embodiment, the PCMCIA type HDD card is used as a storage device for storing information. However, other storage devices such as a semiconductor memory may be used.

また、X軸回りのみ、若しくはX軸とY軸回りの回転角度を検出する角度センサを用いて、カーソルやメニューの移動を行うようにすることも可能である。   It is also possible to move the cursor and menu using an angle sensor that detects the rotation angle only around the X axis or around the X axis and the Y axis.

本発明の入力装置を応用した携帯型情報処理装置の外観図である。1 is an external view of a portable information processing apparatus to which an input device of the present invention is applied. 図1の携帯型情報処理装置の内部の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating an internal configuration example of the portable information processing apparatus of FIG. 1. 円環状メニューを表示し、メニュー項目を選択する手順を示す図である。It is a figure which shows the procedure which displays a circular menu and selects a menu item. 図3の円環状メニューのメニュー項目を選択する手順を説明するフローチャートである。It is a flowchart explaining the procedure which selects the menu item of the annular menu of FIG. カーソルを固定し、円環状メニューが移動するようにしたメニュー画面例を示す図である。It is a figure which shows the example of a menu screen which fixed the cursor and made the annular | circular shaped menu move. 電子手帳において表示されるメニュー画面例を示す図である。It is a figure which shows the example of a menu screen displayed in an electronic notebook. 円筒状メニューを表示し、メニュー項目を選択する様子を示す図である。It is a figure which shows a mode that a cylindrical menu is displayed and a menu item is selected. 仮想的な地図上を移動し、画面に地図上の任意の部分を表示させる様子を示す図である。It is a figure which shows a mode that it moves on a virtual map and displays the arbitrary parts on a map on a screen. 仮想的な地図を斜め上空から観察する様子を示す図である。It is a figure which shows a mode that a virtual map is observed from diagonally upward. 図9において、PDA50のLCD3に表示される画面例を示す図である。In FIG. 9, it is a figure which shows the example of a screen displayed on LCD3 of PDA50. 仮想的な地図上において、視点を現在位置から移動先に移動させた場合に、視点が移動した軌跡を、地図の横方向から観察した図である。It is the figure which observed the locus | trajectory to which the viewpoint moved from the horizontal direction of a map, when a viewpoint is moved to a movement destination from a present position on a virtual map. 図11の視点P1において地図を観察した場合の画面表示例である。It is an example of a screen display at the time of observing a map in the viewpoint P1 of FIG. 図11の視点P2において地図を観察した場合の画面表示例である。It is an example of a screen display at the time of observing a map in the viewpoint P2 of FIG. 鳥瞰図表示処理を行うシステムの一般的な構成例を示すブロック図である。It is a block diagram which shows the general structural example of the system which performs a bird's-eye view display process. 透視投影変換の概念を説明する図である。It is a figure explaining the concept of perspective projection conversion. 図14に示したシステムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the system shown in FIG.

符号の説明Explanation of symbols

1 3軸ジャイロセンサ, 2 操作ボタン, 3 LCD, 4a,5a,6a 駆動用圧電磁器, 4b,5b,6b 検出用圧電磁器, 7,8,9 アンプ, 10,11,12 A/D変換器, 13 入力インタフェース, 14 CPU, 15 ROM, 16 RAM, 17 感圧型透明タブレットコントローラ, 18 カラーLCDコントローラ, 19 バックライトコントローラ, 20,21 PCカードインタフェース, 22 PCMCIA型GPSカード, 23 GPSアンテナ, 24 PCMCIA型HDDカード, 25 オシレータ, 26 バス, 27,28 コネクタ, 29 タブレット, 30 バックライト, 41 現在位置入力部, 42 視点変換用キー入力部, 43 鳥瞰図表示計算部, 44 視点位置・視線方向決定部, 45 図形データ座標変換部, 46 画像データ出力部, 47 地図データ格納部, 48 画像表示部, 50 PDA, M 指標   1 3 axis gyro sensor, 2 operation buttons, 3 LCD, 4a, 5a, 6a driving piezoelectric ceramic, 4b, 5b, 6b detecting piezoelectric ceramic, 7, 8, 9 amplifier, 10, 11, 12 A / D converter , 13 input interface, 14 CPU, 15 ROM, 16 RAM, 17 pressure-sensitive transparent tablet controller, 18 color LCD controller, 19 backlight controller, 20, 21 PC card interface, 22 PCMCIA GPS card, 23 GPS antenna, 24 PCMCIA Type HDD card, 25 oscillator, 26 bus, 27, 28 connector, 29 tablet, 30 backlight, 41 current position input section, 42 viewpoint conversion key input section, 43 bird's eye view display calculation section, 44 viewpoint position / line-of-sight direction determination section , 45 Graphic data coordinate conversion unit, 46 image data output unit, 47 map data storage unit, 48 image display unit, 50 PDA, M index

Claims (8)

携帯し得る大きさの筐体から成る情報処理装置において、
情報を表示する表示手段と、
ユーザからの操作を入力する入力手段と、
図形データから構成される地図情報を格納する地図情報格納手段と、
前記筐体全体の回転に伴う前記筐体の姿勢の変位を検出し、検出結果に対応する変位情報を生成する回転角度検出手段と、
現在位置を検出し、検出結果に対応する現在位置情報を生成する位置検出手段と、
前記変位情報および前記現在位置情報に基づいて、視点位置および視線方向を決定する視点位置視線方向決定手段と、
前記視点位置および前記視線方向に基づき、前記地図情報を構成する前記図形データの座標を変換する図形データ座標変換手段と、
座標変換された前記図形データから構成される前記地図情報に基づいて地図画像を生成する地図画像生成手段とを含み、
ユーザから前記所定の操作が継続的に入力されている場合、
前記視点位置視線方向決定手段は、前記操作開始後の変位情報および前記現在位置情報に基づいて、前記視点位置および前記視線方向を決定し、
前記図形データ座標変換手段は、決定された前記視点位置および前記視線方向に基づき、前記地図情報を構成する前記図形データの座標を変換し、
前記地図画像生成手段は、座標変換された前記図形データから構成される前記地図情報に基づいて、前記視線方向の地域を示す第1の地図画像を生成し、
前記表示手段は、生成された前記第1の地図画像を表示し、
ユーザからの前記所定の操作の継続的な入力が終了された場合、
前記表示手段は、前記操作終了時点の前記視線方向の地域を示す第2の地図画像を表示する
ことを特徴とする情報処理装置。
In an information processing apparatus consisting of a portable casing,
Display means for displaying information;
An input means for inputting an operation from the user;
Map information storage means for storing map information composed of graphic data;
A rotation angle detecting means for detecting displacement of the posture of the housing accompanying rotation of the entire housing and generating displacement information corresponding to the detection result;
Position detecting means for detecting the current position and generating current position information corresponding to the detection result;
Viewpoint position gaze direction determining means for determining a viewpoint position and a gaze direction based on the displacement information and the current position information;
Graphic data coordinate conversion means for converting the coordinates of the graphic data constituting the map information based on the viewpoint position and the line-of-sight direction;
Look including a map image generating means for generating a map image based on said map information consists of the graphic data coordinate transformation,
When the predetermined operation is continuously input from the user,
The viewpoint position line-of-sight direction determining means determines the viewpoint position and the line-of-sight direction based on the displacement information after the start of the operation and the current position information,
The graphic data coordinate conversion means converts the coordinates of the graphic data constituting the map information based on the determined viewpoint position and the line-of-sight direction,
The map image generation means generates a first map image indicating an area in the line-of-sight direction based on the map information configured from the graphic data that has undergone coordinate conversion,
The display means displays the generated first map image,
When continuous input of the predetermined operation from the user is terminated,
The information processing apparatus , wherein the display means displays a second map image indicating a region in the line-of-sight direction at the time when the operation ends .
前記位置検出手段は、GPS(Global Positioning System)を利用して現在位置を検出する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the position detection unit detects a current position using a GPS (Global Positioning System).
前記地図画像は、前記視点位置および前記視線方向に基づいた鳥瞰図である
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the map image is a bird's eye view based on the viewpoint position and the line-of-sight direction.
前記地図情報格納手段は、ハードディスクカードである
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the map information storage unit is a hard disk card.
前記回転角度検出手段は、互いに直交する3軸方向の回転角度を各々検出する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the rotation angle detection unit detects rotation angles in three axial directions orthogonal to each other.
前記筐体は、片手で保持可能な大きさである
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the housing has a size that can be held with one hand.
ユーザから前記所定の操作が継続的に入力されている場合、  When the predetermined operation is continuously input from the user,
前記視点位置視線方向決定手段は、前記操作開始後の変位情報および前記現在位置情報に基づいて、前記視点位置を、ユーザから所定の操作が入力されていない場合の視点位置よりも高い位置に決定するとともに前記視線方向を決定し、    The viewpoint position line-of-sight direction determining means determines the viewpoint position to be higher than the viewpoint position when a predetermined operation is not input from the user based on the displacement information after the operation is started and the current position information. And determine the direction of the line of sight,
前記図形データ座標変換手段は、決定された前記視点位置および前記視線方向に基づき、前記地図情報を構成する前記図形データの座標を変換し、    The graphic data coordinate conversion means converts the coordinates of the graphic data constituting the map information based on the determined viewpoint position and the line-of-sight direction,
前記地図画像生成手段は、座標変換された前記図形データから構成される前記地図情報に基づいて、前記現在位置の前記地図画像の少なくとも一部と予め設定されている移動先を含み、かつ、前記視線方向の地域を示す第1の鳥瞰地図画像を生成し、    The map image generation means includes at least a part of the map image at the current position and a preset destination based on the map information composed of the graphic data that has undergone coordinate conversion, and Generating a first bird's-eye view map image showing a region in the line-of-sight direction;
前記表示手段は、生成された前記第1の鳥瞰地図画像を表示し、    The display means displays the generated first bird's-eye view map image,
ユーザからの前記所定の操作の継続的な入力が終了された場合、  When continuous input of the predetermined operation from the user is terminated,
前記視点位置視線方向決定手段は、予め設定されている前記移動先に基づいて、前記視点位置を前記移動先の真上まで、前記視線方向を真下方向まで徐々に変化させ、    The viewpoint position line-of-sight direction determining means gradually changes the viewpoint position to a position directly above the movement destination and the line-of-sight direction to a direction directly below based on the preset destination.
前記図形データ座標変換手段は、徐々に変化された前記視点位置および前記視線方向に基づき、前記地図情報を構成する前記図形データの座標を順次変換し、    The graphic data coordinate converting means sequentially converts the coordinates of the graphic data constituting the map information based on the gradually changed viewpoint position and the line-of-sight direction,
前記地図画像生成手段は、順次座標変換された前記図形データから構成される前記地図情報に基づいて前記移動先を示す第2の鳥瞰地図画像を順次生成し、    The map image generation means sequentially generates a second bird's-eye view map image indicating the destination based on the map information composed of the graphic data that has been subjected to coordinate conversion in sequence,
前記表示手段は、順次生成された前記第2の鳥瞰地図画像を表示する    The display means displays the second bird's-eye view map image generated sequentially.
ことを特徴とする請求項1に記載の情報処理装置。  The information processing apparatus according to claim 1.
携帯し得る大きさの筐体から成り、
情報を表示する表示手段と、
ユーザからの操作を入力する入力手段と、
図形データから構成される地図情報を格納する地図情報格納手段と、
前記筐体全体の回転に伴う前記筐体の姿勢の変位を検出し、検出結果に対応する変位情報を生成する回転角度検出手段と、
現在位置を検出し、検出結果に対応する現在位置情報を生成する位置検出手段と、
前記変位情報および前記現在位置情報に基づいて、視点位置および視線方向を決定する視点位置視線方向決定手段と、
前記視点位置および前記視線方向に基づき、前記地図情報を構成する前記図形データの座標を変換する図形データ座標変換手段と、
座標変換された前記図形データから構成される前記地図情報に基づいて地図画像を生成する地図画像生成手段とを含む情報処理装置の情報処理方法において、
ユーザから前記所定の操作が継続的に入力されている場合、
前記操作開始後の変位情報および前記現在位置情報に基づいて、前記視点位置および前記視線方向を決定し、
決定された前記視点位置および前記視線方向に基づき、前記地図情報を構成する前記図形データの座標を変換し、
座標変換された前記図形データから構成される前記地図情報に基づいて、前記視線方向の地域を示す第1の地図画像を生成し、
生成された前記第1の地図画像を表示し、
ユーザからの前記所定の操作の継続的な入力が終了された場合、
前記操作終了時点の前記視線方向の地域を示す第2の地図画像を表示する
ステップを含むことを特徴とする情報処理方法。
Ri consists size of the housing that can carry,
Display means for displaying information;
An input means for inputting an operation from the user;
Map information storage means for storing map information composed of graphic data;
A rotation angle detecting means for detecting displacement of the posture of the housing accompanying rotation of the entire housing and generating displacement information corresponding to the detection result;
Position detecting means for detecting the current position and generating current position information corresponding to the detection result;
Viewpoint position gaze direction determining means for determining a viewpoint position and a gaze direction based on the displacement information and the current position information;
Graphic data coordinate conversion means for converting the coordinates of the graphic data constituting the map information based on the viewpoint position and the line-of-sight direction;
In an information processing method for an information processing apparatus, comprising :
When the predetermined operation is continuously input from the user,
Based on the displacement information after the operation start and the current position information, determine the viewpoint position and the line-of-sight direction,
Based on the determined viewpoint position and the line-of-sight direction, the coordinates of the graphic data constituting the map information are converted,
Based on the map information composed of the graphic data that has been coordinate-transformed, generate a first map image indicating a region in the line-of-sight direction,
Displaying the generated first map image;
When continuous input of the predetermined operation from the user is terminated,
Display a second map image indicating the region in the line-of-sight direction at the end of the operation
An information processing method comprising steps .
JP2004119371A 2004-04-14 2004-04-14 Information processing apparatus and method Expired - Lifetime JP4000570B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004119371A JP4000570B2 (en) 2004-04-14 2004-04-14 Information processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004119371A JP4000570B2 (en) 2004-04-14 2004-04-14 Information processing apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP20561096A Division JPH1049290A (en) 1996-08-05 1996-08-05 Information processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2004246920A JP2004246920A (en) 2004-09-02
JP4000570B2 true JP4000570B2 (en) 2007-10-31

Family

ID=33028597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004119371A Expired - Lifetime JP4000570B2 (en) 2004-04-14 2004-04-14 Information processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4000570B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8400474B2 (en) 2008-12-27 2013-03-19 Funai Electric Co., Ltd. Imaging apparatus and method of controlling imaging apparatus

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100718126B1 (en) 2005-02-05 2007-05-15 삼성전자주식회사 User interface method and apparatus for gesture-recognition based input device
KR100667853B1 (en) 2006-01-25 2007-01-11 삼성전자주식회사 Screen recording apparatus and method of a portable device and a recording medium having recorded thereon a program for performing the method
JP2010079529A (en) * 2008-09-25 2010-04-08 Ricoh Co Ltd Information processor, information processing method, program therefor and recording medium
JP2010092086A (en) * 2008-10-03 2010-04-22 Just Syst Corp User input apparatus, digital camera, input control method, and input control program
US9411413B2 (en) 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
US8913056B2 (en) * 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
JP6719087B2 (en) 2017-12-08 2020-07-08 パナソニックIpマネジメント株式会社 Input device and input method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784716A (en) * 1993-09-20 1995-03-31 Tokin Corp Data inputting device
JPH07209006A (en) * 1994-01-18 1995-08-11 Matsushita Electric Ind Co Ltd Portable navigation device
JP3360425B2 (en) * 1994-07-27 2002-12-24 日産自動車株式会社 Vehicle navigation system
JP3708141B2 (en) * 1994-04-18 2005-10-19 松下電器産業株式会社 Electronic map device
JPH08101758A (en) * 1994-09-30 1996-04-16 Toshiba Corp Data manipulation device in virtual space
JPH08123320A (en) * 1994-10-25 1996-05-17 Sony Corp Portable information display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8400474B2 (en) 2008-12-27 2013-03-19 Funai Electric Co., Ltd. Imaging apparatus and method of controlling imaging apparatus

Also Published As

Publication number Publication date
JP2004246920A (en) 2004-09-02

Similar Documents

Publication Publication Date Title
KR100498518B1 (en) Information processing apparatus and method
JP5430782B2 (en) Display input device and in-vehicle information device
KR101430761B1 (en) Direction-sensitive signal output
US7406661B2 (en) Graphical user interface and method and electronic device for navigating in the graphical user interface
US8890819B2 (en) Display input device and vehicle-mounted information equipment
KR20100075770A (en) Input apparatus, control apparatus, control system, electronic apparatus, and control method
US20100265269A1 (en) Portable terminal and a display control method for portable terminal
CN101578569A (en) Control device, input device, control system, hand-held type information processng device, control method and its program
JP2002328028A (en) Navigation device, information display device, object generation method, storage medium
JP4000570B2 (en) Information processing apparatus and method
JP2002082773A (en) Input device and method
JP6463963B2 (en) Information processing apparatus and information processing apparatus control method
JP3551176B2 (en) Electronic equipment
JP2005215031A (en) Display device, display control method, recording medium, and program
US20040080488A1 (en) Method of and apparatus for inputting character using pointing device
JP2003256129A (en) Portable terminal unit and its control method
JP2010054196A (en) Map display method and navigation device using the same
JP2008045914A (en) Navigation device
JP2006133454A (en) Image display device
KR102289368B1 (en) Terminal and object control method thereof
JP2008269461A (en) Portable information terminal
JP2000352522A (en) Navigator ready for portable information terminal device
KR100665376B1 (en) Horoscope search device for mobile devices
JPH11311539A (en) Navigation system
JP2001005564A (en) Computer system having portable display device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070802

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110824

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120824

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130824

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term