JP2000075991A - Information input device - Google Patents
Information input deviceInfo
- Publication number
- JP2000075991A JP2000075991A JP24407398A JP24407398A JP2000075991A JP 2000075991 A JP2000075991 A JP 2000075991A JP 24407398 A JP24407398 A JP 24407398A JP 24407398 A JP24407398 A JP 24407398A JP 2000075991 A JP2000075991 A JP 2000075991A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- menu
- input
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
Abstract
(57)【要約】
【課題】 車載用機器を見たり触れたりすることなく、
運転姿勢を維持しつつ、非接触で情報の入力操作を行う
ことができ、入力情報の確認も容易な情報入力の手法を
提供する。
【解決手段】 ドライバは、仮想空間50の範囲に入る
ように手52を挙げ、閉じた状態から手を開いた状態と
する。この手の動きはカメラで撮像され、その画像と位
置が所定のものに該当するときは、入力可能なスタンバ
イ状態となる。続いてドライバ54は、仮想空間50内
のメニュー空間MA〜MDのうちのいずれか選択したい
ものを手52で掴む。この動作は同様にカメラで撮像さ
れ、手52の動きや位置が認識され、手52がいずれの
メニュー空間を掴んだかが判定される。判定結果はナビ
ゲーション装置に供給される。また、判定結果は、音声
でドライバ54にコールバックされる。
(57) [Abstract] [Problem] Without seeing or touching onboard equipment,
Provided is a method of inputting information in which an information input operation can be performed in a non-contact manner while maintaining a driving posture and input information can be easily confirmed. A driver raises a hand so as to enter a range of a virtual space, and changes a hand from a closed state to an open state. This hand movement is imaged by the camera, and when the image and the position correspond to predetermined ones, a standby state where input is possible is established. Subsequently, the driver 54 grasps one of the menu spaces MA to MD in the virtual space 50 to be selected with the hand 52. This operation is similarly imaged by the camera, the movement and position of the hand 52 are recognized, and it is determined which menu space the hand 52 has grasped. The determination result is supplied to the navigation device. The judgment result is called back to the driver 54 by voice.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、各種機器に対して
コマンドなどの情報入力を行う情報入力装置にかかり、
例えばカーナビゲーションシステムなどの車載用機器に
好適な情報入力装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information input device for inputting information such as commands to various devices.
For example, the present invention relates to an information input device suitable for a vehicle-mounted device such as a car navigation system.
【0002】[0002]
【背景技術】カーナビゲーションシステムでは、道路案
内などのナビゲーション,テレビやビデオソフトなどの
映像表示,ラジオやCD再生などの音声再生,ゲームソ
フトの再生実行,エアコンなどの機器の制御など、各種
のサービスが可能となっている。これらのサービスメニ
ューは、通常階層化されており、ユーザは、階層化メニ
ューの中から必要なものを選択する。2. Description of the Related Art In car navigation systems, various services such as navigation for road guidance and the like, video display of television and video software, audio playback of radio and CD playback, execution of game software playback, control of equipment such as air conditioners, etc. Is possible. These service menus are usually hierarchized, and the user selects a necessary one from the hierarchized menu.
【0003】図10には、そのような階層化メニューの
一例が示されている。この例では、同図(A)に示すよ
うに、「探す」,「見る」,「覚える」,「変える」の
4つのメインメニューMN1〜MN4がナビゲータ装置
のディスプレイであるタッチパネルに表示されている。
これらのうち、例えば「探す」のメニューは、同図
(B)のようにメニュー1,2,3,4,……に階層化
されている。更に、メニュー1は、メニュー11,1
2,13,14,……に階層化されており、メニュー1
1は、メニュー111,112,113,114,……
に階層化されているという具合である。他のメニューに
ついても同様である。FIG. 10 shows an example of such a hierarchical menu. In this example, as shown in FIG. 7A, four main menus MN1 to MN4 of "search", "see", "remember", and "change" are displayed on a touch panel which is a display of the navigator device. .
Among them, for example, the menu of “search” is hierarchized into menus 1, 2, 3, 4,... As shown in FIG. Further, the menu 1 is the menu 11, 1
It is hierarchized into 2, 13, 14, ..., and menu 1
1 is a menu 111, 112, 113, 114,...
It is hierarchically arranged. The same applies to other menus.
【0004】ところで、このようなメニューの選択は、
タッチパネルを有するディスプレイにメニュー選択用の
アイコンが表示されているときはそのアイコンをタッチ
する,メニュー選択用のスイッチボタンがあるときはそ
れを操作する,リモコン(リモートコントロール)装置
があるときはそれを操作するというような方法で行われ
ている。[0004] By the way, such menu selection is performed by:
If a menu selection icon is displayed on the display with the touch panel, touch the icon. If there is a menu selection switch button, operate it. If there is a remote control (remote control) device, touch it. It is done in such a way as to operate.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、タッチ
パネル画面に表示されるメニュー選択用のアイコンは、
表示内容に応じて相対的に表示位置が変動するため、そ
の表示位置が把握しづらい。このため、タッチパネル画
面上におけるアイコン操作を必ずしも簡単に行うことが
できない。また、タッチパネルやスイッチボタンを操作
するためには、それらの位置まで手を伸ばす必要があ
り、一時的にせよ、ドライバは運転姿勢を崩さなければ
ならない。リモコン装置の場合には、リモコン自体を探
して操作しなければならない。更に、いずれの場合に
も、必要なメニューが選択されかどうかは、画面を見て
確認する必要がある。However, the icons for menu selection displayed on the touch panel screen are:
Since the display position relatively fluctuates according to the display content, it is difficult to grasp the display position. For this reason, it is not always easy to perform an icon operation on the touch panel screen. In addition, in order to operate the touch panel and the switch buttons, it is necessary to reach to those positions, and the driver must break the driving posture even temporarily. In the case of a remote control device, the user must search for and operate the remote control itself. Further, in any case, it is necessary to confirm whether a necessary menu is selected by looking at the screen.
【0006】しかし、車をより快適に運転するという観
点からすれば、ドライバが視線を表示画面側にずらした
り、腕を伸ばすために姿勢を変えるなどの動作を行うこ
となく、必要なメニューを選択することができると好都
合である。However, from the viewpoint of driving a car more comfortably, a driver can select a necessary menu without moving his / her gaze toward the display screen or changing his / her posture to extend his / her arm. It is convenient to be able to.
【0007】本発明は、以上の点に着目したもので、そ
の目的は、車載用機器を見たり触れたりすることなく、
非接触で情報の入力操作を行うことができる情報入力装
置を提供することである。他の目的は、運転姿勢を維持
しつつ、情報の入力操作を行うことができる情報入力装
置を提供することである。更に他の目的は、入力した情
報の確認を簡便に行うことができる操作性のよい情報入
力装置を提供することである。[0007] The present invention focuses on the above points, and its object is to provide a vehicle-mounted device without looking or touching it.
An object of the present invention is to provide an information input device capable of performing an information input operation without contact. Another object is to provide an information input device capable of performing an information input operation while maintaining a driving posture. Still another object is to provide an information input device with good operability that can easily confirm input information.
【0008】[0008]
【課題を解決するための手段】前記目的を達成するため
に、本発明は、人体の一部を撮像する撮像手段;これに
よって撮像された画像から、対象物の形状,動き,もし
くは位置の少なくとも一つを把握して、情報入力のスタ
ンバイ状態を判定するスタンバイ判定手段;これによっ
てスタンバイ状態であると判定された後に、前記撮像手
段によって撮像された画像から、対象物の形状,動き,
もしくは位置の少なくとも一つを把握して、入力情報を
判定する入力判定手段;前記スタンバイ判定手段及び入
力判定手段による判定結果をコールバックするコールバ
ック手段;を備えたことを特徴とする。In order to achieve the above object, the present invention provides an image pickup means for picking up an image of a part of a human body; at least the shape, movement, or position of an object from an image picked up by the image pickup means. Standby determining means for grasping one and determining a standby state of information input; after determining that the apparatus is in the standby state, the image captured by the image capturing means is used to determine the shape, movement,
Alternatively, there is provided an input determining means for determining at least one of the positions to determine the input information; and a callback means for calling back a determination result by the standby determining means and the input determining means.
【0009】主要な形態の一つは、前記撮像の対象物は
人体の手であり、前記撮像手段は予め設定された仮想空
間内で対象物を撮像することを特徴とする。他の形態
は、前記対称物の位置が、前記仮想空間内における2次
元もしくは3次元の座標位置であることを特徴とする。
また、前記撮像手段は、自動車の天井が背景となるよう
に撮像を行うことを特徴とする。更に他の形態は、前記
コールバック手段による前記入力判定手段の判定結果に
よるコールバック後に、前記入力判定手段によって入力
確認の判定を行うことを特徴とする。One of the main modes is characterized in that the object to be imaged is a hand of a human body, and the imaging means images the object in a predetermined virtual space. In another aspect, the position of the symmetric object is a two-dimensional or three-dimensional coordinate position in the virtual space.
Further, the image pickup means performs the image pickup with the ceiling of the automobile as a background. Still another mode is characterized in that after the callback by the callback means based on the determination result of the input determination means, the input determination means determines the input confirmation.
【0010】また、前記目的を達成するために、本発明
は、車載用機器を操作するための車載用機器操作装置に
おいて、撮像装置;該撮像装置により撮像された人体の
一部の画像から、該人体の一部の動きを特定の変化パタ
ーンとして認識する認識手段;特定の変化パターンと車
載用機器の操作情報とを対応づけて記憶する記憶手段;
前記認識手段により認識された特定の変化パターンに対
応する操作情報を前記記憶手段から読み出し、該読み出
された操作情報に基づいて車載用機器を操作する車載用
機器操作手段;を備えたことを特徴とする。According to another aspect of the present invention, there is provided an in-vehicle device operating device for operating an in-vehicle device, comprising: an image pickup device; a part of a human body image picked up by the image pickup device; Recognizing means for recognizing a part of the movement of the human body as a specific change pattern; storage means for storing the specific change pattern in association with the operation information of the vehicle-mounted device;
On-board equipment operating means for reading out from the storage means operation information corresponding to the specific change pattern recognized by the recognition means, and operating on-vehicle equipment based on the read operation information. Features.
【0011】本発明によれば、人体の一部の動き、例え
ば手の動きのみによって車載用機器の操作を行うことが
できる。本発明により操作される車載用機器には、経路
案内等を行ういわゆるカーナビゲーション装置、エアコ
ン,テレビ,ラジオ,カセット,CDなどのオーディオ
類,ワイパー,ヘッドライト,その他の各種の車載の機
器が含まれる。According to the present invention, the operation of the on-vehicle equipment can be performed only by the movement of a part of the human body, such as the movement of the hand. The on-vehicle devices operated by the present invention include so-called car navigation devices for performing route guidance and the like, air conditioners, televisions, radios, audio devices such as cassettes and CDs, wipers, headlights, and various other on-vehicle devices. It is.
【0012】また、それら車載用機器の操作には、それ
らの車載用機器に対して利用者が行う全ての操作が含ま
れる。例えば、各種車載用機器の電源のオンオフ操作,
カーナビゲーション装置の目的地設定・案内開始などの
操作,エアコンの温度調節・風量調節・冷暖切替などの
操作,テレビ・ラジオの音量調節・チャンネル切替など
の操作,カセット・CDの音量調節・再生停止切替など
の操作,ワイパー・ヘッドライトのオンオフ切替操作,
その他各種の操作が含まれる。[0012] The operations of the on-vehicle devices include all operations performed by the user on the on-vehicle devices. For example, power on / off operation of various in-vehicle devices,
Operations such as destination setting and guidance start of car navigation system, operations such as air conditioner temperature control, air volume control, cooling / heating switching, TV / radio volume control / channel switching, cassette / CD volume control / playback stop Switching operation, on / off switching operation of wiper / headlight,
Other various operations are included.
【0013】また、人体の一部の動きには、例えば、手
を上下左右や前後などに移動するような二次元的もしく
は三次元的な動きのみならず、開いた手を握る場合のよ
うに形状が変化する動きも含む。二次元的な動きとは、
所定のX−Y軸を含む平面内における移動をいい、三次
元的な動きとは、二次元的な動きに所定のX−Y軸を含
む平面に直交するZ軸方向の移動を加えたものをいう。The movement of a part of the human body is not limited to two-dimensional or three-dimensional movement, such as moving the hand up, down, left, right, back and forth, as well as when holding an open hand. It also includes movements that change shape. What is two-dimensional movement?
The movement in a plane including the predetermined XY axis is referred to as the three-dimensional movement. The three-dimensional movement is obtained by adding the movement in the Z-axis direction orthogonal to the plane including the predetermined XY axis to the two-dimensional movement. Say.
【0014】なお、カーナビゲーション装置の地図表示
の拡大・縮小の切替操作を手の三次元的な動きで行え
ば、より感覚的に地図の切替操作を行うことができる。
例えば、Z軸方向に手を動かすことで地図表示の拡大・
縮小操作を行い、X−Y平面内で手を動かすことで他の
操作を行う。この場合、Z軸を人体の正面方向に延びる
ように設定すると、より感覚的に地図の切替操作を行う
ことができる。[0014] If the operation of switching the enlargement / reduction of the map display of the car navigation apparatus is performed by three-dimensional movement of the hand, the operation of switching the map can be performed more intuitively.
For example, moving the hand in the Z-axis direction
A reduction operation is performed, and another operation is performed by moving a hand in the XY plane. In this case, if the Z axis is set to extend in the front direction of the human body, the map can be switched more intuitively.
【0015】更に、前記目的を達成するために、本発明
は、スピーカ;前記認識手段による認識結果を示す音声
を前記スピーカから出力するコールバック手段;を備え
たことを特徴とする。本発明によれば、利用者は、手の
動きがどのように認識されたかを音声で確認することが
できるため、その確認のために視線を動かす必要がな
く、より快適に運転を行うことができる。例えば、手が
左右に振られたことが認識された場合には、コールバッ
ク手段により「左右の振りが認識されました」のように
音声が出力される。Further, in order to achieve the above object, the present invention is characterized in that it comprises a speaker; and a callback means for outputting a voice indicating the recognition result by the recognition means from the speaker. According to the present invention, since the user can confirm how the hand movement is recognized by voice, the user does not need to move his / her eyes for confirmation, and can drive more comfortably. it can. For example, when it is recognized that the hand has been swung right and left, a sound is output by the callback means as "recognition of right and left has been recognized".
【0016】更に、前記目的を達成するために、本発明
は、スピーカ;前記車載用機器操作手段による操作前
に、該操作内容を示す音声を前記スピーカから出力する
コールバック手段;を備えたことを特徴とする。本発明
によれば、利用者は、車載用機器が操作される前に車載
用機器がどのように操作されるかを音声で確認すること
ができる。このため、その確認のために視線を動かす必
要がなく、より快適に運転を行うことができる。例え
ば、「ナビゲーション装置の電源を切ります」のように
音声が出力される。In order to achieve the above object, the present invention further comprises a speaker; callback means for outputting a sound indicating the operation content from the speaker before operation by the onboard equipment operation means. It is characterized by. ADVANTAGE OF THE INVENTION According to this invention, a user can confirm by audio | voice how the onboard equipment is operated before operating onboard equipment. For this reason, it is not necessary to move the line of sight for the confirmation, and driving can be performed more comfortably. For example, a sound is output as “turn off the navigation device”.
【0017】更に、前記目的を達成するために、本発明
は、画像表示装置;前記認識手段が認識可能な人体の一
部の動きを示す画像を前記画像表示装置に表示する表示
手段;を備えたことを特徴とする。本発明によれば、車
載用機器の特定の操作を行うためにはどのように手を動
かせばよいかが明瞭になる。表示手段が表示する画像と
しては、例えば、車載用機器がエアコンである場合、手
を左方向に移動すれば温度が下がり、右方向に移動すれ
ば逆に温度が上がることを示す画像などである。この画
像は、テキストのみの表示であってもよいし、テキスト
と併せて右向きの矢印・左向きの矢印の画像を表示して
もよい。Further, in order to achieve the above object, the present invention provides an image display device; display means for displaying on the image display an image showing a partial movement of a human body recognizable by the recognizing means. It is characterized by having. According to the present invention, it is clear how to move a hand to perform a specific operation of the vehicle-mounted device. The image displayed by the display means is, for example, an image indicating that when the vehicle-mounted device is an air conditioner, moving the hand to the left decreases the temperature, and moving the hand to the right increases the temperature. . This image may be a text-only display, or a right-arrow or left-arrow image together with the text.
【0018】本発明の前記及び他の目的,特徴,利点
は、以下の詳細な説明及び添付図面から明瞭になろう。The above and other objects, features, and advantages of the present invention will be apparent from the following detailed description and the accompanying drawings.
【0019】[0019]
【発明の実施の形態】以下、本発明の実施の形態につい
て詳細に説明する。図1には、一形態の構成が示されて
いる。まず、情報入力装置10側から説明すると、撮像
手段であるカメラ11の出力側は、画像処理部12に接
続されている。画像処理部12の出力側は、画像認識部
14及び位置測定部16にそれぞれ接続されており、こ
れら画像認識部14及び位置測定部16の出力側は、ス
タンバイ判定部18及び入力判定部20にそれぞれ接続
されている。スタンバイ判定部18,入力判定部20に
は、それぞれ判定用の情報が格納されたメモリ18M,
20Mが設けられている。Embodiments of the present invention will be described below in detail. FIG. 1 shows a configuration of one embodiment. First, from the information input device 10 side, the output side of the camera 11 which is an imaging unit is connected to the image processing unit 12. The output side of the image processing unit 12 is connected to the image recognition unit 14 and the position measurement unit 16, and the output sides of the image recognition unit 14 and the position measurement unit 16 are connected to the standby determination unit 18 and the input determination unit 20. Each is connected. The standby determination unit 18 and the input determination unit 20 each include a memory 18M storing information for determination,
20M are provided.
【0020】スタンバイ判定部18及び入力判定部20
の出力側は、適宜のインターフェース22,24を介し
て、ナビゲーション装置30側のメインコンピュータ3
2にそれぞれ接続されている。車載用機器としてのナビ
ゲーション装置30には、表示処理を行う表示部34,
音声処理を行う音声部36,ナビゲータ用のナビゲーシ
ョン機器38を備えている。そして、表示部34は、タ
ッチパネルを有する表示手段としてのディスプレイ34
Aを備えており、音声部36は、音声出力手段としての
スピーカ36Aを備えている。メインコンピュータ32
は、それらの装置を駆動制御するための表示制御部32
A,音声制御部32B,ナビゲーション制御部32Cを
機能的に備えている。The standby determining unit 18 and the input determining unit 20
Is output to the main computer 3 of the navigation device 30 via appropriate interfaces 22 and 24.
2 respectively. The navigation device 30 as a vehicle-mounted device has a display unit 34 for performing display processing,
An audio unit 36 for performing audio processing and a navigation device 38 for a navigator are provided. The display unit 34 includes a display 34 as a display unit having a touch panel.
A, and the audio unit 36 includes a speaker 36A as audio output means. Main computer 32
Is a display control unit 32 for driving and controlling those devices.
A, a voice control unit 32B and a navigation control unit 32C are functionally provided.
【0021】以上の各部のうち、カメラ11は、例えば
図2に示すように自動車40のダッシュボード下側位置
に設けられており、自動車40の天井42が視野となる
ように撮像範囲が設定されている。後述するように、本
形態では、ドライバの手の形状や動き(ジェスチャ)が
カメラ11によって撮像される。このとき、手の背景が
天井42となるように設定することで、不要な画像の映
り込みを低減することができる。Of the above components, the camera 11 is provided at a position below the dashboard of the automobile 40, for example, as shown in FIG. 2, and the imaging range is set so that the ceiling 42 of the automobile 40 has a field of view. ing. As described later, in the present embodiment, the shape and movement (gesture) of the driver's hand are captured by the camera 11. At this time, by setting the background of the hand to be the ceiling 42, reflection of unnecessary images can be reduced.
【0022】画像処理部12は、カメラ11によって撮
像された映像から背景を除去して、手の映像部分を取り
出す処理を行うためのものである。画像認識部14は、
ドライバの手の画像を認識するためのものである。例え
ば、テンプレートによるパターン認識によって手の形
状,手が開いているとか、手を握っているといった形状
が認識される。位置測定部16は、例えば、画像の重心
から所定空間内における画像の位置を検出するためのも
のである。The image processing section 12 performs a process of removing a background from an image picked up by the camera 11 and extracting an image portion of a hand. The image recognition unit 14
This is for recognizing the image of the driver's hand. For example, the shape of a hand, such as a hand being open or a hand being held, is recognized by pattern recognition using a template. The position measuring unit 16 is for detecting the position of the image in a predetermined space from the center of gravity of the image, for example.
【0023】手の動きのパターン化は、例えば次のよう
に行う。手の動きを、位置測定部16によってある時間
間隔で検出することにより、連続する座標値で表し、図
示しないメモリに記憶する。この連続する座標値と、図
示しないメモリに記憶された特定の変化パターンとその
変化パターンを示す代表的な座標値(連続する座標値の
うちの代表的ないくつかの座標値)を対応づけたテーブ
ルと、を比較することにより、認識手段としての画像認
識部14が特定の変化パターンを認識する。The patterning of the hand movement is performed, for example, as follows. The movement of the hand is detected by the position measuring unit 16 at a certain time interval, represented by continuous coordinate values, and stored in a memory (not shown). This continuous coordinate value is associated with a specific change pattern stored in a memory (not shown) and a representative coordinate value indicating the change pattern (a representative number of coordinate values among the continuous coordinate values). By comparing the table with the table, the image recognition unit 14 as a recognition unit recognizes a specific change pattern.
【0024】スタンバイ判定部18は、画像認識部14
において認識された手の形状情報と、位置測定部16で
測定された位置情報とに基づいて、予め設定した仮想空
間内で手が所定の形状であるかあるいは所定の変化をし
たかを判定するためのものである。判定に必要な手の形
状情報や位置情報は、予め設定されてメモリ18Mに格
納されている。例えば、手の所定の変化は、予め設定さ
れた変化パターンをテーブル化し、このテーブルとパタ
ーンを照合することで判定される。仮想空間50は、図
3に示すように、カメラ11の撮像範囲内に仮想的に設
定されている。この仮想空間50内に手52があるかど
うかの判定を行って、情報入力装置10は入力可能なス
タンバイ状態となる。The standby judging section 18 is provided with the image recognizing section 14
It is determined whether the hand has a predetermined shape or changes in a predetermined virtual space based on the shape information of the hand recognized in the above and the position information measured by the position measurement unit 16. It is for. Hand shape information and position information necessary for the determination are set in advance and stored in the memory 18M. For example, the predetermined change of the hand is determined by converting a preset change pattern into a table and comparing the table with the pattern. The virtual space 50 is virtually set within the imaging range of the camera 11, as shown in FIG. It is determined whether or not there is a hand 52 in the virtual space 50, and the information input device 10 enters a standby state where input is possible.
【0025】入力判定部20は、画像認識部14におい
て認識された手の画像情報と、位置測定部16で測定さ
れた位置情報とに基づいて、入力情報の判定を行うため
のものである。判定に必要な手の形状や位置の情報は、
予め設定されて記憶手段としてのメモリ20Mに格納さ
れている。具体的には、後述する図5(B)に示すよう
に、上述した仮想空間50のメニュー領域50A内に、
図10(A)の「探す」,「見る」,「覚える」,「変
える」の4つのメニュー空間MA〜MDが仮想的に設定
されている。そして、これらのいずれかのメニュー空間
を手で掴んで作業領域50Bに移動するという手の形状
と位置の変化から、いずれのメニューが入力されたかが
判定される。The input judging section 20 judges input information based on the image information of the hand recognized by the image recognizing section 14 and the position information measured by the position measuring section 16. Information on the hand shape and position required for judgment is
It is set in advance and stored in the memory 20M as storage means. Specifically, as shown in FIG. 5B described later, the menu area 50A of the virtual space 50
Four menu spaces MA to MD of “search”, “see”, “remember”, and “change” in FIG. 10A are virtually set. Then, it is determined which menu has been input from the change in the shape and position of the hand, in which one of these menu spaces is grasped with the hand and moved to the work area 50B.
【0026】なお、前記メモリ20Mに、特定の変化パ
ターンとナビゲーション装置30の操作情報とを対応づ
けて記憶させておけば、入力判定部20は、画像認識部
14によって認識された特定の変化パターンに基づいて
該変化パターンに対応する操作情報をメモリ20Mから
読み出すことができる。読み出された操作情報は、メイ
ンコンピュータ32に送出され、この操作情報に基づい
てナビゲーション装置30が操作される。If the specific change pattern and the operation information of the navigation device 30 are stored in the memory 20M in association with each other, the input determining unit 20 can recognize the specific change pattern recognized by the image recognizing unit 14. , The operation information corresponding to the change pattern can be read from the memory 20M. The read operation information is sent to the main computer 32, and the navigation device 30 is operated based on the operation information.
【0027】次に、ナビゲーション装置30のメインコ
ンピュータ32は、ナビゲーション装置30全体の動作
を制御するためのものである。ナビゲーション装置30
の主要な装置であるタッチパネルを有するディスプレイ
34Aは、地図,テレビ,ビデオソフト,メニューなど
を表示するためのものである。スピーカ36Aは、ボイ
スナビゲーション,ラジオやCDの再生などを行うため
のものである。ナビゲーション機器38は、GPS受信
機や地図情報が格納されたディスクなどのドライブ装置
などを含んでおり、現在位置付近の道路表示や目的地ま
でのルート探索,音声誘導,VICS情報の表示などを
行う。これらの各部は、メインコンピュータ32の各制
御部32A〜32Cによって動作が制御されている。Next, the main computer 32 of the navigation device 30 controls the operation of the navigation device 30 as a whole. Navigation device 30
The display 34A having a touch panel, which is a main device of, is for displaying maps, television, video software, menus, and the like. The speaker 36A is for performing voice navigation, radio and CD playback, and the like. The navigation device 38 includes a GPS receiver and a drive device such as a disk in which map information is stored, and performs a road display near a current position, a route search to a destination, a voice guidance, a display of VICS information, and the like. . The operations of these units are controlled by the control units 32A to 32C of the main computer 32.
【0028】次に、本形態の動作を説明する。図4には
動作の主要手順がフローチャートとして示されており、
図5,図6,図8には主要動作における手の動きが示さ
れている。また、以下に説明する動作は、ドライバが運
転中であり、情報入力装置10及びナビゲーション装置
30が動作中であるとする。Next, the operation of this embodiment will be described. FIG. 4 shows the main procedure of the operation as a flowchart.
FIGS. 5, 6, and 8 show hand movements in main operations. In the operation described below, it is assumed that the driver is driving and the information input device 10 and the navigation device 30 are operating.
【0029】最初、情報入力装置10はリセット状態S
Aにあり、カメラ11は撮像状態にある。ここで、例え
ばナビゲーション装置30で実行中の動作を変更するな
どの情報入力を行いたいときは、ドライバは、図3に示
したように、仮想空間50の範囲に入るように手52を
挙げる。これを正面から見ると、図5(A)に示すよう
にドライバ54が左手52を挙げた状態となる。そし
て、ドライバ54は、手52を予め定めた形状とする
か、もしくは予め定めた形状変化を行う。例えば、手を
閉じた状態から手を開いた状態とするという具合であ
る。First, the information input device 10 is in the reset state S
A, the camera 11 is in an imaging state. Here, when it is desired to input information such as changing the operation being executed by the navigation device 30, the driver raises his hand 52 so as to enter the range of the virtual space 50 as shown in FIG. When viewed from the front, the driver 54 raises his left hand 52 as shown in FIG. Then, the driver 54 makes the hand 52 have a predetermined shape or performs a predetermined shape change. For example, the state is changed from a state in which the hand is closed to a state in which the hand is opened.
【0030】このような手の形状や変化はカメラ11で
撮像され(図3ステップSB)、画像処理部12による
処理の後、画像認識部14でその形状や変化が認識され
る。また、位置測定部16では、仮想空間50内におけ
る手52の位置X,Yが測定される(ステップSB)。
これらの画像認識結果や位置測定結果は、スタンバイ判
定部18に供給される。スタンバイ判定部18では、メ
モリ18Mに格納されているデータを利用して、手52
が仮想空間50内で所定の形状や変化をしたかどうかが
判定される。その結果、所定形状等に該当したときは
(ステップSCのY)、続いて情報入力装置10による
情報入力が行われるものと判断し、その旨をナビゲーシ
ョン装置30のメインコンピュータ32に出力する。メ
インコンピュータ32では、その入力に従って、スタン
バイ状態にあることを音声で知らせる(ステップS
D)。すなわち、音声制御部32Bによってスピーカ3
6Aが駆動され、例えば「スタンバイOKです」あるい
は「入力可能です」というコールバックが行われる。な
お、適当な音でコールバックするようにしてもよい。The shape and change of the hand are captured by the camera 11 (step SB in FIG. 3), and after the processing by the image processing unit 12, the image recognition unit 14 recognizes the shape and change. The position measuring unit 16 measures the positions X and Y of the hand 52 in the virtual space 50 (Step SB).
These image recognition results and position measurement results are supplied to the standby determination unit 18. The standby determination unit 18 uses the data stored in the memory 18M to
Is determined in the virtual space 50 to have a predetermined shape or change. As a result, when the information corresponds to a predetermined shape or the like (Y in step SC), it is determined that the information input by the information input device 10 will be performed subsequently, and the fact is output to the main computer 32 of the navigation device 30. In response to the input, the main computer 32 notifies by voice that the apparatus is in the standby state (step S).
D). That is, the speaker 3 is controlled by the audio control unit 32B.
6A is driven, and a callback, for example, "Standby OK" or "Input is possible" is performed. Note that a callback may be made with an appropriate sound.
【0031】このようなコールバックにより、ドライバ
54は、何らディスプレイ34Aを見ることなく、自分
の手52の動きをナビゲーション装置30側が認識した
ことを知ることができる。なお、このとき、手52の形
状や位置を、ディスプレイ34A上に表示するようにし
てもよい。このようにすると、例えば助手席の同乗者に
ドライバによる入力が行われることを知らせることがで
きるし、信号停止中であればドライバ自身がスタンバイ
の確認を行うために利用できる。また、画像認識部14
が認識可能な手の動きを示す画像をディスプレイ34A
に表示するようにしてもよい。By such a callback, the driver 54 can know that the movement of the hand 52 has been recognized by the navigation device 30 without looking at the display 34A. At this time, the shape and position of the hand 52 may be displayed on the display 34A. In this way, for example, a passenger in the passenger seat can be notified that an input is made by the driver, and the driver can use the driver himself to confirm standby if the signal is stopped. The image recognition unit 14
34A displays an image showing hand movements that can be recognized by the user.
May be displayed.
【0032】このようなスタンバイ状態で、ドライバ5
4は、図5(B)に示すように、仮想空間50内に仮想
的に設定されているメニュー領域50Aのメニュー空間
MA〜MDのうちのいずれか選択したいものを手52で
掴む。なお、図5(B)には、メニューが便宜的に示さ
れているが、実際は単なる空間であり、ドライバ54は
空間を掴むことになる。この動作における手52の形状
や変化は、同様にカメラ11で撮像され、画像処理部1
2による処理の後、画像認識部14で認識される(ステ
ップSE)。認識された手の形状等は、メインコンピュ
ータ32の制御によって今度は入力判定部20側に供給
される。入力判定部20では、メモリ20Mに格納され
ているデータを利用して、手52がいずれのメニュー空
間を掴んだかが判定される。In such a standby state, the driver 5
4, as shown in FIG. 5B, the user 52 grasps a desired one of the menu spaces MA to MD of the menu area 50 </ b> A virtually set in the virtual space 50 with the hand 52. Although the menu is shown in FIG. 5B for convenience, it is actually a space, and the driver 54 grasps the space. The shape and change of the hand 52 in this operation are similarly imaged by the camera 11 and
After the processing in step 2, the image is recognized by the image recognition unit 14 (step SE). The recognized hand shape and the like are supplied to the input determination unit 20 side under the control of the main computer 32. The input determination unit 20 determines which menu space the hand 52 has grabbed, using the data stored in the memory 20M.
【0033】その結果、掴んだメニューが判定されたと
きは(ステップSF)、その旨がナビゲーション装置3
0のメインコンピュータ32に出力される。メインコン
ピュータ32は、その入力に従って、掴んだメニューを
音声で知らせる(ステップSG)。例えば「『探す』が
選択されました」というコールバックが行われる。ドラ
イバ54は、このコールバックで自分が選択したメニュ
ーを確認することができる。As a result, when the grasped menu is determined (step SF), the fact is notified to the navigation device 3.
0 to the main computer 32. The main computer 32 notifies the grasped menu by voice according to the input (step SG). For example, a callback ““ Search ”has been selected” is performed. The driver 54 can confirm the menu selected by this callback.
【0034】そして、選択したメニューがよければ、確
認動作として手52をメニュー領域50Aから作業領域
50Bに移動する。これが入力判定部20で判定される
と(ステップSHのY)、メインコンピュータ32にそ
のメニューのコマンドが入力される(ステップSI)。
このような確認動作によって、ドライバ54は該当する
メニューを選択したという意志を装置側に伝えることが
できる。なお、もしコールバックされたメニューが異な
っているときは、確認動作をすることなく(ステップS
HのN)、いずれかのメニュー空間を再度手52で掴む
動作を繰り返す。以上のようにして、「探す」,「見
る」,「覚える」,「変える」の4つのメニューのうち
の一つが選択される。If the selected menu is good, the hand 52 is moved from the menu area 50A to the work area 50B as a confirmation operation. When this is determined by the input determination unit 20 (Y in step SH), the menu command is input to the main computer 32 (step SI).
By such a confirming operation, the driver 54 can inform the device that the driver has selected the corresponding menu. If the menu called back is different, no confirmation operation is performed (step S
H) of N), the operation of grasping any menu space with the hand 52 again is repeated. As described above, one of the four menus of "search", "see", "remember", and "change" is selected.
【0035】ところで、図10(B)に示したように、
「探す」というメニューは階層構造となっており、更に
下位のメニューが存在する。ドライバ54は、それらの
中から更に必要なものを選択する。このときの動作は、
例えば図6に示すように行われる。まず、図6(A)で
は、図5(B)で「探す」のメニュー空間MAを掴んで
結んだ手52を左右方向に振るもしくは移動すること
で、第1階層メニュー1〜4のいずれかを選択する。手
52の左右方向の位置に応じて、該当する第1階層メニ
ューがコールバックされるので、ドライバ54は、それ
を聞いて必要なメニューを選択する。すなわち、手52
を左右方向に振るもしくは移動すると、該当する位置の
メニューアイコンがアクティブになるというような感じ
である。なお、メニュー選択の確認は、例えば、該当す
るメニューのコールバックを聞いた後に手を一度開いて
閉じるというような動作で行なわれる。By the way, as shown in FIG.
The menu "Search" has a hierarchical structure, and there is a lower menu. The driver 54 selects a further necessary one from among them. The operation at this time is
For example, this is performed as shown in FIG. First, in FIG. 6 (A), by shaking or moving the hand 52 tied to the “search” menu space MA in FIG. 5 (B) in the left-right direction, any one of the first hierarchical menus 1 to 4 is displayed. Select The corresponding first-level menu is called back according to the position of the hand 52 in the left-right direction. The driver 54 hears the callback and selects a necessary menu. That is, the hand 52
When the user shakes or moves right and left, the menu icon at the corresponding position becomes active. The menu selection is confirmed by, for example, an operation of once opening and closing the hand after hearing the callback of the corresponding menu.
【0036】図6(B)は、手を上下方向に移動するこ
とで第2階層メニューのいずれかを選択するようにした
例である。例えば、第1階層メニューとしてメニュー1
が選択されたとする。このメニュー1には、図10
(B)に示したように更にメニュー11〜14が第2階
層として存在する。そこで、ドライバ54は、手52を
上下方向に移動して、必要な第2階層メニューを選択す
る。手52の上下方向の位置に応じて、該当する第2階
層メニューがコールバックされるので、ドライバ54
は、それを聞いて必要なメニューを選択する。すなわ
ち、手52を上下方向に振るもしくは移動すると、該当
する位置のメニューアイコンがアクティブになるという
ような感じである。メニュー選択の確認は、前記第1階
層の場合と同様である。FIG. 6B shows an example in which one of the second hierarchical menus is selected by moving the hand up and down. For example, menu 1 as the first hierarchical menu
Is selected. This menu 1 contains
As shown in (B), menus 11 to 14 also exist as the second hierarchy. Therefore, the driver 54 moves the hand 52 up and down to select a necessary second hierarchical menu. The corresponding second hierarchical menu is called back in accordance with the position of the hand 52 in the vertical direction.
Listen to it and select the required menu. That is, when the hand 52 is shaken or moved in the vertical direction, the menu icon at the corresponding position becomes active. Confirmation of menu selection is the same as in the case of the first hierarchy.
【0037】以上の動作を繰り返し行うことで、ドライ
バ54は希望するメニューを選択することができる。そ
して、最下位のメニューが選択された時点でそのメニュ
ーに該当するコマンドが実行される。図4に示す動作
は、ドライバ54の入力が全て終了するか(ステップS
JのY)、ドライバ54が終了コマンドを入力した場合
に終了する。終了コマンドとしては、例えば、仮想空間
50内で手を開いて振るなどである。その後、ドライバ
54が手52をハンドルなどの位置に戻し、ドライバ5
4の手52が仮想空間50から外に出て仮想空間内に手
がないことが入力判定部20で判定されたときは、情報
入力装置10は再び入力待ちのリセット状態となる(ス
テップSA)。すなわち、スタンバイ前の状態に戻る。By repeatedly performing the above operation, the driver 54 can select a desired menu. Then, when the lowest menu is selected, the command corresponding to that menu is executed. In the operation shown in FIG. 4, whether all the inputs of the driver 54 are completed (step S
J, Y), the process ends when the driver 54 inputs an end command. The end command includes, for example, opening and shaking the hand in the virtual space 50. Thereafter, the driver 54 returns the hand 52 to a position such as a handle, and the driver 5
When the input determination unit 20 determines that the fourth hand 52 goes out of the virtual space 50 and there is no hand in the virtual space, the information input apparatus 10 is again in a state of waiting for input (step SA). . That is, the state returns to the state before the standby.
【0038】本形態によれば、次のような効果がある。 (1)仮想空間内で手を動かすだけでよく、タッチパネ
ルなどを見たり触れたりすることなく、非接触で情報の
入力操作を行うことができる。また、運転姿勢を維持し
つつ、情報の入力操作を行うことができる。 (2)入力された情報がコールバックされるので、入力
情報の確認を簡便に行うことができ、操作性がよい。 (3)入力情報の確認動作を行っているので、誤ったコ
マンドが実行されるなどの不都合が回避できる。 (4)例えば,メニュー空間を掴むことでメニューを選
択する,作業を終了するときは手を開いて振るなど、日
常的な手の動きの感覚と入力動作の感覚が近似するよう
に設定されている。従って、特別な手の動きを行うこと
なく情報入力が可能である。 (5)手の背景が自動車の天井となるようにカメラをセ
ットすることで、不要な画像の映り込みを低減すること
ができる。According to the present embodiment, the following effects can be obtained. (1) It is only necessary to move a hand in a virtual space, and an information input operation can be performed in a non-contact manner without looking or touching a touch panel or the like. In addition, the information input operation can be performed while maintaining the driving posture. (2) Since the input information is called back, the input information can be easily confirmed and the operability is good. (3) Since the operation of confirming the input information is performed, inconvenience such as execution of an incorrect command can be avoided. (4) For example, the user can select a menu by grasping the menu space, open his hand when finishing work, and shake the hand. I have. Therefore, it is possible to input information without performing a special hand movement. (5) By setting the camera so that the background of the hand is on the ceiling of the car, the reflection of unnecessary images can be reduced.
【0039】次に、本発明の他の形態について説明す
る。前記形態では、イメージセンサとして1台のカメラ
を使用しており、仮想空間50内における2次元方向,
すなわち図3に示すX,Y方向の手の位置を測定した。
しかし、以下の形態では、図7に示すように、2台のカ
メラ11A,11Bを使用し、これらによってX,Y,
Zの3次元方向で手の位置を測定する構成となってい
る。2台のカメラによる3次元座標X,Y,Zの測定
は、例えば三角測量の原理で可能である。なお、カメラ
11A,11Bのいずれも、図2に示したように自動車
40の天井42が背景として写るように撮像視野を設定
することで、同様に不要な画像の映り込みを低減するこ
とができる。Next, another embodiment of the present invention will be described. In the above embodiment, one camera is used as an image sensor, and two-dimensional directions in the virtual space 50 are used.
That is, the positions of the hands in the X and Y directions shown in FIG. 3 were measured.
However, in the following embodiment, two cameras 11A and 11B are used as shown in FIG.
The hand position is measured in the three-dimensional direction of Z. The measurement of the three-dimensional coordinates X, Y, Z by two cameras is possible, for example, based on the principle of triangulation. In each of the cameras 11A and 11B, unnecessary image reflection can be similarly reduced by setting the imaging field of view so that the ceiling 42 of the automobile 40 appears as a background as shown in FIG. .
【0040】本形態における動作は、基本的には上述し
た形態と同様である。しかし、位置測定部16におい
て、X,Y,Zの3方向の位置が測定される。このた
め、スタンバイ判定部18や入力判定部20では、Z方
向も考慮した判定が行われる。すなわち、スタンバイ判
定部18では、Z方向に広がった仮想空間60に基づい
てスタンバイの判定が行なわれる。入力判定部20で
は、Z方向における手52の形や変化も考慮した入力判
定が行われる。The operation in this embodiment is basically the same as the above-described embodiment. However, the position measurement unit 16 measures positions in three directions of X, Y, and Z. For this reason, the standby determination unit 18 and the input determination unit 20 perform determination in consideration of the Z direction. That is, the standby determination unit 18 determines the standby based on the virtual space 60 extending in the Z direction. The input determination unit 20 performs input determination in consideration of the shape and change of the hand 52 in the Z direction.
【0041】上述した図10(B)の例によれば、第1
階層メニュー1の下位には更に第2階層メニュー11〜
14があり、第2階層メニュー11の下位には更に第3
階層メニュー111〜114がある。このような階層構
造において、階層の上下間を素早く移動したいとき、例
えば「探す」のメニュー選択後からメニュー111まで
速やかに移動したいときに、本形態は好都合である。According to the example shown in FIG. 10B, the first
Below the hierarchical menu 1, the second hierarchical menus 11 to 11 are further provided.
14, and a third sub-menu is located below the second-level menu 11.
There are hierarchical menus 111 to 114. In such a hierarchical structure, this embodiment is convenient when it is desired to quickly move up and down the hierarchy, for example, when it is desired to quickly move to the menu 111 after selecting the “Search” menu.
【0042】図8には、そのような階層間の移動の例が
示されており、同図(A)のように手52をZ方向に移
動することで、上下の階層間で移動が行われる。例え
ば、手52が最もカメラ11A側にあるときは第1階層
メニュー1〜4が選択可能であり、この状態から手52
を後ろ側に引くと第2階層メニュー11〜14が選択可
能であり、更に手を後ろ側に引くと第3階層メニュー1
11〜114が選択可能という具合である。上位の階層
のメニューの引き出しに下位の階層のメニューが存在す
るような感じである。なお、各階層におけるメニューの
選択は、例えば図6(B)に示したような手52の上下
方向の移動で行えばよい。ドライバが予めメニュー階層
を熟知しているような場合には、このような階層間の移
動を行うことで、速やかなメニューの選択が可能であ
る。FIG. 8 shows an example of such a movement between the layers. By moving the hand 52 in the Z direction as shown in FIG. Will be For example, when the hand 52 is closest to the camera 11A, the first hierarchical menus 1 to 4 can be selected.
By pulling backward, the second level menus 11 to 14 can be selected, and by further pulling the hand backward, the third level menu 1 can be selected.
11 to 114 can be selected. It is as if there is a menu of a lower hierarchy in the drawer of a menu of an upper hierarchy. The menu selection at each level may be performed by, for example, moving the hand 52 up and down as shown in FIG. When the driver is familiar with the menu hierarchy in advance, it is possible to quickly select a menu by moving between such hierarchies.
【0043】本発明には数多くの実施形態があり、以上
の開示に基づいて多様に改変することが可能である。例
えば、次のようなものも含まれる。The present invention has many embodiments, and can be variously modified based on the above disclosure. For example, the following is also included.
【0044】(1)前記形態では、手で掴む,手を開く
などの動きの例を説明したが、入力するための形状や変
化は、必要に応じて適宜設定してよい。例えば、握った
状態から指を1本立てるとメニュー1,2本立てるとメ
ニュー2,……などのように、指の形状や動きにも対応
させる,手の開き具合,開いた手の回転などのように、
撮像される手の面積の大きさとメニューを対応させる,
などである。(1) In the above-described embodiment, the example of the movement such as grasping with the hand or opening the hand has been described. However, the shape or change for input may be appropriately set as needed. For example, if you hold one finger from the gripped state, it corresponds to the shape and movement of the finger, such as menu 1, 2 and menu 2, etc., the degree of opening of the hand, the rotation of the open hand, etc. like,
Make the size of the area of the hand to be imaged correspond to the menu,
And so on.
【0045】(2)前記形態では、メニューを選択して
結果的に該当する動作を実行することとしたが、手の形
状や動きを所定のコマンドに直接対応付けることで、コ
マンドを直接入力するようにしてもよい。例えば、入力
の途中キャンセルなどは、直接コマンド入力できるよう
にしておくと好都合である。図9には、手の形状や動き
に基づいて直接対応する動作が実行される例が示されて
いる。まず、同図(A)の例は、手の開閉を、メニュー
ウインドウの開閉に対応させたものである。手52を開
くことでメニューMEが開いている。他に、エアコンや
ラジオなどの車載用機器のON/OFFなどに対応させ
てもよい。同図(B)の例は、手52のX,Y方向の動
きを、ディスプレイ34A上における地図のスクロール
に対応させたものである。同図(C)は、手52のZ方
向の動きを、ディスプレイ34A上における地図の縮尺
変更に対応させたものである。この例は、ラジオやCD
再生の音量変更などにも適用可能である。(2) In the above embodiment, the menu is selected and the corresponding operation is executed as a result. However, commands are directly input by directly associating hand shapes and movements with predetermined commands. It may be. For example, it is convenient to make it possible to directly input a command for canceling the input halfway. FIG. 9 shows an example in which a corresponding operation is directly executed based on the shape and movement of the hand. First, in the example of FIG. 7A, opening and closing of a hand corresponds to opening and closing of a menu window. Opening the hand 52 opens the menu ME. Alternatively, it may be possible to correspond to ON / OFF of a vehicle-mounted device such as an air conditioner or a radio. In the example of FIG. 7B, the movement of the hand 52 in the X and Y directions is made to correspond to the scroll of the map on the display 34A. FIG. 11C shows the movement of the hand 52 in the Z direction corresponding to the change in the scale of the map on the display 34A. This example is a radio or CD
It is also applicable to changing the volume of reproduction.
【0046】(3)情報入力装置側の機能を、ナビゲー
ション装置側に含めるようにしてもよい。例えば、画像
認識,位置測定,スタンバイ及び入力の判定をメインコ
ンピュータで行うという具合である。(3) The function of the information input device may be included in the navigation device. For example, image recognition, position measurement, standby, and input determination are performed by the main computer.
【0047】[0047]
【発明の効果】以上説明したように、本発明によれば、
次のような効果がある。 (1)ディスプレイを見たり、スイッチに触れることな
く、非接触で運転姿勢を維持しつつ情報入力が可能であ
り、運転の快適性が向上する。 (2)入力された情報をコールバックすることで、入力
情報の確認を簡便に行うことができ、操作性がよい。As described above, according to the present invention,
The following effects are obtained. (1) It is possible to input information while maintaining a driving posture in a non-contact manner without looking at a display or touching a switch, thereby improving driving comfort. (2) By calling back the input information, the input information can be easily confirmed and the operability is good.
【図1】本発明の一形態における情報入力装置の構成を
示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an information input device according to one embodiment of the present invention.
【図2】前記装置におけるカメラの配置例を示す図であ
る。FIG. 2 is a diagram illustrating an example of an arrangement of cameras in the device.
【図3】前記形態における情報入力の仮想空間を示す図
である。FIG. 3 is a diagram showing a virtual space for information input in the embodiment.
【図4】前記形態における情報入力の手順を示すフロー
チャートである。FIG. 4 is a flowchart showing a procedure of information input in the embodiment.
【図5】前記形態におけるドライバの手の動きを示す図
である。FIG. 5 is a view showing a movement of a driver's hand in the embodiment.
【図6】前記形態における他のドライバの手の動きを示
す図である。FIG. 6 is a diagram showing a hand movement of another driver in the embodiment.
【図7】他の形態における情報入力の仮想空間を示す図
である。FIG. 7 is a diagram showing a virtual space for inputting information in another embodiment.
【図8】他の形態におけるドライバの手の動きを示す図
である。FIG. 8 is a diagram showing a movement of a driver's hand in another embodiment.
【図9】更に他の形態におけるドライバの手の動きを示
す図である。FIG. 9 is a view showing movement of a driver's hand according to still another embodiment.
【図10】メニューとその階層構造の例を示す図であ
る。FIG. 10 is a diagram showing an example of a menu and its hierarchical structure.
10…情報入力装置 11,11A,11B…カメラ 12… 画像処理部 14… 画像認識部 16… 位置測定部 18…スタンバイ判定部 18M,20M…メモリ 20…入力判定部 22,24…インターフェース 30…ナビゲーション装置 32A…表示制御部 32B…音声制御部 32C…ナビゲーション制御部 32…メインコンピュータ 34…表示部 34A…タッチパネルを有するディスプレイ 36…音声部 36A…スピーカ 38…ナビゲーション機器 40…自動車 42…天井 50,60…仮想空間 50A…メニュー領域 50B…作業領域 52…手 54…ドライバ MA〜MD…メニュー空間 ME…メニュー MN1〜MN4…メインメニュー DESCRIPTION OF SYMBOLS 10 ... Information input device 11, 11A, 11B ... Camera 12 ... Image processing part 14 ... Image recognition part 16 ... Position measurement part 18 ... Standby determination part 18M, 20M ... Memory 20 ... Input determination part 22, 24 ... Interface 30 ... Navigation Device 32A Display control unit 32B Voice control unit 32C Navigation control unit 32 Main computer 34 Display unit 34A Display with touch panel 36 Voice unit 36A Speaker 38 Navigation device 40 Vehicle 42 Ceiling 50, 60 ... Virtual space 50A ... Menu area 50B ... Work area 52 ... Hand 54 ... Driver MA-MD ... Menu space ME ... Menu MN1-MN4 ... Main menu
───────────────────────────────────────────────────── フロントページの続き (72)発明者 横山 昭二 東京都千代田区外神田2丁目19番12号 株 式会社エクォス・リサーチ内 Fターム(参考) 5H180 AA01 BB13 CC04 FF03 FF13 FF22 FF25 FF27 FF32 FF33 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Shoji Yokoyama 2-19-12 Sotokanda, Chiyoda-ku, Tokyo F-term in Equos Research Co., Ltd. 5H180 AA01 BB13 CC04 FF03 FF13 FF22 FF25 FF27 FF32 FF33
Claims (5)
報入力装置において、 人体の一部を撮像する撮像手段;これによって撮像され
た画像から、対象物の形状,動き,もしくは位置の少な
くとも一つを把握して、情報入力のスタンバイ状態を判
定するスタンバイ判定手段;これによってスタンバイ状
態であると判定された後に、前記撮像手段によって撮像
された画像から、対象物の形状,動き,もしくは位置の
少なくとも一つを把握して、入力情報を判定する入力判
定手段;前記スタンバイ判定手段及び入力判定手段によ
る判定結果をコールバックするコールバック手段;を備
えたことを特徴とする情報入力装置。1. An information input device for inputting information to an in-vehicle device, comprising: an image pickup unit for picking up an image of a part of a human body; Standby determining means for grasping one and determining a standby state of information input; from the image captured by the image capturing means after being determined to be in the standby state by this, the shape, movement, or position of the object An information input device, comprising: input determination means for determining at least one of the following to determine input information; callback means for calling back a determination result by the standby determination means and the input determination means.
記撮像手段は予め設定された仮想空間内で対象物を撮像
することを特徴とする請求項1記載の情報入力装置。2. The information input device according to claim 1, wherein the object to be imaged is a hand of a human body, and the imaging unit images the object in a virtual space set in advance.
おける2次元もしくは3次元の座標位置であることを特
徴とする請求項2記載の情報入力装置。3. The information input device according to claim 2, wherein the position of the symmetric object is a two-dimensional or three-dimensional coordinate position in the virtual space.
なるように撮像を行うことを特徴とする請求項1記載の
情報入力装置。4. The information input device according to claim 1, wherein the image capturing means performs the image capturing such that a ceiling of the automobile is a background.
定手段の判定結果によるコールバック後に、前記入力判
定手段によって入力確認の判定を行うことを特徴とする
請求項1記載の情報入力装置。5. The information input device according to claim 1, wherein after the callback by the callback unit based on the determination result of the input determination unit, the input determination unit determines the input confirmation.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP24407398A JP2000075991A (en) | 1998-08-28 | 1998-08-28 | Information input device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP24407398A JP2000075991A (en) | 1998-08-28 | 1998-08-28 | Information input device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000075991A true JP2000075991A (en) | 2000-03-14 |
Family
ID=17113341
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP24407398A Pending JP2000075991A (en) | 1998-08-28 | 1998-08-28 | Information input device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000075991A (en) |
Cited By (64)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2002016875A1 (en) * | 2000-08-24 | 2002-02-28 | Siemens Aktiengesellschaft | Method for querying target information and navigating within a card view, computer program product and navigation device |
| JP2002236534A (en) * | 2001-02-13 | 2002-08-23 | Mitsubishi Motors Corp | In-vehicle equipment operation device |
| JP2003131785A (en) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | Interface device, operation control method and program product |
| JP2004050927A (en) * | 2002-07-18 | 2004-02-19 | Denso Corp | Air-conditioner |
| JP2004145722A (en) * | 2002-10-25 | 2004-05-20 | Keio Gijuku | Hand pattern switch device |
| JP2004142656A (en) * | 2002-10-25 | 2004-05-20 | Keio Gijuku | Hand pattern switch device |
| JP2004145723A (en) * | 2002-10-25 | 2004-05-20 | Keio Gijuku | Hand pattern switch device |
| JP2004168264A (en) * | 2002-11-22 | 2004-06-17 | Keio Gijuku | Hand pattern switch device |
| JP2004177678A (en) * | 2002-11-27 | 2004-06-24 | Omron Corp | Photo seal making method, device therefor and seal paper unit |
| JP2004334590A (en) * | 2003-05-08 | 2004-11-25 | Denso Corp | Operation input device |
| JP2005047331A (en) * | 2003-07-31 | 2005-02-24 | Nissan Motor Co Ltd | Control device |
| JP2005047412A (en) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | Non-contact information input device |
| JP2005063090A (en) * | 2003-08-11 | 2005-03-10 | Keio Gijuku | Hand pattern switch device |
| JP2005071208A (en) * | 2003-08-27 | 2005-03-17 | Nippon Telegr & Teleph Corp <Ntt> | PROCESS INFORMATION INPUT DEVICE, PROCESS INFORMATION INPUT METHOD, PROGRAM OF THE METHOD, AND RECORDING MEDIUM CONTAINING THE PROGRAM |
| JP2005178473A (en) * | 2003-12-17 | 2005-07-07 | Denso Corp | Interface for in-vehicle equipment |
| JP2005254851A (en) * | 2004-03-09 | 2005-09-22 | Nissan Motor Co Ltd | Command input device |
| JP2005301479A (en) * | 2004-04-08 | 2005-10-27 | Akinori Yoshino | Instruction input device based on projected action of presenter |
| JP2006091948A (en) * | 2004-09-21 | 2006-04-06 | Victor Co Of Japan Ltd | Controller for electronic equipment |
| JP2006209563A (en) * | 2005-01-31 | 2006-08-10 | Victor Co Of Japan Ltd | Interface device |
| JP2006335112A (en) * | 2005-05-31 | 2006-12-14 | Nissan Motor Co Ltd | Command input device |
| JP2007087100A (en) * | 2005-09-22 | 2007-04-05 | Victor Co Of Japan Ltd | Electronic device system |
| JP2007156950A (en) * | 2005-12-07 | 2007-06-21 | Toyota Motor Corp | Vehicle control device |
| JP2007164814A (en) * | 2007-02-09 | 2007-06-28 | Toshiba Corp | Interface device |
| JP2008027328A (en) * | 2006-07-25 | 2008-02-07 | Alpine Electronics Inc | Data input device |
| JP2008040576A (en) * | 2006-08-02 | 2008-02-21 | Sharp Corp | Image processing system and video display apparatus including the system |
| JP2008052590A (en) * | 2006-08-25 | 2008-03-06 | Toshiba Corp | Interface device and method thereof |
| JP2008210359A (en) * | 2007-01-30 | 2008-09-11 | Toyota Motor Corp | Operating device |
| JP2008538037A (en) * | 2005-04-14 | 2008-10-02 | フオルクスヴアーゲン アクチエンゲゼルシヤフト | Information display method for transportation and combination instrument for automobile |
| WO2008149482A1 (en) * | 2007-06-05 | 2008-12-11 | Mitsubishi Electric Corporation | Operation device for vehicle |
| WO2008152799A1 (en) * | 2007-06-12 | 2008-12-18 | Panasonic Corporation | Brain wave interface system and starter |
| WO2009057260A1 (en) * | 2007-10-29 | 2009-05-07 | Panasonic Corporation | Start-up device, method, and computer program for brain wave interface |
| JP2009519552A (en) * | 2005-12-12 | 2009-05-14 | 株式会社ソニー・コンピュータエンタテインメント | Voice and video control of an interactive electronically simulated environment |
| WO2009147806A1 (en) * | 2008-06-02 | 2009-12-10 | パナソニック株式会社 | Remote control apparatus and remote control method |
| JP2010003303A (en) * | 2009-07-21 | 2010-01-07 | Victor Co Of Japan Ltd | Controller for electronic equipment |
| JP2010522380A (en) * | 2007-03-19 | 2010-07-01 | ゼブラ・イメージング・インコーポレイテッド | System and method for updating dynamic 3D display by user input |
| JP2010176510A (en) * | 2009-01-30 | 2010-08-12 | Sanyo Electric Co Ltd | Information display device |
| JP2010531461A (en) * | 2007-06-25 | 2010-09-24 | マイクロソフト コーポレーション | Placemark-based routing |
| KR100986333B1 (en) | 2004-11-17 | 2010-10-08 | 현대자동차주식회사 | Vehicle stereoscopic input device |
| JP2010237766A (en) * | 2009-03-30 | 2010-10-21 | Toshiba Corp | Information processing apparatus, command execution control method, and command execution control program |
| JP2010237765A (en) * | 2009-03-30 | 2010-10-21 | Toshiba Corp | Information processing apparatus, focus movement control method, and focus movement control program |
| JP2011081506A (en) * | 2009-10-05 | 2011-04-21 | Hitachi Consumer Electronics Co Ltd | Video display device and method of controlling display thereof |
| JP2011517357A (en) * | 2008-03-04 | 2011-06-02 | ジェスチャー テック,インコーポレイテッド | Image manipulation based on improved gestures |
| US7970173B2 (en) | 2006-03-31 | 2011-06-28 | Denso Corporation | Object-detecting device and method of extracting operation object |
| JP2011159273A (en) * | 2010-01-29 | 2011-08-18 | Pantech Co Ltd | User interface device using hologram |
| CN102207770A (en) * | 2010-03-30 | 2011-10-05 | 哈曼贝克自动系统股份有限公司 | Vehicle user interface unit for a vehicle electronic device |
| KR101074940B1 (en) | 2009-07-20 | 2011-10-19 | 제이 터치 코퍼레이션 | Image system |
| US8049722B2 (en) | 2005-09-05 | 2011-11-01 | Toyota Jidosha Kabushiki Kaisha | Vehicular operating apparatus |
| US8094189B2 (en) | 2007-01-30 | 2012-01-10 | Toyota Jidosha Kabushiki Kaisha | Operating device |
| JP2012027532A (en) * | 2010-07-20 | 2012-02-09 | Canon Inc | Information processor and information processing method |
| JP2013086750A (en) * | 2011-10-21 | 2013-05-13 | Suzuki Motor Corp | Input device for vehicle |
| JP2014067388A (en) * | 2012-09-06 | 2014-04-17 | Toshiba Alpine Automotive Technology Corp | Icon operation device |
| CN103853462A (en) * | 2012-12-05 | 2014-06-11 | 现代自动车株式会社 | System and method for providing user interface using hand shape trace recognition in vehicle |
| JP2014149842A (en) * | 2012-07-13 | 2014-08-21 | Taro Isayama | Element selection device, element selection method, and program |
| JP2014167792A (en) * | 2013-01-31 | 2014-09-11 | Jvc Kenwood Corp | Input display device |
| KR101438615B1 (en) | 2012-12-18 | 2014-11-03 | 현대자동차 주식회사 | System and method for providing a user interface using 2 dimension camera in a vehicle |
| JP2015084028A (en) * | 2013-10-25 | 2015-04-30 | シャープ株式会社 | Image formation apparatus |
| JP2016008991A (en) * | 2014-06-20 | 2016-01-18 | コニカミノルタ株式会社 | Print condition setting device, print condition setting system and print condition setting method |
| KR101587060B1 (en) * | 2014-09-04 | 2016-01-20 | 현대자동차주식회사 | Vehicle and controlling method thereof |
| WO2016017250A1 (en) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| US9898083B2 (en) | 2009-02-09 | 2018-02-20 | Volkswagen Ag | Method for operating a motor vehicle having a touch screen |
| JP2018077876A (en) * | 2013-04-02 | 2018-05-17 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| JP2019101826A (en) * | 2017-12-04 | 2019-06-24 | アイシン精機株式会社 | Gesture determination device and program |
| US11505092B2 (en) | 2019-12-02 | 2022-11-22 | Hyundai Motor Company | Hologram switch system of seat for vehicles |
| JP2024069187A (en) * | 2019-09-27 | 2024-05-21 | アップル インコーポレイテッド | DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM |
-
1998
- 1998-08-28 JP JP24407398A patent/JP2000075991A/en active Pending
Cited By (89)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7126579B2 (en) | 2000-08-24 | 2006-10-24 | Siemens Aktiengesellschaft | Method for requesting destination information and for navigating in a map view, computer program product and navigation unit |
| WO2002016875A1 (en) * | 2000-08-24 | 2002-02-28 | Siemens Aktiengesellschaft | Method for querying target information and navigating within a card view, computer program product and navigation device |
| JP2002236534A (en) * | 2001-02-13 | 2002-08-23 | Mitsubishi Motors Corp | In-vehicle equipment operation device |
| JP2003131785A (en) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | Interface device, operation control method and program product |
| JP2004050927A (en) * | 2002-07-18 | 2004-02-19 | Denso Corp | Air-conditioner |
| JP2004145722A (en) * | 2002-10-25 | 2004-05-20 | Keio Gijuku | Hand pattern switch device |
| JP2004142656A (en) * | 2002-10-25 | 2004-05-20 | Keio Gijuku | Hand pattern switch device |
| JP2004145723A (en) * | 2002-10-25 | 2004-05-20 | Keio Gijuku | Hand pattern switch device |
| JP2004168264A (en) * | 2002-11-22 | 2004-06-17 | Keio Gijuku | Hand pattern switch device |
| JP2004177678A (en) * | 2002-11-27 | 2004-06-24 | Omron Corp | Photo seal making method, device therefor and seal paper unit |
| JP2004334590A (en) * | 2003-05-08 | 2004-11-25 | Denso Corp | Operation input device |
| JP2005047412A (en) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | Non-contact information input device |
| JP2005047331A (en) * | 2003-07-31 | 2005-02-24 | Nissan Motor Co Ltd | Control device |
| JP2005063090A (en) * | 2003-08-11 | 2005-03-10 | Keio Gijuku | Hand pattern switch device |
| JP2005071208A (en) * | 2003-08-27 | 2005-03-17 | Nippon Telegr & Teleph Corp <Ntt> | PROCESS INFORMATION INPUT DEVICE, PROCESS INFORMATION INPUT METHOD, PROGRAM OF THE METHOD, AND RECORDING MEDIUM CONTAINING THE PROGRAM |
| JP2005178473A (en) * | 2003-12-17 | 2005-07-07 | Denso Corp | Interface for in-vehicle equipment |
| US7437488B2 (en) | 2003-12-17 | 2008-10-14 | Denso Corporation | Interface for car-mounted devices |
| JP2005254851A (en) * | 2004-03-09 | 2005-09-22 | Nissan Motor Co Ltd | Command input device |
| JP2005301479A (en) * | 2004-04-08 | 2005-10-27 | Akinori Yoshino | Instruction input device based on projected action of presenter |
| JP2006091948A (en) * | 2004-09-21 | 2006-04-06 | Victor Co Of Japan Ltd | Controller for electronic equipment |
| US7629959B2 (en) | 2004-09-21 | 2009-12-08 | Victor Company Of Japan, Limited | Controller for electronic appliance |
| KR100986333B1 (en) | 2004-11-17 | 2010-10-08 | 현대자동차주식회사 | Vehicle stereoscopic input device |
| JP2006209563A (en) * | 2005-01-31 | 2006-08-10 | Victor Co Of Japan Ltd | Interface device |
| US11091036B2 (en) | 2005-04-14 | 2021-08-17 | Volkswagen Ag | Method for representing items of information in a means of transportation and instrument cluster for a motor vehicle |
| JP2008538037A (en) * | 2005-04-14 | 2008-10-02 | フオルクスヴアーゲン アクチエンゲゼルシヤフト | Information display method for transportation and combination instrument for automobile |
| JP2006335112A (en) * | 2005-05-31 | 2006-12-14 | Nissan Motor Co Ltd | Command input device |
| US8049722B2 (en) | 2005-09-05 | 2011-11-01 | Toyota Jidosha Kabushiki Kaisha | Vehicular operating apparatus |
| JP2007087100A (en) * | 2005-09-22 | 2007-04-05 | Victor Co Of Japan Ltd | Electronic device system |
| JP2007156950A (en) * | 2005-12-07 | 2007-06-21 | Toyota Motor Corp | Vehicle control device |
| JP2009519552A (en) * | 2005-12-12 | 2009-05-14 | 株式会社ソニー・コンピュータエンタテインメント | Voice and video control of an interactive electronically simulated environment |
| US8549442B2 (en) | 2005-12-12 | 2013-10-01 | Sony Computer Entertainment Inc. | Voice and video control of interactive electronically simulated environment |
| US7970173B2 (en) | 2006-03-31 | 2011-06-28 | Denso Corporation | Object-detecting device and method of extracting operation object |
| JP2008027328A (en) * | 2006-07-25 | 2008-02-07 | Alpine Electronics Inc | Data input device |
| JP2008040576A (en) * | 2006-08-02 | 2008-02-21 | Sharp Corp | Image processing system and video display apparatus including the system |
| JP2008052590A (en) * | 2006-08-25 | 2008-03-06 | Toshiba Corp | Interface device and method thereof |
| US7844921B2 (en) | 2006-08-25 | 2010-11-30 | Kabushiki Kaisha Toshiba | Interface apparatus and interface method |
| JP2008210359A (en) * | 2007-01-30 | 2008-09-11 | Toyota Motor Corp | Operating device |
| US8094189B2 (en) | 2007-01-30 | 2012-01-10 | Toyota Jidosha Kabushiki Kaisha | Operating device |
| JP2007164814A (en) * | 2007-02-09 | 2007-06-28 | Toshiba Corp | Interface device |
| JP2010522380A (en) * | 2007-03-19 | 2010-07-01 | ゼブラ・イメージング・インコーポレイテッド | System and method for updating dynamic 3D display by user input |
| US8532871B2 (en) | 2007-06-05 | 2013-09-10 | Mitsubishi Electric Company | Multi-modal vehicle operating device |
| DE112008001396T5 (en) | 2007-06-05 | 2010-03-25 | Mitsubishi Electric Corp. | Vehicle operating device |
| WO2008149482A1 (en) * | 2007-06-05 | 2008-12-11 | Mitsubishi Electric Corporation | Operation device for vehicle |
| DE112008001396B4 (en) * | 2007-06-05 | 2015-12-31 | Mitsubishi Electric Corp. | Vehicle operating device |
| JPWO2008149482A1 (en) * | 2007-06-05 | 2010-08-19 | 三菱電機株式会社 | Vehicle control device |
| JPWO2008152799A1 (en) * | 2007-06-12 | 2010-08-26 | パナソニック株式会社 | EEG interface system and activation device |
| WO2008152799A1 (en) * | 2007-06-12 | 2008-12-18 | Panasonic Corporation | Brain wave interface system and starter |
| US8185193B2 (en) | 2007-06-12 | 2012-05-22 | Panasonic Corporation | Electroencephalogram interface system and activation apparatus |
| JP2010531461A (en) * | 2007-06-25 | 2010-09-24 | マイクロソフト コーポレーション | Placemark-based routing |
| JP2013178266A (en) * | 2007-06-25 | 2013-09-09 | Microsoft Corp | Method and system for providing user with landmark information in driving guidance |
| WO2009057260A1 (en) * | 2007-10-29 | 2009-05-07 | Panasonic Corporation | Start-up device, method, and computer program for brain wave interface |
| US8369939B2 (en) | 2007-10-29 | 2013-02-05 | Panasonic Corporation | Activation apparatus, method, and computer program for brainwave interface system |
| JPWO2009057260A1 (en) * | 2007-10-29 | 2011-03-10 | パナソニック株式会社 | Activation device, method and computer program for an electroencephalogram interface system |
| JP2011517357A (en) * | 2008-03-04 | 2011-06-02 | ジェスチャー テック,インコーポレイテッド | Image manipulation based on improved gestures |
| US9772689B2 (en) | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
| CN101784980A (en) * | 2008-06-02 | 2010-07-21 | 松下电器产业株式会社 | Remote control apparatus and remote control method |
| JPWO2009147806A1 (en) * | 2008-06-02 | 2011-10-20 | パナソニック株式会社 | Remote control device and remote control method |
| WO2009147806A1 (en) * | 2008-06-02 | 2009-12-10 | パナソニック株式会社 | Remote control apparatus and remote control method |
| US8432391B2 (en) | 2008-06-02 | 2013-04-30 | Panasonic Corporation | Remote control device and remote control method |
| JP2010176510A (en) * | 2009-01-30 | 2010-08-12 | Sanyo Electric Co Ltd | Information display device |
| US9898083B2 (en) | 2009-02-09 | 2018-02-20 | Volkswagen Ag | Method for operating a motor vehicle having a touch screen |
| JP2010237765A (en) * | 2009-03-30 | 2010-10-21 | Toshiba Corp | Information processing apparatus, focus movement control method, and focus movement control program |
| JP2010237766A (en) * | 2009-03-30 | 2010-10-21 | Toshiba Corp | Information processing apparatus, command execution control method, and command execution control program |
| KR101074940B1 (en) | 2009-07-20 | 2011-10-19 | 제이 터치 코퍼레이션 | Image system |
| JP2010003303A (en) * | 2009-07-21 | 2010-01-07 | Victor Co Of Japan Ltd | Controller for electronic equipment |
| JP2011081506A (en) * | 2009-10-05 | 2011-04-21 | Hitachi Consumer Electronics Co Ltd | Video display device and method of controlling display thereof |
| JP2011159273A (en) * | 2010-01-29 | 2011-08-18 | Pantech Co Ltd | User interface device using hologram |
| CN102207770A (en) * | 2010-03-30 | 2011-10-05 | 哈曼贝克自动系统股份有限公司 | Vehicle user interface unit for a vehicle electronic device |
| JP2011210239A (en) * | 2010-03-30 | 2011-10-20 | Harman Becker Automotive Systems Gmbh | Vehicle user interface unit for vehicle electronic device |
| US9030465B2 (en) * | 2010-03-30 | 2015-05-12 | Harman Becker Automotive Systems Gmbh | Vehicle user interface unit for a vehicle electronic device |
| US20110242102A1 (en) * | 2010-03-30 | 2011-10-06 | Harman Becker Automotive Systems Gmbh | Vehicle user interface unit for a vehicle electronic device |
| JP2012027532A (en) * | 2010-07-20 | 2012-02-09 | Canon Inc | Information processor and information processing method |
| JP2013086750A (en) * | 2011-10-21 | 2013-05-13 | Suzuki Motor Corp | Input device for vehicle |
| JP2019135665A (en) * | 2012-07-13 | 2019-08-15 | 太郎 諌山 | Element selecting apparatus, element selecting method, and program |
| JP2014149842A (en) * | 2012-07-13 | 2014-08-21 | Taro Isayama | Element selection device, element selection method, and program |
| JP2014067388A (en) * | 2012-09-06 | 2014-04-17 | Toshiba Alpine Automotive Technology Corp | Icon operation device |
| CN103853462A (en) * | 2012-12-05 | 2014-06-11 | 现代自动车株式会社 | System and method for providing user interface using hand shape trace recognition in vehicle |
| KR101438615B1 (en) | 2012-12-18 | 2014-11-03 | 현대자동차 주식회사 | System and method for providing a user interface using 2 dimension camera in a vehicle |
| JP2014167792A (en) * | 2013-01-31 | 2014-09-11 | Jvc Kenwood Corp | Input display device |
| US10514767B2 (en) | 2013-04-02 | 2019-12-24 | Sony Corporation | Information processing apparatus and information processing method |
| JP2018077876A (en) * | 2013-04-02 | 2018-05-17 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| JP2015084028A (en) * | 2013-10-25 | 2015-04-30 | シャープ株式会社 | Image formation apparatus |
| JP2016008991A (en) * | 2014-06-20 | 2016-01-18 | コニカミノルタ株式会社 | Print condition setting device, print condition setting system and print condition setting method |
| WO2016017250A1 (en) * | 2014-08-01 | 2016-02-04 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| KR101587060B1 (en) * | 2014-09-04 | 2016-01-20 | 현대자동차주식회사 | Vehicle and controlling method thereof |
| JP2019101826A (en) * | 2017-12-04 | 2019-06-24 | アイシン精機株式会社 | Gesture determination device and program |
| JP2024069187A (en) * | 2019-09-27 | 2024-05-21 | アップル インコーポレイテッド | DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM |
| JP7649396B2 (en) | 2019-09-27 | 2025-03-19 | アップル インコーポレイテッド | DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIMENSIONAL ENVIRONMENT - Patent application |
| US11505092B2 (en) | 2019-12-02 | 2022-11-22 | Hyundai Motor Company | Hologram switch system of seat for vehicles |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2000075991A (en) | Information input device | |
| US8532871B2 (en) | Multi-modal vehicle operating device | |
| CN108919959B (en) | Vehicle human-computer interaction method and system | |
| EP3018629B1 (en) | Imaging system | |
| KR101438615B1 (en) | System and method for providing a user interface using 2 dimension camera in a vehicle | |
| JP2016153250A (en) | Information processor | |
| JP2003300444A (en) | Driving support system for moving objects | |
| JP2016097928A (en) | Vehicular display control unit | |
| JP6828847B2 (en) | Information display device, information display system, information display method, and program | |
| CN109976515A (en) | A kind of information processing method, device, vehicle and computer readable storage medium | |
| CN111638786B (en) | Display control method, device, equipment and storage medium of vehicle-mounted rear projection display system | |
| KR20230040439A (en) | Apparatus for controlling vehicle display based on approach direction determination using proximity sensor | |
| JP2009025715A (en) | In-vehicle device and speech recognition method | |
| JP2002122441A (en) | Navigation device and display method of navigation screen | |
| JP2019133395A (en) | Input device | |
| JP2024144620A (en) | DISPLAY CONTROL DEVICE, DISPLAY SYSTEM, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM | |
| JP2007261308A (en) | Display device and program | |
| JP2024161224A (en) | Information Processing System | |
| JP6827132B2 (en) | Operating device, control method, program and storage medium | |
| JP2004053304A (en) | Navigation device | |
| JP6819539B2 (en) | Gesture input device | |
| JP2009301263A (en) | Onboard display system | |
| JP4783770B2 (en) | In-vehicle machine | |
| JP2005062044A (en) | Navigation device | |
| JP6798608B2 (en) | Navigation system and navigation program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050714 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070906 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070918 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071115 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071211 |