[go: up one dir, main page]

WO2016038675A1 - 触感制御システムおよび触感制御方法 - Google Patents

触感制御システムおよび触感制御方法 Download PDF

Info

Publication number
WO2016038675A1
WO2016038675A1 PCT/JP2014/073768 JP2014073768W WO2016038675A1 WO 2016038675 A1 WO2016038675 A1 WO 2016038675A1 JP 2014073768 W JP2014073768 W JP 2014073768W WO 2016038675 A1 WO2016038675 A1 WO 2016038675A1
Authority
WO
WIPO (PCT)
Prior art keywords
tactile sensation
tactile
area
control unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2014/073768
Other languages
English (en)
French (fr)
Inventor
下谷 光生
英一 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to US15/319,511 priority Critical patent/US20170139479A1/en
Priority to PCT/JP2014/073768 priority patent/WO2016038675A1/ja
Priority to DE112014006934.5T priority patent/DE112014006934T5/de
Priority to CN201480081814.0A priority patent/CN106687905B/zh
Priority to JP2016547283A priority patent/JP6429886B2/ja
Publication of WO2016038675A1 publication Critical patent/WO2016038675A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/25Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • B60K2360/1442Emulation of input devices
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • the present invention relates to a tactile sensation control system and a tactile sensation control method for controlling a user's tactile sensation during operation on an operation surface of a touch panel or a touch pad.
  • Patent Documents 1 to 3 and Non-Patent Document 1 When using the techniques of Patent Documents 1 to 3 and Non-Patent Document 1, it is considered that the user can operate with the tactile sensation without concentrating the line of sight on the display screen.
  • Patent Documents 1 to 3 and Non-Patent Document 1 do not disclose any specific use and cannot provide a user interface that is easy to use.
  • the tactile sensation control method is a tactile sensation control method for controlling the tactile sensation of the user at the time of operation on the operation surface of the touch panel or the touch pad, and the operation type on which the user operates on the operation surface and the operation type corresponding to the operation region Information is acquired as operation area information, and the operation area of the acquired operation area information is controlled so that the operation surface feels according to the operation type corresponding to the operation area. This makes it possible to perform a user-friendly operation without concentrating the line of sight.
  • the “half rough” tactile sensation can be expressed by, for example, performing ultrasonic vibration smaller than the above threshold.
  • FIGS. 3 to 5 are diagrams illustrating an example of generating a “moving rough” tactile sensation by changing the intensity of vibration over time. 3 to 5, the horizontal axis indicates time, and the vertical axis indicates the strength of tactile sensation.
  • the user can obtain a tactile sensation as if, for example, the “gritty” area is moving (that is, the tactile sensation of “moving rough”).
  • the “gritty” tactile feel and the “smooth” tactile feel are alternately switched.
  • the “gritty” tactile feel and the “half-gritty” tactile feel may be alternately switched.
  • the texture of the “roughness” may be switched continuously instead of discretely, and a continuous change and a discrete change may be freely combined.
  • FIG. 6 is a diagram illustrating another example of generating a “moving rough” tactile sensation by changing the rough tactile sensation pattern over time.
  • the vertical axis indicates time.
  • region b have a tactile feeling, for example.
  • the positions of the area a and the area b are moved with time.
  • the region a and the region b having a tactile sensation the user can obtain a tactile sensation as if the “rough” region is moving (ie, a “moving rough” tactile sense).
  • Each of region a and region b may have a tactile sensation as shown in any of FIGS.
  • step S11 the display information generation / output unit 6 generates display information in accordance with an instruction from the control unit 5, converts the generated display information into a video signal, and outputs the video signal to the display 9.
  • step S12 the tactile touch panel control unit 7 sets the tactile feel control information of the entire display screen (that is, the entire tactile touch panel 10) to “half rough” according to the instruction of the control unit 5.
  • an operation icon 11 that accepts an icon operation (icon operation) by touch input and a gesture area 12 that accepts a gesture operation are displayed on the display screen of the display unit 9.
  • the tactile sensation in the area of the operation icon 11 is “rough”
  • the tactile sensation in the gesture area 12 is “smooth”
  • the tactile sensation in the area other than the operation icon 11 and the gesture area 12 (non-operation area) is “Half-rough”.
  • the touch input in the first embodiment can be felt as a preliminary operation for icon operation when the user touches the operation surface of the tactile touch panel 10 lightly, and the user strongly presses the operation surface.
  • An operation method for accepting an icon operation is also included.
  • the tactile sensation control device 4 is mounted on a vehicle has been described as an example.
  • the above-described function described in the first embodiment may be realized on a smartphone.
  • a smartphone since it is assumed that the user operates while walking, the effect of preventing a reduction in attention to the surroundings is obtained in such a case.
  • FIG. 13 is a flowchart showing an example of the operation of the tactile sensation control device 13. Note that steps S25 to S27 in FIG. 13 correspond to steps S17 to S19 in FIG.
  • step S21 the external device information acquisition control unit 16 acquires external device information from the external devices (audio 19 and air conditioner 20). The acquired external device information is output to the control unit 5.
  • the auxiliary operation icons are a dakuten icon “” and a semi-dakuten icon “°”, and one character is inputted by two icon operations. Even in a foreign language, when an “auxiliary operation icon” for inputting one character on the software keyboard is required, the tactile sensation is similarly changed. In addition, although not an auxiliary operation icon, the tactile sensation may be changed between characters of different types. For example, special characters such as “alphabet”, “number”, “# $ &”, and “umlaut” in German are equivalent.
  • step S43 the tactile touch pad control unit 28 sets the tactile feel control information of the entire tactile touch pad 30 to “smooth” in accordance with the instruction of the control unit 5.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 発明は、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能な触感制御システムおよび触感制御方法を提供することを目的とする。本発明による触感制御システムは、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、操作面におけるユーザが操作を行う操作領域および当該操作領域に対応する操作種別の情報を操作領域情報として取得する操作領域情報取得部と、操作領域情報取得部にて取得された操作領域情報の操作領域が当該操作領域に対応する操作種別に応じた触感となるように操作面の触感を制御する触感制御部とを備える。

Description

触感制御システムおよび触感制御方法
 本発明は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムおよび触感制御方法に関する。
 従来、タッチパネルを備える表示装置の表示画面に対してユーザが操作を行う際に、操作に応じた触感をユーザに付与する技術がある。
 例えば、指に超音波を照射することによって、指に触感を付与する技術が開示されている(例えば、特許文献1,2参照)。また、超音波振動によってタッチパネルの任意の領域を振動させることによって、ユーザに触感を付与する技術が開示されている(例えば、非特許文献1参照)。また、タッチパネルの任意の領域を動的(物理的に)に起伏させることによって触感を付与する技術が開示されている(例えば、特許文献3参照)。
特開2003-29898号公報 国際公開第2012/102026号 特表2005-512241号公報
"触感が得られるタッチパネルを搭載したタブレットを試作"、[online]、平成26年2月24日、富士通株式会社、[平成26年5月12日]、インターネット〈URL : http://pr.fujitsu.com/jp/news/2014/02/24.html?nw=pr〉
 ユーザは、特許文献1~3および非特許文献1の技術を用いれば、操作を行う際に、表示画面に視線を集中させることなく触感を頼りに操作することが可能であると考えられる。しかし、特許文献1~3および非特許文献1では、具体的な使用について何ら開示されておらず、使い勝手の良いユーザインタフェースを提供しているとはいえなかった。
 本発明は、このような問題を解決するためになされたものであり、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能な触感制御システムおよび触感制御方法を提供することを目的とする。
 上記の課題を解決するために、本発明による触感制御システムは、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、操作面におけるユーザが操作を行う操作領域および当該操作領域に対応する操作種別の情報を操作領域情報として取得する操作領域情報取得部と、操作領域情報取得部にて取得された操作領域情報の操作領域が当該操作領域に対応する操作種別に応じた触感となるように操作面の触感を制御する触感制御部とを備える。
 また、本発明による触感制御方法は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、操作面におけるユーザが操作を行う操作領域および当該操作領域に対応する操作種別の情報を操作領域情報として取得し、取得した操作領域情報の操作領域が当該操作領域に対応する操作種別に応じた触感となるように操作面の触感を制御する。
 本発明によると、触感制御システムは、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、操作面におけるユーザが操作を行う操作領域および当該操作領域に対応する操作種別の情報を操作領域情報として取得する操作領域情報取得部と、操作領域情報取得部にて取得された操作領域情報の操作領域が当該操作領域に対応する操作種別に応じた触感となるように操作面の触感を制御する触感制御部とを備えるため、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能となる。
 また、触感制御方法は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、操作面におけるユーザが操作を行う操作領域および当該操作領域に対応する操作種別の情報を操作領域情報として取得し、取得した操作領域情報の操作領域が当該操作領域に対応する操作種別に応じた触感となるように操作面の触感を制御するため、ユーザが操作時に表示画面に視線を集中させることなく使い勝手の良い操作を行うことが可能となる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の実施の形態1による触感制御装置の構成の一例を示すブロック図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感を説明するための図である。 本発明の実施の形態1による触感制御装置の構成の他の一例を示すブロック図である。 本発明の実施の形態1による触感制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態1による触感制御装置の動作の一例を示す図である。 本発明の実施の形態2による触感制御装置の構成の一例を示すブロック図である。 本発明の実施の形態2による触感制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態2による触感制御装置の動作の一例を示す図である。 本発明の実施の形態2による触感制御装置の動作の一例を示す図である。 本発明の実施の形態3による触感制御装置の動作の一例を示す図である。 本発明の実施の形態4による触感制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態4による触感制御装置の動作の一例を示す図である。 本発明の実施の形態4による触感制御装置の動作の一例を示す図である。 本発明の実施の形態4による触感制御装置の動作の一例を示す図である。 本発明の実施の形態4による触感制御装置の動作の一例を示す図である。 本発明の実施の形態4による触感制御装置の動作の一例を示す図である。 本発明の実施の形態4による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態5による触感制御装置の動作の一例を示す図である。 本発明の実施の形態6による触感制御装置の構成の一例を示すブロック図である。 本発明の実施の形態6による触感制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態6による触感制御装置の動作の一例を示す図である。 本発明の実施の形態6による触感制御装置の動作の一例を示す図である。 本発明の実施の形態6による触感制御装置の動作の一例を示す図である。 本発明の実施の形態6による触感制御装置の動作の一例を示す図である。 本発明の実施の形態による触感制御システムの構成の一例を示すブロック図である。 本発明の実施の形態による触感制御システムの構成の他の一例を示すブロック図である。
 本発明の実施の形態について、図面に基づいて以下に説明する。
 <実施の形態1>
 まず、本発明の実施の形態1による触感制御システムの構成について説明する。なお、本実施の形態および以下の各実施の形態においては、触感制御システムを触感制御装置単体で実現した場合について説明する。
 図1は、本実施の形態1による触感制御装置1の構成の一例を示すブロック図である。なお、図1では、触感制御装置1を構成する必要最小限の構成要素を示している。
 図1に示すように、触感制御装置1は、少なくとも操作領域情報取得部2と、触感制御部3とを備えている。
 操作領域情報取得部2は、タッチパネルまたはタッチパッドの操作面におけるユーザが操作を行う操作領域および当該操作領域に対応する操作種別の情報を操作領域情報として取得する。
 触感制御部3は、操作領域情報取得部2にて取得された操作領域情報の操作領域が当該操作領域に対応する操作種別に応じた触感となるように操作面の触感を制御する。
 ここで、触感制御部3が制御する触感について、図2~6を用いて説明する。
 図2は、「つるつる」、「半ザラザラ」、および「ザラザラ」の3つの触感の一例を示す図である。
 図2において、横軸は触感の強さを示しており、最も左側の一列は「つるつる」を示し、中央の二列は「半ザラザラ」を示し、最も右側の一列は「ザラザラ」を示している。また、各四角内に示す黒で表現したドットや線のパターン部分を例えば超音波振動によって振動させることによって、四角内全体の触感を表現している。すなわち、例えば各四角内における振動の強さが同じである場合において、図2の左側よりも右側の方が「ザラザラ」の触感が強くなる。具体的には、図2の1行目はドットの目が大きいほどザラザラの触感が強いことを示し、2行目は格子の間隔が狭いほどザラザラの触感が強いことを示し、3行目は線が破線から実線、かつ線が太くなるに従ってザラザラの触感が強いことを示している。なお、ザラザラの触感のパターンは、図2にこだわるものではなく、無限の組み合わせが存在する。
 図2の例は、振動の強さが同じであってもパターンを変えることによって異なるザラザラの触感を得る方法を示したが、同一のパターンであっても振動の強さを変えると異なるザラザラの触感を得ることができる。
 「つるつる」の触感は、例えば超音波振動を行わないことによって表現することができる。
 「ザラザラ」の触感は、例えば予め定められた閾値以上の強さで超音波振動を行うことによって表現することができる。
 「半ザラザラ」の触感は、例えば上記の閾値よりも小さい超音波振動を行うことによって表現することができる。
 また、振動の強さと、図2に示すようなザラザラの触感のパターンとの両方を組み合わせることによって、ザラザラの触感の強弱を表現することができる。
 図2では、ザラザラの触感のパターンと、振動の強度が変化しない静的なザラザラの触感の発生とについて説明したが、振動の強弱を時間的に変化させたり、ザラザラの触感のパターンを時間的に変化させたりすることによって(すなわち、振動の強弱、あるいはザラザラの触感のパターンを動的に変化させることによって)、動くザラザラの触感を表現することもできる。
 図3~5は、振動の強度を時間的に変化させることによって「動くザラザラ」の触感を発生させる一例を示す図である。図3~5において、横軸は時間、縦軸は触感の強さを示している。
 図3は、触感の強さを一定にし、かつ当該触感が一定周期で発生する場合について示している。また、図4は、触感の強さを変化させ、かつ当該触感が一定周期で発生する場合について示している。また、図5は、触感の強さを一定にし、かつ当該触感の発生の周期が変化する場合について示している。
 図3~5に示すように触感を変化させることによって、ユーザは例えば「ザラザラ」した領域が動いているかのような触感(すなわち、「動くザラザラ」の触感)を得ることができる。なお、図3~5では、「ザラザラ」の触感と「つるつる」の触感とを交互に切り替えているが、「ザラザラ」の触感と「半ザラザラ」の触感とを交互に切り替えてもよく、「ザラザラ」の触感を離散的ではなく連続的に切り替えてもよく、連続的変化と離散的変化とを自由に組み合わせてもよい。
 図6は、ザラザラの触感のパターンが時間的に変化することによって「動くザラザラ」の触感を発生させる他の一例を示す図である。図6において、縦軸は時間を示している。また、領域aおよび領域bは、例えば「ザラザラ」の触感を有している。
 図6に示すように、領域aおよび領域bは、時間の経過とともに位置が移動している。このように、触感を有する領域aおよび領域bを移動させることによって、ユーザは例えば「ザラザラ」した領域が動いているかのような触感(すなわち、「動くザラザラ」の触感)を得ることができる。なお、領域aおよび領域bの各々は、図3~5にいずれかに示すような触感を有していてもよい。
 また、図6では、「ザラザラ」の触感の領域と「つるつる」の触感の領域とを時間的に移動させているが、「ザラザラ」の触感の領域と「半ザラザラ」の触感の領域とを構成して時間的に移動させてもよく、「ザラザラ」の触感が離散的または連続的に変化する領域を構成し、当該領域を時間的に移動させるようにしてもよい。図3~6において、連続的に変化する「ザラザラ」の触感を採用した場合は、滑らかな「動くザラザラ」の触感を得ることができる。
 次に、図1の操作領域情報取得部2および触感制御部3を含む触感制御装置1の他の構成について説明する。
 図7は、触感制御装置4の構成の一例を示すブロック図である。
 図7に示すように、触感制御装置4は、制御部5と、表示情報生成出力部6と、触感タッチパネル制御部7と、操作情報取得部8とを備えている。また、表示情報生成出力部6は表示器9に接続され、触感タッチパネル制御部7および操作情報取得部8は触感タッチパネル10に接続されている。
 制御部5は、触感制御装置4全体の制御を行う。図7に示す例では、制御部5は、表示情報生成出力部6および触感タッチパネル制御部7の制御を行う。
 表示情報生成出力部6は、制御部5の指示に従って表示情報を生成する。また、表示情報生成出力部6は、生成した表示情報を映像信号に変換して表示器9に出力する。
 触感タッチパネル制御部7は、操作領域情報取得部2と触感制御部3とを備えている。操作領域情報取得部2は、制御部5から入力された操作領域情報を取得する。触感制御部3は、操作領域情報取得部2にて取得された操作領域情報の操作領域が当該操作領域に対応する操作種別に応じた触感となるように、操作面の触感を制御するための触感制御情報を触感タッチパネル10に出力する。
 操作情報取得部8は、触感タッチパネル10から、当該触感タッチパネル10に対するユーザの操作および当該操作領域に対応する操作種別の情報を操作情報として取得する。
 表示器9は、表示情報生成出力部6から入力された表示情報を表示画面に表示する。
 触感タッチパネル10は、ユーザによるタッチ操作に関する情報(タッチの有無、タッチの位置、操作内容などの情報)を操作情報として操作情報取得部8に出力する。また、触感タッチパネル10は、触感タッチパネル制御部7から入力された触感制御情報に基づいて、タッチパネルの任意の位置の触感(「つるつる」、「半ザラザラ」、「ザラザラ」、「動くザラザラ」)を変化させる。
 なお、触感タッチパネル10は、表示器9の表示画面上に設けられており、ユーザは表示画面に対して直接的に操作する感覚で使用することができる。すなわち、表示器9の表示画面領域と触感タッチパネル10の触感を発生させる領域とは、完全に一致していてもよい。また、表示器9の表示画面領域と触感タッチパネル10の触感を発生させる領域とのうちのいずれか一方が他方よりも広い領域であってもよい。例えば、触感タッチパネル10の触感を発生させる領域が表示器9の表示画面領域からはみ出すように触感タッチパネル10を設置し、当該はみ出した領域では表示しないがタッチ操作の入力が可能な領域として活用してもよい。
 次に、触感制御装置4の動作について説明する。
 図8は、触感制御装置4の動作の一例を示すフローチャートである。
 ステップS11において、表示情報生成出力部6は、制御部5の指示に従って表示情報を生成し、生成した表示情報を映像信号に変換して表示器9に出力する。
 ステップS12において、触感タッチパネル制御部7は、制御部5の指示に従って、表示画面全体(すなわち、触感タッチパネル10全体)の触感制御情報を「半ザラザラ」に設定する。
 ステップS13において、制御部5は、ステップS11にて変換された映像信号に基づいて表示された表示器9の表示画面内に、ジェスチャー入力領域が存在するか否かを判断する。ジェスチャー入力領域が存在する場合は、ステップS14に移行する。一方、ジェスチャー入力領域が存在しない場合は、ステップS15に移行する。ここで、ジェスチャー入力領域とは、表示画面内においてユーザがジェスチャー操作によって入力することが可能な領域のことをいう。
 ステップS14において、触感タッチパネル制御部7は、制御部5の指示に従って、ジェスチャー入力領域の触感制御情報を「つるつる」に設定する。
 ステップS15において、制御部5は、ステップS11にて変換された映像信号に基づいて表示された表示器9の表示画面内に、タッチ入力領域が存在するか否かを判断する。タッチ入力領域が存在する場合は、ステップS16に移行する。一方、タッチ入力領域が存在しない場合は、ステップS17に移行する。ここで、タッチ入力領域とは、表示画面内においてユーザがタッチ操作によって入力することが可能な領域のことをいう。
 ステップS16において、触感タッチパネル制御部7は、制御部5の指示に従って、タッチ入力領域の触感制御情報を「ザラザラ」に設定する。
 ステップS17において、触感タッチパネル制御部7は、ステップS12、ステップS14、およびステップS16にて設定された触感制御情報を触感タッチパネル10に出力する。触感タッチパネル10では、触感タッチパネル制御部7から入力された触感制御情報に基づいて、領域ごとに異なる触感が生じた状態となる。
 ステップS18において、制御部5は、操作情報取得部8を介して、ユーザが触感タッチパネル10を操作したか否かを判断する。ユーザが触感タッチパネル10を操作するまで待機し、ユーザが触感タッチパネル10を操作した場合は、ステップS19に移行する。
 ステップS19において、制御部5は、ユーザの操作に応じた表示画面の遷移を行う。
 次に、触感制御装置4の具体的な動作例について、図9~図11を用いて説明する。
 図9において、表示器9の表示画面には、タッチ入力によるアイコンの操作(アイコン操作)を受け付ける操作アイコン11と、ジェスチャー操作を受け付けるジェスチャー領域12とが表示されている。また、触感タッチパネル10では、操作アイコン11の領域の触感は「ザラザラ」、ジェスチャー領域12の触感は「つるつる」、操作アイコン11の領域およびジェスチャー領域12以外の領域(非操作領域)の触感は「半ザラザラ」となっている。このように、各領域の触感を異ならせることによって、ユーザは操作可能な種別(アイコン操作、ジェスチャー操作)を容易に識別することができる。なお、本実施の形態1におけるタッチ入力は、ユーザが触感タッチパネル10の操作面に軽く触れた場合はアイコン操作の予備操作として触感を感じることが可能であり、ユーザが操作面を強く押し込んだ場合にアイコン操作を受け付けるような操作方法も含むものとする。
 図10において、表示器9の表示画面には、ジェスチャー領域12が表示されている。また、触感タッチパネル10において、ジェスチャー領域12の触感は「つるつる」、ジェスチャー領域12以外の領域の触感は「半ザラザラ」となっている。このように、ジェスチャー領域12と、その他の領域(非操作領域)との触感を異ならせることによって、ユーザはジェスチャー領域12を容易に識別することができる。
 図11は、表示画面が遷移する場合について示している。
 図11の左図において、表示器9の表示画面には、手書き入力モードに移行するための操作アイコン11a~11dが表示されている。また、触感タッチパネル10では、操作アイコン11の領域の触感は「ザラザラ」、操作アイコン11a~11dの領域以外の領域の触感は「半ザラザラ」になっている。図11の左図において、ユーザが操作アイコン11aをタッチすると、図11の右図に示すような表示画面に遷移する。
 図11の右図において、表示器9の表示画面には、手書き入力モードを解除するための操作アイコン11aと、手書き入力が可能なジェスチャー領域12とが表示されている。また、触感タッチパネル10では、操作アイコン11aの領域の触感は「ザラザラ」、ジェスチャー領域12の触感は「つるつる」となっている。図11の右図において、ユーザが操作アイコン11aをタッチすると、図11の左図に示すような表示画面に遷移する。
 上記の図9および図11において、操作アイコン11aは、触感が「動くザラザラ」であってもよく、特許文献3に実現方法が示されているように、物理的に盛り上がった形状であってもよい。
 以上のことから、本実施の形態1によれば、操作種別(アイコン操作、ジェスチャー操作)に応じて各領域の触感を異ならせているため、ユーザは操作時に表示画面に視線を集中させる必要がない。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
 また、実施の形態1では、触感制御装置4を車両に搭載する場合を一例として説明したものであるが、スマートフォンにおいて実施の形態1で説明した上記機能を実現してもよい。スマートフォンの場合は、ユーザが歩行しながら操作することが想定されるため、そのようなときに周囲への注意力低下を防止する効果が得られる。
 <実施の形態2>
 まず、本発明の実施の形態2による触感制御装置の構成について説明する。
 図12は、本実施の形態2による触感制御装置13の構成の一例を示すブロック図である。
 図12に示すように、触感制御装置13は、車両情報取得部14と、地図情報取得部15と、外部機器情報取得制御部16と、通信部17とを備えている。また、外部機器情報取得制御部16はオーディオ19およびエアコン20の各々と接続され、地図情報取得部15は地図DB(database)18と接続している。その他の構成は、実施の形態1(図7参照)と同様であるため、ここでは説明を省略する。
 車両情報取得部14は、車内LAN(Local Area Network)を介して、車両内に設けられた各種センサーによって検出されたセンサー情報(車速パルス情報など)、車両の制御情報、あるいはGPS(Global Positioning System)情報などを車両情報として取得する。
 地図情報取得部15は、地図DB18から地図情報を取得する。
 外部機器情報取得制御部16は、ユーザの操作対象となる外部機器(オーディオ19、エアコン20)に関する情報を外部機器情報(操作対象機器情報)として取得する。すなわち、外部機器情報取得制御部16は、操作対象機器情報取得部としての機能を有する。また、外部機器情報取得制御部16は、外部機器(オーディオ19、エアコン20)の制御を行う。
 通信部17は、通信端末(図示せず)と通信可能に接続されている。
 地図DB18は、地図情報を記憶している。なお、地図DB18は、車両に備えられてもよく、外部に設けられてもよい。
 次に、触感制御装置13の動作について説明する。
 図13は、触感制御装置13の動作の一例を示すフローチャートである。なお、図13のステップS25~ステップS27は、図8のステップS17~ステップS19に対応しているため、ここでは説明を省略する。
 ステップS21において、外部機器情報取得制御部16は、外部機器(オーディオ19、エアコン20)から外部機器情報を取得する。取得された外部機器情報は、制御部5に出力される。
 ステップS22において、表示情報生成出力部6は、制御部5の指示に従って表示情報を生成し、生成した表示情報を映像信号に変換して表示器9に出力する。このとき、表示情報には、外部機器情報が含まれている。
 ステップS23において、触感タッチパネル制御部7は、制御部5の指示に従って、表示画面全体の触感制御情報を「つるつる」に設定する。
 ステップS24において、触感タッチパネル制御部7は、制御部5の指示に従って、外部機器を操作するためのアイコンの領域の触感制御情報を機器ごとに設定する。
 次に、触感制御装置13の具体的な動作例について、図14を用いて説明する。
 図14において、表示器9の表示画面には、ナビゲーション操作アイコン21と、エアコン操作アイコン22と、ハンズフリー操作アイコン23とが表示されている。また、触感タッチパネル10では、ナビゲーション操作アイコン21の領域の触感は「ザラザラ」、エアコン操作アイコン22の領域の触感は「動くザラザラ」、ハンズフリー操作アイコン23の領域の触感は「半ザラザラ」となっている。
 ユーザがナビゲーションに関する操作(例えば、現在地から目的地までの経路探索などを行うための操作)を行う場合は、ナビゲーション操作アイコン21をタッチすることによって操作を行う。例えば、ユーザがナビゲーション操作アイコン21をタッチすると、制御部5は、車両情報取得部14にて取得された車両情報と、地図情報取得部15にて取得された地図情報とに基づいて経路探索等のナビゲーションに関する処理を行う。
 また、ユーザがエアコン20に関する操作(例えば、温度調整の操作)を行う場合は、エアコン操作アイコン22をタッチすることによって操作を行う。例えば、ユーザがエアコン操作アイコン22をタッチすると、制御部5は、外部機器情報取得制御部16に対してエアコン20を制御するよう指示する。外部機器情報取得制御部16は、制御部5の指示に従ってエアコン20を制御する。
 また、ユーザがハンズフリーで通話を行う場合は、ハンズフリー操作アイコン23をタッチすることによって操作を行う。例えば、ユーザがハンズフリー操作アイコン23をタッチすると、制御部5は、通信部17と通信端末との間における通信を確立し、ユーザが通信端末を介してハンズフリーで通話可能に制御する。
 なお、図14において、ナビゲーション操作アイコン21、エアコン操作アイコン22、およびハンズフリー操作アイコン23の各々は、物理的に盛り上がった形状であってもよい。また、ナビゲーション操作アイコン21、エアコン操作アイコン22、およびハンズフリー操作アイコン23以外の領域の触感は、「つるつる」であってもよい。
 上記では、外部機器ごとにアイコンの領域の触感を変える場合について説明したが、これに限るものではない。例えば、特定の外部機器(すなわち、同一の外部機器)の類似機能ごとにアイコンの領域の触感を変えるようにしてもよい。図15は、特定の外部機器の機能ごとにアイコンの領域の触感を変えた場合の一例を示す図である。
 図15において、表示器9の表示画面には、地図縮尺切り替えアイコン24と、表示切り替えアイコン25とが表示されている。ここで、表示切り替えアイコン25としては、例えばノースアップまたはヘディングアップの表示を切り替えるためのアイコンなどが挙げられる。また、触感タッチパネル10では、地図縮尺切り替えアイコン24の領域の触感は「ザラザラ」、表示切り替えアイコン25の領域の触感は「動くザラザラ」となっている。
 なお、図15では、ナビゲーション画面を一例として示したが、これに限るものではない。例えば、図15がオーディオ画面を示す場合は、音量調整アイコンの領域とチャンネル切り替えアイコンの領域とで触感を異ならせるようにしてもよい。また、図15において、地図縮尺切り替えアイコン24および表示切り替えアイコン25の各々は、物理的に盛り上がった形状であってもよい。
 以上のことから、本実施の形態2によれば、外部機器ごと、あるいは外部機器の機能ごとにアイコンの領域の触感を異ならせているため、ユーザは意図するアイコンを選択することが可能となる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
 <実施の形態3>
 本発明の実施の形態3では、表示器9が2画面で表示している場合について説明する。本実施の形態3による触感制御装置の構成は、実施の形態2による触感制御装置13(図12参照)と同様であるため、ここでは説明を省略する。
 図16は、本実施の形態3による触感制御装置の動作の一例を示す図である。
 図16において、表示器9には、左側の画面に自車位置が示された地図が表示され、右側の画面に経路案内画面と案内画面消去操作アイコンとが表示されている。また、触感タッチパネル10では、2画面の境界領域の触感は「動くザラザラ」、左側の画面の領域の触感は「つるつる」、右側の画面のうち、経路案内画面の領域の触感は「つるつる」、案内画面消去操作アイコンの領域の触感は「ザラザラ」、その他の領域の触感は「半ザラザラ」となっている。
 なお、図16では、2画面の境界領域の触感を変えているが、2画面を構成する各画面の背景領域の触感を変えてもよい。
 以上のことから、本実施の形態3によれば、ユーザは、2画面を構成する各画面の領域を触感で認識することができるため、誤って他の画面を操作することを防止することが可能となる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
 また、3画面以上の多重画面表示に本実施の形態3を適用しても、上記と同様の効果が得られる。
 <実施の形態4>
 本発明の実施の形態4では、表示器9がキーボードを表示している場合について説明する。本実施の形態4による触感制御装置の構成は、実施の形態1による触感制御装置4(図7参照)、あるいは実施の形態2による触感制御装置13(図12参照)と同様であるため、ここでは説明を省略する。
 図17は、本実施の形態4による触感制御装置の動作の一例を示すフローチャートである。なお、図17のステップS35~ステップS37は、図8のステップS17~ステップS19に対応しているため、ここでは説明を省略する。
 ステップS31において、制御部5は、キーボード情報を取得する。なお、キーボード情報は、制御部5が予め保持していてもよく、他の記憶部(図示せず)が記憶しておいてもよい。
 ステップS32において、表示情報生成出力部6は、制御部5の指示に従って表示情報を生成し、生成した表示情報を映像信号に変換して表示器9に出力する。このとき、表示情報には、キーボード情報が含まれている。
 ステップS33において、触感タッチパネル制御部7は、制御部5の指示に従って、表示画面全体の触感制御情報を予め定められた触感に設定する。
 ステップS34において、触感タッチパネル制御部7は、制御部5の指示に従って、各キーの領域ごとに触感制御情報を設定する。
 次に、本実施の形態4による触感制御装置の具体的な動作例について、図18~図23を用いて説明する。
 図18において、表示器9の表示画面には、キーボードが表示されている。また、触感タッチパネル10では、各キーの領域の触感は「つるつる」、キー以外の背景領域の触感は「動くザラザラ」となっている。このように、キーの領域とその他の領域との触感を異ならせることによって、ユーザは各キーの境界の認識が容易となることによって各キーの位置を容易に識別することができる。従って、2つ以上のキーを同時にタッチする誤操作を防止することができる。
 図19において、表示器9の表示画面には、キーボードが表示されている。また、触感タッチパネル10では、市松模様の配置となるように、キーの領域ごとに「つるつる」または「ザラザラ」の触感になっている。すなわち、各キー(操作領域)に対する触感が規則的に異なっている。また、キー以外の背景領域の触感は「半ザラザラ」となっている。このように、隣り合うキーごとに触感を異ならせることによって、ユーザは各キーの位置を容易に識別することができる。従って、ユーザが隣のキーを誤ってタッチするという誤操作を防止することができる。特に、表示器9および触感タッチパネル10がユーザの目の位置の前方正面ではなく、斜め前方の上下左右に設置される場合における誤操作の防止に効果を奏する。
 図20において、表示器9の表示画面には、キーボードが表示されている。また、触感タッチパネル10では、列ごとに異なるように、キーの領域ごとに「つるつる」または「ザラザラ」の触感になっている。すなわち、各キー(操作領域)に対する触感が規則的に異なっている。また、キー以外の背景領域の触感は「半ザラザラ」となっている。このように、列ごとにキーの領域の触感を異ならせることによって、ユーザが横から操作する場合において、視差のずれを認識することができるため、各キーの位置を容易に識別することができる。
 図21では、補助操作アイコンの領域(予め定められた操作領域)の触感を、各キーの領域の触感と異ならせている。その他の領域の触感については、図20と同様である。このように、各キーの領域と補助操作アイコンの領域との触感を異ならせることによって、ユーザは補助操作アイコンの位置を容易に識別することができる。
 図21に示す日本語入力の例において、補助操作アイコンとは、濁点アイコン「゛」および半濁点アイコン「゜」のことであり、2つのアイコン操作で1つの文字を入力することになる。外国語においても、ソフトウェアキーボード上で1つの文字を入力するための「補助操作アイコン」が必要な場合は、同様に触感を変えるものとする。また、補助操作アイコンではないが、種別が異なる文字間で触感を変えてもよい。例えば、「アルファベット」、「数字」、「#$&」などの特殊文字、ドイツ語では「ウムラウト」等が相当する。
 図22では、各キーの領域以外の領域の触感を「動くザラザラ」にしている。その他の領域の触感については、図19と同様である。このように、各キーの領域とその他の領域との触感を異ならせることによって、ユーザは各キーの位置を容易に識別することができる。
 図23では、各キーの行方向に存在する各キー間の境界領域の触感を、各キーの領域の触感とは異ならせている。その他の領域の触感については、図20と同様である。このように、各キー間の境界領域の触感を、各キーの領域の触感と異ならせることによって、ユーザは各キーの位置を容易に識別することができる。なお、図23では、行方向の境界領域の触感を異ならせているが、列方向の境界領域の触感を異ならせてもよい。
 上記の図18~23では、施設検索に用いるキーボードを一例として示しているが、これに限るものではない。例えば、間隔が狭いキーまたは操作アイコン間で触感を変えてもよい。音量の上下用の操作アイコン、地図の8方向スクロール用の操作アイコンなど、類似機能の操作アイコンは隣に配置することが通常であり、このような操作アイコンの誤操作を削減することができる。また、スマートフォンの複数のアプリケーション起動用のアイコンが表示されている場合にも上記と同様の効果が得られる。
 以上のことから、本実施の形態4によれば、ユーザによるキーボードの誤操作を防止することが可能となる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
 <実施の形態5>
 本発明の実施の形態5では、触感タッチパネル10が、表示器9の表示画面(表示領域)以外の領域(非表示領域)にまで延在して設けられている場合について説明する。本実施の形態5による触感制御装置の構成は、実施の形態2による触感制御装置13(図12参照)と同様であるため、ここでは説明を省略する。
 図24は、本実施の形態5による触感制御装置の動作の一例を示す図である。
 図24において、表示器9の表示画面は表示領域に対応し、触感タッチパネル10の領域は表示領域と非表示領域とを合わせた領域に対応している。表示器9には、地図上の自車位置と、各種操作を行うためのアイコン(「CD再生」、「CD停止」、「周辺検索」、「ルート変更」)とが表示されている。また、触感タッチパネル10では、表示領域に表示されたアイコンの領域の触感は「つるつる」、非表示領域における操作アイコン26の領域の触感は「ザラザラ」、非表示領域における操作アイコン26以外の背景領域の触感は「つるつる」となっている。ここで、操作アイコン26としては、例えばエアコンの機能を操作するためのボタン、AV(Audio Visual)の機能を操作するためのボタン、ナビゲーションの機能を操作するためのボタン等が挙げられる。このように、各領域で異なる触感とすることによって、ユーザは特に非表示領域における操作アイコン26の位置を容易に識別することができる。
 なお、操作アイコン26の触感は「動くザラザラ」であってもよい。また、非表示領域の背景領域の触感を「半ザラザラ」とし、表示領域の背景領域(各アイコンの領域以外の領域)の触感を「つるつる」としてもよい。また、非表示領域にジェスチャー領域をさらに設け、当該ジェスチャー領域の触感を「つるつる」としてもよい。
 図25は、本実施の形態5による触感制御装置の動作の他の一例を示す図である。
 図25において、表示器9の表示画面は表示領域に対応し、触感タッチパネル10の領域は表示領域と非表示領域とを合わせた領域に対応している。表示器9には、地図上の自車位置と、各種操作を行うためのアイコン(「CD再生」、「CD停止」、「周辺検索」、「ルート変更」)が表示されている。また、触感タッチパネル10では、表示領域に表示されたアイコンの領域の触感は「半ザラザラ」、表示領域の背景領域の触感は「つるつる」、非表示領域における操作アイコン26の領域の触感は「ザラザラ」、非表示領域における操作アイコン26以外の背景領域の触感は「半ザラザラ」となっている。また、表示領域と非表示領域との間の境界領域の触感は「動くザラザラ」となっている。このように、ユーザは、各領域を認識することができるため、誤って他の領域のアイコンを操作することを防止することが可能となる。
 以上のことから、本実施の形態5によれば、ユーザは、非表示領域における操作アイコン26の位置を容易に識別することができる。また、ユーザは、各領域を認識することができるため、誤って他の領域のアイコンを操作することを防止することが可能となる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。また、図25では、表示領域と非表示領域との2つの領域に分割したが、表示領域または非表示領域を複数に分割してもよい。例えば、非表示領域をタッチ操作を受け付ける領域とジェスチャー操作を受け付ける領域とに分割し、背景の領域および操作アイコンの領域を分割した各領域で変えてもよい。
 <実施の形態6>
 まず、本発明の実施の形態6による触感制御装置27の構成について説明する。
 図26は、本実施の形態6による触感制御装置27の構成の一例を示すブロック図である。
 図26に示すように、触感制御装置27は、触感タッチパッド制御部28を備えており、表示情報生成出力部6は表示器29に接続され、触感タッチパッド制御部28および操作情報取得部8は触感タッチパッド30に接続されている。その他の構成は、実施の形態2による触感制御装置13(図12参照)と同様(ただし、図12の通信部17を除く)であるため、ここでは説明を省略する。
 触感タッチパッド制御部28は、図12の触感タッチパネル制御部7と同様の機能を有している。すなわち、触感タッチパッド制御部28は、制御部5の指示に基づいて、触感制御情報を触感タッチパッド30に出力する。
 表示器29は、車両のインストルメントパネル部のメータパネル(例えば、図28のメータパネル31を参照)に設けられている。
 触感タッチパッド30は、表示器29とは異なる箇所に別個に設けられている。
 次に、触感制御装置27の動作について説明する。
 図27は、触感制御装置27の動作の一例を示すフローチャートである。
 ステップS41において、外部機器情報取得制御部16は、外部機器(オーディオ19、エアコン20)から外部機器情報を取得する。取得された外部機器情報は、制御部5に出力される。
 ステップS42において、表示情報生成出力部6は、制御部5の指示に従って表示情報を生成し、生成した表示情報を映像信号に変換して表示器9に出力する。このとき、表示情報には、外部機器情報が含まれている。
 ステップS43において、触感タッチパッド制御部28は、制御部5の指示に従って、触感タッチパッド30全体の触感制御情報を「つるつる」に設定する。
 ステップS44において、触感タッチパッド制御部28は、制御部5の指示に従って、外部機器を操作するためのアイコンの領域に対応する触感タッチパッド30の位置に触感を生成するように触感制御情報を設定する。
 ステップS45において、触感タッチパッド制御部28は、ステップS43およびステップS44にて設定された触感制御情報を触感タッチパッド30に出力する。触感タッチパッド30では、触感タッチパッド制御部28から入力された触感制御情報に基づいて、領域ごとに異なる触感が生じた状態となる。
 ステップS46において、制御部5は、操作情報取得部8を介して、ユーザが触感タッチパッド30を操作したか否かを判断する。ユーザが触感タッチパッド30を操作するまで待機し、ユーザが触感タッチパッド30を操作した場合は、ステップS47に移行する。
 ステップS47において、制御部5は、ユーザの操作に応じた表示画面の遷移を行う。
 次に、触感制御装置27の具体的な動作例について、図28および図29を用いて説明する。
 図28は、メータパネル31に設けられた表示器29における表示の一例を示している。図28に示すように、メータパネル31には、表示器29および各種計器が設けられている。表示器29には、地図上における自車位置と、各種操作を行うためのアイコン(「CD再生」、「CD停止」、「周辺検索」、「ルート変更」)が表示されている。なお、表示器29は、メータパネル31の全域を表示器29の表示領域としてもよい。
 図29は、触感タッチパッド30における各領域の触感の一例を示しており、操作アイコン32の領域の触感は「ザラザラ」、操作アイコン32以外の領域の触感は「つるつる」となっている。
 触感タッチパッド30における縦yおよび横xからなる領域は、表示器29における縦Yおよび横Xからなる領域に対応している。なお、触感タッチパッド30における縦yおよび横xからなる領域の大きさと、表示器29における縦Yおよび横Xからなる領域の大きさとは、同じであってもよく、相似関係であってもよく、相似関係でなくてもよい。また、触感タッチパッド30における各操作アイコン32は、表示器29における各アイコンに対応している。例えば、図28および図29に示すように、ユーザが触感タッチパッド30における一番上の操作アイコン32をタッチすると、表示器29における「CD再生」アイコンが選択される。このとき、触感タッチパッド30のタッチ位置に対応する表示器29の位置にプロンプト(手のマーク)を表示するようにしてもよい。
 上記では、触感タッチパッド30は、ユーザが触感タッチパッド30にタッチしたことを検出する機能を有するものとして説明したが、これに限るものではない。例えば、触感タッチパッド30は、指示物(例えば、ユーザの指など)の3次元における位置を検出する機能を有するものであってもよく、静電式のタッチパッド指示物(タッチパッドに対して指示する指示物)の3次元における位置を検出する機能を有するものであってもよい。3次元における指示物の位置の検出は、例えば静電式のタッチパネルを使用する、あるいは画像処理による指示物の位置を認識することによって実現可能である。図30および図31は、触感タッチパッド30が3次元における指示物の位置を認識する機能を有する場合における触感制御装置27の具体的な動作例を示す図である。図30に示す触感タッチパッド30おける各領域の触感、および図31に示す表示器29おける表示については、図28および図29と同様であるため、ここでは説明を省略する。
 触感タッチパッド30上の3次元位置を検出する機能がない場合は、表示器29の位置にプロンプト(手のマーク)を表示しなくてもよい。また、触感タッチパッド30に軽く触れた場合にプロンプト(手のマーク)を表示し、押し込む操作をした場合に当該操作アイコンが操作されたとして処理を進めてもよい。
 図30に示すように、ユーザが触感タッチパッド30に指を近づける動作を行う場合において、ユーザの指が触感タッチパッド30から予め定められた距離(高さ方向の距離z)以内の位置に存在すると、図31に示すように、表示器29の表示画面において、触感タッチパッド30が検出した指のXY座標に対応するプロンプトが表示される。
 以上のことから、本実施の形態6によれば、ユーザは触感タッチパッド30を見ることなく、表示器29に表示された各アイコンの操作を行うことが可能となる。すなわち、ユーザにとって使い勝手の良い操作を行うことができる。
 以上で説明した触感制御装置は、車載用ナビゲーション装置、すなわちカーナビゲーション装置だけでなく、車両に搭載可能なPND(Portable Navigation Device)および携帯通信端末(例えば、携帯電話、スマートフォン、およびタブレット端末など)、並びにサーバなどを適宜に組み合わせてシステムとして構築されるナビゲーション装置あるいはナビゲーション装置以外の装置にも適用することができる。この場合、触感制御装置の各機能あるいは各構成要素は、上記システムを構築する各機能に分散して配置される。
 具体的には、一例として、触感制御装置の機能をサーバに配置することができる。例えば、図32に示すように、ユーザ側に表示装置34および触感タッチパネル35(あるいは触感タッチパッド)を備え、サーバ33に少なくとも操作領域情報取得部2および触感制御部3を備えることによって触感制御システムを構築することができる。なお、操作領域情報取得部2および触感制御部3の機能は、図1の操作領域情報取得部2および触感制御部3の機能と同様である。また、サーバ33は、必要に応じて図7,12,26に示すような各構成要素を備えるようにしてもよい。このとき、サーバ33に備えられる各構成要素は、適宜にサーバ33および表示装置34に分散して配置するようにしてもよい。
 また、他の一例として、触感制御装置の機能をサーバおよび携帯通信端末に配置することができる。例えば、図33に示すように、ユーザ側に表示装置34および触感タッチパネル35(あるいは触感タッチパッド)を備え、サーバ36に少なくとも操作領域情報取得部2を備え、携帯通信端末37に少なくとも触感制御部3を備えることによって触感制御システムを構築することができる。なお、操作領域情報取得部2および触感制御部3の機能は、図1の操作領域情報取得部2および触感制御部3の機能と同様である。また、サーバ36および携帯通信端末37は、必要に応じて図7,12,26に示すような各構成要素を備えるようにしてもよい。このとき、サーバ36および携帯通信端末37に備えられる各構成要素は、適宜に表示装置34、サーバ36、および携帯通信端末37に分散して配置するようにしてもよい。
 上記の構成とした場合であっても、上記の実施の形態と同様の効果が得られる。
 また、上記の実施の形態における動作を実行するソフトウェア(触感制御方法)を、例えばサーバや携帯通信端末に組み込んでもよい。
 具体的には、一例として、上記の触感制御方法は、タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、操作面におけるユーザが操作を行う操作領域および当該操作領域に対応する操作種別の情報を操作領域情報として取得し、取得した操作領域情報の操作領域が当該操作領域に対応する操作種別に応じた触感となるように操作面の触感を制御する。
 上記より、上記の実施の形態における動作を実行するソフトウェアをサーバや携帯通信端末に組み込んで動作させることによって、上記の実施の形態と同様の効果が得られる。
 なお、図1,7,12,26,32,33において、操作領域情報取得部2、触感制御部3、制御部5、表示情報生成出力部6、触感タッチパネル制御部7、操作情報取得部8、車両情報取得部14、地図情報取得部15、外部機器情報取得制御部16、通信部17、および触感タッチパッド制御部28の各々は、ソフトウェアに基づくCPU(Central Processing Unit)を用いたプログラム処理を実行することによって実現される。また、可能であれば、操作領域情報取得部2、触感制御部3、制御部5、表示情報生成出力部6、触感タッチパネル制御部7、操作情報取得部8、車両情報取得部14、地図情報取得部15、外部機器情報取得制御部16、通信部17、および触感タッチパッド制御部28の各々を、ハードウェア(例えば、電気信号に対して特定の演算あるいは処理を行うように構成された演算/処理回路等)として構成するようにしてもよい。また、上記の両者を混在させてもよい。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1 触感制御装置、2 操作領域情報取得部、3 触感制御部、4 触感制御装置、5 制御部、6 表示情報生成出力部、7 触感タッチパネル制御部、8 操作情報取得部、9 表示器、10 触感タッチパネル、11 操作アイコン、12 ジェスチャー領域、13 触感制御装置、14 車両情報取得部、15 地図情報取得部、16 外部機器情報取得制御部、17 通信部、18 地図DB、19 オーディオ、20 エアコン、21 ナビゲーション操作アイコン、22 エアコン操作アイコン、23 ハンズフリー操作アイコン、24 地図縮尺切り替えアイコン、25 表示切り替えアイコン、26 操作ボタン、27 触感制御装置、28 触感タッチパッド制御部、29 表示器、30 触感タッチパッド、31 メータパネル、32 操作アイコン、33 サーバ、34 表示装置、35 触感タッチパネル、36 サーバ、37 携帯通信端末。

Claims (15)

  1.  タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御システムであって、
     前記操作面における前記ユーザが操作を行う操作領域および当該操作領域に対応する操作種別の情報を操作領域情報として取得する操作領域情報取得部と、
     前記操作領域情報取得部にて取得された前記操作領域情報の前記操作領域が当該操作領域に対応する前記操作種別に応じた触感となるように前記操作面の前記触感を制御する触感制御部と、
    を備える、触感制御システム。
  2.  前記触感制御部は、時間的に触感が変化しない静的な触感と、時間的に触感の強さまたは触感の位置が変化する動的な触感とを生成することを特徴とする、請求項1に記載の触感制御システム。
  3.  前記操作種別が前記ユーザによるジェスチャー操作である場合において、
     前記触感制御部は、前記ジェスチャー操作を受け付ける操作領域を予め定められた触感となるように前記触感を制御することを特徴とする、請求項1に記載の触感制御システム。
  4.  前記操作種別が前記ユーザによるアイコン操作である場合において、
     前記触感制御部は、前記アイコン操作に対応する予め定められた触感となるように前記触感を制御することを特徴とする、請求項1に記載の触感制御システム。
  5.  前記触感制御部は、前記操作面における前記操作領域に対する前記触感と、前記操作面における当該操作領域以外の非操作領域に対する前記触感とが異なるように制御することを特徴とする、請求項1に記載の触感制御システム。
  6.  前記触感制御部は、前記操作領域情報の前記操作領域が示す操作種別に応じて、前記操作面に対して前記操作領域が盛り上がるように制御することを特徴とする、請求項1に記載の触感制御システム。
  7.  前記操作面は、少なくとも1つ以上の前記操作領域を含む複数の領域を有し、
     前記触感制御部は、各前記領域の境界に対応する領域が予め定められた触感となるように前記触感を制御することを特徴とする、請求項1に記載の触感制御システム。
  8.  前記操作面は、少なくとも1つ以上の前記操作領域を含む複数の領域を有し、
     前記触感制御部は、各前記領域ごとに前記触感を制御することを特徴とする、請求項1に記載の触感制御システム。
  9.  前記操作面は、前記操作領域を複数有し、
     前記触感制御部は、各前記操作領域に対する前記触感が規則的に異なるように制御することを特徴とする、請求項1に記載の触感制御システム。
  10.  前記操作面は、前記操作領域を複数有し、
     前記触感制御部は、予め定められた前記操作領域に対する前記触感と、他の前記操作領域に対する前記触感とが異なるように制御することを特徴とする、請求項1に記載の触感制御システム。
  11.  前記ユーザの操作対象となる機器または当該機器の機能に関する情報を操作対象機器情報として取得する操作対象機器情報取得部をさらに備え、
     前記触感制御部は、前記操作対象機器情報取得部にて取得された前記操作対象機器情報に基づいて、前記機器または前記機能に対応するように前記触感を制御することを特徴とする、請求項1に記載の触感制御システム。
  12.  前記触感制御部は、異なる前記機器に対応する前記操作領域の前記触感がそれぞれ異なるように制御することを特徴とする、請求項11に記載の触感制御システム。
  13.  前記触感制御部は、同一の前記機器における類似機能に対応する前記操作領域の前記触感が同じになるように制御することを特徴とする、請求項11に記載の触感制御システム。
  14.  前記触感制御部は、前記機器または前記機能に対応する領域が前記操作面に対して盛り上がるように制御することを特徴とする、請求項11に記載の触感制御システム。
  15.  タッチパネルまたはタッチパッドの操作面に対する操作時のユーザの触感を制御する触感制御方法であって、
     前記操作面における前記ユーザが操作を行う操作領域および当該操作領域に対応する操作種別の情報を操作領域情報として取得し、
     前記取得した前記操作領域情報の前記操作領域が当該操作領域に対応する前記操作種別に応じた触感となるように前記操作面の前記触感を制御する、触感制御方法。
PCT/JP2014/073768 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法 Ceased WO2016038675A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US15/319,511 US20170139479A1 (en) 2014-09-09 2014-09-09 Tactile sensation control system and tactile sensation control method
PCT/JP2014/073768 WO2016038675A1 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法
DE112014006934.5T DE112014006934T5 (de) 2014-09-09 2014-09-09 Tastempfindung-Steuersystem und Tastempfindung-Steuerverfahren
CN201480081814.0A CN106687905B (zh) 2014-09-09 2014-09-09 触感控制系统及触感控制方法
JP2016547283A JP6429886B2 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/073768 WO2016038675A1 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法

Publications (1)

Publication Number Publication Date
WO2016038675A1 true WO2016038675A1 (ja) 2016-03-17

Family

ID=55458468

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/073768 Ceased WO2016038675A1 (ja) 2014-09-09 2014-09-09 触感制御システムおよび触感制御方法

Country Status (5)

Country Link
US (1) US20170139479A1 (ja)
JP (1) JP6429886B2 (ja)
CN (1) CN106687905B (ja)
DE (1) DE112014006934T5 (ja)
WO (1) WO2016038675A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190088133A (ko) * 2018-01-05 2019-07-26 엘지전자 주식회사 입출력 장치 및 그것을 포함하는 차량
JP2019159781A (ja) * 2018-03-13 2019-09-19 株式会社デンソー 触覚呈示制御装置
JP2022118430A (ja) * 2021-02-02 2022-08-15 株式会社デンソーテン 情報提示装置、情報提示システムおよび情報提示方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102591807B1 (ko) * 2016-11-21 2023-10-23 한국전자통신연구원 촉감자극을 생성하는 방법 및 장치
US11145172B2 (en) 2017-04-18 2021-10-12 Sony Interactive Entertainment Inc. Vibration control apparatus
WO2018198229A1 (ja) 2017-04-26 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
WO2019038888A1 (ja) 2017-08-24 2019-02-28 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
US11738261B2 (en) * 2017-08-24 2023-08-29 Sony Interactive Entertainment Inc. Vibration control apparatus
WO2019043781A1 (ja) 2017-08-29 2019-03-07 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置、振動制御方法、及びプログラム
US10761569B2 (en) * 2018-02-14 2020-09-01 Microsoft Technology Licensing Llc Layout for a touch input surface
DE102018208827A1 (de) 2018-06-05 2019-12-05 Bayerische Motoren Werke Aktiengesellschaft Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zum Ermitteln einer Anwendereingabe

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005512241A (ja) * 2001-12-12 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 触感ガイダンスを有する表示システム
JP2006268068A (ja) * 2005-03-22 2006-10-05 Fujitsu Ten Ltd タッチパネル装置
JP2010009321A (ja) * 2008-06-26 2010-01-14 Kyocera Corp 入力装置
JP2014102654A (ja) * 2012-11-19 2014-06-05 Aisin Aw Co Ltd 操作支援システム、操作支援方法及びコンピュータプログラム
JP2014112357A (ja) * 2012-10-31 2014-06-19 Immersion Corp 触覚効果を用いてユーザインタフェース上で表面フィーチャをシミュレートする方法及び装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005116811A1 (ja) * 2004-05-31 2005-12-08 Pioneer Corporation タッチパネル装置、カーナビゲーション装置、タッチパネル制御方法、タッチパネル制御プログラムおよび記録媒体
JP2008191086A (ja) * 2007-02-07 2008-08-21 Matsushita Electric Ind Co Ltd ナビゲーション装置
BRPI0804355A2 (pt) * 2008-03-10 2009-11-03 Lg Electronics Inc terminal e método de controle do mesmo
WO2011024434A1 (ja) * 2009-08-27 2011-03-03 京セラ株式会社 触感呈示装置及び触感呈示装置の制御方法
JP5635274B2 (ja) * 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法
JP5689362B2 (ja) * 2011-05-23 2015-03-25 株式会社東海理化電機製作所 入力装置
JP5811597B2 (ja) * 2011-05-31 2015-11-11 ソニー株式会社 ポインティングシステム、ポインティングデバイス及びポインティング制御方法
US9312694B2 (en) * 2012-07-03 2016-04-12 Oracle International Corporation Autonomous power system with variable sources and loads and associated methods
CN103869940B (zh) * 2012-12-13 2018-02-16 富泰华工业(深圳)有限公司 触感反馈系统、电子装置及其提供触感反馈的方法
JP6168780B2 (ja) * 2013-01-30 2017-07-26 オリンパス株式会社 タッチ操作装置及びその制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005512241A (ja) * 2001-12-12 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 触感ガイダンスを有する表示システム
JP2006268068A (ja) * 2005-03-22 2006-10-05 Fujitsu Ten Ltd タッチパネル装置
JP2010009321A (ja) * 2008-06-26 2010-01-14 Kyocera Corp 入力装置
JP2014112357A (ja) * 2012-10-31 2014-06-19 Immersion Corp 触覚効果を用いてユーザインタフェース上で表面フィーチャをシミュレートする方法及び装置
JP2014102654A (ja) * 2012-11-19 2014-06-05 Aisin Aw Co Ltd 操作支援システム、操作支援方法及びコンピュータプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190088133A (ko) * 2018-01-05 2019-07-26 엘지전자 주식회사 입출력 장치 및 그것을 포함하는 차량
KR102135376B1 (ko) * 2018-01-05 2020-07-17 엘지전자 주식회사 입출력 장치 및 그것을 포함하는 차량
US10732715B2 (en) 2018-01-05 2020-08-04 Lg Electronics Inc. Input output device and vehicle comprising the same
JP2019159781A (ja) * 2018-03-13 2019-09-19 株式会社デンソー 触覚呈示制御装置
JP2022118430A (ja) * 2021-02-02 2022-08-15 株式会社デンソーテン 情報提示装置、情報提示システムおよび情報提示方法
JP7523376B2 (ja) 2021-02-02 2024-07-26 株式会社デンソーテン 情報提示装置、情報提示システムおよび情報提示方法

Also Published As

Publication number Publication date
CN106687905B (zh) 2021-02-26
JPWO2016038675A1 (ja) 2017-04-27
DE112014006934T5 (de) 2017-06-14
CN106687905A (zh) 2017-05-17
JP6429886B2 (ja) 2018-11-28
US20170139479A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
CN106687905B (zh) 触感控制系统及触感控制方法
US20110221776A1 (en) Display input device and navigation device
JP6258513B2 (ja) 触感制御システムおよび触感制御方法
CN107918504B (zh) 车载操作装置
JP2019175449A (ja) 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム
US20150052476A1 (en) Display device, display control method, and program
CN104220970B (zh) 显示装置
CN102741794A (zh) 处理触觉输入
US20130201126A1 (en) Input device
US9582150B2 (en) User terminal, electronic device, and control method thereof
JP5852514B2 (ja) タッチセンサ
GB2517284A (en) Operation input device and input operation processing method
WO2018123320A1 (ja) ユーザーインターフェイス装置及び電子機器
JP6463457B2 (ja) 地図表示制御装置および地図スクロールの操作感触制御方法
US20160253088A1 (en) Display control apparatus and display control method
JP6483379B2 (ja) 触感制御システムおよび触感制御方法
CN106687906B (zh) 触感控制系统及触感控制方法
JP2013250942A (ja) 入力システム
JP2013134717A (ja) 操作入力システム
JPWO2015151154A1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
JP2018124811A (ja) 操作装置
JP2015111369A (ja) 電子装置
JP2006330428A (ja) 地図表示装置
US20170010798A1 (en) Manipulation system
JP2013250943A (ja) 入力システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14901795

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016547283

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15319511

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 112014006934

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14901795

Country of ref document: EP

Kind code of ref document: A1