CN106687905A - 触感控制系统及触感控制方法 - Google Patents
触感控制系统及触感控制方法 Download PDFInfo
- Publication number
- CN106687905A CN106687905A CN201480081814.0A CN201480081814A CN106687905A CN 106687905 A CN106687905 A CN 106687905A CN 201480081814 A CN201480081814 A CN 201480081814A CN 106687905 A CN106687905 A CN 106687905A
- Authority
- CN
- China
- Prior art keywords
- sense
- touch
- tactile
- area
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/25—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/018—Input/output arrangements for oriental characters
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/003—Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
- G09B29/106—Map spot or coordinate position indicators; Map reading aids using electronic means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/143—Touch sensitive instrument input devices
- B60K2360/1438—Touch screens
- B60K2360/1442—Emulation of input devices
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/014—Force feedback applied to GUI
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明的目的在于提供一种可使用户在操作时不用将视线集中在显示画面上的情况下进行使用方便的操作的触感控制系统及触感控制方法。本发明的触感控制系统控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其包括:操作区域信息获取部,该操作区域信息获取部获取操作面中用户进行操作的操作区域及该操作区域所对应的操作类别的信息以作为操作区域信息;及触感控制部,该触感控制部控制操作面的触感,使得由操作区域信息获取部获取到的操作区域信息中的操作区域具有与该操作区域所对应的操作类别相应的触感。
Description
技术领域
本发明涉及控制对触摸屏或触摸板的操作面进行操作时的用户的触感的触感控制系统及触感控制方法。
背景技术
以往,存在在用户对包括触摸屏的显示装置的显示画面进行操作时向用户提供与操作相对应的触感的技术。
例如,公开有通过向手指照射超声波来向手指提供触感的技术(例如参照专利文献1、2)。此外,公开有通过利用超声波振动使触摸屏的任意区域振动来向用户提供触感的技术(例如参照非专利文献1)。此外,公开有通过使触摸屏的任意区域动态(物理上)起伏来提供触感的技术(例如参照专利文献3)。
现有技术文献
专利文献
专利文献1:日本专利特开2003-29898号公报
专利文献2:国际公开第2012/102026号
专利文献3:日本专利特表2005-512241号公报
非专利文献
非专利文献1:“试制装载有获得触感的触摸屏的平板”、[online]、平成26年2月24日、富士通株式会社、[平成26年5月12日]、互联网〈URL:http://pr.fujitsu.com/jp/news/2014/02/24.html?nw=pr〉
发明内容
发明所要解决的技术问题
用户若使用专利文献1~3及非专利文献1的技术,则会认为在进行操作时可不用将视线集中在显示画面上而依赖触感来进行操作。然而,在专利文献1~3及非专利文献1中,对于具体使用没有任何揭示,不能说提供了使用方便的用户界面。
本发明是为了解决这种问题而完成的,其目的在于提供一种可使用户在操作时不用将视线集中在显示画面上的情况下进行使用方便的操作的触感控制系统及触感控制方法。
解决技术问题的技术方案
为了解决上述问题,本发明所涉及的触感控制系统控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其包括:操作区域信息获取部,该操作区域信息获取部获取操作面中用户进行操作的操作区域及该操作区域所对应的操作类别的信息以作为操作区域信息;及触感控制部,该触感控制部控制操作面的触感,使得由操作区域信息获取部获取到的操作区域信息中的操作区域具有与该操作区域所对应的操作类别相应的触感。
此外,本发明所涉及的触感控制方法控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其获取操作面中用户进行操作的操作区域及该操作区域所对应的操作类别的信息以作为操作区域信息,控制操作面的触感,使得获取到的操作区域信息中的操作区域具有与该操作区域所对应的操作类别相应的触感。
发明效果
根据本发明,触感控制系统控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其包括:操作区域信息获取部,该操作区域信息获取部获取操作面中用户进行操作的操作区域及该操作区域所对应的操作类别的信息以作为操作区域信息;及触感控制部,该触感控制部控制操作面的触感,使得由操作区域信息获取部获取到的操作区域信息中的操作区域具有与该操作区域所对应的操作类别相应的触感,因此,可使用户在操作时不用将视线集中在显示画面上的情况下进行使用方便的操作。
此外,触感控制方法控制对触摸屏或触摸板的操作面进行操作时的用户的触感,获取操作面中用户进行操作的操作区域及该操作区域所对应的操作类别的信息以作为操作区域信息,控制操作面的触感,使得获取到的操作区域信息中的操作区域具有与该操作区域所对应的操作类别相应的触感,因此,可使用户在操作时不用将视线集中在显示画面上的情况下进行使用方便的操作。
本发明的目的、特征、形态以及优点通过以下详细的说明和附图会变得更为明了。
附图说明
图1是表示本发明实施方式1所涉及的触感控制装置的结构的一个示例的框图。
图2是用于说明本发明实施方式1所涉及的触感的图。
图3是用于说明本发明实施方式1所涉及的触感的图。
图4是用于说明本发明实施方式1所涉及的触感的图。
图5是用于说明本发明实施方式1所涉及的触感的图。
图6是用于说明本发明实施方式1所涉及的触感的图。
图7是表示本发明实施方式1所涉及的触感控制装置的结构的另一个示例的框图。
图8是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的流程图。
图9是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图10是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图11是表示本发明实施方式1所涉及的触感控制装置的动作的一个示例的图。
图12是表示本发明实施方式2所涉及的触感控制装置的结构的一个示例的框图。
图13是表示本发明实施方式2所涉及的触感控制装置的动作的一个示例的流程图。
图14是表示本发明实施方式2所涉及的触感控制装置的动作的一个示例的图。
图15是表示本发明实施方式2所涉及的触感控制装置的动作的一个示例的图。
图16是表示本发明实施方式3所涉及的触感控制装置的动作的一个示例的图。
图17是表示本发明实施方式4所涉及的触感控制装置的动作的一个示例的流程图。
图18是表示本发明实施方式4所涉及的触感控制装置的动作的一个示例的图。
图19是表示本发明实施方式4所涉及的触感控制装置的动作的一个示例的图。
图20是表示本发明实施方式4所涉及的触感控制装置的动作的一个示例的图。
图21是表示本发明实施方式4所涉及的触感控制装置的动作的一个示例的图。
图22是表示本发明实施方式4所涉及的触感控制装置的动作的一个示例的图。
图23是表示本发明实施方式4所涉及的触感控制装置的动作的一个示例的图。
图24是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图25是表示本发明实施方式5所涉及的触感控制装置的动作的一个示例的图。
图26是表示本发明实施方式6所涉及的触感控制装置的结构的一个示例的框图。
图27是表示本发明实施方式6所涉及的触感控制装置的动作的一个示例的流程图。
图28是表示本发明实施方式6所涉及的触感控制装置的动作的一个示例的图。
图29是表示本发明实施方式6所涉及的触感控制装置的动作的一个示例的图。
图30是表示本发明实施方式6所涉及的触感控制装置的动作的一个示例的图。
图31是表示本发明实施方式6所涉及的触感控制装置的动作的一个示例的图。
图32是表示本发明实施方式所涉及的触感控制系统的结构的一个示例的框图。
图33是表示本发明实施方式所涉及的触感控制系统的结构的另一个示例的框图。
具体实施方式
下面,基于附图,说明本发明的实施方式。
<实施方式1>
首先,对本发明实施方式1所涉及的触感控制系统的结构进行说明。另外,在本实施方式及以下的各实施方式中,对利用触感控制装置单体实现了触感控制系统的情况进行说明。
图1是表示本实施方式1所涉及的触感控制装置1的结构的一个示例的框图。另外,在图1中,示出了构成触感控制装置1的所需要的最小限度的结构要素。
如图1所示,触感控制装置1至少包括操作区域信息获取部2及触感控制部3。
操作区域信息获取部2获取触摸屏或触摸板的操作面中用户进行操作的操作区域及该操作区域所对应的操作类别的信息以作为操作区域信息。
触感控制部3控制操作面的触感,使得由操作区域信息获取部2获取到的操作区域信息的操作区域具有与该操作区域所对应的操作类别相应的触感。
这里,利用图2~6说明触感控制部3所控制的触感。
图2是表示“光滑”、“半粗糙”及“粗糙”这三种触感的一个示例的图。
图2中,横轴表示触感的强度,最左侧的一列表示“光滑”,中央的两列表示“半粗糙”,最右侧的一列表示“粗糙”。此外,通过例如利用超声波振动使各四方形内所示的黑色所呈现的点、线的图案部分振动,从而呈现四方形内整体的触感。即,在例如各四方形内的振动的强度相同的情况下,与图2的左侧相比,右侧的“粗糙”的触感要变强。具体而言,图2的第1行表示点的孔越大,粗糙触感越强,第2行表示格子的间隔越窄,粗糙触感越强,第3行表示随着从虚线变成实线、且线变粗,粗糙触感变强。另外,粗糙触感的图案并不限于图2,存在无数组合。
图2的示例示出了即使振动强度相同,通过改变图案也可获得不同的粗糙触感的方法,但即使是同一图案,若改变振动强度,也可获得不同的粗糙触感。
“光滑”的触感例如可通过不进行超声波振动来呈现。
“粗糙”的触感例如可通过以预定的阈值以上的强度进行超声波振动来呈现。
“半粗糙”的触感例如可通过进行小于上述阈值的超声波振动来呈现。
此外,通过将振动强度与图2所示的粗糙触感的图案这双方进行组合,可呈现粗糙触感的强弱。
图2中,对粗糙触感的图案及振动强度不变化的静态粗糙触感的产生进行了说明,但也可通过使振动强弱随时间进行变化,或使粗糙触感的图案随时间变化(即通过使振动强弱或粗糙触感的图案动态变化),从而呈现动态粗糙触感。
图3~5是表示通过使振动强度随时间变化来产生“动态粗糙”的触感的一个示例的图。图3~5中,横轴表示时间,纵轴表示触感的强度。
图3示出使触感的强度固定、且该触感以固定周期产生的情况。此外,图4示出使触感的强度变化、且该触感以固定周期产生的情况。此外,图5示出使触感的强度固定、且该触感的产生周期变化的情况。
通过如图3~5所示那样使触感变化,从而用户可获得例如“粗糙”的区域在移动这样的触感(即,“动态粗糙”的触感)。另外,图3~5中,交替切换“粗糙”的触感和“光滑”的触感,但也可交替切换“粗糙”的触感和“半粗糙”的触感,也可使“粗糙”的触感连续切换而非离散切换,也可将连续变化和离散变化自由组合。
图6是表示通过使粗糙触感的图案随时间变化来产生“动态粗糙”的触感的另一个示例的图。图6中,纵轴表示时间。此外,区域a及区域b具有例如“粗糙”的触感。
如图6所示,区域a及区域b随着时间的经过,其位置进行移动。由此,通过使具有触感的区域a及区域b移动,从而用户可获得例如“粗糙”的区域在移动这样的触感(即,“动态粗糙”的触感)。另外,区域a及区域b各自也可具有图3~5中任一方所示的触感。
另外,图6中,使“粗糙”的触感的区域和“光滑”的触感的区域随时间移动,但也可构成“粗糙”的触感的区域和“半粗糙”的触感的区域并使其随时间移动,也可构成“粗糙”的触感离散变化或连续变化的区域,并使该区域随时间移动。图3~6中,在采用连续变化的“粗糙”的触感的情况下,可获得流畅的“动态粗糙”的触感。
接下来,对包含图1的操作区域信息获取部2及触感控制部3的触感控制装置1的其它结构进行说明。
图7是表示触感控制装置4的结构的一个示例的框图。
如图7所示,触感控制装置4包括控制部5、显示信息生成输出部6、触感触摸屏控制部7及操作信息获取部8。此外,显示信息生成输出部6与显示器9相连接,触感触摸屏控制部7及操作信息获取部8与触感触摸屏10相连接。
控制部5对触感控制装置4进行整体控制。在图7所示的示例中,控制部5对显示信息生成输出部6及触感触摸屏控制部7进行控制。
显示信息生成输出部6根据控制部5的指示来生成显示信息。此外,显示信息生成输出部6将所生成的显示信息转换成视频信号并输出到显示器9。
触感触摸屏控制部7包括操作区域信息获取部2和触感控制部3。操作区域信息获取部2获取从控制部5输入的操作区域信息。触感控制部3将触感控制信息输出到触感触摸屏10,该触感控制信息用于控制操作面的触感,使得由操作区域信息获取部2获取到的操作区域信息的操作区域具有与该操作区域所对应的操作类别相应的触感。
操作信息获取部8从触感触摸屏10获取用户对该触感触摸屏10的操作及该操作区域所对应的操作类别的信息以作为操作信息。
显示器9将从显示信息生成输出部6输入的显示信息显示于显示画面。
触感触摸屏10将用户的触摸操作的相关信息(有无触摸、触摸的位置、操作内容等信息)作为操作信息输出到操作信息获取部8。此外,触感触摸屏10基于从触感触摸屏控制部7输入的触感控制信息,使触摸屏的任意位置的触感(“光滑”、“半粗糙”、“粗糙”、“动态粗糙”)变化。
另外,触感触摸屏10设置于显示器9的显示画面上,用户能以对显示画面直接进行操作的感觉来使用。即,显示器9的显示画面区域和触感触摸屏10的产生触感的区域可完全一致。此外,也可使显示器9的显示画面区域和触感触摸屏10的产生触感的区域中的任一方为比另一方要宽的区域。例如,可设置触感触摸屏10,使得触感触摸屏10的产生触感的区域超出显示器9的显示画面区域,该超出区域中不进行显示,但作为能输入触摸操作的区域进行活用。
接着,对触感控制装置4的动作进行说明。
图8是表示触感控制装置4的动作的一个示例的流程图。
步骤S11中,显示信息生成输出部6按照控制部5的指示来生成显示信息,将所生成的显示信息转换成视频信号并输出到显示器9。
步骤S12中,触感触摸屏控制部7按照控制部5的指示,将整个显示画面(即整个触感触摸屏10)的触感控制信息设定为“半粗糙”。
步骤S13中,控制部5判断在基于由步骤S11转换而得的视频信号来显示的显示器9的显示画面内是否存在手势输入区域。在存在手势输入区域的情况下,转移至步骤S14。另一方面,在不存在手势输入区域的情况下,转移至步骤S15。此处,手势输入区域是指显示画面内用户可通过手势操作进行输入的区域。
步骤S14中,触感触摸屏控制部7按照控制部5的指示,将手势输入区域的触感控制信息设定为“光滑”。
步骤S15中,控制部5判断在基于由步骤S11转换出的视频信号来显示的显示器9的显示画面内是否存在触摸输入区域。在存在触摸输入区域的情况下,转移至步骤S16。另一方面,在不存在触摸输入区域的情况下,转移至步骤S17。此处,触摸输入区域是指显示画面内用户可通过触摸操作进行输入的区域。
步骤S16中,触感触摸屏控制部7按照控制部5的指示,将触摸输入区域的触感控制信息设定为“粗糙”。
步骤S17中,触感触摸屏控制部7将由步骤S12、步骤S14及步骤S16设定后的触感控制信息输出到触感触摸屏10。触感触摸屏10中,基于从触感触摸屏控制部7输入的触感控制信息,成为每一区域产生不同的触感的状态。
在步骤S18中,控制部5经由操作信息获取部8判断用户是否操作了触感触摸屏10。在用户操作触感触摸屏10之前进行待机,在用户操作了触感触摸屏10的情况下,转移至步骤S19。
在步骤S19中,控制部5进行与用户操作相对应的显示画面的转移。
接着,利用图9~图11来说明触感控制装置4的具体动作例。
图9中,在显示器9的显示画面上显示接受利用触摸输入的图标的操作(图标操作)的操作图标11和接受手势操作的手势区域12。此外,触感触摸屏10中,操作图标11的区域的触感为“粗糙”,手势区域12的触感为“光滑”,操作图标11的区域及手势区域12以外的区域(非操作区域)的触感为“半粗糙”。由此,通过使各区域的触感不同,从而用户可容易识别能操作的类别(图标操作、手势操作)。另外,关于本实施方式1中的触摸输入,设为也包含如下操作方法:即,在用户轻轻触摸触感触摸屏10的操作面的情况下,能感觉到触感,以作为图标操作的预备操作,在用户用力按下操作面的情况下,接受图标操作。
图10中,显示器9的显示画面上显示有手势区域12。此外,触感触摸屏10中,手势区域12的触感为“光滑”,手势区域12以外的区域的触感为“半粗糙”。由此,通过使手势区域12与其它区域(非操作区域)的触感不同,从而用户可容易地识别手势区域12。
图11示出显示画面转移的情况。
图11的左图中,显示器9的显示画面上显示有用于转移至手写输入模式的操作图标11a~11d。此外,触感触摸屏10中,操作图标11的区域的触感为“粗糙”,操作图标11a~11d的区域以外的区域的触感为“半粗糙”。图11的左图中,若用户触摸操作图标11a,则转移至图11的右图所示的显示画面。
图11的右图中,显示器9的显示画面上显示有用于解除手写输入模式的操作图标11a和能进行手写输入的手势区域12。此外,触感触摸屏10中,操作图标11a的区域的触感为“粗糙”,手势区域12的触感为“光滑”。图11的右图中,若用户触摸操作图标11a,则转移至图11的左图所示的显示画面。
在上述图9及图11中,操作图标11a的触感也可为“动态粗糙”,也可如专利文献3中示出实现方法那样,具有物理上凸起的形状。
综上,根据本实施方式1,根据操作类别(图标操作、手势操作)使各区域的触感不同,因此,用户在操作时无需将视线集中在显示画面上。即,对用户而言,可进行使用方便的操作。
此外,实施方式1中,以将触感控制装置4装载于车辆的情况为一个示例来进行说明,但也可在智能手机上实现实施方式1中说明的上述功能。在智能手机的情况下,假设用户一边走路一边进行操作,因此,获得防止此时对周围的注意力下降的效果。
<实施方式2>
首先,对本发明实施方式2所涉及的触感控制装置的结构进行说明。
图12是表示本实施方式2所涉及的触感控制装置13的结构的一个示例的框图。
如图12所示,触感控制装置13包括车辆信息获取部14、地图信息获取部15、外部设备信息获取控制部16及通信部17。此外,外部设备信息获取控制部16分别与音响19及空调20连接,地图信息获取部15与地图DB(database:数据库)18连接。由于其它结构与实施方式1(参照图7)相同,因此这里省略说明。
车辆信息获取部14经由车内LAN(Local Area Network:局域网)获取由设置于车辆内的各种传感器检测出的传感器信息(车速脉冲信息等)、车辆的控制信息、或GPS(Global Positioning System:全球定位系统)信息等,以作为车辆信息。
地图信息获取部15从地图DB18获取地图信息。
外部设备信息获取控制部16获取作为用户的操作对象的外部设备(音响19、空调20)的相关信息以作为外部设备信息(操作对象设备信息)。即,外部设备信息获取控制部16具有作为操作对象设备信息获取部的功能。此外,外部设备信息获取控制部16对外部设备(音响19、空调20)进行控制。
通信部17与通信终端(未图示)以可通信的方式进行连接。
地图DB18存储有地图信息。另外,地图DB18可设置于车辆,也可设置于外部。
接着,对触感控制装置13的动作进行说明。
图13是表示触感控制装置13的动作的一个示例的流程图。另外,图13的步骤S25~步骤S27与图8的步骤S17~步骤S19对应,因此这里省略说明。
步骤S21中,外部设备信息获取控制部16从外部设备(音响19、空调20)获取外部设备信息。获取到的外部设备信息被输出到控制部5。
步骤S22中,显示信息生成输出部6按照控制部5的指示来生成显示信息,将所生成的显示信息转换成视频信号并输出到显示器9。此时,显示信息中包含外部设备信息。
步骤S23中,触感触摸屏控制部7按照控制部5的指示,将整个显示画面的触感控制信息设定为“光滑”。
步骤S24中,触感触摸屏控制部7按照控制部5的指示,对每一设备设定用于操作外部设备的图标的区域的触感控制信息。
接着,利用图14来说明触感控制装置13的具体动作例。
图14中,在显示器9的显示画面上显示有导航操作图标21、空调操作图标22及免提操作图标23。此外,触感触摸屏10中,导航操作图标21的区域的触感为“粗糙”,空调操作图标22的区域的触感为“动态粗糙”,免提操作图标23的区域的触感为“半粗糙”。
在用户进行与导航相关的操作(例如用于进行从当前位置到目的地为止的路径搜索等的操作)的情况下,通过触摸导航操作图标21来进行操作。例如,若用户触摸导航操作图标21,则控制部5基于由车辆信息获取部14获取到的车辆信息和由地图信息获取部15获取到的地图信息,进行路径搜索等与导航相关的处理。
此外,在用户进行与空调20相关的操作(例如温度调整的操作)的情况下,通过触摸空调操作图标22来进行操作。例如,若用户触摸空调操作图标22,则控制部5向外部设备信息获取控制部16发出指示,以控制空调20。外部设备信息获取控制部16按照控制部5的指示来控制空调20。
此外,在用户利用免提进行通话的情况下,通过触摸免提操作图标23来进行操作。例如,若用户触摸免提操作图标23,则控制部5在通信部17与通信终端之间建立通信,控制成用户可经由通信终端利用免提进行通话。
另外,图14中,导航操作图标21、空调操作图标22及免提操作图标23各自也可为物理上凸起的形状。此外,导航操作图标21、空调操作图标22及免提操作图标23以外的区域的触感也可为“光滑”。
在上述内容中,对按照每一外部设备来改变图标的区域的触感的情况进行了说明,但并不限于此。例如,也可按照特定的外部设备(即同一外部设备)的每一类似功能来改变图标的区域的触感。图15为表示按照特定外部设备的每一功能来改变图标的区域的触感的情况的一个示例的图。
图15中,在显示器9的显示画面上显示有地图比例尺切换图标24及显示切换图标25。此处,作为显示切换图标25,例如可举出用于切换北方朝上或前方朝上的显示的图标等。此外,触感触摸屏10中,地图比例尺切换图标24的区域的触感为“粗糙”,显示切换图标25的区域的触感为“动态粗糙”。
另外,图15中示出导航画面作为一个示例,但并不限于此。例如,在图15示出音响画面的情况下,也可在音量调整图标的区域和频道切换图标的区域使触感不同。此外,图15中,地图比例尺切换图标24及显示切换图标25各自也可为物理上凸起的形状。
综上,根据本实施方式2,按照每一外部设备、或外部设备的每一功能使图标的区域的触感不同,因此,用户可选择想要的图标。即,对用户而言,可进行使用方便的操作。
<实施方式3>
本发明实施方式3中,对显示器9利用双画面进行显示的情况进行说明。本实施方式3所涉及的触感控制装置的结构与实施方式2所涉及的触感控制装置13(参照图12)相同,因此这里省略说明。
图16是表示本实施方式3所涉及的触感控制装置的动作的一个示例的图。
图16中,在显示器9中,在左侧画面显示有表示本车位置的地图,在右侧画面显示有路径引导画面和引导画面去除操作图标。此外,触感触摸屏10中,双画面的边界区域的触感为“动态粗糙”,左侧画面的区域的触感为“光滑”,右侧画面中,路径引导画面的区域的触感为“光滑”,引导画面去除操作图标的区域的触感为“粗糙”,其它区域的触感为“半粗糙”。
另外,图16中改变了双画面的边界区域的触感,但也可改变构成双画面的各画面的背景区域的触感。
综上,根据本实施方式3,用户可利用触感识别构成双画面的各画面的区域,因此,可防止误操作其它画面。即,对用户而言,可进行使用方便的操作。
此外,即使将本实施方式3应用于3画面以上的多重画面显示,也可获得与上述情况相同的效果。
<实施方式4>
本发明实施方式4中,对显示器9显示有键盘的情况进行说明。本实施方式4所涉及的触感控制装置的结构与实施方式1所涉及的触感控制装置4(参照图7)或实施方式2所涉及的触感控制装置13(参照图12)相同,因此这里省略说明。
图17是表示本实施方式4所涉及的触感控制装置的动作的一个示例的流程图。另外,图17的步骤S35~步骤S37与图8的步骤S17~步骤S19对应,因此这里省略说明。
步骤S31中,控制部5获取键盘信息。另外,键盘信息可由控制部5预先保持,也可由其它存储部(未图示)进行存储。
步骤S32中,显示信息生成输出部6按照控制部5的指示来生成显示信息,将所生成的显示信息转换成视频信号并输出到显示器9。此时,显示信息中包含键盘信息。
步骤S33中,触感触摸屏控制部7按照控制部5的指示,将整个显示画面的触感控制信息设定为预定的触感。
步骤S34中,触感触摸屏控制部7按照控制部5的指示,按照各按键的区域设定触感控制信息。
接着,利用图18~图23来说明本实施方式4所涉及的触感控制装置的具体动作例。
图18中,显示器9的显示画面上显示有键盘。此外,触感触摸屏10中,各按键的区域的触感为“光滑”,按键以外的背景区域的触感为“动态粗糙”。由此,通过使按键的区域与其它区域的触感不同,用户容易识别各按键的边界,从而可容易识别各按键的位置。因此,可防止同时触摸2个以上的按键的误操作。
图19中,显示器9的显示画面上显示有键盘。此外,触感触摸屏10中,以成为方格花纹的配置的方式,使每一按键的区域成为“光滑”或“粗糙”的触感。即,对于各按键(操作区域)的触感有规则地不同。此外,按键以外的背景区域的触感为“半粗糙”。由此,通过使各相邻的按键的触感不同,用户可容易地识别各按键的位置。因此,可防止用户误触摸相邻按键的误操作。特别是具有防止在显示器9及触感触摸屏10并非处于用户的眼睛位置的前方正面而设置于斜前方的上下左右的情况下的误操作的效果。
图20中,显示器9的显示画面上显示有键盘。此外,触感触摸屏10中,以每一列不同的方式,使每一按键的区域成为“光滑”或“粗糙”的触感。即,对各按键(操作区域)的触感有规则地不同。此外,按键以外的背景区域的触感为“半粗糙”。由此,通过使每一列的按键的区域的触感不同,用户在从侧面进行操作的情况下,可识别视差的偏差,因此,可容易地识别各按键的位置。
图21中,使辅助操作图标的区域(预定的操作区域)的触感与各按键的区域的触感不同。其它区域的触感与图20相同。由此,通过使各按键的区域与辅助操作图标的区域的触感不同,从而用户可容易地识别辅助操作图标的位置。
在图21所示的日语输入的示例中,辅助操作图标为浊音符图标“゛”及半浊音符图标“゜”,利用2个图标操作来输入1个字符。在外语中,在软键盘上需要用于输入1个字符的“辅助操作图标”的情况下,也同样设为改变触感。此外,虽然并非辅助操作图标,但也可在不同类别的字符间改变触感。例如符合的有“字母”、“数字”、“#$&”等特殊字符、德语中的“变音符”等。
图22中,将各按键的区域以外的区域的触感设为“动态粗糙”。其它区域的触感与图19相同。由此,通过使各按键的区域与其它区域的触感不同,从而用户可容易地识别各按键的位置。
图23中,使处于各按键的行方向的各按键间的边界区域的触感与各按键的区域的触感不同。其它区域的触感与图20相同。这样,通过使各按键的边界区域的触感与各按键的区域的触感不同,从而用户可容易地识别各按键的位置。另外,图23中,使行方向的边界区域的触感不同,但也可使列方向的边界区域的触感不同。
在上述的图18~23中,示出设施检索中使用的键盘作为一个示例,但并不限于此。例如,也可在间隔较窄的按键或操作图标间改变触感。音量的上下用的操作图标、地图的8方向滚动用的操作图标等具有类似功能的操作图标通常配置在旁边,可削减这种操作图标的误操作。此外,即使在显示有智能手机的多个应用启动用图标的情况下,也可获得与上述内容相同的效果。
综上,根据本实施方式4,可防止用户对键盘的误操作。即,对用户而言,可进行使用方便的操作。
<实施方式5>
本发明实施方式5中,对触感触摸屏10延伸设置到显示器9的显示画面(显示区域)以外的区域(非显示区域)的情况进行说明。本实施方式5所涉及的触感控制装置的结构与实施方式2所涉及的触感控制装置13(参照图12)相同,因此这里省略说明。
图24是表示本实施方式5所涉及的触感控制装置的动作的一个示例的图。
图24中,显示器9的显示画面对应于显示区域,触感触摸屏10的区域对应于将显示区域和非显示区域合起来的区域。显示器9上显示有地图上的本车位置、用于进行各种操作的图标(“CD重放”、“CD停止”、“周边检索”、“路径变更”)。此外,触感触摸屏10中,显示区域所显示的图标的区域的触感为“光滑”,非显示区域中的操作图标26的区域的触感为“粗糙”,非显示区域的操作图标26以外的背景区域的触感为“光滑”。此处,作为操作图标26,例如可列举出用于操作空调的功能的按钮、用于操作AV(Audio Visual:视听)的功能的按钮、用于操作导航的功能的按钮等。由此,通过使各区域中具有不同的触感,从而用户可容易地识别特别是非显示区域中的操作图标26的位置。
另外,操作图标26的触感也可为“动态粗糙”。此外,也可将非显示区域的背景区域的触感设为“半粗糙”,将显示区域的背景区域(各图标的区域以外的区域)的触感设为“光滑”此外,也可在非显示区域进一步设置手势区域,将该手势区域的触感设为“光滑”。
图25是表示本实施方式5所涉及的触感控制装置的动作的另一个示例的图。
图25中,显示器9的显示画面对应于显示区域,触感触摸屏10的区域对应于将显示区域和非显示区域合起来的区域。显示器9上显示有地图上的本车位置、用于进行各种操作的图标(“CD重放”、“CD停止”、“周边检索”、“路径变更”)。此外,触感触摸屏10中,显示区域所显示的图标的区域的触感为“半粗糙”,显示区域的背景区域的触感为“光滑”,非显示区域中的操作图标26的区域的触感为“粗糙”,非显示区域的操作图标26以外的背景区域的触感为“半粗糙”。此外,显示区域和非显示区域之间的边界区域的触感为“动态粗糙”。由此,用户可识别各区域,因此,可防止误操作其它区域的图标。
综上,根据本实施方式5,用户可容易地识别非显示区域中的操作图标26的位置。此外,用户可识别各区域,因此,可防止误操作其它区域的图标。即,对用户而言,可进行使用方便的操作。此外,图25中,分割成显示区域和非显示区域这2个区域,但也可将显示区域或非显示区域分割为多个。例如,也可将非显示区域分割为接受触摸操作和接受手势操作的区域,在将背景区域及操作图标的区域分割后的各区域中进行改变。
<实施方式6>
首先,对本发明实施方式6所涉及的触感控制装置27的结构进行说明。
图26是表示本实施方式6所涉及的触感控制装置27的结构的一个示例的框图。
如图26所示,触感控制装置27包括触感触摸板控制部28,显示信息生成输出部6与显示器29相连接,触感触摸板控制部28及操作信息获取部8连接到触感触摸板30。由于其它结构与实施方式2所涉及的触感控制装置13(参照图12)相同(但是,除了图12的通信部17),因此这里省略说明。
触感触摸板控制部28具有与图12的触感触摸屏控制部7相同的功能。即,触感触摸板控制部28基于控制部5的指示,将触感控制信息输出到触感触摸板30。
显示器29设置于车辆的仪表板部的仪表板(例如参照图28的仪表板31)。
触感触摸板30单独设置于与显示器29不同的位置。
接着,对触感控制装置27的动作进行说明。
图27是表示触感控制装置27的动作的一个示例的流程图。
步骤S41中,外部设备信息获取控制部16从外部设备(音响19、空调20)获取外部设备信息。获取到的外部设备信息被输出到控制部5。
步骤S42中,显示信息生成输出部6按照控制部5的指示来生成显示信息,将所生成的显示信息转换成视频信号并输出到显示器9。此时,显示信息中包含外部设备信息。
步骤S43中,触感触摸板控制部28按照控制部5的指示,将整个触感触摸板30的触感控制信息设定为“光滑”。
步骤S44中,触感触摸板控制部28按照控制部5的指示,设定触感控制信息,以在用于操作外部设备的图标的区域所对应的触感触摸板30的位置生成触感。
步骤S45中,触感触摸板控制部28将由步骤S43及步骤S44设定后的触感控制信息输出到触感触摸板30。触感触摸板30中,基于从触感触摸板控制部28输入的触感控制信息,成为每一区域产生不同的触感的状态。
在步骤S46中,控制部5经由操作信息获取部8判断用户是否操作了触感触摸板30。在用户操作触感触摸板30之前进行待机,在用户操作了触感触摸板30的情况下,转移至步骤S47。
在步骤S47中,控制部5进行与用户操作相对应的显示画面的转移。
接着,利用图28及图29来说明触感控制装置27的具体动作例。
图28示出设置于仪表板31的显示器29中的显示的一个示例。如图28所示,在仪表板31中设置有显示器29及各种仪表。显示器29上显示有地图上的本车位置、用于进行各种操作的图标(“CD重放”、“CD停止”、“周边检索”、“路径变更”)。另外,显示器29也可将仪表板31的整个区域作为显示器29的显示区域。
图29表示触感触摸板30中的各区域的触感的一个示例,操作图标32的区域的触感为“粗糙”,操作图标32以外的区域的触感为“光滑”。
触感触摸板30中的纵向y及横向x所构成的区域对应于显示器29中的纵向Y及横向X所构成的区域。另外,触感触摸板30中的纵向y及横向x所构成的区域的大小和显示器29中的纵向Y及横向X所构成的区域的大小可以相同,也可为相似关系,也可不为相似关系。此外,触感触摸板30中的各操作图标32对应于显示器29中的各图标。例如,如图28及图29所示,用户在触摸触感触摸板30中的最上方的操作图标32时,则选择了显示器29上的“CD重放”图标。此时,也可在与触感触摸板30的触摸位置对应的显示器29的位置显示提示(手的标记)。
在上文中,设触感触摸板30具有检测用户触摸了触感触摸板30这一情况的功能来进行了说明,但并不限于此。例如,触感触摸板30也可具有检测指示物(例如用户的手指等)在三维中的位置的功能,也可具有检测静电式的触摸板指示物(对触摸板指示的指示物)在三维中的位置的功能。在检测指示物在三维中的位置时,例如可通过使用静电式的触摸屏、或识别图像处理中的指示物的位置来实现。图30及图31是表示触感触摸板30具有识别三维中的指示物的位置的功能的情况下的触感控制装置27的具体动作例的图。图30所示的触感触摸板30中的各区域的触感及图31所示的显示器29中的显示与图28及图29相同,因此这里省略说明。
在没有检测出触感触摸板30上的三维位置的功能的情况下,也可在显示器29的位置显示提示(手的标记)。此外,也可在轻触触感触摸板30的情况下显示提示(手的标记),在进行了按压操作的情况下,设为操作了该操作图标来进行处理。
如图30所示,在用户进行将手指靠近触感触摸板30的动作的情况下,若用户的手指存在于离触感触摸板30预定的距离(高度方向的距离z)以内的位置,则如图31所示,在显示器29的显示画面中,显示与触感触摸板30检测出的手指的XY坐标对应的提示。
综上,根据本实施方式6,用户可在不察看触感触摸板30的情况下对显示于显示器29的各图标进行操作。即,对用户而言,可进行使用方便的操作。
如上所说明的触感控制装置不仅能够适用于车载用导航装置、即车载导航装置,也能适用于将能搭载于车辆的PND(Portable Navigation Device:便携式导航装置)、移动通信终端(例如移动电话、智能手机以及平板电脑终端等)、以及服务器等适当组合而构成为系统的导航装置或导航装置以外的装置中。在此情况下,触感控制装置的各功能或各结构要素分散配置于构成上述系统的各功能。
具体而言,作为一个示例,可将触感控制装置的功能配置于服务器。例如,如图32所示,可在用户侧包括显示装置34及触感触摸屏35(或触感触摸板),在服务器33至少包括操作区域信息获取部2及触感控制部3,从而构建触感控制系统。另外,操作区域信息获取部2及触感控制部3的功能与图1的操作区域信息获取部2及触感控制部3的功能相同。此外,服务器33根据需要,也可包括图7、12、26所示的各结构要素。此时,服务器33所包括的各结构要素也可适当地分散配置于服务器33及显示装置34。
此外,作为另一个示例,可将触感控制装置的功能配置于服务器及移动通信终端。例如,如图33所示,可在用户侧包括显示装置34及触感触摸屏35(或触感触摸板),在服务器36至少包括操作区域信息获取部2,在移动通信终端37至少包括触感控制部3,从而构建触感控制系统。另外,操作区域信息获取部2及触感控制部3的功能与图1的操作区域信息获取部2及触感控制部3的功能相同。此外,服务器36及移动通信终端37根据需要,也可包括图7、12、26所示的各结构要素。此时,服务器36及移动通信终端37所包括的各结构要素也可适当地分散配置于显示装置34、服务器36及移动通信终端37。
即使在采用上述结构的情况下,也可获得与上述实施方式相同的效果。
此外,也可将执行上述实施方式中的动作的软件(触感控制方法)嵌入到例如服务器、移动通信终端。
具体而言,作为一个示例,上述触感控制方法控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其获取操作面中用户进行操作的操作区域及该操作区域所对应的操作类别的信息以作为操作区域信息,控制操作面的触感,以使得获取到的操作区域信息的操作区域具有与该操作区域所对应的操作类别相应的触感。
根据上述内容,通过将执行上述实施方式中的动作的软件嵌入到服务器、移动通信终端来进行动作,从而可获得与上述实施方式相同的效果。
另外,在图1、7、12、26、32、33中,操作区域信息获取部2、触感控制部3、控制部5、显示信息生成输出部6、触感触摸屏控制部7、操作信息获取部8、车辆信息获取部14、地图信息获取部15、外部设备信息获取控制部16、通信部17及触感触摸板控制部28各自通过执行基于软件的利用了CPU(Central Processing Unit:中央处理器)的程序处理来实现。另外,若可能,操作区域信息获取部2、触感控制部3、控制部5、显示信息生成输出部6、触感触摸屏控制部7、操作信息获取部8、车辆信息获取部14、地图信息获取部15、外部设备信息获取控制部16、通信部17及触感触摸板控制部28各自也可作为硬件来构成(例如,构成为对电信号进行特定运算或处理的运算/处理电路等)。此外,也可将上述两者混合。
此外,本发明可以在该发明的范围内对各实施方式自由地进行组合,或对各实施方式进行适当的变形、省略。
虽然对本发明进行了详细的说明,但上述的说明在所有的方式中均为例示,本发明并不限于此。应该认为在不脱离本发明范围的情况下未例示出的无数个变形例是能想到的。
标号说明
1触感控制装置、2操作区域信息获取部、3触感控制部、4触感控制装置、5控制部、6显示信息生成输出部、7触感触摸屏控制部、8操作信息获取部、9显示器、10触感触摸屏、11操作图标、12手势区域、13触感控制装置、14车辆信息获取部、15地图信息获取部、16外部设备信息获取控制部、17通信部、18地图DB、19音响、20空调、21导航操作图标、22空调操作图标、23免提操作图标、24地图比例尺切换图标、25显示切换图标、26操作按钮、27触感控制装置、28触感触摸板控制部、29显示器、30触感触摸板、31仪表板、32操作图标、33服务器、34显示装置、35触感触摸屏、36服务器、37移动通信终端。
Claims (15)
1.一种触感控制系统,其控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其特征在于,包括:
操作区域信息获取部,该操作区域信息获取部获取所述操作面中所述用户进行操作的操作区域及该操作区域所对应的操作类别的信息以作为操作区域信息;及
触感控制部,该触感控制部控制所述操作面的所述触感,使得由所述操作区域信息获取部获取到的所述操作区域信息中的所述操作区域具有与该操作区域所对应的所述操作类别相应的触感。
2.如权利要求1所述的触感控制系统,其特征在于,
所述触感控制部生成触感不随时间变化的静态触感、及触感的强度或触感的位置随时间变化的动态触感。
3.如权利要求1所述的触感控制系统,其特征在于,
在所述操作类别为所述用户的手势操作的情况下,
所述触感控制部控制所述触感,使得接受所述手势操作的操作区域具有预定的触感。
4.如权利要求1所述的触感控制系统,其特征在于,
在所述操作类别为所述用户的图标操作的情况下,
所述触感控制部控制所述触感,以成为与所述图标操作对应的预定的触感。
5.如权利要求1所述的触感控制系统,其特征在于,
所述触感控制部进行控制,使得对于所述操作面中的所述操作区域的所述触感、与对于所述操作面中的该操作区域以外的非操作区域的所述触感不同。
6.如权利要求1所述的触感控制系统,其特征在于,
所述触感控制部根据所述操作区域信息中的所述操作区域所表示的操作类别,控制成使得所述操作区域相对于所述操作面凸起。
7.如权利要求1所述的触感控制系统,其特征在于,
所述操作面具有包含至少1个以上的所述操作区域的多个区域,
所述触感控制部控制所述触感,使得与各所述区域的边界对应的区域具有预定的触感。
8.如权利要求1所述的触感控制系统,其特征在于,
所述操作面具有包含至少1个以上的所述操作区域的多个区域,
所述触感控制部对于各所述区域控制所述触感。
9.如权利要求1所述的触感控制系统,其特征在于,
所述操作面具有多个所述操作区域,
所述触感控制部控制成使得对于各所述操作区域的所述触感有规则地不同。
10.如权利要求1所述的触感控制系统,其特征在于,
所述操作面具有多个所述操作区域,
所述触感控制部进行控制,使得对于预定的所述操作区域的所述触感、与对于其它的所述操作区域的所述触感不同。
11.如权利要求1所述的触感控制系统,其特征在于,
还包括操作对象设备信息获取部,该操作对象设备信息获取部获取作为所述用户的操作对象的设备或该设备的功能的相关信息以作为操作对象设备信息,
所述触感控制部基于由所述操作对象设备信息获取部获取到的所述操作对象设备信息,控制所述触感,以与所述设备或所述功能对应。
12.如权利要求11所述的触感控制系统,其特征在于,
所述触感控制部控制成使得与不同的所述设备对应的所述操作区域的所述触感分别不同。
13.如权利要求11所述的触感控制系统,其特征在于,
所述触感控制部控制成使得相同的所述设备中的类似功能所对应的所述操作区域的所述触感相同。
14.如权利要求11所述的触感控制系统,其特征在于,
所述触感控制部控制成使得所述设备或所述功能所对应的区域相对于所述操作面凸起。
15.一种触感控制方法,其控制对触摸屏或触摸板的操作面进行操作时的用户的触感,其特征在于,
获取所述操作面中所述用户进行操作的操作区域及该操作区域所对应的操作类别的信息以作为操作区域信息,
控制所述操作面的所述触感,使得所述获取到的所述操作区域信息中的所述操作区域具有与该操作区域所对应的所述操作类别相应的触感。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2014/073768 WO2016038675A1 (ja) | 2014-09-09 | 2014-09-09 | 触感制御システムおよび触感制御方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN106687905A true CN106687905A (zh) | 2017-05-17 |
| CN106687905B CN106687905B (zh) | 2021-02-26 |
Family
ID=55458468
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201480081814.0A Expired - Fee Related CN106687905B (zh) | 2014-09-09 | 2014-09-09 | 触感控制系统及触感控制方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20170139479A1 (zh) |
| JP (1) | JP6429886B2 (zh) |
| CN (1) | CN106687905B (zh) |
| DE (1) | DE112014006934T5 (zh) |
| WO (1) | WO2016038675A1 (zh) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102591807B1 (ko) * | 2016-11-21 | 2023-10-23 | 한국전자통신연구원 | 촉감자극을 생성하는 방법 및 장치 |
| JP6833018B2 (ja) | 2017-04-18 | 2021-02-24 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| US11458389B2 (en) | 2017-04-26 | 2022-10-04 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
| JP6884216B2 (ja) * | 2017-08-24 | 2021-06-09 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| JP6893561B2 (ja) | 2017-08-24 | 2021-06-23 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
| US11198059B2 (en) | 2017-08-29 | 2021-12-14 | Sony Interactive Entertainment Inc. | Vibration control apparatus, vibration control method, and program |
| KR102135376B1 (ko) * | 2018-01-05 | 2020-07-17 | 엘지전자 주식회사 | 입출력 장치 및 그것을 포함하는 차량 |
| US10761569B2 (en) * | 2018-02-14 | 2020-09-01 | Microsoft Technology Licensing Llc | Layout for a touch input surface |
| JP2019159781A (ja) * | 2018-03-13 | 2019-09-19 | 株式会社デンソー | 触覚呈示制御装置 |
| DE102018208827A1 (de) | 2018-06-05 | 2019-12-05 | Bayerische Motoren Werke Aktiengesellschaft | Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zum Ermitteln einer Anwendereingabe |
| JP7523376B2 (ja) * | 2021-02-02 | 2024-07-26 | 株式会社デンソーテン | 情報提示装置、情報提示システムおよび情報提示方法 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110141047A1 (en) * | 2008-06-26 | 2011-06-16 | Kyocera Corporation | Input device and method |
| CN102498460A (zh) * | 2009-08-27 | 2012-06-13 | 京瓷株式会社 | 触感提供装置和触感提供装置的控制方法 |
| CN102741789A (zh) * | 2010-01-27 | 2012-10-17 | 京瓷株式会社 | 触感提供装置和用于提供触感的方法 |
| JP2012243189A (ja) * | 2011-05-23 | 2012-12-10 | Tokai Rika Co Ltd | 入力装置 |
| CN103869940A (zh) * | 2012-12-13 | 2014-06-18 | 富泰华工业(深圳)有限公司 | 触感反馈系统、电子装置及其提供触感反馈的方法 |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1459245B1 (en) * | 2001-12-12 | 2006-03-08 | Koninklijke Philips Electronics N.V. | Display system with tactile guidance |
| JPWO2005116811A1 (ja) * | 2004-05-31 | 2008-07-31 | パイオニア株式会社 | タッチパネル装置、カーナビゲーション装置、タッチパネル制御方法、タッチパネル制御プログラムおよび記録媒体 |
| JP2006268068A (ja) * | 2005-03-22 | 2006-10-05 | Fujitsu Ten Ltd | タッチパネル装置 |
| JP2008191086A (ja) * | 2007-02-07 | 2008-08-21 | Matsushita Electric Ind Co Ltd | ナビゲーション装置 |
| BRPI0804355A2 (pt) * | 2008-03-10 | 2009-11-03 | Lg Electronics Inc | terminal e método de controle do mesmo |
| JP5811597B2 (ja) * | 2011-05-31 | 2015-11-11 | ソニー株式会社 | ポインティングシステム、ポインティングデバイス及びポインティング制御方法 |
| US9312694B2 (en) * | 2012-07-03 | 2016-04-12 | Oracle International Corporation | Autonomous power system with variable sources and loads and associated methods |
| US9196134B2 (en) * | 2012-10-31 | 2015-11-24 | Immersion Corporation | Method and apparatus for simulating surface features on a user interface with haptic effects |
| JP6003568B2 (ja) * | 2012-11-19 | 2016-10-05 | アイシン・エィ・ダブリュ株式会社 | 操作支援システム、操作支援方法及びコンピュータプログラム |
| JP6168780B2 (ja) * | 2013-01-30 | 2017-07-26 | オリンパス株式会社 | タッチ操作装置及びその制御方法 |
-
2014
- 2014-09-09 DE DE112014006934.5T patent/DE112014006934T5/de not_active Withdrawn
- 2014-09-09 US US15/319,511 patent/US20170139479A1/en not_active Abandoned
- 2014-09-09 WO PCT/JP2014/073768 patent/WO2016038675A1/ja not_active Ceased
- 2014-09-09 JP JP2016547283A patent/JP6429886B2/ja not_active Expired - Fee Related
- 2014-09-09 CN CN201480081814.0A patent/CN106687905B/zh not_active Expired - Fee Related
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110141047A1 (en) * | 2008-06-26 | 2011-06-16 | Kyocera Corporation | Input device and method |
| CN102498460A (zh) * | 2009-08-27 | 2012-06-13 | 京瓷株式会社 | 触感提供装置和触感提供装置的控制方法 |
| CN102741789A (zh) * | 2010-01-27 | 2012-10-17 | 京瓷株式会社 | 触感提供装置和用于提供触感的方法 |
| JP2012243189A (ja) * | 2011-05-23 | 2012-12-10 | Tokai Rika Co Ltd | 入力装置 |
| CN103869940A (zh) * | 2012-12-13 | 2014-06-18 | 富泰华工业(深圳)有限公司 | 触感反馈系统、电子装置及其提供触感反馈的方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| DE112014006934T5 (de) | 2017-06-14 |
| WO2016038675A1 (ja) | 2016-03-17 |
| JP6429886B2 (ja) | 2018-11-28 |
| US20170139479A1 (en) | 2017-05-18 |
| CN106687905B (zh) | 2021-02-26 |
| JPWO2016038675A1 (ja) | 2017-04-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6429886B2 (ja) | 触感制御システムおよび触感制御方法 | |
| TWI410906B (zh) | 使用擴增實境導航路徑之方法及使用該方法之行動終端機 | |
| KR102427833B1 (ko) | 사용자 단말장치 및 디스플레이 방법 | |
| CN107077281A (zh) | 触感控制系统及触感控制方法 | |
| JP4650559B2 (ja) | 情報処理装置、情報処理方法、情報処理システムおよび情報処理用プログラム | |
| US20120062564A1 (en) | Mobile electronic device, screen control method, and storage medium storing screen control program | |
| US10514796B2 (en) | Electronic apparatus | |
| WO2013018480A1 (ja) | タッチ入力が可能な画面内に原画像を縮小表示するタッチパッドを有するユーザインタフェース装置、入力処理方法及びプログラム | |
| CN102741794A (zh) | 处理触觉输入 | |
| CN105589594A (zh) | 电子装置和电子装置的操作控制方法 | |
| WO2013136391A1 (ja) | 入力装置、入力支援方法及びプログラム | |
| CN104220970B (zh) | 显示装置 | |
| WO2014024363A1 (ja) | 表示制御装置、表示制御方法及びプログラム | |
| JPWO2016051440A1 (ja) | 車両及びステアリングユニット | |
| US20150268828A1 (en) | Information processing device and computer program | |
| KR20170108662A (ko) | 터치 패널을 포함하는 전자 장치 및 그 제어 방법 | |
| GB2517284A (en) | Operation input device and input operation processing method | |
| JP2017030746A (ja) | 車両及びステアリングユニット | |
| WO2018123320A1 (ja) | ユーザーインターフェイス装置及び電子機器 | |
| JP6210055B2 (ja) | 情報処理システム、情報処理装置、情報処理方法 | |
| JP2014006748A (ja) | 電子機器、機器及び方法 | |
| CN102385449A (zh) | 便携式电子设备和触摸控制方法 | |
| JP6483379B2 (ja) | 触感制御システムおよび触感制御方法 | |
| CN106687906B (zh) | 触感控制系统及触感控制方法 | |
| KR101165388B1 (ko) | 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant | ||
| CF01 | Termination of patent right due to non-payment of annual fee | ||
| CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210226 |