WO2019039080A1 - 入力装置 - Google Patents
入力装置 Download PDFInfo
- Publication number
- WO2019039080A1 WO2019039080A1 PCT/JP2018/024486 JP2018024486W WO2019039080A1 WO 2019039080 A1 WO2019039080 A1 WO 2019039080A1 JP 2018024486 W JP2018024486 W JP 2018024486W WO 2019039080 A1 WO2019039080 A1 WO 2019039080A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- operating
- finger
- control unit
- operation surface
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05G—CONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
- G05G1/00—Controlling members, e.g. knobs or handles; Assemblies or arrangements thereof; Indicating position of controlling members
- G05G1/02—Controlling members for hand actuation by linear movement, e.g. push buttons
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05G—CONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
- G05G5/00—Means for preventing, limiting or returning the movements of parts of a control mechanism, e.g. locking controlling member
- G05G5/03—Means for enhancing the operator's awareness of arrival of the controlling member at a command or datum position; Providing feel, e.g. means for creating a counterforce
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Definitions
- the present disclosure relates to an input device that enables an input operation by an operation body such as a finger, such as a touch pad or a touch panel.
- Patent Document 1 As a conventional input device, for example, the one described in Patent Document 1 is known.
- the input device (portable terminal device) of Patent Document 1 includes a display panel for displaying an image (operation button), a touch panel for receiving a touch operation by a user's finger on the display panel, and a vibrator. Then, when the finger is at the edge position of the image in the touch operation of the user, the vibrator is operated. By the vibration of the vibrator, the user can know the edge of the image by the vibration and can feel the shape of the image.
- the tactile display includes a plurality of pins and a plurality of actuators for moving the plurality of pins up and down with respect to the display surface, and the pins in the region corresponding to the button image of the display are moved upward by the actuators.
- a convex portion corresponding to the button image is formed in the input unit. The convex portion provides the user with a feeling as if the button image is actually touched.
- the input device of Patent Document 1 merely generates vibration by a vibrator at an edge position of an image, and can not obtain a touch (referred to as an edge feeling or an edge feeling) that touches an actual operation button. .
- Patent Document 2 requires a plurality of pins and a plurality of actuators for moving the plurality of pins, which makes the configuration and control very complicated.
- An object of the present disclosure is to provide an input device that has a simple configuration and can feel as if it touched an actual operation button.
- the input device performs an input to a predetermined device according to the detection unit that detects the operation state of the operating body on the operation surface on the operation side, and the operation state detected by the detection unit. And a control unit.
- an operation area for operation with respect to a predetermined device is set in advance on the operation surface, and a drive unit is provided for inclining the operation surface with respect to a predetermined set angle set in advance for the direction of the operation surface
- the control unit changes the set angle of the operating surface by the driving unit to change the pressure distribution acting on the operating body.
- the setting angle of the operating surface is changed to change the pressure distribution acting on the operating body moving in the operating area.
- the body can be given the feeling as if it were touching the edge of the actual operation button.
- the drive unit since the drive unit only changes the set angle of the operation surface, a simple configuration can be achieved with respect to Patent Document 2.
- FIG. 1 is an explanatory view showing a mounted state of an input device in a vehicle
- FIG. 2 is a block diagram showing an input device in the first embodiment
- FIG. 3A is a side view of the operation unit and the drive unit in the first embodiment
- FIG. 3B is an arrow view (plan view) in which the operation unit and the drive unit in the first embodiment are viewed from the IIIB direction of FIG. 3A
- FIG. 4 is a flowchart showing control contents of the input device in the first embodiment
- FIG. 5 is an explanatory view showing how the operation unit in the first embodiment is inclined;
- FIG. 1 is an explanatory view showing a mounted state of an input device in a vehicle
- FIG. 2 is a block diagram showing an input device in the first embodiment
- FIG. 3A is a side view of the operation unit and the drive unit in the first embodiment
- FIG. 3B is an arrow view (plan view) in which the operation unit and the drive unit in the first embodiment are viewed from the IIIB direction of FIG. 3
- FIG. 6A is an explanatory view showing an image of finger pressure distribution when tracing an actual operation button
- FIG. 6B is an explanatory view showing an image of finger pressure distribution when tracing an actual operation button
- FIG. 7 is an explanatory view showing how the operation unit (touch panel) in the second embodiment is inclined
- FIG. 8 is an explanatory view showing how the operation unit in the third embodiment is inclined
- FIG. 9A is an explanatory view showing a predetermined width at the boundary when entering the operation area
- FIG. 9B is an explanatory view showing a predetermined width at the boundary when entering the operation area
- FIG. 10A is an explanatory view showing a predetermined width at the boundary when exiting from the operation area
- FIG. 10B is an explanatory view showing a predetermined width at the boundary when leaving the operation area
- FIG. 11A is an explanatory view showing a change of an inclination angle within a predetermined width
- FIG. 11B is an explanatory view showing a change of the inclination angle within a predetermined width.
- the input device 100 of the first embodiment is shown in FIGS. 1 to 6B.
- the input device 100 of the present embodiment is applied to, for example, a remote control device for operating the navigation device 50.
- the input device 100 is mounted on the vehicle 10 together with the navigation device 50.
- the navigation device 50 corresponds to the predetermined device of the present disclosure.
- the navigation device 50 is a route guidance system that displays current position information of the vehicle on a map, traveling direction information, guidance information to a destination desired by the operator, and the like.
- the navigation device 50 has a liquid crystal display 51 as a display unit.
- the liquid crystal display 51 is disposed at the center of the instrument panel 13 of the vehicle 10 in the vehicle width direction, so that the display screen 52 can be viewed by the operator.
- the orientation of the display screen 52 is set substantially along the vertical direction.
- the navigation device 50 is formed separately from the input device 100, and is set at a position away from the input device 100.
- the navigation device 50 and the input device 100 are connected by, for example, a Controller Area Network bus.
- the Controller Area Network bus is also referred to as a CAN (registered trademark) bus.
- the various operation buttons are, for example, a first operation button 52A1, a second operation button 52A2, and a third operation for enlarged display, reduced display of a map, display mode change, and destination guidance setting etc.
- Various operation buttons 52A1 to 52A4 are operation icons.
- the display screen 52 is designed in a round shape so as to correspond to the position of the finger F (corresponding to the operating body) of the operator on the operating unit 110 (the operating surface 111).
- the displayed pointer 52B is displayed.
- the various operation buttons 52A1 to 52A4 will be described below using the first operation button 52A1 as a representative example.
- the input device 100 is provided at a position adjacent to the armrest 12 at the center console 11 of the vehicle 10, and is disposed in a range easily accessible by the operator.
- the input device 100 includes an operation unit 110, a drive unit 120, a control unit 130, and the like.
- the operation unit 110 forms a touch pad, and is a part that performs an input operation on the navigation device 50 by the finger F of the operator.
- the operation unit 110 includes an operation surface 111, a touch sensor 112, a housing 113, and the like.
- the operation surface 111 is exposed to the operator at a position adjacent to the armrest 12 and is a flat portion where the operator performs a finger operation.
- a material or the like that improves the slip of the finger over the entire surface is provided It is formed by
- the orientation of the operation surface 111 is, for example, disposed substantially along the horizontal direction.
- operation areas respectively corresponding to the various operation buttons 52A1 to 52A4 on the display screen 52 are set in advance.
- the operation area corresponding to the first operation button 52A1 shown in FIG. 5 will be described as the operation area 111A.
- the horizontal direction is an arbitrary direction parallel to the housing 113
- the vertical direction is a direction perpendicular to the housing 113.
- an input for operation selection, depression determination, etc.
- the first operation button 52A1 displayed on the display screen 52 is set by an operator's finger operation. There is.
- the touch sensor 112 is, for example, a capacitance type detection unit provided on the back surface side of the operation surface 111.
- the touch sensor 112 is formed in a rectangular flat plate shape, and is configured to detect an operation state of the sensor surface by the finger F of the operator.
- the touch sensor 112 is formed by arranging electrodes extending along the x-axis on the operation surface 111 and electrodes extending along the y-axis in a grid. These electrodes are connected to the control unit 130. Each electrode is configured such that the generated capacitance changes in accordance with the position of the finger F of the operator in proximity to the sensor surface, and the signal (sensitivity value) of the generated capacitance is a controller It is output to 130.
- the sensor surface is covered by an insulating sheet made of an insulating material.
- the touch sensor 112 is not limited to the capacitance type, and various types such as other pressure-sensitive types can be used.
- the housing 113 is a support unit that supports the operation surface 111 and the touch sensor 112 via the drive unit 120.
- the housing 113 is formed in a plate shape, and is disposed, for example, inside the center console 11.
- the drive unit 120 inclines the operation surface 111 with respect to a predetermined set angle preset for the direction of the operation surface 111, and the operation thereof is controlled by the control unit 130. Since the operation surface 111 is disposed substantially along the horizontal direction, the predetermined setting angle can be defined as 0 degrees with respect to the horizontal direction.
- the drive unit 120 includes four actuators 121, 122, 123, 124, and each of the actuators 121 to 124 is located between the operation surface 111 and the housing 113 at a position corresponding to the four corners of the operation surface 111. It is arranged.
- Each of the actuators 121 to 124 is capable of extending or contracting in the direction in which the operation surface 111 and the housing 113 face each other, in other words, in the vertical direction in FIG. 3A.
- an electromagnetic actuator such as a solenoid or a voice coil motor or a vibrator such as a piezo can be used.
- the operation surface 111 is inclined to be upward right.
- the upper side of the operation surface 111 is directed to the front side of the paper surface.
- vibration can be generated on the operation surface 111 in the vertical direction of FIG. 3A.
- the control unit 130 includes a CPU, a RAM, a storage medium, and the like.
- the control unit 130 determines from the signal obtained from the touch sensor 112 that the operation position of the finger on the operation surface 111 is the operation state closest to the contact position of the finger on the operation surface 111 and the closest among the operation regions The direction to the area and the distance to the closest operation area are acquired.
- the control unit 130 acquires, as an operation state, the presence or absence of the pressing operation or the like in any of the operation areas on the operation surface 111.
- control unit 130 controls the inclination angle of the operation surface 111 by the drive unit 120 (the actuators 121 to 124) according to the operation state.
- a control table for tilt angle control is stored in advance in the storage medium of the control unit 130, and the control unit 130 controls each of the actuators 121 to 124 based on the control table.
- the control table is, for example, a table in which the position of the finger F, the movement direction of the finger F, and the expansion / contraction conditions (the inclination direction of the operation surface 111, the inclination angle) of the actuators 121 to 124 are associated.
- the configuration of the input device 100 according to the present embodiment is as described above, and the operation and effects will be described below with reference to FIGS. 4 to 6B.
- step S100 shown in FIG. 4 the control unit 130 determines whether the finger F of the operator touches (touches) the operation surface 111 by a signal (operation state of the finger F) obtained from the touch sensor 112. judge.
- the control unit 130 repeats S100 if it determines no, and proceeds to S110 if it determines affirmative.
- FIG. 5 when the finger F of the operator is touched on the operation surface 111, the display of the pointer 52B on the display screen 52 becomes effective, and the position of the finger F of the operator on the operation surface 111 And a pointer 52 B is displayed on the display screen 52.
- the control unit 130 determines whether the finger F of the operator is selecting an operation button. That is, the control unit 130 determines that the finger F is in the operation area 111A corresponding to the first operation button 52A1 during the selection of the operation button, and selects the operation button when the finger F is out of the operation area 111A. It is determined that it is not inside. When the control unit 130 determines that the finger F is not selecting the operation button, the process proceeds to S120, and when determining that the operation button is being selected, the control unit 130 proceeds to S140.
- the control unit 130 calculates a vector between the current position of the pointer 52B (current position of the finger F on the operation surface 111) and the closest operation button (operation area 111A). In calculating the vector, the control unit 130 determines the distance between the current position of the finger F and the operation area 111A (the length of the vector) and the direction (direction of the vector) from the current position of the finger F toward the operation area 111A. calculate.
- the control unit 130 drives the drive unit 120 according to the vector (length and direction) to change the set angle (horizontal) of the operation surface 111.
- the control unit 130 changes the inclination angle of the operation surface 111.
- the manner of changing the inclination angle will be described by way of example in which the finger F moves across the operation area 111A as shown in FIG. 5, for example.
- the control unit 130 keeps the tilt angle of the operation surface 111 horizontal when the finger F is in the outer area of the operation area 111A. Then, when the finger F comes from the outer area of the operation surface 111 to the position of the boundary portion 111B of the operation region 111A, the operation surface 111 is inclined upward with respect to the movement direction of the finger F. Change the tilt angle.
- the control unit 130 When the finger F is in the operation area 111A, the control unit 130 returns the tilt angle so that the operation surface 111 becomes the original setting angle (horizontal). Furthermore, when the finger F comes from the inner area of the operation area 111A to the position of the boundary portion 111C of the operation area 111A, the control unit 130 causes the operation surface 111 to be inclined downward with respect to the movement direction of the finger F. The inclination angle of the operation surface 111 is changed. Then, when the finger F comes out of the operation area 111A, the control unit 130 returns the tilt angle so that the operation surface 111 becomes the original setting angle (horizontal).
- control unit 130 repeats S100 to S130 until the finger F of the operator is stopped in any of the operation areas.
- the control unit 130 detects or determines whether or not the pressing operation on the operation area (operation button) has been performed in S140. Do.
- the pressing operation is an operation indicating the selection determination on the operation area (operation button) of the operator, and is performed by the operator pressing a finger on the operation surface 111 at a position corresponding to the operation area (operation button). . If affirmation determination is carried out by S140, the control part 130 will perform pushing determination processing by S150. That is, an instruction corresponding to one of the operation buttons is issued to the navigation device 50. If a negative determination is made in S140, the process returns to S100.
- the control unit 130 generates a vibration (click feeling vibration) for giving a click feeling to the finger F of the operator. Further, by using the drive unit 120 and synchronizing the drive unit 120 (actuators 121 to 124) and vibrating in the vertical direction, it is possible to recognize that the operator has performed the pressing operation.
- the operation button hits the belly of the finger F, thereby acting on the belly of the finger F
- the pressure distribution changes, and the operator feels like touching the operation button.
- the distribution of pressure acting on the belly of the finger F is also referred to as the distribution of pressure to which the abdominal surface of the finger F is subjected.
- the set angle of the operation surface 111 is changed to change the pressure distribution on the finger F moving relative to the operation area 111A.
- the pressure distribution acting on the finger F becomes large because the operation surface 111 is inclined upward, and the finger F feels like touching the edge portion of the actual operation button (A feeling of edge) can be obtained. Also, when the finger F comes out of the operation area 111A, the downward inclination of the operation surface 111 makes the pressure distribution acting on the finger F small, and the finger F moves away from the edge portion of the actual operation button. You can get a feel.
- the drive unit 120 is configured to change the set angle of the operation surface 111 by expansion and contraction, the configuration can be simplified compared to Patent Document 2.
- the second embodiment is a touch panel in which the operation screen 111 and the touch sensor 112 are provided on the display screen 52 of the liquid crystal display 51 in the first embodiment.
- the touch panel is provided with drive units 120 (actuators 121 to 124), and the setting angle of the operation surface 111 can be changed (tilted) as in the first embodiment.
- the touch panel is provided at a position and an attitude corresponding to the liquid crystal display 51 described with reference to FIG. 1, and the direction of the operation surface 111 is, for example, disposed substantially along the vertical direction.
- the finger F when the finger F comes to the boundaries 111B and 111C of the operation button 52A1 (the operation area 111A), the inclination angle of the operation surface 111 is changed as shown in FIG.
- the finger F can thus feel as if it is touching an actual operation button.
- FIGS. 8-11B A third embodiment is shown in FIGS. 8-11B.
- a predetermined width A is provided at the boundary portions 111B and 111C of the operation area 111A in the first and second embodiments, and within the predetermined width A, depending on the position of the finger F, The set angle of the operation surface 111 is changed linearly, sharply (rapidly) or gently.
- the predetermined width A is a section for gradually changing the inclination angle of the operation surface 111.
- the predetermined width A is set as a section from the outside of the operation area 111A to the boundary section 111B or as a section sandwiching the boundary section 111B between the outside and the inside of the operation area 111A.
- the predetermined width A is a section from the boundary part 111C of the operation area 111A to the outside of the operation area 111A, or the boundary part 111C is between the inside and the outside of the operation area 111A. It can be set as a section to sandwich.
- the inclination angle of the operation surface 111 is linearly increased (or reduced) within the predetermined width A according to the position of the finger F Control) such as increasing the size rapidly (or decreasing the size) or gradually increasing (or decreasing the size).
- control table provided in advance is used to control the inclination angle of the operation surface 111.
- the present invention is not limited to this, and calculation is performed each time according to the operation state of the finger F. An inclination angle may be obtained.
- the operation body was demonstrated as a finger F of an operator, it is good also as a stick which imitated not only the finger F but a pen.
- the navigation apparatus 50 as a target (predetermined apparatus) of the input control by the input apparatus 100, it is not limited to the navigation apparatus 50, The air conditioner for vehicles or the audio apparatus for vehicles The invention can also be applied to other devices such as.
- the navigation device corresponds to an example of a predetermined device of the present disclosure
- the touch sensor corresponds to an example of a detection unit
- the finger of the operator corresponds to an example of an operating body.
- each step is expressed as S100, for example.
- each step may be divided into multiple sub-steps, while multiple steps may be combined into one step.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Mechanical Control Devices (AREA)
- Position Input By Displaying (AREA)
Abstract
入力装置は、操作側となる操作面(111)に対する操作体(F)の操作状態を検出する検出部(112)と、検出部によって検出される操作状態に応じて、所定の機器(50)に対する入力を行う制御部(130)と、を備える。操作面には、所定の機器に対する操作用の操作領域(111A)が予め設定される。入力装置は、操作面の向きについて予め設定された所定の設定角度に対して、操作面を傾斜させる駆動部(120)を備える。制御部は、操作体が操作面上を移動して、操作領域の境界部(111B、111C)にあるとき、駆動部によって操作面の設定角度を変更させて、操作体に作用する圧力分布を変化させる。
Description
本出願は、2017年8月21日に出願された日本国特許出願2017-158772号に基づくものであり、ここにその記載内容を参照により援用する。
本開示は、タッチパッドやタッチパネルのように、指等の操作体による入力操作を可能とする入力装置に関する。
従来の入力装置として、例えば、特許文献1に記載されたものが知られている。特許文献1の入力装置(携帯端末装置)は、画像(操作ボタン)を表示する表示パネル、表示パネル上における利用者の指による接触操作を受付けるタッチパネル、およびバイブレータを備えている。そして、利用者の接触操作において、指が画像のエッジ位置にあると、バイブレータを作動させるようになっている。バイブレータの振動により、利用者は、画像のエッジを振動により知ることができ、画像の形状を体感できるようになっている。
また、特許文献2に記載された入力装置では、操作用のボタン画像を表示する表示器、表示器から離れた位置に設けられ、入力部として凹凸面を形成する触覚ディスプレイ、および触覚ディスプレイの押された位置を検出する位置センサを備えている。触覚ディスプレイは、複数のピンと、複数のピンをディスプレイ面に対して上下に移動させる複数のアクチュエータとを備え、表示器のボタン画像に対応する領域におけるピンを、アクチュエータによって上方へ移動させることで、入力部においてボタン画像に対応した凸部を形成するようになっている。この凸部によって、利用者は、あたかもボタン画像を実際に触れているような感触が得られるようになっている。
特許文献1の入力装置では、単に、画像のエッジ位置でバイブレータによる振動を発生させているに過ぎず、実際の操作ボタンに触れるような感触(エッジ感覚またはエッジ感と呼ぶ)を得ることはできない。
また、特許文献2の入力装置では、複数のピンと、複数のピンを移動させる複数のアクチュエータを必要とするため、構成上および制御上で非常に複雑なものとなる。
本開示は、簡素な構成で、実際の操作ボタンに触れたかのような感触の得られる入力装置を提供することを目的とする。
本開示の一態様によると、入力装置は、操作側となる操作面に対する操作体の操作状態を検出する検出部と、検出部によって検出される操作状態に応じて、所定の機器に対する入力を行う制御部と、を備える。入力装置において、操作面には、所定の機器に対する操作用の操作領域が予め設定され、操作面の向きについて予め設定された所定の設定角度に対して、操作面を傾斜させる駆動部を備えており、制御部は、操作体が操作面上を移動して、操作領域の境界部にあるとき、駆動部によって操作面の設定角度を変更させて、操作体に作用する圧力分布を変化させる。
本開示の構成によれば、操作体が操作領域の境界部にあるときに、操作面の設定角度を変更させて、操作領域で移動する操作体に作用する圧力分布を変化させることで、操作体に対して、あたかも実際の操作ボタンのエッジ部に触れているかのような感触を与えることができる。本開示では、駆動部は操作面の設定角度を変更するだけであるので、特許文献2に対して簡素な構成とすることができる。
本開示についての上記および他の目的、特徴や利点は、添付図面を参照した下記詳細な説明から、より明確になる。添付図面において、
図1は、車両における入力装置の搭載状態を示す説明図であり、
図2は、第1実施形態における入力装置を示すブロック図であり、
図3Aは、第1実施形態における操作部および駆動部の側面図であり、
図3Bは、第1実施形態における操作部および駆動部を図3AのIIIB方向から見た矢視図(平面図)であり、
図4は、第1実施形態における入力装置の制御内容を示すフローチャートであり、
図5は、第1実施形態における操作部が傾斜される様子を示す説明図であり、
図6Aは、実際の操作ボタンをなぞるときの、指腹の圧力分布のイメージを示す説明図であり、
図6Bは、実際の操作ボタンをなぞるときの、指腹の圧力分布のイメージを示す説明図であり、
図7は、第2実施形態における操作部(タッチパネル)が傾斜される様子を示す説明図であり、
図8は、第3実施形態における操作部が傾斜される様子を示す説明図であり、
図9Aは、操作領域に入るときの境界部における所定の幅を示す説明図であり、
図9Bは、操作領域に入るときの境界部における所定の幅を示す説明図であり、
図10Aは、操作領域から出るときの境界部における所定の幅を示す説明図であり、
図10Bは、操作領域から出るときの境界部における所定の幅を示す説明図であり、
図11Aは、所定の幅内における傾斜角度の変化を示す説明図であり、
図11Bは、所定の幅内における傾斜角度の変化を示す説明図である。
以下に、図面を参照しながら本開示を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。各実施形態で具体的に組み合わせが可能であることを明示している部分同士の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても実施形態同士を部分的に組み合せることも可能である。
(第1実施形態)
第1実施形態の入力装置100を図1~図6Bに示す。本実施形態の入力装置100は、例えば、ナビゲーション装置50を操作するための遠隔操作デバイスに適用したものである。入力装置100は、ナビゲーション装置50と共に、車両10に搭載されている。ナビゲーション装置50は、本開示の所定の機器に対応する。
第1実施形態の入力装置100を図1~図6Bに示す。本実施形態の入力装置100は、例えば、ナビゲーション装置50を操作するための遠隔操作デバイスに適用したものである。入力装置100は、ナビゲーション装置50と共に、車両10に搭載されている。ナビゲーション装置50は、本開示の所定の機器に対応する。
ナビゲーション装置50は、地図上における自車の現在位置情報、進行方向情報、あるいは操作者の希望する目的地への案内情報等を表示する航路誘導システムである。ナビゲーション装置50は、表示部としての液晶ディスプレイ51を有している。液晶ディスプレイ51は、車両10のインストルメントパネル13の車両幅方向の中央部に配置されて、表示画面52が操作者によって視認されるようになっている。表示画面52の向きは、概ね垂直方向に沿うように設定されている。
ナビゲーション装置50は、入力装置100に対して別体で形成されており、入力装置100から離れた位置に設定されている。ナビゲーション装置50と入力装置100とは、例えば、Controller Area Networkバスによって接続されている。Controller Area Networkバスは、CAN(登録商標)バスとも呼ぶ。
液晶ディスプレイ51の表示画面52には、地図上における自車位置が表示されると共に、ナビゲーション装置50に対する操作用の各種操作ボタンが表示されるようになっている。図5に示すように、各種操作ボタンは、例えば、地図の拡大表示、縮小表示、表示形態変更、および目的地案内設定等のための第1操作ボタン52A1、第2操作ボタン52A2、第3操作ボタン52A3、および第4操作ボタン52A4等である。各種操作ボタン52A1~52A4は、操作アイコンである。また、図5に示すように、表示画面52には、操作部110(操作面111)における操作者の指F(操作体に相当する)の位置に対応するように、例えば、丸形状にデザインされたポインタ52Bが表示されるようになっている。尚、各種操作ボタン52A1~52A4については、以下、第1操作ボタン52A1を代表例として説明することにする。
入力装置100は、図1~図3Bに示すように、車両10のセンターコンソール11にて、アームレスト12と隣接する位置に設けられ、操作者の手の届き易い範囲に配置されている。入力装置100は、操作部110、駆動部120、および制御部130等を備えている。
操作部110は、タッチパッドを形成するものであり、操作者の指Fによって、ナビゲーション装置50に対する入力操作を行う部位となっている。操作部110は、操作面111、タッチセンサ112、および筐体113等を有している。
操作面111は、アームレスト12と隣接する位置で操作者側に露出して、操作者が指操作を行う平面部となっており、例えば、表面全体にわたって指の滑りを良くする素材等が設けられることで形成されている。操作面111の向きは、例えば、概ね水平方向に沿うように配置されている。操作面111には、表示画面52上の各種操作ボタン52A1~52A4にそれぞれ対応する操作領域が予め設定されている。以下の説明を簡単にするために、図5に示す第1操作ボタン52A1に対応する操作領域を、操作領域111Aとして説明する。なお、入力装置において、水平方向は筐体113と平行な任意の方向であって、垂直方向は筐体113に対して垂直な方向を示す。
操作面111上の操作領域111Aにおいては、操作者の指操作により、表示画面52に表示される第1操作ボタン52A1に対する操作(選択、押込み決定等)のための入力ができるように設定されている。
タッチセンサ112は、操作面111の裏面側に設けられた、例えば、静電容量式の検出部である。タッチセンサ112は、矩形の平板状に形成されており、センサ表面に対する操作者の指Fによる操作状態を検出するようになっている。
タッチセンサ112は、操作面111上のx軸方向に沿って延びる電極と、y軸方向に沿って延びる電極とが格子状に配列されることにより形成されている。これら電極は、制御部130と接続されている。各電極は、センサ表面に近接する操作者の指Fの位置に応じて、発生される静電容量が変化するようになっており、発生される静電容量の信号(感度値)が制御部130に出力されるようになっている。センサ表面は、絶縁材よりなる絶縁シートによって覆われている。尚、タッチセンサ112としては、静電容量式のものに限らず、他の感圧式等、各種タイプのものを使用することができる。
筐体113は、駆動部120を介して、操作面111およびタッチセンサ112を支持する支持部である。筐体113は、板状に形成されており、例えば、センターコンソール11の内部に配置されている。
駆動部120は、操作面111の向きについて予め設定された所定の設定角度に対して、操作面111を傾斜させるものであり、制御部130によって、その作動が制御されるようになっている。操作面111は、概ね水平方向に沿うように配置されていることから、所定の設定角度は、水平方向に対して0度と定義することができる。駆動部120は、4つのアクチュエータ121、122、123、124を有しており、各アクチュエータ121~124は、操作面111の四隅に対応する位置で、操作面111と筐体113との間に配置されている。
各アクチュエータ121~124は、操作面111と筐体113とが向かい合う方向、換言すると、図3Aの垂直方向に伸張、あるいは収縮、あるいは伸張収縮の双方が可能となっている。各アクチュエータ121~124としては、例えば、ソレノイド、ボイスコイルモータ等の電磁アクチュエータ、あるいはピエゾ等の振動体等を用いることができる。
図3Aにおいて、例えば、各アクチュエータ121~124のうち、アクチュエータ121、123をアクチュエータ122、124に対して相対的に収縮させることで、操作面111は右上がりとなるように傾斜する。あるいは、図3Bにおいて、例えば、各アクチュエータ121~124のうち、アクチュエータ121、122をアクチュエータ123、124に対して相対的に伸張することで、操作面111の上辺側が、紙面の手前側に向かうように傾斜する。
また、各アクチュエータ121~124を同期して伸縮させることで、操作面111に、図3Aの垂直方向に振動を発生させることができるようになっている。
制御部130は、CPU、RAM、および記憶媒体等を有している。制御部130は、タッチセンサ112から得られる信号から、操作者の指Fの操作状態として、操作面111上における指の接触位置、接触している領域から、各操作領域のうち一番近い操作領域への方向、および一番近い操作領域までの距離等を取得する。加えて、制御部130は、操作状態として、操作面111上において、いずれかの操作領域での押込み操作の有無等を取得する。
そして、制御部130は、これらの操作状態に応じて、駆動部120(各アクチュエータ121~124)による操作面111の傾斜角度を制御するようになっている。尚、制御部130の記憶媒体には、傾斜角度制御時の制御テーブルが予め格納されており、制御部130は、この制御テーブルに基づいて、各アクチュエータ121~124の制御を行うようになっている。尚、制御テーブルは、例えば、指Fの位置、指Fの移動方向、および各アクチュエータ121~124の伸縮条件(操作面111の傾斜方向、傾斜角度)等を関連付けしたテーブルとなっている。
本実施形態の入力装置100の構成は以上のようになっており、作動および作用効果について、以下、図4~図6Bを参照しつつ説明する。
まず、制御部130は、図4に示すS100で、タッチセンサ112から得られる信号(指Fの操作状態)によって、操作者の指Fが操作面111にタッチ(接触)しているか否かを判定する。制御部130は、否と判定すれば、S100を繰り返し、肯定判定すれば、S110に移行する。尚、図5に示すように、操作者の指Fが操作面111にタッチされると、表示画面52におけるポインタ52Bの表示が有効となって、操作面111上における操作者の指Fの位置に対応するように、ポインタ52Bが表示画面52に表示される。
以下、図5に示すように、指Fが、第1操作ボタン52A1に対応する操作領域111Aに対して移動される場合を1つのモデルとして説明する。
S110では、制御部130は、操作者の指Fが操作ボタンを選択中か否かを判定する。即ち、制御部130は、指Fが、第1操作ボタン52A1に対応する操作領域111A内にあると操作ボタンの選択中と判定し、指Fが操作領域111Aの外にあると操作ボタンの選択中ではないと判定する。制御部130は、指Fが操作ボタンを選択中ではないと判定すると、S120に進み、操作ボタンを選択中であると判定すると、S140に進む。
S120では、制御部130は、現在のポインタ52Bの位置(操作面111上の現在の指Fの位置)と、一番近い操作ボタン(操作領域111A)との間のベクトルを算出する。ベクトル算出にあたって、制御部130は、現在の指Fの位置と操作領域111Aとの距離(ベクトルの長さ)と、現在の指Fの位置から操作領域111Aに向かう方向(ベクトルの向き)とを算出する。
そして、S130にて、制御部130は、ベクトル(長さと向き)に応じて、駆動部120を駆動させて、操作面111の設定角度(水平)を変更する。言い換えると、制御部130は、操作面111の傾斜角度を変更する。傾斜角度の変更要領について、例えば、図5に示すように、指Fが操作領域111Aを横切ろうとして移動する場合を例に説明する。
制御部130は、指Fが操作領域111Aの外領域にあるとき、操作面111の傾斜角度を水平に維持している。そして、指Fが操作面111の外領域から、操作領域111Aの境界部111Bの位置に来たときに、操作面111が指Fの移動方向に対して上り傾斜となるように操作面111の傾斜角度を変更する。
制御部130は、指Fが操作領域111A内にあるときは、操作面111が本来の設定角度(水平)となるように、傾斜角度を戻す。更に、制御部130は、指Fが操作領域111Aの内領域から、操作領域111Aの境界部111Cの位置に来たときに、操作面111が指Fの移動方向に対して下り傾斜となるように操作面111の傾斜角度を変更する。そして、制御部130は、指Fが操作領域111Aの外に出ると、操作面111が本来の設定角度(水平)となるように、傾斜角度を戻す。
S130の後、操作者の指Fが、いずれかの操作領域内で停止されるまで、制御部130は、S100~S130を繰り返す。
S100~S130を繰り返す中で、S110で、指Fが操作ボタンを選択中であると判定すると、制御部130は、S140で、操作領域(操作ボタン)に対する押込み操作があったか否かを検知または判定する。押込み操作は、操作者の操作領域(操作ボタン)に対する選択決定を示す操作であり、操作者が操作面111上で、操作領域(操作ボタン)に対応する位置で指を押込むことで行われる。S140で肯定判定すると、制御部130は、S150で、押込み決定処理を行う。つまり、いずれかの操作ボタンに対応する指示をナビゲーション装置50に対して行う。尚、S140で否定判定すると、S100に戻る。
そして、S160で、制御部130は、操作者の指Fに対してクリック感を与えるための振動(クリック感振動)を発生させる。また、駆動部120を流用して、駆動部120(アクチュエータ121~124)を同期させて垂直方向に振動させることで、操作者が押込み操作をしたことが認識できるようにする。
図6A、図6Bに示すように、凸状に形成された実際の操作ボタン上を指Fでなぞる場合であると、指Fの腹に操作ボタンが当たることで、指Fの腹に作用する圧力の分布が変化して、操作者は、操作ボタンに触れるような感触を得る。指Fの腹に作用する圧力の分布は、指Fの腹面が受ける圧力の分布とも呼ぶ。
本実施形態では、S130において、指Fが操作領域111Aの境界部111B、111Cにあるときに、操作面111の設定角度を変更させて、操作領域111Aに対して移動する指Fに圧力分布の変化を発生させることで、あたかも凸状に形成された実際の操作ボタンに触れるような感触を得ることができる。
つまり、指Fが操作領域111Aに入るとき、操作面111が上り傾斜となることで、指Fに作用する圧力分布は大きくなり、指Fは実際の操作ボタンのエッジ部に触れたような感触(エッジ感)を得ることができる。また、指Fが操作領域111Aから出るとき、操作面111が下り傾斜となることで、指Fに作用する圧力分布は小さくなり、指Fは実際の操作ボタンのエッジ部から離れていくような感触を得ることができる。
駆動部120は、伸縮によって操作面111の設定角度を変更する構成としているので、特許文献2に対して、簡素な構成とすることができる。
(第2実施形態)
第2実施形態を図7に示す。第2実施形態は、第1実施形態に対して、液晶ディスプレイ51の表示画面52に操作面111、およびタッチセンサ112を設けた、タッチパネルである。タッチパネルには、駆動部120(各アクチュエータ121~124)が設けられて、第1実施形態と同様に、操作面111の設定角度の変更が可能(傾斜可能)となっている。本実施形態では、タッチパネルは、図1で説明した液晶ディスプレイ51に対応する位置、姿勢で設けられており、操作面111の向きは、例えば、概ね垂直方向に沿うように配置されている。
第2実施形態を図7に示す。第2実施形態は、第1実施形態に対して、液晶ディスプレイ51の表示画面52に操作面111、およびタッチセンサ112を設けた、タッチパネルである。タッチパネルには、駆動部120(各アクチュエータ121~124)が設けられて、第1実施形態と同様に、操作面111の設定角度の変更が可能(傾斜可能)となっている。本実施形態では、タッチパネルは、図1で説明した液晶ディスプレイ51に対応する位置、姿勢で設けられており、操作面111の向きは、例えば、概ね垂直方向に沿うように配置されている。
本実施形態でも、第1実施形態と同様に、指Fが操作ボタン52A1(操作領域111A)の境界部111B、111Cに来ると、図7に示すように、操作面111の傾斜角度が変更されて、指Fは、実際の操作ボタンに触れているような感触を得ることができる。
(第3実施形態)
第3実施形態を図8~図11Bに示す。第3実施形態は、第1、第2実施形態に対して、操作領域111Aの境界部111B、111Cに所定の幅Aを設けて、所定の幅A内で、指Fの位置に応じて、操作面111の設定角度を、直線的に、急峻に(急激に)、あるいは緩やかに変更するようにした。
第3実施形態を図8~図11Bに示す。第3実施形態は、第1、第2実施形態に対して、操作領域111Aの境界部111B、111Cに所定の幅Aを設けて、所定の幅A内で、指Fの位置に応じて、操作面111の設定角度を、直線的に、急峻に(急激に)、あるいは緩やかに変更するようにした。
所定の幅Aは、操作面111の傾斜角度を徐変するための区間である。所定の幅Aは、図9A、図9Bに示すように、操作領域111Aの外側から境界部111Bまでの区間、あるいは、境界部111Bを操作領域111Aの外側と内側とで挟む区間として設定することができる。あるいは、所定の幅Aは、図10A、図10Bに示すように、操作領域111Aの境界部111Cから操作領域111Aの外側に至る区間、あるいは、境界部111Cを操作領域111Aの内側と外側とで挟む区間として設定することができる。
所定の幅Aを設定した場合において、図11A、図11Bに示すように、操作面111の傾斜角度を所定の幅A内で、指Fの位置に応じて、直線的に大きくする(または小さくする)、急激に大きくする(または小さくする)、あるいは緩やかに大きくする(または小さくする)等の制御を行う。
傾斜角度の変更を急激にすることで、エッジ感の強い感触が得られ、また、傾斜角度の変更を緩やかにすることで、丸みのある操作ボタンに触れるような感触を得ることができる。
(その他の実施形態)
各実施形態では、操作面111の傾斜角度を制御するために、予め設けられた制御テーブルを使用するものとして説明したが、これに限らず、指Fの操作状態に応じて、都度、計算によって傾斜角度を得るようにしてもよい。
各実施形態では、操作面111の傾斜角度を制御するために、予め設けられた制御テーブルを使用するものとして説明したが、これに限らず、指Fの操作状態に応じて、都度、計算によって傾斜角度を得るようにしてもよい。
また、各実施形態では、図4で説明したS140~S160で、押込み操作があると、クリック感を与えるクリック感振動を発生させるものとした。しかしながら、本開示は、基本的には、操作面111に傾斜を持たせることで、実際の操作ボタンに触れるような感触が得られるようにしており、S140~S160を廃止したものとしてもよい。
また、各実施形態では、操作体を操作者の指Fとして説明したが、指Fに限らず、ペンを模したスティックとしてもよい。
また、各実施形態では、入力装置100による入力制御の対象(所定の機器)として、ナビゲーション装置50としたが、ナビゲーション装置50に限定されることなく、車両用の空調装置、あるいは車両用オーディオ装置等の他の機器にも適用することができる。
なお、ナビゲーション装置は本開示の所定の機器の一例に相当し、タッチセンサは検出部の一例に相当し、操作者の指は操作体の一例に相当する。
ここで、この出願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のステップ(あるいはセクションと言及される)から構成され、各ステップは、たとえば、S100と表現される。さらに、各ステップは、複数のサブステップに分割されることができる、一方、複数のステップが合わさって一つのステップにすることも可能である。
以上、本開示の一態様に係る入力装置の実施形態、構成、態様を例示したが、本開示に係る実施形態、構成、態様は、上述した各実施形態、各構成、各態様に限定されるものではない。例えば、異なる実施形態、構成、態様にそれぞれ開示された技術的部を適宜組み合わせて得られる実施形態、構成、態様についても本開示に係る実施形態、構成、態様の範囲に含まれる。
Claims (4)
- 操作側となる操作面(111)に対する操作体(F)の操作状態を検出する検出部(112)と、
前記検出部によって検出される前記操作状態に応じて、所定の機器(50)に対する入力を行う制御部(130)と、を備える入力装置において、
前記操作面には、前記所定の機器に対する操作用の操作領域(111A)が予め設定され、
前記操作面の向きについて予め設定された所定の設定角度に対して、前記操作面を傾斜させる駆動部(120)を備えており、
前記制御部は、前記操作体が前記操作面上を移動して、前記操作領域の境界部(111B、111C)にあるとき、前記駆動部によって前記操作面の前記設定角度を変更させて、前記操作体に作用する圧力分布を変化させる入力装置。 - 前記制御部は、前記境界部において、前記操作体が、前記操作領域の外から内に入るとき、前記操作体の移動方向に対して、前記操作面が上り傾斜となるように前記設定角度を変更し、
前記制御部は、前記境界部において、前記操作体が、前記操作領域の内から外に出るとき、前記操作体の移動方向に対して、前記操作面が下り傾斜となるように、前記設定角度を変更する、請求項1に記載の入力装置。 - 前記制御部は、前記境界部に所定の幅(A)を持たせて、前記所定の幅内で、前記操作体の位置に応じて、前記設定角度を急峻に、あるいは緩やかに変更する請求項2に記載の入力装置。
- 前記制御部は、前記検出部より前記操作状態として、前記操作領域に対する押込み操作を取得すると、前記駆動部によって、前記操作面に振動を発生させる請求項1~請求項3のいずれか1つに記載の入力装置。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017158772A JP2019036248A (ja) | 2017-08-21 | 2017-08-21 | 入力装置 |
| JP2017-158772 | 2017-08-21 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019039080A1 true WO2019039080A1 (ja) | 2019-02-28 |
Family
ID=65438534
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/024486 Ceased WO2019039080A1 (ja) | 2017-08-21 | 2018-06-28 | 入力装置 |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2019036248A (ja) |
| WO (1) | WO2019039080A1 (ja) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000137576A (ja) * | 1998-10-30 | 2000-05-16 | Nec Corp | タッチパネル式入力装置 |
| JP2013097600A (ja) * | 2011-11-01 | 2013-05-20 | Tokai Rika Co Ltd | タッチ式入力装置 |
| JP2017027731A (ja) * | 2015-07-21 | 2017-02-02 | 株式会社日本自動車部品総合研究所 | 操作装置 |
| JP2017045330A (ja) * | 2015-08-27 | 2017-03-02 | 富士通テン株式会社 | 入力装置および車載装置 |
-
2017
- 2017-08-21 JP JP2017158772A patent/JP2019036248A/ja active Pending
-
2018
- 2018-06-28 WO PCT/JP2018/024486 patent/WO2019039080A1/ja not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000137576A (ja) * | 1998-10-30 | 2000-05-16 | Nec Corp | タッチパネル式入力装置 |
| JP2013097600A (ja) * | 2011-11-01 | 2013-05-20 | Tokai Rika Co Ltd | タッチ式入力装置 |
| JP2017027731A (ja) * | 2015-07-21 | 2017-02-02 | 株式会社日本自動車部品総合研究所 | 操作装置 |
| JP2017045330A (ja) * | 2015-08-27 | 2017-03-02 | 富士通テン株式会社 | 入力装置および車載装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2019036248A (ja) | 2019-03-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10642381B2 (en) | Vehicular control unit and control method thereof | |
| US20150160772A1 (en) | Input device | |
| CN105247323B (zh) | 地图显示控制器 | |
| WO2019017009A1 (ja) | 入力装置 | |
| US11132089B2 (en) | Input device | |
| JP6888585B2 (ja) | 入力装置 | |
| JP2019021007A (ja) | 入力装置 | |
| JP6520856B2 (ja) | 表示操作装置 | |
| US11079850B2 (en) | Input apparatus | |
| WO2019116771A1 (ja) | 入力装置 | |
| WO2019039080A1 (ja) | 入力装置 | |
| JP6828671B2 (ja) | 入力装置 | |
| WO2018163626A1 (ja) | 入力装置 | |
| US12073069B2 (en) | Control value setting device and control value setting program | |
| US11009997B2 (en) | Input device | |
| JP2019012351A (ja) | 入力装置 | |
| JP2019079243A (ja) | 入力装置 | |
| WO2019012747A1 (ja) | 入力装置 | |
| WO2018230088A1 (ja) | 入力装置 | |
| JP2003296028A (ja) | 画面操作装置 | |
| JP2019079409A (ja) | 入力装置 | |
| JP2018122827A (ja) | 車載用情報入力装置および車載用情報入力システム | |
| JP2019012352A (ja) | 入力装置 | |
| JP2017027294A (ja) | 表示操作装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18847615 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18847615 Country of ref document: EP Kind code of ref document: A1 |