FR3053489A1 - Procede de commande et interface de commande pour vehicule automobile - Google Patents
Procede de commande et interface de commande pour vehicule automobile Download PDFInfo
- Publication number
- FR3053489A1 FR3053489A1 FR1656139A FR1656139A FR3053489A1 FR 3053489 A1 FR3053489 A1 FR 3053489A1 FR 1656139 A FR1656139 A FR 1656139A FR 1656139 A FR1656139 A FR 1656139A FR 3053489 A1 FR3053489 A1 FR 3053489A1
- Authority
- FR
- France
- Prior art keywords
- sensory feedback
- pointing element
- target border
- touch surface
- feedback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/25—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/50—Instruments characterised by their means of attachment to or integration in the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/60—Instruments characterised by their location or relative disposition in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/90—Calibration of instruments, e.g. setting initial or reference parameters; Testing of instruments, e.g. detecting malfunction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/141—Activation of instrument input devices by approaching fingers or pens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/143—Touch sensitive instrument input devices
- B60K2360/1438—Touch screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/55—Remote control arrangements
- B60K2360/56—Remote control arrangements using mobile devices
- B60K2360/566—Mobile devices displaying vehicle information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/55—Remote control arrangements
- B60K2360/56—Remote control arrangements using mobile devices
- B60K2360/573—Mobile devices controlling vehicle functions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/26—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
L'invention concerne un procédé de commande de retour sensoriel pour une interface de commande notamment pour véhicule automobile, l'interface de commande comportant une surface tactile (2), caractérisé en ce que le procédé de commande comporte les étapes suivantes : - on détecte le déplacement de l'élément de pointage (3) en direction d'une frontière cible (6), - lorsque l'élément de pointage (3) est détecté à une distance seuil (d) de la frontière cible, on génère au moins un retour sensoriel, de sorte que le retour sensoriel est perçu par un utilisateur de ladite interface (1) sensiblement au moment du franchissement de la frontière cible (6), évitant un décalage temporel entre la perception du retour sensoriel et le franchissement de la frontière cible (6). L'invention concerne une interface de commande (1) pour véhicule automobile configurée pour mettre en œuvre au moins partiellement un procédé de commande tel que défini précédemment.
Description
Titulaire(s) : DAV Société par actions simplifiée.
Demande(s) d’extension
Mandataire(s) : VALEO COMFORT AND DRIVING ASSISTANCE.
PROCEDE DE COMMANDE ET INTERFACE DE COMMANDE POUR VEHICULE AUTOMOBILE.
FR 3 053 489 - A1 (5/) L'invention concerne un procédé de commande de retour sensoriel pour une interface de commande notamment pour véhicule automobile, l'interface de commande comportant une surface tactile (2), caractérisé en ce que le procédé de commande comporte les étapes suivantes:
- on détecte le déplacement de l'élément de pointage (3) en direction d'une frontière cible (6),
- lorsque l'élément de pointage (3) est détecté à une distance seuil (d) de la frontière cible, on génère au moins un retour sensoriel, de sorte que le retour sensoriel est perçu par un utilisateur de ladite interface (1 ) sensiblement au moment du franchissement de la frontière cible (6), évitant un décalage temporel entre la perception du retour sensoriel et le franchissement de la frontière cible (6).
L'invention concerne une interface de commande (1) pour véhicule automobile configurée pour mettre en oeuvre au moins partiellement un procédé de commande tel que défini précédemment.
-1Procédé de commande et interface de commande pour véhicule automobile
La présente invention concerne un procédé de commande notamment pour véhicule automobile permettant la génération d’au moins un retour sensoriel à un utilisateur via une interface de commande telle qu’une interface homme-machine. L’invention concerne aussi une interface configurée pour la mise en œuvre d’au moins certaines étapes d’un tel procédé de commande.
Depuis ces dernières années, les véhicules automobiles, en particulier les voitures, sont devenus plus faciles à manipuler avec Γapparition de nouvelles technologies émergentes (par exemple direction assistée, ABS, régulateur de vitesse, radar de recul etc...) entraînant une augmentation du nombre de fonctions à contrôler pendant la conduite.
La voiture est devenue un véritable espace de vie, perçue comme un centre de communication personnel et interconnecté : avec par exemple le lecteur MP3, le GPS, la connexion avec les téléphones portables. L’introduction de ces nouvelles fonctions se traduit par une augmentation du nombre de boutons sur le tableau de bord d’un cockpit de voiture. Cependant, le nombre de boutons ne peut pas être augmenté à l’infini, du fait notamment de la complexité engendrée, de l’espace limité, de l’accessibilité ou de la charge cognitive. De plus, l’interaction du conducteur avec les systèmes embarqués dans la voiture peut produire une situation de surcharge attentionnelle dans laquelle le conducteur peut ne pas traiter au mieux toutes les informations de la tâche de conduite, se traduisant par des erreurs et un temps de détection plus long.
Une possibilité est de centraliser les boutons en les remplaçant au moins en partie par une surface tactile telle qu’une dalle tactile ou un écran tactile. Ceci permet de continuer à augmenter le nombre des fonctions, celles-ci devenant programmables et reconfigurables et exposées de façon temporaire ou permanente selon le contexte ou la fonction activée. La surface tactile inclut ainsi une possibilité de multifonctionnalité, tout en dématérialisant les boutons. Les écrans tactiles sont de plus personnalisables. En outre, les écrans tactiles présentent trois autres avantages majeurs : ils permettent d’une part une interaction directe (la co-implantation de l’affichage et de saisie), d’autre part ils sont souples (l’affichage peut être facilement configuré pour un certain nombre de fonctions), et enfin ils sont intuitifs (méthode d’interaction familière comme par exemple « pointer »).
-2Cependant, contrairement au cas d’un bouton-poussoir, lorsque le conducteur interagit avec une surface tactile tel qu’un écran tactile, il ne reçoit aucune rétroaction liée directement à son action sur l’interface, autre que le simple contact de son doigt s’écrasant sur la surface tactile.
Afin de compenser la perte d’informations causée par la substitution d’organes de commande mécaniques classiques par des surfaces tactiles telles que des écrans tactiles, il est connu d’ajouter un ou plusieurs retours sensoriels, comme un retour haptique, pour fournir une rétroaction du système à l’utilisateur. Ce retour permet d’éviter l’ambigüité possible de la prise en compte de l’action de l’utilisateur par le système, susceptible de favoriser l'apparition de situations dangereuses.
Ainsi, il est connu de faire vibrer une surface tactile pour faire un retour haptique informant par exemple rutilisateur de la prise en compte d’une commande.
Une possible application d’un retour haptique consiste par exemple à faire vibrer la surface tactile lors du franchissement d’une frontière cible. Par « frontière cible », on désigne une délimitation de la surface tactile non détectable haptiquement entre deux zones fonctionnelles.
Comme exemple, on peut prévoir une première zone pour commander une première fonction, comme par exemple baisser le volume d’un système audio, et une seconde zone adjacente pour commander une seconde fonction, par exemple augmenter le volume.
Comme la surface tactile est lisse, le passage entre les deux zones n’est pas détectable par le doigt d’un utilisateur.
Pour pallier cet inconvénient, on peut générer sur la surface tactile un retour haptique destiné à matérialiser la frontière cible entre les deux zones, de sorte que rutilisateur peut s’orienter sur la surface tactile même sans regarder celle-ci.
Pour matérialiser visuellement la frontière entre deux zones, la surface tactile est généralement associée à un écran disposé derrière la surface tactile et qui affiche des pictogrammes associés aux zones de commande. H est donc important que le retour haptique soit synchronisé avec le passage du doigt de commande entre les deux zones.
Or, entre la détection du doigt de rutilisateur et la génération effective d’un signal de retour haptique il existe un délai difficilement compressible d’environ 20ms. Il en résulte que, lorsque le doigt ou le stylet en contact avec la surface tactile se déplace, ce délai peut induire une différence
-3entre le passage de la frontière cible à un instant ti et l’endroit où est ensuite ressenti le retour haptique lorsque l’utilisateur a poursuivi son déplacement à l’instant.
Ce décalage peut être déconcertant pour l’utilisateur car il n’y a plus de correspondance entre le visuel affiché par l’écran et le retour haptique.
Autrement dit, le doigt ou le stylet est situé ailleurs qu’à l’endroit où le signal de retour haptique est ressenti, par exemple ailleurs que sur une frontière délimitant une touche virtuelle ou un bouton de commande virtuel, lorsque le signal de retour haptique est émis. Ce décalage temporel peut être d’autant plus grand que la vitesse de déplacement du doigt ou du stylet est importante.
Pour améliorer la situation, une solution serait d’utiliser des moyens électroniques de traitement plus rapides, permettant de réduire au maximum ce décalage temporel entre la position du doigt ou du stylet sur une frontière cible de la surface tactile, par exemple un passage de frontière entre deux zones de la surface tactile, et la perception du signal de retour sensoriel tel qu’un retour haptique. Cependant une telle solution serait trop coûteuse pour l’industrie automobile.
Un but de la présente invention est donc de fournir un procédé de commande et une interface de commande associée, permettant de pallier au moins partiellement les inconvénients précités en générant un retour sensoriel perçu à un instant opportun.
À cet effet, la présente invention a pour objet un procédé de commande de retour sensoriel pour une interface de commande notamment pour véhicule automobile, l’interface de commande comportant une surface tactile, caractérisé en ce que le procédé de commande comporte les étapes suivantes :
on détecte le déplacement de l’élément de pointage en direction d’une frontière cible, lorsque l’élément de pointage est détecté à une distance seuil de la frontière cible, on génère au moins un retour sensoriel, de sorte que le retour sensoriel est perçu par un utilisateur de ladite interface sensiblement au moment du franchissement de la frontière cible, évitant un décalage temporel entre la perception du retour sensoriel et le franchissement de la frontière cible.
Cette solution, peut être indépendante de la vitesse de déplacement de l’élément de pointage, et permet de réduire les coûts en délimitant de manière fictive une distance seuil d’activation du retour sensoriel en amont de la frontière cible caractéristique du changement de
-4zone réel. On anticipe le franchissement de la frontière cible telle qu’une frontière entre deux zones ou délimitant une zone donnée, ce qui permet de générer le retour sensoriel au bon moment, c’està-dire lorsque l’élément de pointage tel que le doigt de l’utilisateur est réellement sur la frontière cible. On est ainsi au plus près de ce qu’attend l’utilisateur et il y a concordance entre le visuel et le sensoriel pour l’utilisateur. L’expérience utilisateur, autrement dit la perception d’un retour sensoriel caractéristique d’un changement de zones, en est améliorée.
Le procédé de commande peut en outre comporter une ou plusieurs des caractéristiques suivantes prises seules ou en combinaison :
la distance seuil est prédéterminée et fixe par rapport à la frontière cible ; on évalue au moins un paramètre de déplacement de l’élément de pointage sur la surface tactile dans le temps, et en fonction dudit paramètre de déplacement, on adapte la distance seuil par rapport à la frontière cible ;
le paramètre de déplacement de l’élément de pointage sur la surface tactile dans le temps est au moins une grandeur choisie parmi la vitesse de déplacement de l’élément de pointage et une fonction de la vitesse telle que l’accélération de l’élément de pointage ;
le procédé de commande est pour la génération d’au moins deux retours sensoriels de nature différente, et on commande la génération de chaque retour sensoriel de façon simultanée ou décalée dans le temps.
L’invention a aussi pour objet une interface de commande pour véhicule automobile configurée pour mettre en œuvre au moins partiellement un procédé de commande selon l’une quelconque des revendications précédentes, l’interface de commande comportant :
une surface tactile configurée pour déterminer la position et le déplacement d’un élément de pointage sur la surface tactile, et un module de retour sensoriel configuré pour générer au moins un retour sensoriel, caractérisée en ce que l’interface de commande comporte en outre une unité de traitement configurée pour :
détecter le déplacement de l’élément de pointage en direction d’une frontière cible, générer à une distance seuil entre l’élément de pointage et la frontière cible au moins un retour sensoriel, de sorte que le retour sensoriel est perçu par un utilisateur de ladite interface sensiblement au moment du franchissement de la frontière cible, évitant un décalage temporel
-5entre la perception du retour sensoriel et le franchissement de la frontière cible.
Une telle interface permet d’activer le retour sensoriel lorsqu’il est établi que l’élément de pointage va changer de zone et franchir ou passer sur une frontière cible dans la mesure où l’élément de pointage a atteint la distance seuil. L’interface permet que ce retour sensoriel soit activé de façon à être perçu par rutilisateur lorsque l’élément de pointage est effectivement sur la frontière cible. En outre, une telle interface de commande offre une solution moins coûteuse par rapport à une solution comportant des moyens de traitement avec des temps de réponse très rapides.
L’interface de commande peut en outre comporter une ou plusieurs des caractéristiques suivantes prises seules ou en combinaison :
l’unité de traitement est configurée pour évaluer au moins un paramètre de déplacement de l’élément de pointage sur la surface tactile dans le temps, et en fonction du au moins un paramètre de déplacement évalué, adapter la distance seuil par rapport à la frontière cible ; le module de retour sensoriel est configuré pour faire vibrer la surface tactile de manière à générer un retour haptique, et/ou générer un retour sonore et/ou générer un retour visuel.
D’autres avantages et caractéristiques apparaîtront à la lecture de la description de l’invention, ainsi que sur les figures annexées qui représentent un exemple de réalisation non limitatif de l’invention et sur lesquelles :
la figure la représente de façon schématique une interface de commande telle qu’une interface homme-machine pour véhicule automobile la figure lb représente de façon schématique une vue de côté de l’interface de la figure la, les figures 2a à 4d représentent de façon schématique différents exemples d’affichage sur une surface tactile de l’interface des figures la et lb pour une anticipation de génération de retour sensoriel, la figure 5 est un organigramme des étapes d’un procédé de commande selon l’invention pour la génération d’au moins un retour sensoriel par anticipation, la figure 6 est un organigramme détaillant les étapes du procédé de commande.
Sur ces figures, les éléments identiques portent les mêmes numéros de référence.
Les réalisations suivantes sont des exemples. Bien que la description se réfère à un ou
-6plusieurs modes de réalisation, ceci ne signifie pas nécessairement que chaque référence concerne le même mode de réalisation, ou que les caractéristiques s’appliquent uniquement à un seul mode de réalisation. De simples caractéristiques de différents modes de réalisation peuvent également être combinées ou interchangées pour fournir d’autres réalisations.
Dans la description, on peut indexer certains éléments, comme par exemple premier élément ou deuxième élément. Dans ce cas, il s’agit d’un simple indexage pour différencier et dénommer des éléments proches mais non identiques. Cette indexation n’implique pas une priorité d’un élément par rapport à un autre et on peut aisément interchanger de telles dénominations sans sortir du cadre de la présente description. Cette indexation n’implique pas non plus un ordre dans le temps.
Interface de commande dite interface homme-machine
La figure la représente une interface de commande pour véhicule automobile 1. Une telle interface 1 est couramment désignée par interface homme-machine. H s’agit avantageusement d’une interface homme-machine qui soit reconfigurable. L’interface de commande 1 comporte :
une surface tactile 2 configurée pour détecter un contact d’un doigt d’un utilisateur ou tout autre élément de pointage 3 (par exemple un stylet ou encore un doigt) et son déplacement sur la surface tactile 2, et un module de retour sensoriel 4 configuré pour générer au moins un retour sensoriel.
L’interface de commande 1 peut comporter en outre un écran d’affichage 5.
Surface tactile
Une fois montée dans l’habitacle du véhicule, la surface tactile 2 peut ainsi former un périphérique d’entrée permettant aux utilisateurs de l’interface de commande 1 d’interagir avec celle-ci grâce au toucher.
La surface tactile 2 est par exemple configurée pour déterminer les coordonnées spatiales du point où l’utilisateur appuie avec son doigt ou un autre élément de pointage 3 sur la surface tactile 2. La surface tactile 2 permet donc de localiser la position de l’élément de pointage 3 sur la surface tactile 2. Lorsque l’élément de pointage 3 se déplace, la surface tactile 2 est configurée pour déterminer des coordonnées spatiales successives correspondant à au moins deux points
-7successifs sur la surface tactile 2.
Selon un mode de réalisation, la surface tactile 2 comporte une dalle tactile capacitive. Selon l’exemple illustré sur la figure lb, la dalle tactile capacitive comporte au moins un capteur capacitif 21 pour détecter au moins une variation de la capacité au niveau de la surface de la dalle tactile capacitive. Pour cela, le capteur capacitif 21 comporte par exemple un réseau d’électrodes, par exemple en ITO (oxyde indium - étain). La dalle tactile capacitive peut comporter en outre une plaque frontale 22 (ou plaque de contact), par exemple en polycarbonate ou en verre. La plaque frontale 22 est agencée sur le capteur capacitif 21 et est destinée à faire face à l’utilisateur une fois montée dans l’habitacle du véhicule. Cette plaque frontale 22 peut être rigide de façon à procurer la rigidité souhaitée à la dalle tactile capacitive. La surface tactile 2, avantageusement plane, de la dalle tactile capacitive est ainsi formée par la surface de la plaque frontale 22.
Selon un autre exemple non représenté, la surface tactile 2 peut utiliser des résistances sensibles à la pression pour détecter un contact et un déplacement d’un élément de pointage tel qu’un doigt de l’utilisateur sur la surface tactile 2. La surface tactile 2 comporte alors un capteur de pression, tel qu’utilisant la technologie FSR pour « Force Sensing Resistor » en anglais.
L écran d’affichage 5 peut être déporté de la surface tactile 2. Selon une variante de réalisation, la plaque frontale 22 de la dalle tactile capacitive peut être peinte d’une couleur opaque de manière à cacher les éléments disposés derrière. Fa dalle tactile capacitive peut alors former ce qui est appelé un pavé tactile ou « Touchpad » en anglais ou un bouton poussoir ou « Push » en anglais.
Selon une autre variante illustrée sur la figure lb, l’écran d’affichage 5 est disposé en regard et en contact avec la surface tactile 2 telle qu’une dalle tactile capacitive, plus précisément sous cette surface tactile 2, de manière à former un écran tactile. Dans ce cas, l’écran d’affichage 5 est par exemple fixé par collage au dos d’un support du capteur capacitif 21 de la dalle tactile capacitive. On entend par « dos », la partie opposée à la partie portant le capteur capacitif 21. Fa surface tactile 2 est alors transparente pour afficher les images de l’écran d’affichage 5 à travers la surface tactile 2. Autrement dit selon l’exemple avec une dalle tactile capacitive comprenant le capteur capacitif 21 et la plaque frontale 22, ces derniers sont transparents.
Module de retour sensoriel
-8Selon un exemple de réalisation, le module de retour sensoriel 4 peut être relié à la surface tactile 2 et/ou à l’écran d’affichage 5 dans le cas d’un écran tactile.
Le module de retour sensoriel 4 peut notamment être configuré pour générer un retour haptique en faisant vibrer la surface tactile 2. On désigne par « haptique », un retour par le toucher. Dans ce cas, le module de retour sensoriel 4 peut comporter au moins un actionneur 41, 42 relié à la surface tactile 2, et configuré pour entraîner en mouvement la surface tactile, de manière à générer le retour haptique en fonction d’un signal de commande. Deux actionneurs 41, 42 sont représentés de façon schématique sur la figure lb. Le retour haptique est un signal vibratoire tel qu’une vibration produite par un signal de commande sinusoïdal ou par un signal de commande comportant un ou une succession de puises, envoyé à l’actionneur 41 et/ou 42. La vibration peut être dirigée dans le plan de la surface tactile 2 ou orthogonalement au plan de la surface tactile 2 ou encore selon une combinaison de ces deux directions. Dans le cas de plusieurs actionneurs 41, 42, ces derniers peuvent être agencés sous la surface tactile 2, dans différentes positions (au centre ou sur un côté) ou dans différentes orientations (dans la direction de l’appui sur la surface ou dans un autre axe). De tels actionneurs 41, 42 sont connus et ne seront pas décrits plus en détail dans la présente description. Un paramètre du retour haptique peut être choisi parmi l’intensité de l’accélération, la fréquence, l’amplitude, la durée, la durée entre deux signaux identiques, la phase. On peut ainsi par exemple simuler différentes textures de la surface tactile 2, tel que différentes rugosités de surface.
En variante ou en accompagnement du retour haptique, le module de génération de retour sensoriel 4 peut être configuré pour générer un retour sonore à l’utilisateur. Un paramètre du retour sonore peut être choisi parmi l’intensité du volume, la phase, la fréquence, la durée, la durée entre deux signaux identiques.
On peut prévoir en outre d’afficher sur l’écran d’affichage 5 un ou plusieurs motifs correspondants au retour haptique et/ou sonore. Ainsi, avantageusement dans le cas d’un écran tactile, une image affichée sur l’écran tactile peut représenter des motifs marqués, telles des microbosses, au niveau de la position de l’élément de pointage 3. On parle dans ce cas de retour visuel. Le retour visuel peut également être généré par le module de retour sensoriel 4.
Le module de retour sensoriel 4 peut être configuré pour générer tous les retours sensoriels, c’est-à-dire haptique et/ou sonore et/ou visuel, en même temps. Au contraire, le module de retour
-9sensoriel 4 peut être configuré pour générer l’un ou l’autre des retours de façon décalée dans le temps par rapport à un autre retour. Autrement dit, à titre d’exemple illustratif non limitatif lorsqu’un retour haptique est généré, un retour sonore peut être généré avant, en même temps ou après la génération du retour haptique. En effet, afin que rutilisateur perçoive en même temps un retour haptique et un retour sonore, il est préférable de ne pas les générer en même temps mais de façon avancée ou retardée l’un par rapport à l’autre. Il en est de même pour la génération d’un retour visuel qui peut être généré avant, en même temps ou après la génération d’un retour haptique et/ou d’un retour sonore.
En particulier, en référence aux figures 2a, 2b, le module de retour sensoriel 4 est configuré pour générer un ou plusieurs retours sensoriels, de même nature ou de nature différente, lorsque l’élément de pointage 3, ici le doigt 3, passe ou franchit une frontière cible 6. Comme la surface tactile est lisse, cette frontière cible 6 n’est pas matérialisée haptiquement sur la surface tactile 2.
Il peut s’agir d’une frontière 6 séparant deux zones Zl, Z2 de l’écran d’affichage 5, par exemple de l’écran tactile, comme illustré sur la figure 2a. H peut également s’agir d’une frontière 6 indiquant que l’on entre dans une zone ou encore que l’on sort d’une zone, comme schématisé sur la figure 2b représentant de façon schématique le doigt 3 sortant de la zone Z2. Notamment, grâce à un retour haptique, on peut simuler sur la surface tactile 2, une texture au niveau de cette frontière cible 6 entre deux zones Zl, Z2 par exemple, ou délimitant une entrée ou une sortie de zone.
Unité de traitement
L’interface de commande 1 comporte en outre une unité de traitement 7 représentée de façon schématique sur les figures la et lb. L’unité de traitement 7 est configurée pour échanger des informations et/ou données avec la surface tactile 2 et également avec le module de retour sensoriel
4.
Cette unité de traitement 7 peut comporter un ou plusieurs moyens de traitement tels qu’un ou plusieurs microcontrôleurs ou ordinateurs, ayant des mémoires et programmes notamment adaptés pour recevoir des informations de position et déplacement ou glissement de l’élément de pointage 3, ces informations ayant été détectées notamment par la surface tactile 2. L’unité de traitement 7 est par exemple l’ordinateur de bord du véhicule automobile. Comme dit
-10précédemment, la surface tactile 2 peut relever des coordonnées spatiales successives correspondant à des points d’appui, et peut transmettre ces informations avec les coordonnées à l’unité de traitement 7. L’unité de traitement 7 comprend donc au moins un moyen de réception des informations transmises par la surface tactile 2.
L’unité de traitement 7 comporte en outre un ou plusieurs moyens de traitement tel qu’un circuit de pilotage configuré pour piloter le module de retour sensoriel 4 afin de générer au moins un retour sensoriel tel qu’un retour haptique et/ou sonore et/ou visuel. Le circuit de pilotage peut comprendre des moyens d’émission d’une commande de génération de retour sensoriel à destination du module de retour sensoriel 4.
En référence à la figure lb, l’interface de commande 1 peut comporter en outre un dispositif de mesure 9 représenté de façon très schématique sur cette figure lb. Le dispositif de mesure 9 comprend par exemple un ou plusieurs capteurs de pression configurés pour mesurer la pression exercée sur la surface tactile 2. Il s’agit par exemple d’une ou plusieurs jauges de contrainte. La ou les jauges de contraintes sont agencées en liaison directe avec la surface tactile 2 et sont astucieusement réparties selon les besoins. À titre d’exemple non limitatif, on peut prévoir une jauge de contrainte sensiblement au milieu de la surface tactile 2, par exemple dans le cas d’un pavé tactile dit « Touchpad ». Avantageusement, une ou plusieurs jauges de contraintes sont disposées sur un ou plusieurs bords de la surface tactile 2. Par exemple, on peut prévoir quatre jauges de contraintes, chacune placée au niveau d’un angle de la surface tactile 2. La ou chaque jauge de contrainte peut être disposée au niveau d’amortisseurs prévus sous la surface tactile 2 de façon à mesurer le déplacement de la surface tactile 2 lors du contact et du glissement de l’élément de pointage 3 sur la surface tactile 2.
Dans le cas d’un tel dispositif de mesure 9, l’unité de traitement 7 comporte au moins un moyen de traitement pour recevoir des signaux de mesure du dispositif de mesure 9, en particulier du ou de chaque capteur de pression. La ou les mesures de pression sont avantageusement prises en compte. À titre d’exemple non limitatif, les mesures de pression permettent d’identifier la façon dont l’utilisateur appuie sur la surface tactile 2 par le biais de l’élément de pointage 3, afin de générer en conséquence le signal approprié pour la simulation de texture.
En outre, l’unité de traitement 7 est avantageusement configurée pour anticiper que l’élément de pointage 3 va franchir ultérieurement une frontière cible 6 de la surface tactile 2, et
-11pour piloter le module de retour sensoriel 4 avant le franchissement effectif de la frontière cible 6, afin de générer au moins un retour sensoriel perçu par l’utilisateur lorsque l’élément de pointage 3 franchit effectivement la frontière cible 6.
On évite ainsi un décalage temporel entre la perception du retour sensoriel et le passage de l’élément de pointage 3 sur la frontière cible 6.
L’unité de traitement 7 est donc configurée pour anticiper le franchissement d’une frontière cible 6 lorsqu’un déplacement est détecté sur la surface tactile 2, et non lorsqu’un simple point d’appui est détecté.
On décrit maintenant en référence à la figure 2a, un mode de réalisation particulier. Selon ce mode de réalisation, l’unité de traitement 7 anticipe le franchissement de la frontière cible 6 lorsque l’élément de pointage 3 se trouve à une distance seuil d, d’activation d’au moins un retour sensoriel, par rapport à la frontière cible 6.
Plus précisément, l’unité de traitement 7 est configurée pour : détecter le déplacement de l’élément de pointage 3 en direction d’une frontière cible 6 de la surface tactile 2, lorsque l’élément de pointage 3 est localisé à la distance seuil d, générer au moins un retour sensoriel par le module de retour sensoriel 4.
Pour fixer la distance seuil d, on peut déterminer par exemple par des expérimentations une vitesse moyenne de déplacement i’m,n de l’élément de pointage sur la surface tactile 2 et on peut déterminer le délai Td entre la localisation de l’élément de pointage 3 à un endroit donné et une vibration effective sur la surface tactile 2 du fait de l’activation des actionneurs 41 et 42 par exemple. Dans ce cas, ά=ν^/Τd. Selon une première approche, on peut fixer une vitesse moyenne globale commune à toutes les fonctions à commander. Selon une deuxième approche, notamment en fonction de la morphologie des zones de commande comme leurs dimensions, leur nombre sur la surface tactile, leur proximité ou leur géométrie, on peut fixer une vitesse moyenne pour chaque fonction de commande. Ces vitesses moyennes peuvent par exemple être enregistrées dans une mémoire de l’unité de traitement 7.
Ainsi, si l’élément de pointage 3 se trouve à une distance d de la frontière cible 6 et se déplace à la vitesse moyenne l’élément de pointage 3 va franchir la frontière cible au
-12moment où on peut ressentir le retour haptique sur la surface tactile 2.
Ledit au moins un retour sensoriel est alors perçu par un utilisateur de ladite interface 1 lorsque l’élément de pointage 3 franchit la frontière cible 6.
Certes, il peut y avoir une différence entre la vitesse de déplacement réelle de l’élément de pointage 3 et la vitesse moyenne et donc un léger décalage entre le franchissement réel de la frontière cible 6 et le ressenti du retour haptique, mais l’anticipation pour déclencher la génération du retour haptique permet de réduire, voire annuler le décalage entre des perceptions visuelles et haptiques.
Par exemple, on peut définir une délimitation fictive, telle qu’une ligne fictive 13, en amont de la frontière cible 6 et qui est agencé à la distance seuil d de la frontière cible 6. Le terme « amont » est ici utilisé en référence au sens de déplacement de l’élément de pointage 3 sur la surface tactile 2. La délimitation fictive peut s’étendre sensiblement parallèlement à la frontière 6 à laquelle elle est associée.
Selon une première variante, l’unité de traitement 7 est donc configurée pour générer le retour sensoriel sensiblement à l’instant auquel l’élément de pointage 3 est détecté à la distance seuil d, par exemple sur la délimitation fictive 13.
La distance seuil d, par exemple ici la distance de la délimitation fictive 13 par rapport à la frontière cible 6, peut être prédéfinie et fixe.
Selon une deuxième variante, la distance seuil d, par exemple ici la distance de la délimitation fictive 13 par rapport à la frontière cible 6, peut être paramétrée et peut donc être variable. Autrement dit, on peut prévoir d’adapter la distance seuil d par rapport à la frontière cible 6 en fonction de la vitesse et/ou de l’accélération de l’élément de pointage 3 sur la surface tactile 2. Pour ce faire, l’unité de traitement 7 comprend un ou plusieurs moyens de traitement pour paramétrer ou définir la distance seuil d.
Par exemple, plus la vitesse de déplacement est grande, plus on éloigne la délimitation fictive 13 de la frontière cible 6, 11 et inversement.
Pour cela, l’unité de traitement 7 peut être configurée pour analyser le déplacement de l’élément de pointage 3 de façon à anticiper le franchissement de la frontière cible 6.
-13L’unité de traitement 7 est donc de plus configurée pour évaluer au moins un paramètre de déplacement de l’élément de pointage 3 sur la surface tactile 2 dans le temps. Il s’agit notamment de l’évaluation de la vitesse de déplacement de l’élément de pointage 3, ou d’une fonction de la vitesse telle que la dérivée ou accélération.
Plus précisément, l’unité de traitement 7 peut comporter un ou plusieurs moyens de traitement configurés pour :
évaluer la direction de déplacement de l’élément de pointage 3 sur la surface tactile 2, et évaluer au moins un paramètre de déplacement de l’élément de pointage 3 sur la surface tactile 2 dans le temps.
Pour l’évaluation de la direction, l’unité de traitement 7 peut analyser les informations de localisation de position de points successifs, transmises par la surface tactile 2. Ainsi, en référence aux figures 2a et 2b, l’unité de traitement 7 peut déterminer que l’élément de pointage 3 se déplace selon le sens schématisé par la flèche Fl, qui est ici horizontal et vers la droite. Bien entendu, l’unité de traitement 7 peut aussi bien détecter des mouvements rectilignes qu’ils soient horizontaux ou verticaux (flèche F2 sur la figure 3b), mais aussi circulaires (flèche F3 sur la figure 4a) ou encore en biais par rapport à la surface tactile 2 (flèche F4 figure 4c), dans un sens ou dans l’autre, par exemple vers la droite (flèche Fl sur les figures 2b, 4b et flèche F4 sur la figure 4c ) ou vers la gauche (flèche F5 sur la figure 4d). Les termes verticaux et horizontaux, gauche et droite, sont ici utilisés en référence à la disposition des éléments tels que représentés sur les figures 2a à 4d.
De plus, l’unité de traitement 7 peut comprendre au moins un moyen de calcul permettant de déduire la vitesse de l’élément de pointage 3 à partir des informations de localisation de position de points successifs, transmises par la surface tactile 2, et en fonction d’une horloge interne de l’interface homme-machine par exemple. Afin d’améliorer les performances, l’unité de traitement 7 peut comprendre au moins un moyen de calcul de la dérivée de la vitesse, donc de l’accélération, par exemple à partir d’informations de localisation de position de points plus éloignés entre eux, transmises par la surface tactile 2.
Enfin, l’unité de traitement 7 peut comprendre au moins un moyen de traitement, par exemple une partie logicielle, permettant, à partir d’au moins une grandeur caractéristique de
-14Γévolution du déplacement de l’élément de pointage 3 sur la surface tactile 2 dans le temps, d’adapter la distance seuil d par rapport à la frontière cible 6.
En variante ou en complément, Γ unité de traitement 7 peut être configurée pour prendre en compte au moins un paramètre de déplacement de l’élément de pointage sur la surface tactile dans le temps évaluée pour la détermination la distance seuil d.
Exemples d’applications non limitatifs :
Ainsi, dans l’exemple de la figure 2a, sur l’écran, ici l’écran tactile, au moins deux zones ZI et Z2 sont affichées. Lorsque l’élément de pointage 3, ici le doigt 3 de futilisateur, est détecté dans la zone ZI à la distance seuil d de la frontière cible 6, par exemple ici sur la délimitation fictive 13, en se déplaçant ici horizontalement et vers la droite suivant la flèche Fl, l’unité de traitement 7 peut anticiper que le doigt 3 va franchir la frontière cible 6 entre les deux zones ZI et Z2.
L’unité de traitement 7 peut générer par anticipation, dès que le doigt 3 est détecté à la distance seuil d un signal de commande à destination du module de retour sensoriel 4 qui génère le(s) retour(s) sensoriel(s). Lorsque le doigt 3 arrive effectivement sur la frontière 6, l’utilisateur perçoit le ou les retours sensoriels.
Comme illustré sur la figure 2b, il se peut que les deux zones Zl, Z2 soient des zones ouvertes, c’est-à-dire sans frontière entre les deux zones Zl, Z2, mais dans ce cas, c’est le franchissement d’une des frontières marquées autour d’une des zones, ici Z2, qui est anticipé.
Bien sûr, l’unité de traitement 7 permet d’anticiper qu’un élément de pointage 3 va entrer dans une zone (figure 2a) mais aussi qu’il va sortir d’une zone (figure 2b).
Bien entendu, l’invention ne se limite pas aux exemples des figures 2a et 2b. D’autres applications peuvent être envisagées. Par exemple, comme schématisé sur la figure 3a, la surface tactile 2 peut comporter une succession de zones Bl, B2, B3, B4 distinctes simulant des boutons de commande, chaque zone Bl, B2, B3, B4 étant délimitée par une surface fermée formant des frontières 6. L’unité de traitement 7 est alors configurée pour anticiper si l’élément de pointage 3 va entrer dans ou sortir de l’une ou l’autre de ces zones Bl, B2, B3, B4. À titre d’exemple non limitatif, si l’élément de pointage 3 est détecté dans la zone B2, et si l’utilisateur déplace son doigt 3 verticalement, vers le bas en référence à la disposition des éléments sur la figure 3b et comme
-15schématisé par la flèche F2, l’unité de traitement 7 est configurée pour déterminer que l’élément de pointage 3 va sortir de la zone B2 lorsqu’il est localisé à une distance seuil d de la frontière 6 en bas de la zone B2 en référence à la disposition des éléments sur la figure 3b, et pour activer par anticipation la génération d’un retour sensoriel significatif de la sortie de B2. Si l’élément de pointage 3 continue son mouvement descendant illustré par la flèche F2, l’unité de traitement 7 peut anticiper si et quand l’élément de pointage 3 entrera dans la zone B3 suivante lorsque l’élément de pointage 3 est localisé à une distance seuil d de la frontière 6 en haut de la zone B3 en référence à la disposition des éléments sur la figure 3b, et commander de façon anticipée la commande de génération d’au moins un retour sensoriel associé à l’entrée dans la zone B3. On peut prévoir en outre un retour sensoriel différent selon que l’élément de pointage 3 entre dans ou quitte une zone fermée. En particulier, avec deux retours haptiques distincts l’on peut simuler le ressenti d’un utilisateur enfonçant, puis relâchant une touche.
Dans l’exemple des figures 3a et 3b, les boutons ou touches de commande simulées sont représentées en ligne ou dans un couloir. Bien entendu, toute autre disposition peut être prévue. Par exemple, les touches virtuelles peuvent être disposées de façon circulaire comme schématisé sur la figure 4a. Comme précédemment, l’unité de traitement 7 peut anticiper à partir du déplacement selon un mouvement circulaire schématisé par la flèche F3, que l’élément de pointage 3 va franchir une frontière 6 délimitant une zone, ici B2, lorsque l’élément de pointage 3 est par exemple localisé sur la délimitation fictive 13 suivant un rayon du cercle défini par les touches virtuelles, de façon à commander la génération du ou des retours sensoriels pour qu’il(s) soi(en)t présenté(s) au bon moment à l’utilisateur. Dans ce cas, la distance seuil d est une distance angulaire.
Selon une autre variante illustrée sur la figure 4b, une liste d’items A, B, C peut être affichée sur l’écran d’affichage 5, par exemple sur l’écran tactile. En fonctionnement, pour naviguer dans la liste d’items A à C, l’utilisateur déplace l’élément de pointage 3 sur la surface tactile 2, et dès lors qu’un contact pointant un item, ici A, dans la liste, est détecté sur la surface tactile 2, une sous-liste d’items Al, A2, A3 peut s’afficher. Par exemple, pour chaque sous-liste, encore une autre sous-liste, ici A31, A32, A33 peut s’afficher. Ainsi, dans cet exemple, lorsque l’utilisateur glisse son doigt 3 ou autre élément de pointage sur la surface tactile 2, et lorsque le doigt 3 est détecté sur l’item A3 par exemple, si la direction du mouvement est vers la droite comme schématisé par la flèche Fl, l’unité de traitement 7 peut anticiper que le doigt 3 va quitter
-16la zone correspondant à l’item A3 lorsque le doigt 3 est localisé à une distance seuil d de la frontière 6 de droite de l’item A3 en référence à la disposition des éléments sur la figure 4b. De même, l’unité de traitement 7 peut anticiper que le doigt 3 va entrer dans la zone correspondant au sous-item A31, lorsque le doigt 3 est localisé à une distance seuil d de la frontière 6 de gauche du sous-item A31 en référence à la disposition des éléments sur la figure 4b. L’unité de traitement 7 peut ainsi commander par anticipation les retours sensoriels appropriés et au bon moment.
On peut encore prévoir comme illustré sur la figure 4c, un agencement en cascade de fenêtres A, B, C, D. L’unité de traitement 7 peut anticiper chaque franchissement de fenêtre et activer par anticipation la génération du retour sensoriel approprié au bon moment.
Alternativement, l’unité de traitement 7 peut encore anticiper le franchissement de lignes successives 11 lorsque l’élément de pointage 3 est localisé à une distance seuil d d’une ligne 11 donnée, et activer par anticipation la génération d’au moins un retour sensoriel approprié associé au franchissement de chaque ligne 11. Dans cet exemple, chaque ligne 11 forme une frontière cible.
On a décrit ici des exemples d’affichage sur un écran tactile. Bien entendu, l’invention s’applique également lorsque l’affichage se fait sur un écran d’affichage 5 déporté de la surface tactile 2. Dans ce cas, de façon connue, à chaque zone de l’écran d’affichage 5 déportée est associée une zone sur la surface tactile 2.
Procédé de commande
En référence à la figure 5, on décrit maintenant un procédé de commande de retour sensoriel pour une interface homme-machine notamment pour véhicule automobile, l’interface homme-machine comportant une surface tactile 2. H s’agit avantageusement d’une interface de commande 1 telle que décrite précédemment en référence aux figures la à 4d.
Le procédé de commande comprend une étape El dans laquelle on détecte le déplacement d’un élément de pointage 3 tel qu’un doigt d’un utilisateur de l’interface de commande 1, ou encore un stylet ou un doigt, sur la surface tactile 2 en direction d’une frontière cible 6 ou 11 de la surface tactile 2. Cette étape El de détection est par exemple réalisée par la surface tactile 2.
-17Le procédé de commande comprend de plus une étape E2, par exemple dite étape d’anticipation, à laquelle à la distance seuil d, on génère au moins un retour sensoriel, en particulier haptique.
Avantageusement, au moins un paramètre de déplacement de l’élément de pointage 3 sur la surface tactile 2 dans le temps, comme l’accélération de l’élément de pointage 3 et/ou la vitesse de déplacement de l’élément de pointage 3 peut être utilisée pour la définition de la distance seuil d par rapport à la frontière cible 6 ou 11, à cette étape E2.
Un mode de réalisation particulier est schématisé sur la figure 6. Selon ce mode de réalisation, à la suite de l’étape El, l’étape E2 peut comprendre des sous-étapes E200 à E220.
Avantageusement, lors d’une étape préliminaire E200, on localise la position de l’élément de pointage 3 sur la surface tactile 2, et on évalue la direction de déplacement de l’élément de pointage 3 sur la surface tactile 2. La localisation peut être mise en œuvre par la surface tactile 2 et l’évaluation de la direction par l’unité de traitement 7.
De façon optionnelle, on peut également évaluer lors de cette étape préliminaire E200 au moins une grandeur caractéristique de l’évolution du déplacement de l’élément de pointage 3 sur la surface tactile 2 dans le temps, comme la vitesse et/ou l’accélération. L’évaluation d’une ou plusieurs grandeurs comme la vitesse et/ou l’accélération peut être mise en œuvre par l’unité de traitement 7.
Lorsque la distance seuil d n’est pas prédéterminée de façon fixe, lors d’une étape E210, on peut définir cette distance seuil d, par exemple on peut définir la distance entre une délimitation fictive 13 en amont de la frontière cible 6 selon le sens de déplacement de l’élément de pointage 3. La distance seuil d, par exemple ici l’emplacement ou la position de la délimitation fictive 13, toujours en amont de la frontière cible 6 ou 11, peut être adapté(e) en fonction de l’accélération et/ou de la vitesse de déplacement de l’élément de pointage 3. Par exemple, lorsque l’élément de pointage 3 se déplace très vite, on peut éloigner d’autant plus la délimitation fictive 13 de la frontière cible 6 ou 11, autrement dit on peut augmenter la distance seuil d par rapport à la frontière cible 6 ou 11. À l’inverse, pour de petites vitesses de déplacement, on peut rapprocher la délimitation fictive 13 de la frontière cible 6 ou 11, autrement dit on peut réduire la distance seuil d par rapport à la frontière cible 6 ou 11. Les plages considérées comme élevées ou petites sont
-18laissées à l’appréciation de l’Homme du Métier selon l’application. Cette étape E210 peut être mise en œuvre par l’unité de traitement 7.
On détecte à l’étape E220, lorsque l’élément de pointage 3 arrive à cette distance seuil d, par exemple ici lorsque l’élément de pointage 3 franchit la délimitation fictive 13 et on génère le retour haptique. Cette étape E220 peut être mise en œuvre par Γunité de traitement 7.
Bien entendu, l’ordre d’au moins certaines étapes peut être interverti.
On comprend donc qu’un procédé de commande tel que décrit selon l’un ou l’autre mode 10 de réalisation, permet de présenter à un utilisateur au moins un retour sensoriel au bon moment, c’est-à-dire que l’utilisateur perçoit ce retour sensoriel lorsqu’il change effectivement de zone ou franchit une frontière cible 6 ou 11.
Claims (8)
- REVENDICATIONS1. Procédé de commande de retour sensoriel pour une interface de commande (1) notamment pour véhicule automobile, l’interface de commande (1) comportant une surface tactile (2), caractérisé en ce que le procédé de commande comporte les étapes suivantes :on détecte le déplacement de l’élément de pointage (3) en direction d’une frontière cible (6, 11), lorsque l’élément de pointage (3) est détecté à une distance seuil (d) de la frontière cible, on génère au moins un retour sensoriel, de sorte que le retour sensoriel est perçu par un utilisateur de ladite interface (1) sensiblement au moment du franchissement de la frontière cible (6, 11), évitant un décalage temporel entre la perception du retour sensoriel et le franchissement de la frontière cible (6, 11).
- 2. Procédé de commande selon la revendication 1, dans lequel la distance seuil (d) est prédéterminée et fixe par rapport à la frontière cible (6, 11).
- 3. Procédé de commande selon la revendication 1, dans lequel :on évalue au moins un paramètre de déplacement de l’élément de pointage (3) sur la surface tactile (2) dans le temps, et en fonction dudit paramètre de déplacement, on adapte la distance seuil (d) par rapport à la frontière cible (6).
- 4. Procédé de commande selon la revendication précédente, dans lequel le paramètre de déplacement de l’élément de pointage (3) sur la surface tactile (2) dans le temps est au moins une grandeur choisie parmi la vitesse de déplacement de l’élément de pointage (3) et une fonction de la vitesse telle que l’accélération de l’élément de pointage (3).
- 5. Procédé de commande selon l’une quelconque des revendications précédentes, pour la génération d’au moins deux retours sensoriels de nature différente, dans lequel on commande la génération de chaque retour sensoriel de façon simultanée ou décalée dans le-20temps.
- 6. Interface de commande (1) pour véhicule automobile configurée pour mettre en œuvre au moins partiellement un procédé de commande selon l’une quelconque des revendications précédentes, l’interface de commande (1) comportant :une surface tactile (2) configurée pour déterminer la position et le déplacement d’un élément de pointage (3) sur la surface tactile (2), et un module de retour sensoriel (4) configuré pour générer au moins un retour sensoriel, caractérisée en ce que l’interface de commande (1) comporte en outre une unité de traitement (7) configurée pour :détecter le déplacement de l’élément de pointage (3) en direction d’une frontière cible (6, 11), générer à une distance seuil (d) entre l’élément de pointage (3) et la frontière cible (6,11) au moins un retour sensoriel, de sorte que le retour sensoriel est perçu par un utilisateur de ladite interface (1) sensiblement au moment du franchissement de la frontière cible (6, 11), évitant un décalage temporel entre la perception du retour sensoriel et le franchissement de la frontière cible (6, 11).
- 7. Interface de commande (1) selon la revendication précédente, dans laquelle l’unité de traitement (7) est configurée pour :évaluer au moins un paramètre de déplacement de l’élément de pointage (3) sur la surface tactile (2) dans le temps, et en fonction du au moins un paramètre de déplacement évalué, adapter la distance seuil (d) par rapport à la frontière cible (6, 11).
- 8. Interface de commande (1) selon la revendication 6 ou 7, dans laquelle le module de retour sensoriel (4) est configuré pour :faire vibrer la surface tactile (2) de manière à générer un retour haptique, et/ou générer un retour sonore et/ou générer un retour visuel.30531/4
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1656139A FR3053489A1 (fr) | 2016-06-29 | 2016-06-29 | Procede de commande et interface de commande pour vehicule automobile |
| PCT/EP2017/066074 WO2018002189A1 (fr) | 2016-06-29 | 2017-06-28 | Procédé de commande et interface de commande pour véhicule automobile |
| EP17732477.9A EP3479201A1 (fr) | 2016-06-29 | 2017-06-28 | Procédé de commande et interface de commande pour véhicule automobile |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1656139A FR3053489A1 (fr) | 2016-06-29 | 2016-06-29 | Procede de commande et interface de commande pour vehicule automobile |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| FR3053489A1 true FR3053489A1 (fr) | 2018-01-05 |
Family
ID=57348799
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR1656139A Pending FR3053489A1 (fr) | 2016-06-29 | 2016-06-29 | Procede de commande et interface de commande pour vehicule automobile |
Country Status (3)
| Country | Link |
|---|---|
| EP (1) | EP3479201A1 (fr) |
| FR (1) | FR3053489A1 (fr) |
| WO (1) | WO2018002189A1 (fr) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7337400B1 (en) * | 1998-02-23 | 2008-02-26 | Elbing Kristofer E | Tactile user interface with application-specific tactile behavior |
| US20100306647A1 (en) * | 2009-05-27 | 2010-12-02 | Microsoft Corporation | Force-feedback within telepresence |
| US20120249474A1 (en) * | 2011-04-01 | 2012-10-04 | Analog Devices, Inc. | Proximity and force detection for haptic effect generation |
| WO2015092163A1 (fr) * | 2013-12-19 | 2015-06-25 | Dav | Dispositif de contrôle pour véhicule automobile et procédé de commande |
| WO2016051116A1 (fr) * | 2014-10-02 | 2016-04-07 | Dav | Dispositif et procédé de commande pour véhicule automobile |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9547366B2 (en) * | 2013-03-14 | 2017-01-17 | Immersion Corporation | Systems and methods for haptic and gesture-driven paper simulation |
-
2016
- 2016-06-29 FR FR1656139A patent/FR3053489A1/fr active Pending
-
2017
- 2017-06-28 EP EP17732477.9A patent/EP3479201A1/fr not_active Ceased
- 2017-06-28 WO PCT/EP2017/066074 patent/WO2018002189A1/fr not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7337400B1 (en) * | 1998-02-23 | 2008-02-26 | Elbing Kristofer E | Tactile user interface with application-specific tactile behavior |
| US20100306647A1 (en) * | 2009-05-27 | 2010-12-02 | Microsoft Corporation | Force-feedback within telepresence |
| US20120249474A1 (en) * | 2011-04-01 | 2012-10-04 | Analog Devices, Inc. | Proximity and force detection for haptic effect generation |
| WO2015092163A1 (fr) * | 2013-12-19 | 2015-06-25 | Dav | Dispositif de contrôle pour véhicule automobile et procédé de commande |
| WO2016051116A1 (fr) * | 2014-10-02 | 2016-04-07 | Dav | Dispositif et procédé de commande pour véhicule automobile |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2018002189A1 (fr) | 2018-01-04 |
| EP3479201A1 (fr) | 2019-05-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP1450247B1 (fr) | Dispositif d'interface homme machine à retour d'information tactile pour dalle tactile | |
| FR3026868B1 (fr) | Dispositif et procede de commande pour vehicule automobile | |
| EP3221781B1 (fr) | Interface graphique et procede de gestion de l'interface graphique lors de la selection tactile d'un element affiche | |
| FR3026866A1 (fr) | Dispositif et procede de commande pour vehicule automobile | |
| EP2981879B1 (fr) | Dispositif pour interagir, sans contact, avec un appareil électronique et/ou informatique, et appareil équipé d'un tel dispositif | |
| EP4232884B1 (fr) | Interface tactile tridimensionnelle à retour haptique | |
| WO2017108896A1 (fr) | Interface de commande pour vehicule automobile | |
| EP3918446B1 (fr) | Procédé de génération d'un retour sensitif pour une interface et interface associée | |
| EP3479212A1 (fr) | Procédé de commande et interface de commande pour véhicule automobile | |
| EP3201734A1 (fr) | Dispositif et procédé de commande pour véhicule automobile | |
| FR3030071A1 (fr) | Dispositif et procede de commande pour vehicule automobile | |
| WO2022090090A1 (fr) | Dispositif tactile à retour haptique avec textures spatialisées | |
| EP3084565A1 (fr) | Dispositif de controle pour vehicule automobile et procede de commande | |
| FR3053489A1 (fr) | Procede de commande et interface de commande pour vehicule automobile | |
| FR3058938B1 (fr) | Interface pour vehicule automobile et procede d'interfacage | |
| WO2017211835A1 (fr) | Module et procédé de commande pour véhicule automobile | |
| WO2014096576A1 (fr) | Module d'interface permettant de detecter un geste | |
| FR3124872A1 (fr) | Dispositif électronique et procédé d'affichage de données sur un écran d’affichage, système d’affichage, véhicule et programme d’ordinateur associés | |
| FR2996652A1 (fr) | Detecteur tactile | |
| FR2979722A1 (fr) | Appareil electronique portable comprenant des moyens d'application, en fonction du mouvement de l'appareil, d'une loi de traitement a un objet graphique selectionne par contact tactile, et procede de pilotage d'un tel appareil |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PLFP | Fee payment |
Year of fee payment: 2 |
|
| PLSC | Publication of the preliminary search report |
Effective date: 20180105 |