WO2025173525A1 - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and programInfo
- Publication number
- WO2025173525A1 WO2025173525A1 PCT/JP2025/002518 JP2025002518W WO2025173525A1 WO 2025173525 A1 WO2025173525 A1 WO 2025173525A1 JP 2025002518 W JP2025002518 W JP 2025002518W WO 2025173525 A1 WO2025173525 A1 WO 2025173525A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- hand
- information processing
- unit
- finger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
- A61B5/397—Analysis of electromyograms
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/25—Bioelectric electrodes therefor
- A61B5/26—Bioelectric electrodes therefor maintaining contact between the body and the electrodes by the action of the subjects, e.g. by placing the body on the electrodes or by grasping the electrodes
Definitions
- step S14 the communication unit 34 transmits the myoelectric potential data provided in step S13 to the information processing terminal 13.
- step S15 the communication unit 34 determines whether or not a signal instructing the end of communication transmitted from the communication unit 41 of the information processing terminal 13 has been received. If the communication unit 34 determines that a signal instructing the end of communication has not been received, the process returns to step S12, and the same process is repeated thereafter. On the other hand, if the communication unit 34 determines that a signal instructing the end of communication has been received, the process proceeds to step S16.
- step S16 various processes are performed to terminate the operation of the EMG measuring device 12, and then the EMG measurement process is terminated.
- step S21 the communication unit 41 transmits a signal to the communication unit 34 of the electromyography measuring device 12 instructing it to start communication.
- step S22 the communication unit 41 receives the myoelectric potential data transmitted from the communication unit 34 in step S14 of FIG. 10 and supplies it to the hand shape identification unit 51 and the force state identification unit 52.
- step S23 the hand posture identification unit 51 identifies the user's hand posture based on the myoelectric potential data provided in step S22, and provides the recognition result indicating the user's hand posture to the initial action detection unit 53 and the operation mode selection unit 54.
- step S24 the force state identification unit 52 identifies the force state of the user's finger based on the EMG data supplied in step S22, and supplies the recognition result indicating the force state of the user's finger to the initial action detection unit 53 and the operation execution unit 55.
- step S25 the initial movement detection unit 53 determines whether an initial movement by the user has been detected based on the user's hand shape identified in step S23 and the force state of the user's fingers identified in step S24.
- step S25 If the initial action detection unit 53 determines in step S25 that an initial action by the user has been detected, processing proceeds to step S26.
- step S26 the operation mode selection unit 54 determines whether the user's hand shape identified in step S23 is registered in the registration data stored in the memory unit 42.
- step S26 If the operation mode selection unit 54 determines in step S26 that the user's hand shape is registered in the registration data, the process proceeds to step S27.
- step S27 the operation mode selection unit 54 selects the operation mode associated in the registration data with the user's hand shape identified in step S23, and the process proceeds to step S30.
- step S26 determines in step S26 that the user's hand shape is not registered in the registration data (is unregistered)
- the process proceeds to step S28.
- step S28 the operation mode selection unit 54 selects the standard mode as the operation mode, and the process proceeds to step S30.
- step S25 determines in step S25 that an initial action by the user has not been detected.
- step S29 the operation mode selection unit 54 determines whether the user's hand shape identified in step S23 matches the hand shape at the time of initial operation. If the operation mode selection unit 54 determines that the user's hand shape does not match the hand shape at the time of initial operation, the process returns to step S22, and the same process is repeated thereafter. On the other hand, if the operation mode selection unit 54 determines that the user's hand shape matches the hand shape at the time of initial operation, an operation mode corresponding to that hand shape is selected, and the process proceeds to step S30.
- step S30 the operation execution unit 55 determines whether the force state of the user's finger identified by the force state identification unit 52 after the initial operation is detected corresponds to the force state of the operation content in the currently selected operation mode.
- step S30 If the operation execution unit 55 determines in step S30 that a force state corresponding to the force state of the operation content in the selected operation mode has not been detected, the process returns to step S22, and the same process is repeated thereafter. On the other hand, if the operation execution unit 55 determines in step S30 that a force state corresponding to the force state of the operation content in the selected operation mode has been detected, the process proceeds to step S31.
- step S31 the operation execution unit 55 executes processing according to the operation content corresponding to the force state of the user's finger detected in step S30.
- step S32 the calculation unit 43 determines whether to end the operation execution process.
- step S32 determines in step S32 not to end the operation execution process
- the process returns to step S22, and the same process is repeated thereafter.
- the calculation unit 43 determines to end the operation execution process, the process proceeds to step S33.
- step S33 the communication unit 41 sends a signal to the communication unit 34 of the electromyography measuring device 12 instructing it to end communication, and then the operation execution process ends.
- the terminal operation system 11 can utilize a variety of arbitrary real objects 21 to achieve greater operability.
- Figure 12 is a diagram illustrating an example of a usage example in which a smartwatch is used as the terminal operation system 11.
- a smartwatch when used as the terminal operation system 11, in the usage example shown in FIG. 12, a myoelectric potential measuring device 12 is incorporated into the band of the smartwatch, and an information processing terminal 13 provided on the main body of the smartwatch performs the operation execution process described above. Also, in the usage example shown in FIG. 12, the handlebars of a bicycle are used as the real object 21C.
- the map operation mode is selected as the operation mode, as shown in A of Figure 12.
- a map app on the smartwatch which is the terminal operation system 11
- a map is displayed on the display unit of the terminal operation system 11, and navigation to the destination begins, as shown in Figure 12B.
- the user performs an initial motion, for example, by simultaneously pressing their index finger and little finger, and then simultaneously pressing their middle finger and ring finger, thereby initiating operation input to the terminal operation system 11 and starting to pedal the bicycle.
- the display of the terminal operation system 11 will display a navigation message saying "Turn right in 450m" in accordance with the operation content corresponding to the pressure applied, as shown in Figure 12C.
- the map displayed on the display unit of the terminal operation system 11 will be enlarged according to the operation content corresponding to the state of pressure, as shown in D of Figure 12. Note that the map can be enlarged so that the magnification changes linearly depending on the strength of the pressure applied to the fingers at this time.
- FIG. 13 is a diagram illustrating an example of a user cooking using AR glasses as the information processing terminal 13 and a spatula as the real object 21D.
- a user wears AR glasses, which are information processing terminal 13, on their head and plays a recipe video, and is cooking while holding a spatula in their right hand, which is wearing myoelectric potential measuring device 12, and a frying pan in their left hand.
- AR glasses which are information processing terminal 13, on their head and plays a recipe video
- a spatula in their right hand which is wearing myoelectric potential measuring device 12, and a frying pan in their left hand.
- the user wants to return to the recipe video displaying a list of ingredients to check the next ingredient to be added, but cannot take their hands off the food to avoid burning it.
- the user performs an initial movement by pressing the index finger, middle finger, and thumb in the right hand holding the spatula, in that order.
- the standard mode (A in FIG. 13) is selected as the operation mode.
- operation guides as shown by dashed lines are displayed superimposed on each finger according to the operation content of the standard mode, as shown in B in FIG. 13. That is, an operation guide representing the operation content "forward” is displayed superimposed on the index finger, an operation guide representing the operation content “back” is displayed superimposed on the middle finger, and an operation guide representing the operation content "play” is displayed superimposed on the thumb.
- the playback position of the recipe video is rewound by 30 seconds in increments according to the operation content that corresponds to the pressure applied, and the user must repeatedly apply pressure to the middle finger until the playback position of the recipe video returns to the scene they wish to view. Then, when the user applies pressure to their thumb at the moment the playback position of the recipe video returns to the scene they wish to view, the recipe video is played according to the operation content that corresponds to the pressure applied.
- the AR glasses which are the information processing terminal 13 may notify the user by video, audio, or vibration.
- the display of the operation guide may be slightly changed to notify the user.
- the notification may be given in a different color for each finger, or a different musical scale for each finger.
- the threshold for the strength of the force required for operation may be lowered as time passes from the start of operation.
- the operation guide superimposed on the user's fingers gripping the rod-shaped real object 21E is displayed in normal size.
- the operation guide superimposed on the user's fingers gripping the rod-shaped real object 21E is displayed smaller than normal size to indicate that the threshold force required for the operation has decreased.
- the operation guide may be displayed larger than normal size to encourage the user to exert more force when operating.
- This section explains an application example in which a camera is mounted on the information processing terminal 13 and a real object 21 can be detected using the camera.
- the information processing terminal 13 when the information processing terminal 13 identifies a known real object 21 with a camera, it can select an operation mode corresponding to that known real object 21 without performing any initial operation. On the other hand, when the information processing terminal 13 identifies an unknown real object 21 with a camera, it can select the standard mode without performing any initial operation. Furthermore, when the information processing terminal 13 is capable of superimposing display using AR, it may display a hand icon superimposed on the real object 21 identified with the camera, and may also display the operation details of operations that can be performed using that real object 21. Furthermore, when the information processing terminal 13 is capable of detecting the user's hand with a camera, it can recognize the hand and finger shape not only using myoelectric potential data but also using an image of the hand captured by the camera.
- the information processing terminal 13 may use a camera to identify the relative position of the user's finger as it is being pressed, and change the processing according to that position. For example, as shown in FIG. 15, when an operation is performed on a keyboard, when the index finger is pressed at a certain position, it is assumed that an operation to input the letter "J" has been performed, and when the index finger is pressed at a position approximately 2 cm to the right from that position, it is assumed that an operation to input the letter "K" has been performed. In this way, even if the index finger is pressed with the same force, the processing performed can be changed according to the position.
- the terminal operation system 11 may select a specific operation mode and accept operations for the information processing terminal 13 based on the myoelectric potential data for a certain period of time immediately after some action occurs on the information processing terminal 13 side, even if no initial operation is performed assuming that an operation input will be made. Then, when operation acceptance has begun in the specific operation mode, the sampling frequency for measuring the myoelectric potential data may be increased.
- the terminal operation system 11 if the information processing terminal 13 is a smartphone, when there is a voice message (such as an incoming phone call), the terminal may be configured to accept operations on the information processing terminal 13 based on the electromyogram data for a certain period of time thereafter. At this time, it is expected that, for example, an operation to answer or reject the call will be performed based on the electromyogram data, so a Yes-No mode (see B in Figure 9) can be selected.
- an operation to cancel the most recent operation input can be set to be available in all operation modes.
- the cancel operation can be a force state in which all fingers are spread apart, or a force state in which all fingers are tensed.
- the terminal operation system 11 may consider the operation input to be canceled to be a false detection and may prevent the processing corresponding to that operation input from being executed, and may learn from the results of the cancel operation and correct the operation mode.
- the terminal operation system 11 can be used for sports analysis. For example, when gripping a golf club (real object 21), the terminal operation system 11 can save the way each finger applies force rather than explicit operation input, analyze it as a golfing motion, and provide feedback such as "Relax your thumb.” Similarly, the terminal operation system 11 can measure the user's level of concentration on driving from the way the steering wheel (real object 21) is held while driving.
- the terminal operation system 11 can identify individuals based on the posture in which the real object 21 is held, the force used when holding the real object 21, and so on. For example, processing may be performed by referencing registered data for each individual.
- a CPU Central Processing Unit
- ROM Read Only Memory
- RAM Random Access Memory
- EEPROM Electrically Erasable and Programmable Read Only Memory
- An input/output interface 106 is also connected to the bus 105, and the input/output interface 106 is connected to the outside.
- the CPU 101 loads programs stored in, for example, ROM 102 and EEPROM 104 into RAM 103 via bus 105 and executes them, thereby performing the above-mentioned series of processes. Furthermore, programs executed by the computer (CPU 101) can be written in advance to ROM 102, or can be installed or updated in EEPROM 104 from the outside via input/output interface 106.
- the program may be processed by a single computer (processor), or may be distributed across multiple computers. Furthermore, the program may be transferred to a remote computer for execution.
- a system refers to a collection of multiple components (devices, modules (parts), etc.), regardless of whether all of the components are contained in the same housing. Therefore, multiple devices housed in separate housings and connected via a network, and a single device with multiple modules housed in a single housing, are both systems.
- a configuration described as a single device may be divided and configured as multiple devices (or processing units).
- configurations described above as multiple devices (or processing units) may be combined and configured as a single device (or processing unit).
- configurations other than those described above may of course be added to the configuration of each device (or each processing unit).
- part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit).
- this technology can be configured as a cloud computing system in which a single function is shared and processed collaboratively by multiple devices via a network.
- each step described in the flowchart above can be executed by a single device, or can be shared and executed by multiple devices.
- a single step includes multiple processes, the multiple processes included in that single step can be executed by a single device, or can be shared and executed by multiple devices.
- multiple processes included in a single step can be executed as multiple step processes.
- processes described as multiple steps can also be executed collectively as a single step.
- the calculation unit further includes an operation execution unit that, when detecting that the force state of the user's finger identified by the force state identification unit is a force state corresponding to the force state of the operation content in the operation mode selected by the operation mode selection unit, executes processing in accordance with the operation content corresponding to the force state.
- the operation mode selection unit selects a map operation mode as the operation mode when the hand posture identification unit identifies that the user's hand posture is gripping a steering wheel.
- Terminal operation system 12. EMG measurement device, 13. Information processing terminal, 21. Real object, 31. EMG sensor, 32. Signal acquisition unit, 33. Signal processing unit, 34. Communication unit, 41. Communication unit, 42. Memory unit, 43. Calculation unit, 51. Hand shape determination unit, 52. Force state determination unit, 53. Initial movement detection unit, 54. Operation mode selection unit, 55. Operation execution unit
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、情報処理装置および情報処理方法、並びにプログラムに関し、特に、より自由度の高い操作性を実現することができるようにした情報処理装置および情報処理方法、並びにプログラムに関する。 This disclosure relates to an information processing device, an information processing method, and a program, and in particular to an information processing device, an information processing method, and a program that enable greater operability.
従来、ユーザの腕の筋電位を測定し、ユーザの手および指の動きなどに応じて情報処理端末を操作する技術の開発が進められている。 Technology has been developed to measure the myoelectric potential of a user's arm and operate an information processing device in response to the movements of the user's hands and fingers.
例えば、特許文献1には、把持された物体を用いたモーション認識方法であって、把持された物体を用いた筆記動作によるユーザの手首状態を推定し、筆記動作によって手首と関連するユーザの人体部位の関節動作を推定して、把持された物体の状態を手首状態および関節動作により推定する方法が開示されている。 For example, Patent Document 1 discloses a motion recognition method using a grasped object, which estimates the state of a user's wrist through a writing action using the grasped object, estimates the joint movements of the user's body parts associated with the wrist through the writing action, and estimates the state of the grasped object from the wrist state and joint movements.
ところで、上述の特許文献1で開示されているように、ペン型の細長い形体の物体を利用して筆記した内容を認識するだけでなく、例えば、様々な任意の物体の利用を可能として自由度の高い操作性を実現することが求められている。 As disclosed in the aforementioned Patent Document 1, there is a demand not only for the recognition of content written using a pen-shaped, elongated object, but also for the realization of a high degree of freedom in operability, for example, by enabling the use of a variety of arbitrary objects.
本開示は、このような状況に鑑みてなされたものであり、より自由度の高い操作性を実現することができるようにするものである。 This disclosure was made in light of these circumstances, and aims to enable greater operability with greater flexibility.
本開示の一側面の情報処理装置は、任意の実物体を把持または支持した状態のユーザの手および指の動きに応じた計測データを取得する取得部と、前記計測データに基づいて、ユーザの手指形状および手の力状態を推測し、ユーザの操作に応じた処理を実行する演算部とを備える。 An information processing device according to one aspect of the present disclosure includes an acquisition unit that acquires measurement data corresponding to the movement of a user's hand and fingers while gripping or supporting an arbitrary real object, and a calculation unit that estimates the shape of the user's fingers and the force state of the hand based on the measurement data, and executes processing corresponding to the user's operation.
本開示の一側面の情報処理方法またはプログラムは、任意の実物体を把持または支持した状態のユーザの手および指の動きに応じた計測データを取得することと、前記計測データに基づいて、ユーザの手指形状および手の力状態を推測し、ユーザの操作に応じた処理を実行することとを含む。 An information processing method or program according to one aspect of the present disclosure includes acquiring measurement data corresponding to the movement of a user's hand and fingers while gripping or supporting an arbitrary real object, estimating the shape of the user's fingers and the force state of the hand based on the measurement data, and executing processing corresponding to the user's operation.
本開示の一側面においては、任意の実物体を把持または支持した状態のユーザの手および指の動きに応じた計測データが取得され、その計測データに基づいて、ユーザの手指形状および手の力状態が推測され、ユーザの操作に応じた処理が実行される。 In one aspect of the present disclosure, measurement data is acquired according to the movement of a user's hand and fingers while grasping or supporting any real object, and the shape of the user's fingers and the force state of the hand are inferred based on the measurement data, and processing is performed according to the user's operation.
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Specific embodiments applying this technology will be described in detail below with reference to the drawings.
<端末操作システムの構成例>
図1は、本技術を適用した端末操作システムの一実施の形態の構成例を示す図である。
<Example of terminal operation system configuration>
FIG. 1 is a diagram showing an example of the configuration of an embodiment of a terminal operation system to which the present technology is applied.
図1に示すように、端末操作システム11は、筋電位計測機器12および情報処理端末13を備えて構成される。 As shown in Figure 1, the terminal operation system 11 is configured with an electromyography measuring device 12 and an information processing terminal 13.
筋電位計測機器12は、端末操作システム11を利用するユーザの腕の筋電位を計測し、情報処理端末13との間で通信を行って、ユーザの筋電位を計測した結果として得られる筋電位データを送信する。図1には、ユーザの右腕に装着される環形状の筋電位計測機器12が示されているが、筋電位計測機器12は、ユーザの左右どちらかの肩から手首にかけて腕のどこかに装着することができればよい。 The myoelectric potential measuring device 12 measures the myoelectric potential of the arm of a user using the terminal operation system 11, and communicates with the information processing terminal 13 to transmit the myoelectric potential data obtained as a result of measuring the user's myoelectric potential. While Figure 1 shows a ring-shaped myoelectric potential measuring device 12 worn on the user's right arm, the myoelectric potential measuring device 12 can be worn anywhere on the user's arm, from the shoulder to the wrist on either the left or right side.
例えば、筋電位計測機器12は、皮膚表面に密着する複数の筋電位センサを備えて構成され、それぞれの筋電位センサは、少なくとも+電極、-電極、基準電極の3つの電極を備えている。なお、筋電位センサが備える電極は、+電極および-電極の直線上となる位置に基準電極が配置されるように構成してもよいし、それ以外の位置に基準電極が配置されるように構成してもよい。また、筋電位計測機器12は、複数の筋電位センサが格子状に配置された構成を採用してもよい。 For example, the myoelectric potential measuring device 12 may be configured with multiple myoelectric potential sensors that are in close contact with the skin surface, and each of the myoelectric potential sensors may have at least three electrodes: a positive electrode, a negative electrode, and a reference electrode. The electrodes of the myoelectric potential sensors may be configured so that the reference electrode is positioned on a straight line between the positive and negative electrodes, or so that the reference electrode is positioned elsewhere. The myoelectric potential measuring device 12 may also be configured so that multiple myoelectric potential sensors are arranged in a grid pattern.
情報処理端末13は、端末操作システム11を利用するユーザによって操作が行われる対象となる電子デバイスである。図1に示す例では、情報処理端末13の一例として、AR(Augmented Reality)またはVR(Virtual Reality)用のヘッドマウントディスプレイが図示されているが、その他、スマートフォンやスマートウォッチなどであってもよい。そして、情報処理端末13は、筋電位計測機器12との間で通信を行って、筋電位計測機器12から送信されてくる筋電位データを受信し、筋電位データに基づいて情報処理端末13に対するユーザの操作に応じた処理を実行する。 The information processing terminal 13 is an electronic device that is operated by a user of the terminal operation system 11. In the example shown in Figure 1, a head-mounted display for AR (Augmented Reality) or VR (Virtual Reality) is illustrated as an example of the information processing terminal 13, but it may also be a smartphone, a smartwatch, or the like. The information processing terminal 13 communicates with the electromyography measuring device 12, receives electromyography data transmitted from the electromyography measuring device 12, and performs processing according to the user's operation on the information processing terminal 13 based on the electromyography data.
例えば、ユーザが、任意の実物体21を把持もしくは支持し、複数の指に力を入れて初期動作を行うと、それぞれの指に対する力の入れ方に応じたユーザの腕の筋電位が筋電位計測機器12によって計測され、情報処理端末13は、筋電位データに基づいて初期動作が行われたことを検出する。そして、情報処理端末13は、筋電位データに基づいて、ユーザの手指形状(手および指の形状)、および、ユーザの指の力状態(5本の指のうちの力んでいる指や、その指の力みの強さなど)を認識し、その推測した結果に従って情報処理端末13に対してユーザが行った操作の操作内容を決定することができる。 For example, when a user grasps or supports any real object 21 and applies force to multiple fingers to perform an initial movement, the myoelectric potential of the user's arm corresponding to the force applied to each finger is measured by the myoelectric potential measuring device 12, and the information processing terminal 13 detects that an initial movement has been performed based on the myoelectric potential data. Then, based on the myoelectric potential data, the information processing terminal 13 recognizes the shape of the user's fingers (the shape of the hand and fingers) and the force state of the user's fingers (which of the five fingers is tensing, the strength of the tension, etc.), and can determine the operation content of the operation performed by the user on the information processing terminal 13 based on the inferred result.
これにより、筋電位計測機器12を装着したユーザは、所定の手および指の形状で任意の実物体21を把持もしくは支持して、所望の指を力ませることで、情報処理端末13に対して様々な操作を行うことができる。 As a result, a user wearing the myoelectric potential measuring device 12 can grasp or support any real object 21 with a specified hand and finger shape, and perform various operations on the information processing terminal 13 by applying pressure with the desired fingers.
なお、図1に示す端末操作システム11では、ユーザの手指形状および指の力状態を認識し、ユーザが行った操作の操作内容を決定する処理を行う情報処理端末13がユーザによる操作の対象となっているが、このような処理を行う情報処理端末13以外の電子デバイスがユーザによる操作の対象となってもよい。つまり、情報処理端末13が、他の電子デバイスに対して操作内容を通知し、ユーザの操作に応じた処理が実行されるようにすることができる。 In the terminal operation system 11 shown in FIG. 1, the information processing terminal 13 that recognizes the user's hand shape and finger force state and performs processing to determine the operation content of the operation performed by the user is the target of the user's operation, but an electronic device other than the information processing terminal 13 that performs such processing may also be the target of the user's operation. In other words, the information processing terminal 13 can notify other electronic devices of the operation content, so that processing according to the user's operation can be performed.
図2は、筋電位計測機器12および情報処理端末13の構成例を示すブロック図である。 Figure 2 is a block diagram showing an example configuration of the myoelectric potential measuring device 12 and the information processing terminal 13.
図2に示すように、筋電位計測機器12は、8個の筋電位センサ31-1~31-8、信号取得部32、信号処理部33、および通信部34を備えて構成され、情報処理端末13は、通信部41、記憶部42、および演算部43を備えて構成される。 As shown in FIG. 2, the myoelectric potential measuring device 12 is configured with eight myoelectric potential sensors 31-1 to 31-8, a signal acquisition unit 32, a signal processing unit 33, and a communication unit 34, and the information processing terminal 13 is configured with a communication unit 41, a memory unit 42, and a calculation unit 43.
筋電位センサ31-1~31-8は、図1に示したように筋電位計測機器12がユーザの腕に装着された状態で、ユーザの腕の周囲に沿って所定の間隔で配置され、それぞれの位置におけるユーザの腕の筋肉で発生する微弱な電場に応じた筋電位信号(+電極、-電極、基準電極の電位差を測定して増幅した電気信号)を出力する。なお、筋電位センサ31-1~31-8を区別しない場合、以下、単に筋電位センサ31と称する。また、図2に示す例では、8個の筋電位センサ31-1~31-8が用いられているが、筋電位計測機器12に設けられる筋電位センサ31の個数は、8個以上でもよいし、8個以下でもよい。 As shown in FIG. 1, when the myoelectric potential measuring device 12 is worn on the user's arm, the myoelectric potential sensors 31-1 to 31-8 are placed at predetermined intervals around the user's arm, and output myoelectric potential signals (electrical signals obtained by measuring and amplifying the potential difference between the positive electrode, negative electrode, and reference electrode) corresponding to the weak electric field generated in the muscles of the user's arm at each position. Note that, when there is no need to distinguish between the myoelectric potential sensors 31-1 to 31-8, they will hereinafter be simply referred to as myoelectric potential sensors 31. Furthermore, while the example shown in FIG. 2 uses eight myoelectric potential sensors 31-1 to 31-8, the number of myoelectric potential sensors 31 provided in the myoelectric potential measuring device 12 may be eight or more, or eight or less.
信号取得部32は、筋電位センサ31-1~31-8から出力される筋電位信号を取得して、信号処理部33に供給する。 The signal acquisition unit 32 acquires the myoelectric potential signals output from the myoelectric potential sensors 31-1 to 31-8 and supplies them to the signal processing unit 33.
信号処理部33は、例えば、オペアンプやハイパスフィルタなどを用いた回路によって、または、デジタル処理によって、信号取得部32から供給される筋電位信号に対してノイズ除去処理やフーリエ変換処理などの信号処理を施す。そして、信号処理部33は、筋電位信号に対して信号処理を施した結果として得られる筋電位データ(ユーザの手および指の動きに応じた筋電位の変化を示す波形)を、通信部34に供給する。 The signal processing unit 33 performs signal processing such as noise removal and Fourier transform on the myoelectric potential signal supplied from the signal acquisition unit 32, for example, using a circuit that includes an operational amplifier and a high-pass filter, or through digital processing. The signal processing unit 33 then supplies the myoelectric potential data (a waveform that indicates changes in myoelectric potential in response to the movement of the user's hand and fingers) obtained as a result of the signal processing on the myoelectric potential signal to the communication unit 34.
通信部34は、情報処理端末13の通信部41との間で通信を行って、信号処理部33から供給される筋電位データを送信する。 The communication unit 34 communicates with the communication unit 41 of the information processing terminal 13 and transmits the myoelectric potential data supplied from the signal processing unit 33.
通信部41は、筋電位計測機器12の通信部34との間で通信を行って筋電位データを受信し、演算部43に供給する。なお、通信部34および通信部41は、有線ケーブルや、無線LAN(Local Area Network)、Bluetooth(登録商標)などを利用して通信を行うことができる。 The communication unit 41 communicates with the communication unit 34 of the EMG measuring device 12 to receive EMG data and supplies it to the calculation unit 43. The communication unit 34 and the communication unit 41 can communicate using a wired cable, a wireless LAN (Local Area Network), Bluetooth (registered trademark), etc.
記憶部42は、初期動作の動作形態や、ユーザの手指形状と操作モードとの対応関係、操作モードごとの操作内容などが事前に登録された登録データを記憶するメモリまたはストレージである。 The memory unit 42 is a memory or storage that stores pre-registered data such as the operating form of the initial operation, the correspondence between the user's finger shapes and operation modes, and the operation content for each operation mode.
演算部43は、CPU(Central Processing Unit)やIC(Integrated Circuit)などによって構成され、機械学習モデルや、認識モデル、アルゴリズムなどを用いて、通信部41から供給される筋電位データに基づいてユーザの手指形状および手の力状態を推測する演算を行う。そして、演算部43は、ユーザの手指形状に対応する操作モードを記憶部42の登録データから取得し、その操作モードにおいて、ユーザの手の力状態に応じた操作内容に従った処理を実行する。 The calculation unit 43 is composed of a CPU (Central Processing Unit), IC (Integrated Circuit), etc., and uses machine learning models, recognition models, algorithms, etc. to perform calculations to estimate the user's hand shape and hand force state based on the myoelectric potential data supplied from the communication unit 41. The calculation unit 43 then obtains the operation mode corresponding to the user's hand shape from the registered data in the memory unit 42, and in that operation mode, performs processing in accordance with the operation content corresponding to the force state of the user's hand.
図示するように、演算部43は、手指形状特定部51、力状態特定部52、初期動作検出部53、操作モード選択部54、および操作実行部55を備えて構成される。 As shown in the figure, the calculation unit 43 is configured to include a hand shape identification unit 51, a force state identification unit 52, an initial movement detection unit 53, an operation mode selection unit 54, and an operation execution unit 55.
手指形状特定部51は、通信部41から供給される筋電位データに基づいてユーザの手指形状を特定し、ユーザの手指形状を示す認識結果を初期動作検出部53および操作モード選択部54に供給する。 The hand posture identification unit 51 identifies the user's hand posture based on the myoelectric potential data supplied from the communication unit 41, and supplies the recognition result indicating the user's hand posture to the initial movement detection unit 53 and the operation mode selection unit 54.
例えば、図3に示すように、手を開いた状態の手指形状、手の全体で物体を握った状態の手指形状、所定の指で物体を摘まんだ状態の手指形状などのような様々な手指形状の筋電位データが、筋電位センサ31-1~31-8から出力される筋電位信号から求められる。そして、手指形状特定部51は、これらの筋電位データを入力とした機械学習(例えば、k近傍法や、サポートベクターマシン、ニューラルネットワークなど)によって生成される認識モデルを利用することで、ユーザの手指形状を特定することができる。即ち、手指形状特定部51は、通信部41から供給される筋電位データを認識モデルに入力して、その筋電位データから認識されるユーザの手指形状を示す認識結果を出力することができる。 For example, as shown in FIG. 3, myoelectric potential data for various hand and finger postures, such as an open hand, a hand gripping an object with the entire hand, and a hand pinching an object with certain fingers, can be obtained from the myoelectric potential signals output from the myoelectric potential sensors 31-1 to 31-8. The hand and finger posture identification unit 51 can then identify the user's hand and finger posture by using a recognition model generated by machine learning (e.g., k-nearest neighbor method, support vector machine, neural network, etc.) that uses this myoelectric potential data as input. In other words, the hand and finger posture identification unit 51 can input the myoelectric potential data supplied from the communication unit 41 into the recognition model and output a recognition result indicating the user's hand and finger posture recognized from the myoelectric potential data.
力状態特定部52は、通信部41から供給される筋電位データに基づいてユーザの指の力状態を特定し、ユーザの指の力状態を示す認識結果を初期動作検出部53および操作実行部55に供給する。 The force state identification unit 52 identifies the force state of the user's finger based on the myoelectric potential data supplied from the communication unit 41, and supplies the recognition result indicating the force state of the user's finger to the initial action detection unit 53 and the operation execution unit 55.
例えば、図4に示すように、力状態特定部52は、筋電位データに対する閾値に従って、ユーザの指の力状態を特定することができる。即ち、筋電位センサ31-1~31-8から出力される筋電位信号から求められる筋電位データのピーク値が、一点鎖線で図示されている予め設定された閾値以上であるか否かによって、ユーザの指の力状態が特定される。 For example, as shown in FIG. 4, the force state determination unit 52 can determine the force state of the user's finger in accordance with a threshold value for the myoelectric potential data. That is, the force state of the user's finger is determined based on whether the peak value of the myoelectric potential data obtained from the myoelectric potential signals output from the myoelectric potential sensors 31-1 to 31-8 is equal to or greater than a preset threshold value shown by the dashed dotted line.
具体的には、図4に示す例では、筋電位センサ31-1~31-8に応じた筋電位データのピーク値の全てが閾値以下である場合、机上で手を広げて静止している力状態であると特定される。筋電位センサ31-1~31-8に応じた筋電位データのうち、筋電位センサ31-1、筋電位センサ31-3、筋電位センサ31-6~31-8に応じた筋電位データのピーク値が閾値以上である場合、机上で手を広げて人差し指を力んでいる力状態であると特定される。筋電位センサ31-1~31-8に応じた筋電位データのうち、筋電位センサ31-1~31-7に応じた筋電位データのピーク値が閾値以上である場合、机上で手を広げて親指を力んでいる力状態であると特定される。 Specifically, in the example shown in FIG. 4, if all of the peak values of the myoelectric potential data corresponding to myoelectric potential sensors 31-1 to 31-8 are below the threshold, the force state is identified as one in which the hand is spread out and stationary on the desk. If the peak values of the myoelectric potential data corresponding to myoelectric potential sensors 31-1, 31-3, and 31-6 to 31-8 among the myoelectric potential data corresponding to myoelectric potential sensors 31-1 to 31-8 are above the threshold, the force state is identified as one in which the hand is spread out on the desk and the index finger is tensed. If the peak values of the myoelectric potential data corresponding to myoelectric potential sensors 31-1 to 31-7 among the myoelectric potential data corresponding to myoelectric potential sensors 31-1 to 31-8 are above the threshold, the force state is identified as one in which the hand is spread out on the desk and the thumb is tensed.
または、図5に示すように、力状態特定部52は、力を入れていない状態と5本の指それぞれを力んでいる状態との筋電位データを入力とした機械学習(例えば、k近傍法や、サポートベクターマシン、ニューラルネットワークなど)によって生成される認識モデルを利用して、ユーザの指の力状態を特定することができる。即ち、力状態特定部52は、通信部41から供給される筋電位データを認識モデルに入力して、その筋電位データから認識されるユーザの指の力状態を示す認識結果を出力することができる。なお、力状態特定部52が認識モデルを利用してユーザの指の力状態を特定する場合、手指形状特定部51が利用する認識モデルと併せて、1つの認識モデルとしてもよい。 Alternatively, as shown in FIG. 5, the force state identification unit 52 can identify the force state of the user's fingers using a recognition model generated by machine learning (e.g., k-nearest neighbor method, support vector machine, neural network, etc.) using as input EMG data for a relaxed state and a state in which each of the five fingers is tense. That is, the force state identification unit 52 can input EMG data supplied from the communication unit 41 to the recognition model and output a recognition result indicating the force state of the user's fingers recognized from the EMG data. Note that when the force state identification unit 52 identifies the force state of the user's fingers using a recognition model, it may be combined with the recognition model used by the hand shape identification unit 51 to form a single recognition model.
初期動作検出部53は、手指形状特定部51によって特定されたユーザの手指形状、および、力状態特定部52によって特定されたユーザの指の力状態に基づいて、ユーザが初期動作を行ったこと検出する。例えば、ユーザは、指の力みによる入力で情報処理端末13に対する操作を開始したいときに初期動作を実行する。 The initial movement detection unit 53 detects that the user has performed an initial movement based on the user's hand shape identified by the hand shape identification unit 51 and the force state of the user's fingers identified by the force state identification unit 52. For example, the user performs an initial movement when they want to start operating the information processing terminal 13 by inputting with strained fingers.
ここで、初期動作は、実物体21をユーザが把持したときに通常では行わないような組み合わせで指を力ませるジェスチャによる動作形態であって、筋電位計測機器12によって計測される筋電位に基づいて検出することができる動作形態が用いられる。初期動作の動作形態は、記憶部42の登録データに事前に登録されており、任意の動作形態で初期動作を登録することができる。例えば、把持される実物体21に応じて初期動作が異なるように登録データに登録してもよい。なお、実物体21としては、実世界上の全ての把持可能な何らかの物体を利用することができ、例えば、情報処理端末13を実物体21として用いたり、ユーザ自体の身体の一部を実物体21として用いたりしてもよい。 Here, the initial action is a motion pattern formed by a gesture of applying pressure to the fingers in a combination that is not normally performed when the user grasps the real object 21, and a motion pattern that can be detected based on the myoelectric potential measured by the myoelectric potential measuring device 12 is used. The motion pattern of the initial action is registered in advance in the registration data of the memory unit 42, and the initial action can be registered in any motion pattern. For example, the registration data may be registered so that the initial action differs depending on the real object 21 being grasped. Note that any graspable object in the real world can be used as the real object 21; for example, the information processing terminal 13 or a part of the user's own body may be used as the real object 21.
図6には初期動作の一例が示されており、図示されている数字は、力ませる指の順番を示している。例えば、図6のAに示すように、棒状の実物体21Aを握った手指形状で、人差し指、中指、薬指、小指、および親指を順番に力ませる動作形態を初期動作として用いることができる。また、図6のBに示すように、小型の直方体の実物体21Bを親指、人差し指、および中指で摘まんだ手指形状で、実物体21Bには力を加えないように薬指および小指を順番に力ませる動作形態を初期動作として用いることができる。 Figure 6 shows an example of an initial motion, with the numbers shown indicating the order in which the fingers are pressed. For example, as shown in Figure 6A, an initial motion can be used in which the index finger, middle finger, ring finger, little finger, and thumb are pressed in order with the fingers gripping a rod-shaped real object 21A. Alternatively, as shown in Figure 6B, an initial motion can be used in which the fingers are pinching a small rectangular parallelepiped real object 21B with the thumb, index finger, and middle finger, and the ring finger and little finger are pressed in order without applying force to real object 21B.
その他、初期動作としては、人差し指と小指を同時に力ませる動作形態や、短時間の間に親指を3回連続で力ませる動作形態、5秒間人差し指と親指で力み続ける動作形態、1秒刻みで指を順番に力ませる動作形態、弱めの力みの後に強めの力みで二段階の力を加える動作形態などを用いてもよい。 Other initial movements that can be used include simultaneously applying pressure to the index finger and little finger, applying pressure to the thumb three times in succession within a short period of time, applying pressure to the index finger and thumb for five seconds, applying pressure to each finger in turn every second, and applying pressure in two stages, starting with a weak pressure followed by a stronger pressure.
例えば、初期動作は、情報処理端末13に対する操作入力のトリガとすることを第1の目的として行われる。これにより、ユーザの意図に反した操作入力を防止して、操作入力の開始を情報処理端末13に対して明示的に示すことができる。また、端末操作システム11では、初期動作が検出された後に、ユーザの手指形状および指の力状態を特定するための筋電位データの取得が高サンプリングレートで行われるようにすることで、電力消費の抑制を図ることができる。例えば、端末操作システム11では、初期動作の検出用に低サンプリングレートで筋電位データを取得することができるように、初期動作の動作形態としては、低サンプリングレートでも取得できるような長めの時間に渡って指を力ませるような動作を採用することが好適である。 For example, the initial movement is performed with the primary purpose of triggering an operational input to the information processing terminal 13. This prevents operational input that goes against the user's intention and makes it possible to explicitly indicate to the information processing terminal 13 that an operational input has begun. Furthermore, in the terminal operation system 11, after the initial movement is detected, power consumption can be reduced by acquiring myoelectric potential data for identifying the user's hand shape and finger force state at a high sampling rate. For example, in the terminal operation system 11, it is preferable to adopt, as the initial movement form, a movement in which the fingers are tense for a relatively long period of time so that myoelectric potential data can be acquired even at a low sampling rate, so that myoelectric potential data can be acquired at a low sampling rate for detecting the initial movement.
また、初期動作は、操作実行部55が指の力状態を検出するのに用いる閾値を設定するためのキャリブレーション(初期化処理)として利用することを第2の目的として行われる。例えば、初期動作において求められた各指を力ませたときの筋電位データの最大値を記憶しておき、それらの最大値に対する任意の割合を、操作実行部55が用いる閾値として設定することができる。 Furthermore, the second purpose of the initial operation is to be used as a calibration (initialization process) for setting a threshold value that the operation execution unit 55 uses to detect the force state of the fingers. For example, the maximum values of the myoelectric potential data obtained during the initial operation when each finger is exerted force can be stored, and an arbitrary percentage of these maximum values can be set as the threshold value that the operation execution unit 55 uses.
例えば、図7の左側には、初期動作で静止状態のときに筋電位センサ31-1~31-8から出力される筋電位信号から求められる筋電位データの一例が示されており、初期動作の手指形状を示す筋電位データとして記録する。そして、図7の右側には、この静止状態から初期動作で1回目の指を力んだときに筋電位センサ31-1~31-8から出力される筋電位信号から求められる筋電位データの一例が示されている。このように1回目の指を力んだときの筋電位データの最大値を記憶しておき、一点鎖線で示すように最大値に対する任意の割合を、その指を力ませたと操作実行部55が力状態を検出するのに用いる閾値として設定することができる。 For example, the left side of Figure 7 shows an example of myoelectric potential data obtained from the myoelectric potential signals output from myoelectric potential sensors 31-1 to 31-8 when the fingers are tense for the first time in the initial movement, as shown by the dashed-dotted line, and is recorded as myoelectric potential data indicating the finger shape in the initial movement. The right side of Figure 7 shows an example of myoelectric potential data obtained from the myoelectric potential signals output from myoelectric potential sensors 31-1 to 31-8 when the fingers are tense for the first time in the initial movement. In this way, the maximum value of the myoelectric potential data when the fingers are tense for the first time is stored, and an arbitrary ratio of this maximum value, as shown by the dashed-dotted line, can be set as the threshold value used by the operation execution unit 55 to detect the force state when the fingers are tense.
なお、端末操作システム11では、初期動作の動作形態から、ユーザが把持または支持している実物体21を識別してもよい。そして、同様の動作形態で把持または支持される異なる実物体21に対して、それぞれ別の初期動作を対応させておくことができる。また、端末操作システム11では、初期動作の結果から筋電位を計測するフレームレートを決定することができ、例えば、筋電位が大きく変動し識別しやすい場合にはフレームレートを低下させるように設定してもよい。 The terminal operation system 11 may identify the real object 21 being held or supported by the user from the motion pattern of the initial motion. Different initial motions may then be associated with different real objects 21 that are held or supported with similar motion patterns. The terminal operation system 11 may also determine the frame rate for measuring the myoelectric potential from the results of the initial motion; for example, the frame rate may be set to be lowered if the myoelectric potential fluctuates significantly and is easy to identify.
操作モード選択部54は、手指形状特定部51によって特定されたユーザの手指形状が、記憶部42に記憶されている登録データに登録されている場合、その手指形状に対応付けられている操作モードを選択する。また、操作モード選択部54は、手指形状特定部51によって特定されたユーザの手指形状が、記憶部42に記憶されている登録データに登録されていない場合、操作モードとして標準モードを選択する。なお、操作モード選択部54によって操作モードを選択させる他、ユーザが、情報処理端末13を直接的に操作して、所望の操作モードを選択するようにしてもよい。また、ユーザの手指形状に対応付けられて記憶部42の登録データに登録される操作モードは任意に設定することができ、操作モードごとの操作内容も任意に設定することができる。 If the user's hand shape identified by the hand shape identification unit 51 is registered in the registration data stored in the memory unit 42, the operation mode selection unit 54 selects the operation mode associated with that hand shape. Furthermore, if the user's hand shape identified by the hand shape identification unit 51 is not registered in the registration data stored in the memory unit 42, the operation mode selection unit 54 selects the standard mode as the operation mode. Note that, in addition to having the operation mode selection unit 54 select an operation mode, the user may also directly operate the information processing terminal 13 to select a desired operation mode. Furthermore, the operation mode associated with the user's hand shape and registered in the registration data in the memory unit 42 can be set arbitrarily, and the operation content for each operation mode can also be set arbitrarily.
なお、端末操作システム11では、ユーザが初期動作を行わなくても、ユーザの手指形状が、予め登録された初期動作時の手指形状と一致することが筋電位データから推測された場合、操作モード選択部54は、その手指形状に対応した操作モードを選択することができる。 In addition, in the terminal operation system 11, if it is inferred from the myoelectric potential data that the user's hand shape matches a pre-registered hand shape at the time of the initial movement, even if the user does not perform an initial movement, the operation mode selection unit 54 can select the operation mode corresponding to that hand shape.
操作実行部55は、初期動作の検出後に力状態特定部52によって特定されたユーザの指の力状態が、操作モード選択部54によって選択された操作モードにおける操作内容の力状態に対応する力状態であることを検出した場合、その力状態に応じた操作内容に従った処理を実行する。例えば、操作実行部55は、それぞれの指ごとの力みが閾値を超えたか否かの二値(0,1)に基づいて、ユーザの指の力状態を検出することができる。または、操作実行部55は、それぞれの指ごとの力みの線形の出力(0~100%)に基づいて、ユーザの指の力状態を検出してもよい。 If the operation execution unit 55 detects that the force state of the user's fingers identified by the force state identification unit 52 after detecting the initial operation corresponds to the force state of the operation content in the operation mode selected by the operation mode selection unit 54, it executes processing in accordance with the operation content corresponding to that force state. For example, the operation execution unit 55 can detect the force state of the user's fingers based on a binary value (0, 1) indicating whether the strain of each finger exceeds a threshold. Alternatively, the operation execution unit 55 may detect the force state of the user's fingers based on a linear output (0 to 100%) of the strain of each finger.
図8および図9を参照して、手指形状、操作モード、および操作内容について説明する。 With reference to Figures 8 and 9, we will explain the hand shape, operation mode, and operation content.
図8に示すように、ユーザの手指形状が、右手を開いて全ての指先が物体に接触している場合、操作モード選択部54は、操作モードとしてマウス操作モードを選択する。マウス操作モードにおいて、操作実行部55は、人差し指が力んでいる力状態に応じて左ボタンクリックに対応する操作内容に従った処理を実行し、人差し指が連続で力んでいる力状態に応じてダブルクリックに対応する操作内容に従った処理を実行する。同様に、マウス操作モードにおいて、操作実行部55は、中指が力んでいる力状態に応じて右ボタンクリックに対応する操作内容に従った処理を実行し、親指が力んでいる力状態に応じて戻るボタンクリックに対応する操作内容に従った処理を実行し、薬指が力んでいる力状態に応じて進むボタンクリックに対応する操作内容に従った処理を実行する。 As shown in FIG. 8, when the user's finger position is such that the right hand is open and all fingertips are in contact with an object, the operation mode selection unit 54 selects the mouse operation mode as the operation mode. In the mouse operation mode, the operation execution unit 55 executes processing according to the operation content corresponding to a left button click depending on the force state of the index finger, and executes processing according to the operation content corresponding to a double click depending on the force state of the index finger. Similarly, in the mouse operation mode, the operation execution unit 55 executes processing according to the operation content corresponding to a right button click depending on the force state of the middle finger, executes processing according to the operation content corresponding to a back button click depending on the force state of the thumb, and executes processing according to the operation content corresponding to a forward button click depending on the force state of the ring finger.
ユーザの手指形状が、左手を開いて小指以外の指先が物体に接触している場合、操作モード選択部54は、操作モードとして十字キー操作モードを選択する。十字キー操作モードにおいて、操作実行部55は、中指が力んでいる力状態に応じて上方向に対応する操作内容に従った処理を実行し、薬指が力んでいる力状態に応じて左方向に対応する操作内容に従った処理を実行する。同様に、十字キー操作モードにおいて、操作実行部55は、人差し指が力んでいる力状態に応じて右方向に対応する操作内容に従った処理を実行し、親指が力んでいる力状態に応じて下方向に対応する操作内容に従った処理を実行する。 When the user's fingering position is such that the left hand is open and all fingertips other than the little finger are in contact with an object, the operation mode selection unit 54 selects the cross key operation mode as the operation mode. In the cross key operation mode, the operation execution unit 55 executes processing according to the operation content corresponding to the upward direction depending on the force state of the middle finger, and executes processing according to the operation content corresponding to the left direction depending on the force state of the ring finger. Similarly, in the cross key operation mode, the operation execution unit 55 executes processing according to the operation content corresponding to the right direction depending on the force state of the index finger, and executes processing according to the operation content corresponding to the downward direction depending on the force state of the thumb.
ユーザの手指形状が、ハンドルを握っている場合、操作モード選択部54は、操作モードとして地図操作モードを選択する。地図操作モードにおいて、操作実行部55は、人差し指の力みから中指の力みに変化する力状態に応じて地図を拡大する操作内容に従った処理を実行し、中指の力みから人差し指の力みに変化する力状態に応じて地図を縮小する操作内容に従った処理を実行する。同様に、地図操作モードにおいて、操作実行部55は、親指が連続で力んでいる力状態に応じて次の案内を再生する操作内容に従った処理を実行する。 When the user's finger shape is gripping the steering wheel, the operation mode selection unit 54 selects the map operation mode as the operation mode. In the map operation mode, the operation execution unit 55 executes processing according to the operation content to enlarge the map in accordance with the force state changing from tension in the index finger to tension in the middle finger, and executes processing according to the operation content to reduce the map in accordance with the force state changing from tension in the middle finger to tension in the index finger. Similarly, in the map operation mode, the operation execution unit 55 executes processing according to the operation content to play the next guidance in accordance with the force state of continuous tension in the thumb.
ユーザの手指形状が、人差し指と親指でイヤホンを摘まんでいる場合、操作モード選択部54は、操作モードとして音量操作モードを選択する。音量操作モードにおいて、操作実行部55は、人差し指が力んでいる力状態に応じて音量を大きくする操作内容に従った処理を実行し、親指が力んでいる力状態に応じて音量を小さくする操作内容に従った処理を実行する。同様に、音量操作モードにおいて、操作実行部55は、全ての指が力んでいる力状態に応じて停止または再生する操作内容に従った処理を実行する。 When the user's finger position is such that the earphones are pinched with the index finger and thumb, the operation mode selection unit 54 selects the volume operation mode as the operation mode. In the volume operation mode, the operation execution unit 55 executes processing according to the operation content to increase the volume depending on the force state of the index finger, and executes processing according to the operation content to decrease the volume depending on the force state of the thumb. Similarly, in the volume operation mode, the operation execution unit 55 executes processing according to the operation content to stop or play depending on the force state of all fingers.
図9のAに示すように、ユーザの手指形状が、記憶部42に記憶されている登録データに未登録である場合、操作モード選択部54は、操作モードとして標準モードを選択する。標準モードにおいて、操作実行部55は、人差し指が力んでいる力状態に応じて進むに対応する操作内容に従った処理を実行し、中指が力んでいる力状態に応じて戻るに対応する操作内容に従った処理を実行し、親指が力んでいる力状態に応じて決定に対応する操作内容に従った処理を実行する。 As shown in A of Figure 9, if the user's finger shape is not registered in the registration data stored in the memory unit 42, the operation mode selection unit 54 selects the standard mode as the operation mode. In the standard mode, the operation execution unit 55 executes processing according to the operation content corresponding to moving forward depending on the force state of the index finger, executes processing according to the operation content corresponding to moving back depending on the force state of the middle finger, and executes processing according to the operation content corresponding to making a decision depending on the force state of the thumb.
ユーザの手指形状が、図9のBに示すようなOKサイン(親指と人差し指で輪を作るようなハンドサイン)である場合、操作モード選択部54は、操作モードとしてYes-Noモードを選択する。Yes-Noモードにおいて、操作実行部55は、人差し指および親指が力んでいる力状態に応じてYesに対応する操作内容に従った処理を実行し、中指および親指が力んでいる力状態に応じてNoに対応する操作内容に従った処理を実行する。 When the user's finger shape is the OK sign (a hand sign in which the thumb and index finger form a circle) as shown in B of Figure 9, the operation mode selection unit 54 selects the Yes-No mode as the operation mode. In the Yes-No mode, the operation execution unit 55 executes processing according to the operation content corresponding to Yes depending on the force state of the index finger and thumb, and executes processing according to the operation content corresponding to No depending on the force state of the middle finger and thumb.
なお、図8および図9を参照して説明した手指形状、操作モード、および操作内容は一例であって、これら以外の手指形状、操作モード、および操作内容を用いてもよい。 Note that the hand shapes, operation modes, and operation contents described with reference to Figures 8 and 9 are merely examples, and other hand shapes, operation modes, and operation contents may also be used.
以上のように、端末操作システム11は、ユーザが任意の実物体21を把持もしくは支持した状態で、ユーザの5本の指の強さを用いた初期動作を行わせて、情報処理端末13に対する操作入力を開始できる状態とすることができる。そして、端末操作システム11は、ユーザの手指形状および指の力状態に基づいて、それぞれ対応する操作内容に従った処理、例えば、ユーザが力ませる5本の指それぞれに応じて異なる処理を実行することができる。 As described above, the terminal operation system 11 can perform an initial operation using the strength of the user's five fingers while the user is holding or supporting any real object 21, thereby enabling the user to begin inputting operations into the information processing terminal 13. Based on the user's hand shape and finger force state, the terminal operation system 11 can then execute processing in accordance with the corresponding operation content, for example, different processing depending on the force exerted by each of the user's five fingers.
また、端末操作システム11は、実世界上の全ての把持可能なあらゆる実物体21を、情報処理端末13に対する操作入力に利用することができる。例えば、端末操作システム11では、異なる実物体21を利用しても、それぞれ手指形状と力ませる指の組み合わせが同一であれば、同一の操作内容に従った処理を実行することができる。つまり、端末操作システム11は、ペン型の細長い形体の物体のような既知の実物体21の利用に限定されることなく、情報処理端末13に対する操作を行うことができる。このように、端末操作システム11は、様々な任意の実物体21を利用して、より自由度の高い操作性を実現することができる。 Furthermore, the terminal operation system 11 can use any graspable real object 21 in the real world to input operations to the information processing terminal 13. For example, even if different real objects 21 are used, the terminal operation system 11 can execute processing according to the same operation content as long as the hand shape and combination of fingers used to apply pressure are the same. In other words, the terminal operation system 11 can operate the information processing terminal 13 without being limited to using known real objects 21 such as pen-shaped, elongated objects. In this way, the terminal operation system 11 can use a variety of arbitrary real objects 21 to achieve greater operability with a higher degree of freedom.
<筋電位計測処理および操作実行処理の処理例>
図10および図11に示すフローチャートを参照して、端末操作システム11において実行される筋電位計測処理および操作実行処理について説明する。
<Processing example of electromyography measurement processing and operation execution processing>
The myoelectric potential measurement process and operation execution process executed in the terminal operation system 11 will be described with reference to the flowcharts shown in FIGS.
図10に示すフローチャートを参照して、筋電位計測機器12において実行される筋電位計測処理について説明する。 The myoelectric potential measurement process executed by the myoelectric potential measuring device 12 will be described with reference to the flowchart shown in Figure 10.
ステップS11において、通信部34は、情報処理端末13の通信部41から送信されてくる通信開始を指示する信号を受信したか否かを判定し、通信開始を指示する信号を受信したと判定するまで処理を待機する。そして、通信部34が、通信開始を指示する信号を受信したと判定した場合、処理はステップS12に進む。 In step S11, the communication unit 34 determines whether or not it has received a signal instructing the start of communication transmitted from the communication unit 41 of the information processing terminal 13, and waits until it determines that it has received a signal instructing the start of communication. If the communication unit 34 determines that it has received a signal instructing the start of communication, the process proceeds to step S12.
ステップS12において、信号取得部32は、筋電位センサ31-1~31-8から出力される筋電位信号を取得して、信号処理部33に供給する。 In step S12, the signal acquisition unit 32 acquires the myoelectric potential signals output from the myoelectric potential sensors 31-1 to 31-8 and supplies them to the signal processing unit 33.
ステップS13において、信号処理部33は、ステップS12で供給された筋電位信号に対してノイズ除去処理やフーリエ変換処理などの信号処理を施した結果として得られる筋電位データを取得し、通信部34に供給する。 In step S13, the signal processing unit 33 acquires the myoelectric potential data obtained as a result of performing signal processing such as noise removal and Fourier transform processing on the myoelectric potential signal supplied in step S12, and supplies this data to the communication unit 34.
ステップS14において、通信部34は、ステップS13で供給された筋電位データを、情報処理端末13へ送信する。 In step S14, the communication unit 34 transmits the myoelectric potential data provided in step S13 to the information processing terminal 13.
ステップS15において、通信部34は、情報処理端末13の通信部41から送信されてくる通信終了を指示する信号を受信したか否かを判定する。通信部34が、通信終了を指示する信号を受信していないと判定した場合、処理はステップS12に戻って、以下、同様の処理が繰り返して行われる。一方、通信部34が、通信終了を指示する信号を受信したと判定した場合、処理はステップS16に進む。 In step S15, the communication unit 34 determines whether or not a signal instructing the end of communication transmitted from the communication unit 41 of the information processing terminal 13 has been received. If the communication unit 34 determines that a signal instructing the end of communication has not been received, the process returns to step S12, and the same process is repeated thereafter. On the other hand, if the communication unit 34 determines that a signal instructing the end of communication has been received, the process proceeds to step S16.
ステップS16において、筋電位計測機器12の動作を終了するための各種の処理が行われた後、筋電位計測処理は終了される。 In step S16, various processes are performed to terminate the operation of the EMG measuring device 12, and then the EMG measurement process is terminated.
図11に示すフローチャートを参照して、情報処理端末13において実行される操作実行処理について説明する。 The operation execution process executed on the information processing terminal 13 will be described with reference to the flowchart shown in Figure 11.
ステップS21において、通信部41は、筋電位計測機器12の通信部34に対して通信開始を指示する信号を送信する。 In step S21, the communication unit 41 transmits a signal to the communication unit 34 of the electromyography measuring device 12 instructing it to start communication.
ステップS22において、通信部41は、図10のステップS14で通信部34から送信されてくる筋電位データを受信して、手指形状特定部51および力状態特定部52に供給する。 In step S22, the communication unit 41 receives the myoelectric potential data transmitted from the communication unit 34 in step S14 of FIG. 10 and supplies it to the hand shape identification unit 51 and the force state identification unit 52.
ステップS23において、手指形状特定部51は、ステップS22で供給された筋電位データに基づいてユーザの手指形状を特定し、ユーザの手指形状を示す認識結果を初期動作検出部53および操作モード選択部54に供給する。 In step S23, the hand posture identification unit 51 identifies the user's hand posture based on the myoelectric potential data provided in step S22, and provides the recognition result indicating the user's hand posture to the initial action detection unit 53 and the operation mode selection unit 54.
ステップS24において、力状態特定部52は、ステップS22で供給された筋電位データに基づいてユーザの指の力状態を特定し、ユーザの指の力状態を示す認識結果を初期動作検出部53および操作実行部55に供給する。 In step S24, the force state identification unit 52 identifies the force state of the user's finger based on the EMG data supplied in step S22, and supplies the recognition result indicating the force state of the user's finger to the initial action detection unit 53 and the operation execution unit 55.
ステップS25において、初期動作検出部53は、ステップS23で特定されたユーザの手指形状、および、ステップS24で特定されたユーザの指の力状態に基づいて、ユーザによる初期動作を検出したか否かを判定する。 In step S25, the initial movement detection unit 53 determines whether an initial movement by the user has been detected based on the user's hand shape identified in step S23 and the force state of the user's fingers identified in step S24.
ステップS25において、初期動作検出部53が、ユーザによる初期動作を検出したと判定した場合、処理はステップS26に進む。 If the initial action detection unit 53 determines in step S25 that an initial action by the user has been detected, processing proceeds to step S26.
ステップS26において、操作モード選択部54は、ステップS23で特定されたユーザの手指形状が、記憶部42に記憶されている登録データに登録されているか否かを判定する。 In step S26, the operation mode selection unit 54 determines whether the user's hand shape identified in step S23 is registered in the registration data stored in the memory unit 42.
ステップS26において、操作モード選択部54が、ユーザの手指形状が登録データに登録されていると判定した場合、処理はステップS27に進む。ステップS27において、操作モード選択部54は、ステップS23で特定されたユーザの手指形状と登録データにおいて対応付けられている操作モードを選択して、処理はステップS30に進む。 If the operation mode selection unit 54 determines in step S26 that the user's hand shape is registered in the registration data, the process proceeds to step S27. In step S27, the operation mode selection unit 54 selects the operation mode associated in the registration data with the user's hand shape identified in step S23, and the process proceeds to step S30.
一方、ステップS26において、操作モード選択部54が、ユーザの手指形状が登録データに登録されていない(未登録である)と判定した場合、処理はステップS28に進む。ステップS28において、操作モード選択部54は、操作モードとして標準モードを選択して、処理はステップS30に進む。 On the other hand, if the operation mode selection unit 54 determines in step S26 that the user's hand shape is not registered in the registration data (is unregistered), the process proceeds to step S28. In step S28, the operation mode selection unit 54 selects the standard mode as the operation mode, and the process proceeds to step S30.
一方、ステップS25において、初期動作検出部53が、ユーザによる初期動作を検出しなかったと判定した場合、処理はステップS29に進む。 On the other hand, if the initial action detection unit 53 determines in step S25 that an initial action by the user has not been detected, processing proceeds to step S29.
ステップS29において、操作モード選択部54は、ステップS23で特定されたユーザの手指形状が、初期動作時の手指形状と一致しているか否かを判定する。そして、操作モード選択部54が、ユーザの手指形状が初期動作時の手指形状と一致していないと判定した場合、処理はステップS22に戻って、以下、同様の処理が繰り返して行われる。一方、操作モード選択部54が、ユーザの手指形状が初期動作時の手指形状と一致していると判定した場合、その手指形状に対応した操作モードが選択され、処理はステップS30に進む。 In step S29, the operation mode selection unit 54 determines whether the user's hand shape identified in step S23 matches the hand shape at the time of initial operation. If the operation mode selection unit 54 determines that the user's hand shape does not match the hand shape at the time of initial operation, the process returns to step S22, and the same process is repeated thereafter. On the other hand, if the operation mode selection unit 54 determines that the user's hand shape matches the hand shape at the time of initial operation, an operation mode corresponding to that hand shape is selected, and the process proceeds to step S30.
ステップS30において、操作実行部55は、初期動作の検出後に力状態特定部52によって特定されたユーザの指の力状態について、選択中の操作モードにおける操作内容の力状態に対応する力状態が検出されたか否かを判定する。 In step S30, the operation execution unit 55 determines whether the force state of the user's finger identified by the force state identification unit 52 after the initial operation is detected corresponds to the force state of the operation content in the currently selected operation mode.
ステップS30において、操作実行部55が、選択中の操作モードにおける操作内容の力状態に対応する力状態が検出されなかったと判定した場合、処理はステップS22に戻って、以下、同様の処理が繰り返して行われる。一方、ステップS30において、操作実行部55が、選択中の操作モードにおける操作内容の力状態に対応する力状態が検出されたと判定した場合、処理はステップS31に進む。 If the operation execution unit 55 determines in step S30 that a force state corresponding to the force state of the operation content in the selected operation mode has not been detected, the process returns to step S22, and the same process is repeated thereafter. On the other hand, if the operation execution unit 55 determines in step S30 that a force state corresponding to the force state of the operation content in the selected operation mode has been detected, the process proceeds to step S31.
ステップS31において、操作実行部55は、ステップS30で検出されたユーザの指の力状態に対応する操作内容に従った処理を実行する。 In step S31, the operation execution unit 55 executes processing according to the operation content corresponding to the force state of the user's finger detected in step S30.
ステップS32において、演算部43は、操作実行処理を終了するか否かを判定する。 In step S32, the calculation unit 43 determines whether to end the operation execution process.
ステップS32において、演算部43が、操作実行処理を終了しないと判定した場合、処理はステップS22に戻って、以下、同様の処理が繰り返して行われる。一方、演算部43が、操作実行処理を終了すると判定した場合、処理はステップS33に進む。 If the calculation unit 43 determines in step S32 not to end the operation execution process, the process returns to step S22, and the same process is repeated thereafter. On the other hand, if the calculation unit 43 determines to end the operation execution process, the process proceeds to step S33.
ステップS33において、通信部41が、筋電位計測機器12の通信部34に対して通信終了を指示する信号を送信した後、操作実行処理は終了される。 In step S33, the communication unit 41 sends a signal to the communication unit 34 of the electromyography measuring device 12 instructing it to end communication, and then the operation execution process ends.
以上のように、端末操作システム11は、様々な任意の実物体21を利用して、より自由度の高い操作性を実現することができる。 As described above, the terminal operation system 11 can utilize a variety of arbitrary real objects 21 to achieve greater operability.
<端末操作システムの利用例および応用例>
図12~図15を参照して、端末操作システム11の利用例および応用例について説明する。
<Examples of use and applications of the terminal operation system>
12 to 15, examples of use and applications of the terminal operation system 11 will be described.
図12は、端末操作システム11としてスマートウォッチを利用した利用例の一例について説明する図である。 Figure 12 is a diagram illustrating an example of a usage example in which a smartwatch is used as the terminal operation system 11.
例えば、端末操作システム11としてスマートウォッチを利用する場合、図12に示す利用例では、スマートウォッチのバンドに筋電位計測機器12が組み込まれ、スマートウォッチの本体に設けられる情報処理端末13が上述した操作実行処理を実行する。また、図12に示す利用例では、自転車のハンドルが実物体21Cとして利用される。 For example, when a smartwatch is used as the terminal operation system 11, in the usage example shown in FIG. 12, a myoelectric potential measuring device 12 is incorporated into the band of the smartwatch, and an information processing terminal 13 provided on the main body of the smartwatch performs the operation execution process described above. Also, in the usage example shown in FIG. 12, the handlebars of a bicycle are used as the real object 21C.
ユーザの手指形状がハンドルを握っている場合、図12のAに示すように、操作モードとして地図操作モードが選択される。 If the user's fingers are gripping the steering wheel, the map operation mode is selected as the operation mode, as shown in A of Figure 12.
ユーザが、自転車で目的地まで移動するために、端末操作システム11であるスマートウォッチで地図アプリを起動すると、図12のBに示すように、端末操作システム11の表示部に地図が表示され、目的地までのナビゲーションが開始される。そして、ユーザは、例えば、人差し指と小指を同時に力ませた後に、中指と薬指を同時に力ませる初期動作を行うことで、端末操作システム11に対する操作入力が開始されるようにして、自転車を漕ぎ出す。 When a user activates a map app on the smartwatch, which is the terminal operation system 11, to travel to a destination by bicycle, a map is displayed on the display unit of the terminal operation system 11, and navigation to the destination begins, as shown in Figure 12B. Then, the user performs an initial motion, for example, by simultaneously pressing their index finger and little finger, and then simultaneously pressing their middle finger and ring finger, thereby initiating operation input to the terminal operation system 11 and starting to pedal the bicycle.
例えば、ユーザは、次に右折するタイミングを知りたくなったとき、親指を連続で力ませると、その力状態に応じた操作内容に従って、図12のCに示すように、端末操作システム11の表示部に「450m先右折」のナビゲーションが表示される。 For example, if the user wants to know when to make the next right turn, by continuously applying pressure to the thumb, the display of the terminal operation system 11 will display a navigation message saying "Turn right in 450m" in accordance with the operation content corresponding to the pressure applied, as shown in Figure 12C.
また、ユーザが、地図上で目的地を確認したいが現在の地図の縮尺では目的地を表示できないとき、人差し指を力ませてから中指を力ませると、その力状態に応じた操作内容に従って、図12のDに示すように、端末操作システム11の表示部に表示されている地図が拡大される。なお、このときの指の力みの強さに応じて拡大率が線形に変更されるように、地図を拡大することができる。 Furthermore, when a user wants to check a destination on a map but the destination cannot be displayed at the current map scale, by first pressing down on the index finger and then pressing down on the middle finger, the map displayed on the display unit of the terminal operation system 11 will be enlarged according to the operation content corresponding to the state of pressure, as shown in D of Figure 12. Note that the map can be enlarged so that the magnification changes linearly depending on the strength of the pressure applied to the fingers at this time.
図13は、情報処理端末13としてARグラスを利用し、実物体21Dとしてフライ返しを利用して、ユーザが調理するときの利用例の一例について説明する図である。 FIG. 13 is a diagram illustrating an example of a user cooking using AR glasses as the information processing terminal 13 and a spatula as the real object 21D.
例えば、ユーザは、情報処理端末13であるARグラスを頭部に装着してレシピ動画像を再生させて、筋電位計測機器12を装着した右手にフライ返しを把持し、左手にフライパンを把持して調理している。このとき、次に入れる材料を確かめるために素材一覧が表示される場面にレシピ動画像を戻したいが、料理が焦げてしまうので両手を離せないというシチュエーションがある。このようなシチュエーションで、ユーザは、フライ返しを把持している右手で、人差し指→中指→親指を順に力んで初期動作を行う。 For example, a user wears AR glasses, which are information processing terminal 13, on their head and plays a recipe video, and is cooking while holding a spatula in their right hand, which is wearing myoelectric potential measuring device 12, and a frying pan in their left hand. At this time, there may be a situation where the user wants to return to the recipe video displaying a list of ingredients to check the next ingredient to be added, but cannot take their hands off the food to avoid burning it. In such a situation, the user performs an initial movement by pressing the index finger, middle finger, and thumb in the right hand holding the spatula, in that order.
このとき、フライ返しを持つ手形状が、記憶部42の登録データに未登録である場合には操作モードとして標準モード(図13のA)が選択される。そして、情報処理端末13であるARグラスには、標準モードの操作内容に従って、図13のBに示すように、それぞれの指に重畳させて、破線で示すような操作ガイドが表示される。つまり、人差し指に重畳するように操作内容「進む」を表す操作ガイドが表示され、中指に重畳するように操作内容「戻る」を表す操作ガイドが表示され、親指に重畳するように操作内容「再生」を表す操作ガイドが表示される。 At this time, if the hand shape holding the spatula is not registered in the registration data of the memory unit 42, the standard mode (A in FIG. 13) is selected as the operation mode. Then, on the AR glasses that are the information processing terminal 13, operation guides as shown by dashed lines are displayed superimposed on each finger according to the operation content of the standard mode, as shown in B in FIG. 13. That is, an operation guide representing the operation content "forward" is displayed superimposed on the index finger, an operation guide representing the operation content "back" is displayed superimposed on the middle finger, and an operation guide representing the operation content "play" is displayed superimposed on the thumb.
従って、ユーザが、フライ返しを持ちながら右手の中指を力ませると、その力状態に応じた操作内容に従ってレシピ動画像の再生位置が30秒ずつ戻され、見たい場面にレシピ動画像の再生位置が戻るまで繰り返して中指を力ませる。そして、ユーザが、見たい場面にレシピ動画像の再生位置が戻ったタイミングで親指を力ませると、その力状態に応じた操作内容に従ってレシピ動画像が再生される。 Therefore, when the user applies pressure to the middle finger of their right hand while holding a spatula, the playback position of the recipe video is rewound by 30 seconds in increments according to the operation content that corresponds to the pressure applied, and the user must repeatedly apply pressure to the middle finger until the playback position of the recipe video returns to the scene they wish to view. Then, when the user applies pressure to their thumb at the moment the playback position of the recipe video returns to the scene they wish to view, the recipe video is played according to the operation content that corresponds to the pressure applied.
なお、端末操作システム11では、ユーザが指を力ませることによる操作の実行が成功した場合に、情報処理端末13であるARグラスによって、映像や音声、振動で通知をしてよい。例えば、図13のCに示すように、ユーザが中指を力ませることによる操作内容「戻る」の実行が成功した場合には、操作ガイドの表示を小さく変化させることで通知することができる。また、例えば、指ごとに異なる色で通知したり、指ごとに異なる音階で通知したりしてもよい。 In addition, in the terminal operation system 11, when the user has successfully executed an operation by applying pressure to the finger, the AR glasses, which are the information processing terminal 13, may notify the user by video, audio, or vibration. For example, as shown in C of FIG. 13, when the user has successfully executed the operation content "back" by applying pressure to the middle finger, the display of the operation guide may be slightly changed to notify the user. Furthermore, for example, the notification may be given in a different color for each finger, or a different musical scale for each finger.
また、端末操作システム11に対する操作開始から時間が経過すると、ユーザが疲労して指を力ませる強さが低下してしまうことが想定されるため、操作開始から時間が経つごとに操作に必要な力の強さの閾値を下げてもよい。 Furthermore, as time passes from the start of operation of the terminal operation system 11, it is expected that the user will become fatigued and the strength of the force applied to their fingers will decrease, so the threshold for the strength of the force required for operation may be lowered as time passes from the start of operation.
例えば、図14のAに示すように、操作を開始してから一定時間が経過していない場合には、棒状の実物体21Eを握るユーザの指に重畳させて表示される操作ガイドを、通常サイズで表示する。その後、図14のBに示すように、操作を開始してから一定時間が経過した場合、操作に必要な力の閾値が下がったことを示すように、棒状の実物体21Eを握るユーザの指に重畳させて表示される操作ガイドを、通常サイズよりも小さく表示する。この場合、逆に、操作ガイドを通常サイズよりも大きく表示させることで、より大きな力で操作するようにユーザに対して頑張りを促すようにしてもよい。 For example, as shown in A of FIG. 14, if a certain amount of time has not passed since the start of the operation, the operation guide superimposed on the user's fingers gripping the rod-shaped real object 21E is displayed in normal size. Then, as shown in B of FIG. 14, if a certain amount of time has passed since the start of the operation, the operation guide superimposed on the user's fingers gripping the rod-shaped real object 21E is displayed smaller than normal size to indicate that the threshold force required for the operation has decreased. In this case, conversely, the operation guide may be displayed larger than normal size to encourage the user to exert more force when operating.
情報処理端末13にカメラが搭載されていて、そのカメラにより実物体21が検出可能な応用例について説明する。 This section explains an application example in which a camera is mounted on the information processing terminal 13 and a real object 21 can be detected using the camera.
例えば、情報処理端末13は、既知の実物体21をカメラで識別した場合、初期動作を行わずに、その既知の実物体21に対応する操作モードを選択することができる。一方、情報処理端末13は、未知の実物体21をカメラで識別した場合、初期動作を行わずに標準モードを選択することができる。また、情報処理端末13は、ARによって重畳表示が可能である場合、カメラで識別した実物体21に重畳させて手のアイコンを表示させるとともに、その実物体21を利用して行うことができる操作の操作内容を表示してもよい。また、情報処理端末13は、カメラによってユーザの手を検出することが可能である場合、筋電位データを用いるだけでなく、カメラにより撮影された手の画像も用いて手指形状を認識することができる。 For example, when the information processing terminal 13 identifies a known real object 21 with a camera, it can select an operation mode corresponding to that known real object 21 without performing any initial operation. On the other hand, when the information processing terminal 13 identifies an unknown real object 21 with a camera, it can select the standard mode without performing any initial operation. Furthermore, when the information processing terminal 13 is capable of superimposing display using AR, it may display a hand icon superimposed on the real object 21 identified with the camera, and may also display the operation details of operations that can be performed using that real object 21. Furthermore, when the information processing terminal 13 is capable of detecting the user's hand with a camera, it can recognize the hand and finger shape not only using myoelectric potential data but also using an image of the hand captured by the camera.
また、情報処理端末13は、ユーザが力ませている指の相対的な位置をカメラによって識別し、その位置に従って処理を変更してもよい。例えば、図15に示すように、キーボードに対する操作が行われる場合、ある位置で人差し指を力ませたときには「J」を入力する操作が行われたとし、その位置から右側に2cmほど平行移動させた位置で人差し指を力ませたときには「K」を入力する操作が行われたとするように、同じ人差し指の力みであっても位置に従って行われる処理を変更ことができる。 In addition, the information processing terminal 13 may use a camera to identify the relative position of the user's finger as it is being pressed, and change the processing according to that position. For example, as shown in FIG. 15, when an operation is performed on a keyboard, when the index finger is pressed at a certain position, it is assumed that an operation to input the letter "J" has been performed, and when the index finger is pressed at a position approximately 2 cm to the right from that position, it is assumed that an operation to input the letter "K" has been performed. In this way, even if the index finger is pressed with the same force, the processing performed can be changed according to the position.
さらに、応用例として、端末操作システム11では、情報処理端末13側で何らかのアクションが起きた直後から一定時間は、操作入力があると想定して初期動作が行われなくても、特定の操作モードを選択して、筋電位データに基づく情報処理端末13に対する操作を受け付けるようにしてよい。そして、特定の操作モードで操作の受け付けが開始されている場合、筋電位データを測定するサンプリング周波数を上げるようにしてもよい。 Furthermore, as an application example, the terminal operation system 11 may select a specific operation mode and accept operations for the information processing terminal 13 based on the myoelectric potential data for a certain period of time immediately after some action occurs on the information processing terminal 13 side, even if no initial operation is performed assuming that an operation input will be made. Then, when operation acceptance has begun in the specific operation mode, the sampling frequency for measuring the myoelectric potential data may be increased.
また、端末操作システム11では、情報処理端末13がスマートフォンである場合、音声メッセージ(電話着信など)があったときには、その後の一定時間は筋電位データに基づく情報処理端末13に対する操作を受け付けるようにしてよい。このとき、筋電位データに基づいて、例えば、応答または拒否の操作が行われることが想定されるため、Yes-Noモード(図9のB参照)を選択することができる。 Furthermore, in the terminal operation system 11, if the information processing terminal 13 is a smartphone, when there is a voice message (such as an incoming phone call), the terminal may be configured to accept operations on the information processing terminal 13 based on the electromyogram data for a certain period of time thereafter. At this time, it is expected that, for example, an operation to answer or reject the call will be performed based on the electromyogram data, so a Yes-No mode (see B in Figure 9) can be selected.
また、端末操作システム11では、ユーザの意図しない操作が行われてしまうことに備えて、直前の操作入力を取り消す操作(キャンセル動作)を、すべての操作モードで利用できるように設定しておくことができる。例えば、キャンセル動作としては、すべての指を開く力状態や、すべての指を力む力状態などを用いることが想定される。さらに、端末操作システム11では、特定の回数以上のキャンセル動作が行われた場合には、取り消す対象となった操作入力を誤検出とみなして、その操作入力に応じた処理が実行されないようにしてもよく、キャンセル動作の結果から学習して操作モードを修正することができる。 Furthermore, in the terminal operation system 11, in preparation for the occurrence of an operation unintended by the user, an operation to cancel the most recent operation input (cancel operation) can be set to be available in all operation modes. For example, the cancel operation can be a force state in which all fingers are spread apart, or a force state in which all fingers are tensed. Furthermore, if the cancel operation is performed a certain number of times or more, the terminal operation system 11 may consider the operation input to be canceled to be a false detection and may prevent the processing corresponding to that operation input from being executed, and may learn from the results of the cancel operation and correct the operation mode.
さらに、端末操作システム11をスポーツ解析に利用することができる。例えば、端末操作システム11は、ゴルフクラブ(実物体21)を把持した際は明示的な操作入力ではなく各指の力の入れ方を保存し、ゴルフの動作として解析を行って「親指の力を抜いてください」などのフィードバックを実行することができる。同様に、端末操作システム11は、運転時のハンドル(実物体21)の持ち方から、ユーザの運転に対する集中度などを計測することができる。 Furthermore, the terminal operation system 11 can be used for sports analysis. For example, when gripping a golf club (real object 21), the terminal operation system 11 can save the way each finger applies force rather than explicit operation input, analyze it as a golfing motion, and provide feedback such as "Relax your thumb." Similarly, the terminal operation system 11 can measure the user's level of concentration on driving from the way the steering wheel (real object 21) is held while driving.
また、端末操作システム11は、実物体21の把持姿勢や、実物体21を把持する際の力の入れ方などから個人を識別することができる。例えば、個人ごとの登録データを参照して処理が実行されるようにしてもよい。 Furthermore, the terminal operation system 11 can identify individuals based on the posture in which the real object 21 is held, the force used when holding the real object 21, and so on. For example, processing may be performed by referencing registered data for each individual.
なお、端末操作システム11は、ユーザの手指形状および指の力状態を特定することができれば、筋電位データを利用する他、筋音や、超音波、電磁波、静電容量などの変化をセンサで検出して取得される計測データを利用してもよい。 In addition, if the terminal operation system 11 can identify the user's finger shape and finger force state, it may use measurement data obtained by using sensors to detect changes in muscle sounds, ultrasound, electromagnetic waves, capacitance, etc., in addition to using myoelectric potential data.
さらに、端末操作システム11は、記憶部42や、演算部43が有する一部のブロックなどが遠隔地のサーバに設けられていてもよく、そのサーバと情報処理端末13とがネットワークを介して常に接続されるように構成することができる。この構成では、情報処理端末13は、有線通信または無線通信などによって遠隔地のサーバと同期する機能を備えることが必要となる。また、この構成では、初期動作の動作形態や、ユーザの手指形状と操作モードとの対応関係、操作モードごとの操作内容などが遠隔地のサーバに保管されているので、異なる情報処理端末13を使用しても、同じ実物体21を利用している場合には同じ操作入力を行うことが可能となる。 Furthermore, the terminal operation system 11 may be configured so that the memory unit 42 and some blocks of the calculation unit 43 are provided on a remote server, and the server and the information processing terminal 13 are constantly connected via a network. In this configuration, the information processing terminal 13 needs to be equipped with a function for synchronizing with the remote server via wired or wireless communication. Also, in this configuration, the operation form of the initial operation, the correspondence between the user's finger shapes and operation modes, the operation content for each operation mode, etc. are stored on the remote server, so even if a different information processing terminal 13 is used, the same operation input can be performed as long as the same real object 21 is being used.
<コンピュータの構成例>
次に、上述した一連の処理(情報処理方法)は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
<Example of computer configuration>
Next, the above-described series of processes (information processing method) can be performed by hardware or software. When the series of processes is performed by software, a program constituting the software is installed in a general-purpose computer or the like.
図16は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。 FIG. 16 is a block diagram showing an example configuration of one embodiment of a computer on which a program that executes the series of processes described above is installed.
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103、およびEEPROM(Electronically Erasable and Programmable Read Only Memory)104は、バス105により相互に接続されている。バス105には、さらに、入出力インタフェース106が接続されており、入出力インタフェース106が外部に接続される。 In a computer, a CPU (Central Processing Unit) 101, ROM (Read Only Memory) 102, RAM (Random Access Memory) 103, and EEPROM (Electronically Erasable and Programmable Read Only Memory) 104 are interconnected by a bus 105. An input/output interface 106 is also connected to the bus 105, and the input/output interface 106 is connected to the outside.
以上のように構成されるコンピュータでは、CPU101が、例えば、ROM102およびEEPROM104に記憶されているプログラムを、バス105を介してRAM103にロードして実行することにより、上述した一連の処理が行われる。また、コンピュータ(CPU101)が実行するプログラムは、ROM102に予め書き込んでおく他、入出力インタフェース106を介して外部からEEPROM104にインストールしたり、更新したりすることができる。 In a computer configured as described above, the CPU 101 loads programs stored in, for example, ROM 102 and EEPROM 104 into RAM 103 via bus 105 and executes them, thereby performing the above-mentioned series of processes. Furthermore, programs executed by the computer (CPU 101) can be written in advance to ROM 102, or can be installed or updated in EEPROM 104 from the outside via input/output interface 106.
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。 In this specification, the processing performed by a computer in accordance with a program does not necessarily have to be performed chronologically in the order described in the flowchart. In other words, the processing performed by a computer in accordance with a program also includes processing that is executed in parallel or individually (for example, parallel processing or object-based processing).
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。 Furthermore, the program may be processed by a single computer (processor), or may be distributed across multiple computers. Furthermore, the program may be transferred to a remote computer for execution.
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 Furthermore, in this specification, a system refers to a collection of multiple components (devices, modules (parts), etc.), regardless of whether all of the components are contained in the same housing. Therefore, multiple devices housed in separate housings and connected via a network, and a single device with multiple modules housed in a single housing, are both systems.
また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。 Furthermore, for example, a configuration described as a single device (or processing unit) may be divided and configured as multiple devices (or processing units). Conversely, configurations described above as multiple devices (or processing units) may be combined and configured as a single device (or processing unit). Furthermore, configurations other than those described above may of course be added to the configuration of each device (or each processing unit). Furthermore, as long as the configuration and operation of the system as a whole are substantially the same, part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit).
また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 Furthermore, for example, this technology can be configured as a cloud computing system in which a single function is shared and processed collaboratively by multiple devices via a network.
また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。 Furthermore, for example, the above-mentioned program can be executed on any device. In that case, it is sufficient if the device has the necessary functions (functional blocks, etc.) and is able to obtain the necessary information.
また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。 Furthermore, for example, each step described in the flowchart above can be executed by a single device, or can be shared and executed by multiple devices. Furthermore, if a single step includes multiple processes, the multiple processes included in that single step can be executed by a single device, or can be shared and executed by multiple devices. In other words, multiple processes included in a single step can be executed as multiple step processes. Conversely, processes described as multiple steps can also be executed collectively as a single step.
なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。 In addition, the processing of the steps that describe a program executed by a computer may be executed chronologically in the order described in this specification, or may be executed in parallel, or individually at the required timing, such as when a call is made. In other words, as long as no contradictions arise, the processing of each step may be executed in an order different from that described above. Furthermore, the processing of the steps that describe this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.
なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。 Note that the multiple present technologies described in this specification can be implemented independently and individually, provided no contradictions arise. Naturally, any multiple present technologies can also be implemented in combination. For example, some or all of the present technologies described in any embodiment can be implemented in combination with some or all of the present technologies described in other embodiments. Furthermore, some or all of any of the present technologies described above can also be implemented in combination with other technologies not described above.
<構成の組み合わせ例>
なお、本技術は以下のような構成も取ることができる。
(1)
任意の実物体を把持または支持した状態のユーザの手および指の動きに応じた計測データを取得する取得部と、
前記計測データに基づいて、ユーザの手指形状および手の力状態を推測し、ユーザの操作に応じた処理を実行する演算部と
を備える情報処理装置。
(2)
前記演算部は、
前記計測データに基づいて、ユーザの手および指の形状を表す手指形状を特定する手指形状特定部と、
前記計測データに基づいて、ユーザの5本の指のうちの力んでいる指、および、その指の力みの強さを表す力状態を特定する力状態特定部と
を有する上記(1)に記載の情報処理装置。
(3)
前記演算部は、前記手指形状特定部によって特定されたユーザの手指形状、および、前記力状態特定部によって特定されたユーザの指の力状態に基づいて、ユーザが初期動作を行ったことを検出する初期動作検出部をさらに有する
上記(2)に記載の情報処理装置。
(4)
前記初期動作には、前記任意の実物体を把持または支持しているユーザが、所定の組み合わせで指を力ませるジェスチャによる動作形態が用いられる
上記(3)に記載の情報処理装置。
(5)
前記演算部は、前記初期動作検出部によってユーザが初期動作を行ったことが検出された場合、前記手指形状特定部によって特定されたユーザの手指形状に対応付けられている操作モードを選択する操作モード選択部をさらに有する
上記(3)に記載の情報処理装置。
(6)
前記演算部は、前記力状態特定部によって特定されたユーザの指の力状態が、前記操作モード選択部によって選択された操作モードにおける操作内容の力状態に対応する力状態であることを検出した場合、その力状態に応じた操作内容に従った処理を実行する操作実行部をさらに有する
上記(5)に記載の情報処理装置。
(7)
前記操作モード選択部は、ユーザの手指形状がハンドルを握っていることが前記手指形状特定部によって特定された場合、操作モードとして地図操作モードを選択する
上記(6)に記載の情報処理装置。
(8)
前記操作実行部は、前記操作モード選択部によって地図操作モードが選択された場合、
人差し指の力みから中指の力みに変化する力状態に応じて「地図の拡大」に対応する操作内容に従った処理を実行し、
中指の力みから人差し指の力みに変化する力状態に応じて「地図の縮小」に対応する操作内容に従った処理を実行し、
親指が連続で力んでいる力状態に応じて「次の案内の再生」に対応する操作内容に従った処理を実行する
上記(7)に記載の情報処理装置。
(9)
前記操作モード選択部は、前記手指形状特定部によって特定されたユーザの手指形状が未登録である場合、操作モードとして標準モードを選択する
上記(6)に記載の情報処理装置。
(10)
前記操作実行部は、前記操作モード選択部によって標準モードが選択された場合、
人差し指が力んでいる力状態に応じて「進む」に対応する操作内容に従った処理を実行し、
中指が力んでいる力状態に応じて「戻る」に対応する操作内容に従った処理を実行し、
親指が力んでいる力状態に応じて「決定」に対応する操作内容に従った処理を実行する
上記(9)に記載の情報処理装置。
(11)
前記操作モード選択部は、ユーザが初期動作を行わなくても、前記手指形状特定部によって特定されたユーザの手指形状が、初期動作時の手指形状と一致している場合、その手指形状に対応した操作モードを選択する
上記(5)から(10)までのいずれかに記載の情報処理装置。
(12)
前記計測データは、ユーザの腕の筋電位を計測した結果として得られる筋電位データである
上記(1)から(11)までのいずれかに記載の情報処理装置。
(13)
前記情報処理装置は、前記筋電位データを出力する筋電位計測機器がバンドに組み込まれたスマートウォッチであり、
前記スマートウォッチの本体に少なくとも前記演算部が設けられる
上記(12)に記載の情報処理装置。
(14)
情報処理装置が、
任意の実物体を把持または支持した状態のユーザの手および指の動きに応じた計測データを取得することと、
前記計測データに基づいて、ユーザの手指形状および手の力状態を推測し、ユーザの操作に応じた処理を実行することと
を含む情報処理方法。
(15)
情報処理装置のコンピュータに、
任意の実物体を把持または支持した状態のユーザの手および指の動きに応じた計測データを取得することと、
前記計測データに基づいて、ユーザの手指形状および手の力状態を推測し、ユーザの操作に応じた処理を実行することと
を含む情報処理を実行させるためのプログラム。
<Configuration combination example>
The present technology can also be configured as follows.
(1)
an acquisition unit that acquires measurement data corresponding to the movement of the user's hand and fingers while grasping or supporting an arbitrary real object;
and a calculation unit that estimates the user's hand shape and hand force state based on the measurement data and executes processing according to the user's operation.
(2)
The calculation unit
a hand and finger posture specifying unit that specifies a hand and finger posture representing the shape of the user's hand and fingers based on the measurement data;
and a force state specifying unit that specifies, based on the measurement data, which of the user's five fingers is straining and a force state that indicates the strength of the strain on that finger.
(3)
The information processing device described in (2) above, wherein the calculation unit further includes an initial movement detection unit that detects that the user has performed an initial movement based on the user's hand shape identified by the hand shape identification unit and the force state of the user's fingers identified by the force state identification unit.
(4)
The information processing device according to (3) above, wherein the initial action is a gesture in which the user, who is holding or supporting the given real object, applies pressure to the fingers in a predetermined combination.
(5)
The information processing device described in (3) above, wherein the calculation unit further includes an operation mode selection unit that, when the initial movement detection unit detects that the user has performed an initial movement, selects an operation mode associated with the user's hand shape identified by the hand shape identification unit.
(6)
The information processing device described in (5) above, wherein the calculation unit further includes an operation execution unit that, when detecting that the force state of the user's finger identified by the force state identification unit is a force state corresponding to the force state of the operation content in the operation mode selected by the operation mode selection unit, executes processing in accordance with the operation content corresponding to the force state.
(7)
The information processing device according to (6) above, wherein the operation mode selection unit selects a map operation mode as the operation mode when the hand posture identification unit identifies that the user's hand posture is gripping a steering wheel.
(8)
When the map operation mode is selected by the operation mode selection unit, the operation execution unit
The system executes the process according to the operation content corresponding to "zooming in on the map" according to the strength state of the index finger, which changes from strength of the middle finger to strength of the index finger.
As the force applied to the finger changes from the middle finger to the index finger, the system executes the operation corresponding to "zooming out the map."
The information processing device according to (7) above, which executes processing according to operation content corresponding to "play next guidance" depending on the force state of the thumb.
(9)
The information processing device according to (6), wherein the operation mode selection unit selects a standard mode as the operation mode when the user's hand posture identified by the hand posture identification unit is unregistered.
(10)
When the standard mode is selected by the operation mode selection unit, the operation execution unit:
Depending on the force applied to the index finger, the system executes the operation corresponding to "Go forward."
Depending on the force applied to the middle finger, the system executes the operation corresponding to "back";
The information processing device according to (9) above, wherein a process is executed according to an operation content corresponding to "decide" depending on a force state of the thumb.
(11)
The information processing device according to any one of (5) to (10) above, wherein, even if the user does not perform an initial operation, when the user's hand shape identified by the hand shape identification unit matches the hand shape at the time of the initial operation, the operation mode selection unit selects an operation mode corresponding to the hand shape.
(12)
The information processing device according to any one of (1) to (11) above, wherein the measurement data is myoelectric potential data obtained as a result of measuring myoelectric potential of the user's arm.
(13)
the information processing device is a smart watch having a band incorporating a myoelectricity measuring device that outputs the myoelectricity data,
The information processing device according to (12) above, wherein at least the calculation unit is provided in a main body of the smartwatch.
(14)
The information processing device
Acquiring measurement data according to the movement of the user's hand and fingers while grasping or supporting an arbitrary real object;
and estimating the user's hand shape and hand force state based on the measurement data, and executing processing according to the user's operation.
(15)
The computer of the information processing device
Acquiring measurement data according to the movement of the user's hand and fingers while grasping or supporting an arbitrary real object;
and estimating the user's hand shape and hand force state based on the measurement data, and executing processing according to the user's operation.
なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 Note that this embodiment is not limited to the above-described embodiment, and various modifications are possible without departing from the spirit of this disclosure. Furthermore, the effects described in this specification are merely examples and are not intended to be limiting, and other effects may also be present.
11 端末操作システム, 12 筋電位計測機器, 13 情報処理端末, 21 実物体, 31 筋電位センサ, 32 信号取得部, 33 信号処理部, 34 通信部, 41 通信部, 42 記憶部, 43 演算部, 51 手指形状特定部, 52 力状態特定部, 53 初期動作検出部, 54 操作モード選択部, 55 操作実行部 11. Terminal operation system, 12. EMG measurement device, 13. Information processing terminal, 21. Real object, 31. EMG sensor, 32. Signal acquisition unit, 33. Signal processing unit, 34. Communication unit, 41. Communication unit, 42. Memory unit, 43. Calculation unit, 51. Hand shape determination unit, 52. Force state determination unit, 53. Initial movement detection unit, 54. Operation mode selection unit, 55. Operation execution unit
Claims (15)
前記計測データに基づいて、ユーザの手指形状および手の力状態を推測し、ユーザの操作に応じた処理を実行する演算部と
を備える情報処理装置。 an acquisition unit that acquires measurement data corresponding to the movement of the user's hand and fingers while grasping or supporting an arbitrary real object;
and a calculation unit that estimates the user's hand shape and hand force state based on the measurement data and executes processing according to the user's operation.
前記計測データに基づいて、ユーザの手および指の形状を表す手指形状を特定する手指形状特定部と、
前記計測データに基づいて、ユーザの5本の指のうちの力んでいる指、および、その指の力みの強さを表す力状態を特定する力状態特定部と
を有する請求項1に記載の情報処理装置。 The calculation unit
a hand and finger posture specifying unit that specifies a hand and finger posture representing the shape of the user's hand and fingers based on the measurement data;
The information processing device according to claim 1 , further comprising: a force state specifying unit that specifies, based on the measurement data, which of the user's five fingers is straining and a force state that indicates the strength of the strain on that finger.
請求項2に記載の情報処理装置。 3. The information processing device according to claim 2, wherein the calculation unit further includes an initial movement detection unit that detects that the user has performed an initial movement, based on the user's hand shape identified by the hand shape identification unit and the force state of the user's fingers identified by the force state identification unit.
請求項3に記載の情報処理装置。 The information processing device according to claim 3 , wherein the initial motion is a motion form based on a gesture in which the user, who is holding or supporting the given real object, applies pressure to the fingers in a predetermined combination.
請求項3に記載の情報処理装置。 4. The information processing device according to claim 3, wherein the calculation unit further comprises an operation mode selection unit that selects an operation mode associated with the user's hand posture identified by the hand posture identification unit when the initial movement detection unit detects that the user has performed an initial movement.
請求項5に記載の情報処理装置。 6. The information processing device according to claim 5, wherein the calculation unit further includes an operation execution unit that, when detecting that the force state of the user's finger identified by the force state identification unit corresponds to a force state of operation content in the operation mode selected by the operation mode selection unit, executes processing in accordance with the operation content corresponding to the force state.
請求項6に記載の情報処理装置。 The information processing device according to claim 6 , wherein the operation mode selection unit selects a map operation mode as the operation mode when the hand posture identification unit identifies that the user's hand posture is gripping a steering wheel.
人差し指の力みから中指の力みに変化する力状態に応じて「地図の拡大」に対応する操作内容に従った処理を実行し、
中指の力みから人差し指の力みに変化する力状態に応じて「地図の縮小」に対応する操作内容に従った処理を実行し、
親指が連続で力んでいる力状態に応じて「次の案内の再生」に対応する操作内容に従った処理を実行する
請求項7に記載の情報処理装置。 When the map operation mode is selected by the operation mode selection unit, the operation execution unit
The system executes the process according to the operation content corresponding to "zooming in on the map" according to the strength state of the index finger, which changes from strength of the middle finger to strength of the index finger.
As the force applied to the finger changes from the middle finger to the index finger, the system executes the operation corresponding to "zooming out the map."
The information processing device according to claim 7 , wherein the device executes a process according to an operation content corresponding to “playback of next guidance” depending on the force state of the thumb.
請求項6に記載の情報処理装置。 The information processing apparatus according to claim 6 , wherein the operation mode selection unit selects a standard mode as the operation mode when the user's hand posture identified by the hand posture identification unit is unregistered.
人差し指が力んでいる力状態に応じて「進む」に対応する操作内容に従った処理を実行し、
中指が力んでいる力状態に応じて「戻る」に対応する操作内容に従った処理を実行し、
親指が力んでいる力状態に応じて「決定」に対応する操作内容に従った処理を実行する
請求項9に記載の情報処理装置。 When the standard mode is selected by the operation mode selection unit, the operation execution unit:
Depending on the force applied to the index finger, the system executes the operation corresponding to "Go forward."
Depending on the force applied to the middle finger, the system executes the operation corresponding to "back";
The information processing device according to claim 9 , wherein the device executes a process according to an operation content corresponding to “decide” depending on the force state of the thumb.
請求項5に記載の情報処理装置。 6. The information processing device according to claim 5, wherein, even if the user does not perform an initial operation, when the user's hand shape identified by the hand shape identification unit matches the hand shape at the time of the initial operation, the operation mode selection unit selects the operation mode corresponding to the hand shape.
請求項1に記載の情報処理装置。 The information processing device according to claim 1 , wherein the measurement data is myoelectric potential data obtained as a result of measuring myoelectric potential of the user's arm.
前記スマートウォッチの本体に少なくとも前記演算部が設けられる
請求項12に記載の情報処理装置。 the information processing device is a smart watch having a band incorporating a myoelectricity measuring device that outputs the myoelectricity data,
The information processing device according to claim 12 , wherein at least the calculation unit is provided in a main body of the smartwatch.
任意の実物体を把持または支持した状態のユーザの手および指の動きに応じた計測データを取得することと、
前記計測データに基づいて、ユーザの手指形状および手の力状態を推測し、ユーザの操作に応じた処理を実行することと
を含む情報処理方法。 The information processing device
Acquiring measurement data according to the movement of the user's hand and fingers while grasping or supporting an arbitrary real object;
and estimating the user's hand shape and hand force state based on the measurement data, and executing processing according to the user's operation.
任意の実物体を把持または支持した状態のユーザの手および指の動きに応じた計測データを取得することと、
前記計測データに基づいて、ユーザの手指形状および手の力状態を推測し、ユーザの操作に応じた処理を実行することと
を含む情報処理を実行させるためのプログラム。 The computer of the information processing device
Acquiring measurement data according to the movement of the user's hand and fingers while grasping or supporting an arbitrary real object;
and estimating the user's hand shape and hand force state based on the measurement data, and executing processing according to the user's operation.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024019597 | 2024-02-13 | ||
| JP2024-019597 | 2024-02-13 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025173525A1 true WO2025173525A1 (en) | 2025-08-21 |
Family
ID=96772953
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2025/002518 Pending WO2025173525A1 (en) | 2024-02-13 | 2025-01-28 | Information processing device, information processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025173525A1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015001978A (en) * | 2013-06-17 | 2015-01-05 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Motion recognition method and apparatus and system using gripped object |
| WO2023157669A1 (en) * | 2022-02-15 | 2023-08-24 | ソニーグループ株式会社 | Information processing device, information processing method, and display device |
-
2025
- 2025-01-28 WO PCT/JP2025/002518 patent/WO2025173525A1/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015001978A (en) * | 2013-06-17 | 2015-01-05 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Motion recognition method and apparatus and system using gripped object |
| WO2023157669A1 (en) * | 2022-02-15 | 2023-08-24 | ソニーグループ株式会社 | Information processing device, information processing method, and display device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10970936B2 (en) | Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment | |
| US11567573B2 (en) | Neuromuscular text entry, writing and drawing in augmented reality systems | |
| US20200097081A1 (en) | Neuromuscular control of an augmented reality system | |
| US12340018B2 (en) | Brain-computer interface | |
| CN104238736B (en) | Apparatus, method and system for motion recognition using grasped objects | |
| JP2021072136A (en) | Methods and devices for combining muscle activity sensor signals and inertial sensor signals for gesture-based control | |
| US8447704B2 (en) | Recognizing gestures from forearm EMG signals | |
| US9585591B2 (en) | Electronic device, information processing apparatus, information processing method and program | |
| US10860104B2 (en) | Augmented reality controllers and related methods | |
| WO2011092549A1 (en) | Method and apparatus for assigning a feature class value | |
| US20250341893A1 (en) | Human interface system | |
| CN114730214A (en) | Human interface device | |
| CN112783326A (en) | Gesture recognition device and gesture recognition system | |
| CN114830069A (en) | Brain computer interface | |
| WO2025173525A1 (en) | Information processing device, information processing method, and program | |
| CN108491074A (en) | Electronic device, exercising support method and Related product | |
| US20250383712A1 (en) | Emotion-based experience | |
| Akumalla | Evaluating appropriateness of EMG and flex sensors for classifying hand gestures | |
| Saponas | Supporting Everyday Activities through Always-Available Mobile Computing | |
| KR20250176759A (en) | Grip strength reflection virtual reality interface based on surface electromyography and method for reflecting grip strength on virtual reality based on surface electromyography | |
| Hanawa et al. | A Study on the Effectiveness of Interactive Systems Using Electromyography | |
| WO2025229840A1 (en) | Biological information detection system, biological information detection method, and program | |
| KR20240154417A (en) | A first wearable electronic device for obtaining a signal including a noise corresponding to a movement of a user, an electronic device for analyzing the signal and method for controlling thereof | |
| Pan et al. | A novel brain-computer interface controller scheme for multimedia control | |
| Saponas | © Copyright 2010 Timothy Scott Saponas |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 25754852 Country of ref document: EP Kind code of ref document: A1 |