[go: up one dir, main page]

WO2025150193A1 - ブレインコンピュータインタフェース訓練システム、訓練装置、訓練方法およびプログラム - Google Patents

ブレインコンピュータインタフェース訓練システム、訓練装置、訓練方法およびプログラム

Info

Publication number
WO2025150193A1
WO2025150193A1 PCT/JP2024/000646 JP2024000646W WO2025150193A1 WO 2025150193 A1 WO2025150193 A1 WO 2025150193A1 JP 2024000646 W JP2024000646 W JP 2024000646W WO 2025150193 A1 WO2025150193 A1 WO 2025150193A1
Authority
WO
WIPO (PCT)
Prior art keywords
command
user
processing unit
training
brain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/JP2024/000646
Other languages
English (en)
French (fr)
Inventor
有信 新島
隆司 伊勢崎
琢也 神田
昂平 梅沢
幸生 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to PCT/JP2024/000646 priority Critical patent/WO2025150193A1/ja
Publication of WO2025150193A1 publication Critical patent/WO2025150193A1/ja
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • One aspect of the present invention relates to a system for training a brain-computer interface used to operate a computer using brain waves, as well as a training device, training method, and program used in the system.
  • BCI Brain-Computer Interface
  • a method is used in which the type of command that is recalled in a person's brain and the brainwave pattern at that time are learned as a set, and the type of command recalled is estimated based on the measured brainwave pattern.
  • a typical method of inputting commands is motor imagery. For example, different brainwave patterns are observed when imagining moving the right hand and when imagining moving the left hand, so if a different command is associated with each motor imagery, it is possible to input commands to the BCI.
  • Non-Patent Document 1 proposes a technology for users who are unable to input commands properly into the BCI, in which the user is asked to imagine the movement while holding a ball, making it easier for the user to imagine the movement and enabling the BCI to recognize the command with high accuracy.
  • Non-Patent Document 1 Even when the technology described in Non-Patent Document 1 is applied, there are individual differences in the adaptability of users to motor imagery, so there are cases in which sufficient estimation accuracy cannot be obtained compared to people who can perform motor imagery appropriately.
  • the accuracy of estimating commands by BCI is determined by the difference in EEG patterns due to motor imagery, it is necessary to use body parts with large movements, such as the right and left hands, as the body parts used for motor imagery. For this reason, it is difficult to use the movements of body parts with only slight differences in movement, such as moving one of the five fingers of the right hand, for motor imagery.
  • This invention was made with the above in mind, and aims to provide technology that enables highly accurate command estimation by reducing the decline in accuracy of command estimation caused by individual differences in recollection behavior and differences in the body parts associated with recollection behavior.
  • one aspect of the brain-computer interface training device or training method acquires data representing an action corresponding to a command recalled by a user, determines the type of the corresponding command based on the acquired data representing the action, selects a sensory stimulus previously associated with the determined type of command, and executes processing to give the selected sensory stimulus to the user. Then, the user's brain wave pattern when the sensory stimulus is given is acquired, a command estimation model is generated using a set of the input type of command and the acquired brain wave pattern as learning data, and the generated command estimation model is stored.
  • conditioning training is performed using sensory stimuli for actions corresponding to commands recalled by the user, and a command estimation model is generated using the results as learning data. Therefore, even if the component of the action itself corresponding to the recall is small, it is possible to obtain an electroencephalogram pattern that reflects the conditioned reflex caused by sensory stimuli and shows significant differences for each action, making it possible to improve the accuracy of command estimation when multiple types of actions are selectively imagined and multiple types of commands are input. As a result, even if the user recalls a small motor movement, for example, moving any finger, the brain-computer interface can accurately estimate the type of command that was input.
  • the characteristics of the brainwave pattern corresponding to the command recalled by the user become more prominent.
  • a user who is not good at actions associated with recall such as motor recall, will generate an brainwave pattern with prominent characteristics, thereby reducing the impact of individual differences in users' actions associated with recall, and making it possible for any user to input commands with high accuracy through recall.
  • FIG. 1 is a block diagram showing an example of a brain-computer interface training system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the software configuration of the brain-computer interface training device according to an embodiment of the present invention.
  • FIG. 3 is a flowchart showing an example of a processing procedure and processing contents of training control executed by the control unit of the brain-computer interface training device shown in FIG.
  • One embodiment of the present invention is a brain-computer interface (hereinafter referred to as BCI) that uses motor imagery as a recall action for inputting commands, in which sensory stimuli are used for conditioning to produce a conditioned reflex in the brain, thereby increasing the changes in electroencephalogram patterns corresponding to the motor imagery.
  • BCI brain-computer interface
  • conditioning training is performed for multiple types of motor imagery corresponding to each command using different sensory stimuli consisting of visual, auditory, tactile, olfactory and gustatory stimuli from the user, resulting in noticeable changes in the brainwave patterns corresponding to each motor imagery.
  • a visual stimulus e.g., a light stimulus
  • an auditory stimulus e.g., a beep
  • the brain's responses change so that the visual cortex reacts when the user imagines moving the right hand, and the auditory cortex reacts when the user imagines moving the left hand.
  • the user's brain's visual cortex will react even without a visual stimulus when imagining moving the right hand
  • the auditory cortex will react even without an auditory stimulus when imagining moving the left hand.
  • the tactile, olfactory, and gustatory areas are each located in different parts of the brain. For this reason, for example, by performing conditioning training for five types of motor imagery using stimulation of each of the five senses, it is possible to highlight the differences in the EEG patterns corresponding to the five types of motor imagery, thereby improving the estimation accuracy of the BCI for command input using the five types of motor imagery.
  • commands based on motor imagery are identified based on differences in EEG patterns caused by conditioned reflexes in response to sensory stimuli. Therefore, BCI can estimate commands even if the EEG pattern of the motor imagery itself is small. For example, even if a user imagines a small physical movement, such as moving one finger, it is possible to accurately estimate the type of command.
  • a user is conditioned to be trained to present visual stimuli when imagining moving the thumb, auditory stimuli when imagining moving the index finger, tactile stimuli when imagining moving the middle finger, olfactory stimuli when imagining moving the ring finger, and taste stimuli when imagining moving the little finger, and the BCI learns the results.
  • the BCI learns the results.
  • the sensory areas corresponding to each image react, generating brainwave patterns with striking differences between them.
  • the BCI can accurately identify commands based on the user's motor imagery using the five fingers from the differences in these brainwave patterns.
  • five types of commands are input using the image of selectively moving five fingers, but different commands may be input using the image of selectively moving two or more fingers, or arm movements may be used in combination with the movements of multiple fingers, or multiple types of commands may be associated with the movements of not only the arms and fingers, but also the legs, neck, eyes, mouth, etc.
  • FIG. 1 is a block diagram showing an example of the configuration of a BCI training system according to an embodiment of the present invention.
  • the BCI training system has as its core a BCI training device CS, which may be a personal computer.
  • a data glove GS and an electroencephalogram sensor BS are connected as sensing devices, and a display device DP, a speaker SP, an electrical stimulation generator ES, an aroma diffuser AD, and an electrical taste generator ET are also connected as devices for generating sensory stimuli.
  • the data glove GS is worn on the five fingers of the user who is to be trained, detects the movements of each of the user's five fingers, and outputs glove sensor data representing the detection results to the BCI training device CS.
  • the speaker SP is, for example, a speaker provided in the BCI training device CS, and provides the user with auditory stimulation through sound by amplifying and outputting the sound signal generated in the BCI training device CS.
  • the electrical stimulation generator ES is worn in contact with the skin, for example on the user's arm, and provides tactile stimulation to the user by generating electrical stimulation of the skin in accordance with the electrical stimulation generation signal output from the BCI training device CS.
  • the BCI training device CS has a control unit 1 that uses a hardware processor such as a central processing unit (CPU), and this control unit 1 is connected via a bus 6 to a storage unit having a program storage unit 2 and a data storage unit 3, a sensor interface (hereinafter the interface will be abbreviated as I/F) unit 4, and an input/output I/F unit 5.
  • a hardware processor such as a central processing unit (CPU)
  • I/F sensor interface
  • I/F input/output I/F unit 5
  • the data glove GS and the brain wave sensor BS are connected to the sensor I/F unit 4 via, for example, a signal cable.
  • the sensor I/F unit 4 receives the glove sensor data output from the data glove GS and the brain wave measurement data output from the brain wave sensor BS.
  • step S13 the sensory stimulus generation processing unit 13 reads out sensory stimulus control data representing the type of sensory stimulus corresponding to the type of command determined by the command determination processing unit 12 from the stimulus control data storage unit 32. Then, the sensory stimulus generation processing unit 13 outputs the read sensory stimulus control data from the input/output I/F unit 5 to one of multiple devices for generating stimuli.
  • the sensory stimulus generation processing unit 13 outputs a light emission signal for generating a visual stimulus from the input/output I/F unit 5 to the display device DP.
  • a flash of light is generated from the display device DP, and a visual stimulus is given to the user.
  • the sensory stimulus generation processing unit 13 outputs a sound signal for generating an auditory stimulus from the input/output I/F unit 5 to the speaker SP.
  • a beep is generated from the speaker SP, providing the auditory stimulus to the user.
  • the sensory stimulus generation processing unit 13 outputs an aroma generation signal for generating an olfactory stimulus from the input/output I/F unit 5 to the aroma diffuser AD.
  • aroma is sprayed from the aroma diffuser AD, providing the user with an olfactory stimulus.
  • the sensory stimulus generation processing unit 13 outputs an electric gustatory signal for generating a taste stimulus from the input/output I/F unit 5 to the electric gustatory generator ET.
  • the electric gustatory generator ET provides the user with an electric gustatory stimulus.
  • the control unit 1 of the BCI training device CS repeats the series of data collection processes in steps S11 to S16 for each type of command, multiple times, each time the user moves the finger corresponding to that type of command, under the control of the training control unit 10.
  • the number of repetitions is set to the number of times required for learning the command estimation model, and the repetition period is set to, for example, 4 seconds.
  • the training control unit 10 determines in step S15 whether the multiple data collection processes for each command have been completed, and if it determines that they have been completed, it instructs the command estimation model learning processing unit 15 to perform the learning process.
  • step S17 the command estimation model learning processing unit 15 reads out, for each command type, a plurality of sets of command types and corresponding electroencephalogram patterns stored in the command type determination data storage unit 31 and the electroencephalogram pattern storage unit 33. Then, the command estimation model learning processing unit 15 trains the command estimation model using the plurality of sets read out.
  • the command estimation model learning processing unit 15 stores the learned command estimation model parameters in the command estimation model storage unit 34.
  • the learning algorithm for example, deep learning is used as the learning algorithm, but other machine learning algorithms may also be used.
  • the control unit 1 of the BCI training device CS performs training for other users to be trained by following the same processing procedure, conditioning sensory stimuli for each type of command corresponding to finger movements, and uses the resulting sets of command types and electroencephalogram patterns as training data to learn a command estimation model. Then, when an instruction to end training is detected in step S18, the control unit 1 of the BCI training device CS ends the training control under the control of the training control unit 10 and returns to a standby state.
  • the electroencephalogram measurement data acquisition processing unit 14 identifies the electroencephalogram pattern from the acquired electroencephalogram measurement data. Then, the control unit 1 inputs the identified electroencephalogram pattern features as explanatory variables into the corresponding command estimation model, and acquires information indicating the type of command output as a target variable from the command estimation model.
  • the measured brain waves reflect the image of moving a finger, but are also highly variable signals that reflect the conditioned reflex caused by sensory stimuli applied in prior conditioning training. Therefore, the brain wave pattern identification process makes it possible to identify the brain wave pattern with high accuracy, and as a result, the command estimation model is able to estimate the type of input command with high accuracy.
  • conditioning training using sensory stimuli results in more pronounced brainwave pattern characteristics.
  • brainwave patterns with more pronounced characteristics, which reduces the impact of individual differences in motor recall and enables any user to input commands with precision by imagining moving their fingers.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

この発明の一態様は、ユーザが想起する命令に対応する行為を表すデータを取得し、取得した前記行為を表すデータをもとに対応する前記命令の種類を判定し、判定された前記命令の種類に予め対応付けられた感覚刺激を選択して、選択した前記感覚刺激を前記ユーザに付与するための処理を実行する。そして、前記感覚刺激を付与したときの前記ユーザの脳波パターンを取得し、入力された前記命令の種類と取得された前記脳波パターンとのセットを学習データとして用いて命令推定モデルを生成し、生成された前記命令推定モデルを記憶するようにしたものである。

Description

ブレインコンピュータインタフェース訓練システム、訓練装置、訓練方法およびプログラム
 この発明の一態様は、脳波を使ってコンピュータを操作するために用いるブレインコンピュータインタフェースを訓練するためのシステムと、このシステムで使用される訓練装置、訓練方法およびプログラムに関する。
 想起された操作命令を脳波の違いによって推定する技術が知られている。この技術は、ブレインコンピュータインタフェース(Brain-Computer Interface:BCI)と呼ばれる。この技術を用いることで、脳波を使ってコンピュータを操作することが可能となるため、特に身体の不自由な人がコンピュータを簡便に操作できるようになると期待されている。
 BCIを使用するには、例えば人の脳内で想起される命令の種類とその時の脳波パターンとをセットで学習しておき、測定された脳波パターンをもとに、想起された命令の種類を推定する手法が用いられる。命令の入力手法として代表的なものに運動想起があげられる。例えば、右手を動かすイメージと左手を動かすイメージとで異なる脳波パターンが観察されることから、それぞれの運動想起に別々の命令を対応付けておけば、BCIに対し命令を入力することが可能となる。
 しかし、運動想起を用いた命令の入力手法は、ユーザによって運動想起を適切に使える場合と使えない場合とがある。そのため、ユーザの運動想起を用いて入力した命令を精度良く推定できるようにBCIを訓練する手法が必要となる。
 そこで、例えば非特許文献1では、BCIに命令を適切に入力できないユーザのために、ユーザにボールを握らせながら運動を想起させることで、ユーザが運動想起を行いやすくして、BCIが高い精度で命令を認識できるようにする技術が提案されている。
 ところが、非特許文献1に記載された技術を適用しても、運動想起に対するユーザの適応力には個人差があるため、適切に運動想起を行える人に比べて十分な推定精度が得られない場合がある。また、BCIによる命令の推定精度は運動想起による脳波パターンの違いにより決定されるため、運動想起に使用する身体部位としては、例えば右手と左手というような動きの大きな身体部位を用いる必要がある。このため、例えば右手の5本の指のどれか1本を動かすというように、動きの違いがわずかな身体部位の動きを、運動想起に用いることは難しい。
 この発明は上記事情に着目してなされたもので、想起行為に対する個人差および想起行為に対応付けられる身体部位の相違による命令の推定精度の低下を軽減して、高精度の命令推定を可能にする技術を提供しようとするものである。
 上記課題を解決するためにこの発明に係るブレインコンピュータインタフェース訓練装置または訓練方法の一態様は、ユーザが想起する命令に対応する行為を表すデータを取得し、取得した前記行為を表すデータをもとに対応する前記命令の種類を判定し、判定された前記命令の種類に予め対応付けられた感覚刺激を選択して、選択した前記感覚刺激を前記ユーザに付与するための処理を実行する。そして、前記感覚刺激を付与したときの前記ユーザの脳波パターンを取得し、入力された前記命令の種類と取得された前記脳波パターンとのセットを学習データとして用いて命令推定モデルを生成し、生成された前記命令推定モデルを記憶するようにしたものである。
 この発明の一態様によれば、ユーザが想起する命令に対応する行為に対し感覚刺激を用いて条件付け訓練が行われ、その結果を学習データとして用いて命令推定モデルが生成される。従って、想起に対応する行為そのものの成分は小さくても、感覚刺激による条件反射が反映された、行為ごとに違いが顕著な脳波パターンを得ることができ、これにより複数種類の行為を選択的にイメージして複数種類の命令を入力したときの命令の推定精度を高めることが可能となる。この結果、ユーザが例えば任意の手指を動かすという動きの小さな運動想起を行った場合でも、ブレインコンピュータインタフェースが入力された命令の種類を精度良く推定することが可能となる。
 また、感覚刺激を用いた条件付け訓練を事前に行うことで、ユーザが想起した命令に対応する脳波パターンの特徴が顕著になる。この結果、例えば運動想起等の想起に対応付けた行為が苦手なユーザでも特徴が顕著な脳波パターンが発生されることになり、これにより想起に対応付けた行為に対するユーザの個人差の影響を軽減して、どのユーザでも想起により精度良く命令を入力することが可能となる。
 すなわちこの発明の一態様によれば、想起行為に対する個人差および想起行為に対応付けられる身体部位の相違による命令の推定精度の低下を軽減して、高精度の命令推定を可能にする技術を提供することができる。
図1は、この発明の一実施形態に係るブレインコンピュータインタフェース訓練システムの一例を示すブロック図である。 図2は、この発明の一実施形態に係るブレインコンピュータインタフェース訓練装置のソフトウェア構成を示すブロック図である。 図3は、図2に示したブレインコンピュータインタフェース訓練装置の制御部が実行する訓練制御の処理手順と処理内容の一例を示すフローチャートである。
 以下、図面を参照してこの発明に係わる実施形態を説明する。
 [一実施形態]
 (概要)
 この発明の一実施形態は、命令を入力するための想起行為として運動想起を用いたブレインコンピュータインタフェース(以後BCIと呼称する)を訓練する際に、感覚刺激を用いて条件付けを行うことで脳の条件反射を生じさせ、運動想起に対応する脳波パターンの変化を増加させるようにしたものである。
 すなわち、BCIの訓練期間において、それぞれの命令に対応する複数種の運動想起に対し、ユーザの視覚刺激、聴覚刺激、触覚刺激、嗅覚刺激および味覚刺激からなる異なる感覚刺激を用いて条件付け訓練を行い、各運動想起に対応する脳波パターンの変化を顕著にする。
 一例を述べると、訓練期間において、右手を動かす状態をイメージするときに、ユーザに視覚刺激(例えば光刺激)を提示し、左手を動かす状態をイメージするときに、ユーザに聴覚刺激(例えばビープ音)を提示する。このような条件付け訓練を繰り返すと、ユーザは右手を動かす状態をイメージしたときに視覚野が反応し、左手を動かす状態をイメージしたときに聴覚野が反応するように、脳の反応がそれぞれ変化していく。そして、条件付け訓練後において、ユーザの脳は、右手を動かす状態をイメージすると視覚刺激がなくても視覚野が反応し、左手を動かす状態をイメージすると聴覚刺激がなくても聴覚野が反応するようになる。
 ここで、視覚野は後頭葉に位置し、聴覚野は側頭葉に位置する。このため、条件付け訓練後においてユーザの脳は、右手を動かす状態をイメージしたときと左手を動かす状態をイメージしたときとで発生する脳波パターンの違いが顕著になり、この結果BCIによる命令の推定精度は向上する。
 同様に、触覚野、嗅覚野および味覚野もそれぞれ脳の異なる部位に存在する。このため、例えば五感刺激それぞれを用いて5種類の運動想起に対し条件付け訓練を行うことで、5種類の運動想起に対応する脳波パターンの違いを顕著にすることができ、これにより5種類の運動想起を用いた命令入力に対するBCIの推定精度を高めることが可能となる。
 従って、この発明の一実施形態によれば、ユーザごとにそれぞれ上記した条件付け訓練を行ってその結果をBCIに学習させることで、ユーザの運動想起に対する個人差を軽減することが可能となり、どのユーザが運動想起を用いて命令を入力しても、BCIは命令を高精度に推定することが可能となる。
 また、この発明の一実施形態では、感覚刺激に対する条件反射による脳波パターンの違いをもとに運動想起による命令を識別している。このため、BCIは、運動想起そのものの脳波パターンは小さくても命令を推定することができ、例えばユーザが手の指を1本動かすという動きの小さな身体動作をイメージした場合でも、命令の種類を精度良く推定することが可能となる。
 例えば、親指を動かす状態をイメージしたときに視覚刺激を、人差し指を動かす状態をイメージしたときに聴覚刺激を、中指を動かす状態をイメージしたときに触覚刺激を、薬指を動かす状態をイメージしたときに嗅覚刺激を、小指を動かす状態をイメージしたときに味覚刺激を、それぞれ提示するようにユーザに対し条件付け訓練を行い、その結果をBCIに学習させる。このようにすると、ユーザが5本の各指を動かす状態をイメージしたとき、それぞれのイメージに対応した感覚野が反応し、それぞれ違いが顕著な脳波パターンが発生する。その結果BCIは、これらの脳波パターンの相違からユーザの5本の指を用いた運動想起による命令を精度良く識別することが可能となる。
 なお、以上の例は5本の指を選択的に動かすイメージを用いて5種類の命令を入力する場合を例にとって説明したが、4本以下2本以上の指を選択的に動かすイメージを用いて異なる命令を入力するようにしてもよいし、腕の動きと複数の指の動きを併用したり、腕および手指だけでなく両脚や首、目、口の動き等に複数種類の命令を対応付けてイメージするようにしてもよい。
 (構成例)
 (1)システム
 図1は、この発明の一実施形態に係るBCI訓練システムの構成の一例を示すブロック図である。
 この発明の一実施形態に係るBCI訓練システムは、例えばパーソナルコンピュータからなるBCI訓練装置CSを中核して備える。そして、このBCI訓練装置CSに対し、センシングデバイスとしてのデータグローブGSおよび脳波センサBSをそれぞれ接続し、さらに感覚刺激発生用のデバイスとしての表示デバイスDP、スピーカSP、電気刺激発生器ES、アロマディフューザADおよび電気味覚発生器ETをそれぞれ接続するようにしたものである。
 データグローブGSは、訓練対象となるユーザの5本の手指に装着され、ユーザの5本の手指の動きをそれぞれ検出してその検出結果を表すグローブセンサデータをBCI訓練装置CSへ出力する。
 脳波センサBSは、上記ユーザの頭部に装着され、ユーザの脳の異なる部位から発生する脳波をそれぞれ測定して、その測定データをBCI訓練装置CSへ出力する。
 表示デバイスDPは、例えばBCI訓練装置CSが備えるディスプレイからなり、BCI訓練装置CSにおいて生成される発光信号を表示することにより、上記ユーザに対し光による視覚的な刺激を与える。
 スピーカSPは、例えばBCI訓練装置CSが備えるスピーカからなり、BCI訓練装置CSにおいて生成される鳴音信号を拡声出力することにより、上記ユーザに対し音による聴覚刺激を与える。
 電気刺激発生器ESは、例えば上記ユーザの腕などにおいて皮膚に接触する状態で装着され、BCI訓練装置CSから出力される電気刺激発生信号に従い皮膚電気刺激を発生することにより、ユーザに対し触覚刺激を与える。
 アロマディフューザADは、例えば上記ユーザの顔に近い位置に配置され、BCI訓練装置CSから出力される香気発生信号に従い香気を発生することにより、ユーザに対し嗅覚刺激を与える。
 電気味覚発生器ETは、例えば上記ユーザの口腔内において舌に接触するように配置され、BCI訓練装置CSから出力される電気味覚発生信号に応じて電気味覚を発生することにより、ユーザに対し味覚刺激を与える。
 (2)BCI訓練装置CS
 図2は、この発明の一実施形態に係るBCI訓練装置CSのソフトウェア構成を示すブロック図である。
 BCI訓練装置CSは、図1および図2に示すように、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを使用した制御部1を備え、この制御部1に対し、バス6を介して、プログラム記憶部2およびデータ記憶部3を有する記憶ユニットと、センサインタフェース(以後インタフェースをI/Fと略称する)部4と、入出力I/F部5とを接続したものとなっている。
 センサI/F部4には、上記データグローブGSおよび脳波センサBSが、例えば信号ケーブルを介して接続される。センサI/F部4は、上記データグローブGSから出力されるグローブセンサデータと、脳波センサBSから出力される脳波測定データをそれぞれ受信する。
 入出力I/F部5には、上記表示デバイスDP、スピーカSP、電気刺激発生器ES、アロマディフューザADおよび電気味覚発生器ETが、例えば信号ケーブルを介して接続される。入出力I/F部5は、上記表示デバイスDP、スピーカSP、電気刺激発生器ES、アロマディフューザADおよび電気味覚発生器ETに対し、それぞれ制御部1の制御の下で、発光信号、鳴音信号、電気刺激発生信号、香気発生信号および電気味覚発生信号を出力する。
 なお、センサI/F部4と脳波センサBSおよびデータグローブGSとの間、および入出力I/F部5と、表示デバイスDP、スピーカSP、電気刺激発生器ES、アロマディフューザADおよび電気味覚発生器ETとの間の接続手段としては、信号ケーブル以外に、Bluetooth(登録商標)等の小電力型の無線インタフェースを使用してもよい。無線インタフェースを使用することで、訓練を受ける際のユーザの負荷を軽減することが可能となる。
 プログラム記憶部2は、例えば、記憶媒体としてHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM(Read Only Memory)等の不揮発性メモリとを組み合わせたもので、OS(Operating System)等のミドルウェアに加えて、この発明の一実施形態に係る各種処理を実行するために必要なアプリケーション・プログラムを格納する。
 データ記憶部3は、例えば、記憶媒体としてHDDまたはSSD等の随時書込みおよび読出しが可能な不揮発性メモリとRAM(Random Access Memory)等の揮発性メモリと組み合わせたもので、その記憶領域には、命令種別判定データ記憶部31と、刺激制御データ記憶部32と、脳波パターン記憶部33と、命令推定モデル記憶部34とが設けられている。
 命令種別判定データ記憶部31は、ユーザが動かした指の種類の判定データをその検出時刻を表すデータと共に、命令の種別を表す情報としてユーザの識別情報(以後ユーザIDと称する)に対応付けて保存する。
 刺激制御データ記憶部32には、ユーザが動かした指の種類に対応付けて、刺激の種類とその刺激内容を表す感覚刺激制御データが事前に記憶されている。
 脳波パターン記憶部33は、ユーザの脳波測定データから検出された脳波パターンを、その検出時刻を表すデータと共に、ユーザIDに対応付けて保存する。
 命令推定モデル記憶部34は、学習済みのBCI命令推定モデルに係るパラメータを記憶する。BCI命令推定モデルには、例えばニューラルネットワークを用いた機械学習モデルが用いられるが、SVM(Support Vector Machine)等のその他の機械学習モデルが用いられてもよい。
 制御部1は、この発明の一実施形態に係る処理機能部として、訓練全体を統括的に制御する訓練制御部10と、この訓練制御部10の制御の下でそれぞれ処理を実行する、グローブセンサデータ取得処理部11、命令判定処理部12、感覚刺激発生処理部13、脳波測定データ取得処理部14および命令推定モデル学習処理部15とを備えている。
 上記訓練制御部10および上記各処理部10~15は、何れもプログラム記憶部2に格納されたアプリケーション・プログラムを制御部1のハードウェアプロセッサに実行させることにより実現される。なお、上記訓練制御部10および上記各処理部11~15の一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。
 グローブセンサデータ取得処理部11は、訓練対象のユーザが命令の種類に対応する手指を動かすごとに、データグローブGSから出力されるグローブセンサデータをセンサI/F部4を介して受信する。グローブセンサデータは、上記訓練対象ユーザの手指の動きを表す。
 命令判定処理部12は、上記グローブセンサデータが受信されるごとに、当該グローブセンサデータをもとにユーザが動かした指の種類を判定し、判定した指の種類を表す情報をその検出時刻を表す情報と共に、訓練用の命令の種類を表す情報としてユーザIDに対応付けて命令種別判定データ記憶部31に保存する。
 感覚刺激発生処理部13は、上記命令判定処理部12により命令の種類が判定されるごとに、当該命令の種類に対応付けられた感覚刺激制御データを刺激制御データ記憶部32から読み込む。そして、感覚刺激発生処理部13は、読み込んだ上記感覚刺激制御データに従い、入出力I/F部5から表示デバイスDP、スピーカSP、電気刺激発生器ES、アロマディフューザADおよび電気味覚発生器ETの何れかに対し、刺激を発生させるための信号を出力する。
 脳波測定データ取得処理部14は、上記刺激を発生するための信号が出力されるごとに、その出力時点から一定期間内に脳波センサBSから出力される脳波測定データをセンサI/F部4を介して取得する。そして、脳波測定データ取得処理部14は、取得した上記脳波測定データから脳波パターンを識別して、識別した脳波パターンの種類を表すデータを脳波の検出時刻を表す情報と共に、ユーザIDに対応付けて脳波パターン記憶部33に保存する。
 訓練制御部10は、命令の種類ごとに、例えば5本それぞれの手指ごとに、上記グローブセンサデータ取得処理部11乃至命令推定モデル学習処理部15による一連の処理を、予め設定した複数回繰り返し実行させる。そして、訓練制御部10は、上記命令種別判定データ記憶部31および脳波パターン記憶部33に、命令推定モデルの学習に必要十分な数の命令の種類と脳波パターンとのセットを蓄積させる。
 命令推定モデル学習処理部15は、命令の種類ごとに、上記命令種別判定データ記憶部31および脳波パターン記憶部33から、命令の種類と脳波パターンとの複数のセットを読み出し、読み出した複数のセットを学習データとして用いて命令推定モデルを学習させる。そして、命令推定モデル学習処理部15は、学習済みの上記命令推定モデルを表すパラメータを命令推定モデル記憶部34に記憶する。
 (動作例)
 次に、以上のように構成されたBCI訓練装置CSの動作例を説明する。
 ここでは、5本の手指の各々を動かすイメージをそれぞれ命令とし、訓練期間には上記命令の入力手法として5本の手指をわずかに動かす手法を用いる場合を例にとって説明を行う。
 図3は、BCI訓練装置CSの制御部1が実行する訓練制御に係わる一連の処理手順と処理内容の一例を示すフローチャートである。
 (1)訓練用の命令の入力
 訓練に先立ち、訓練対象のユーザの身体各部には、脳波センサBS、データグローブGS、電気刺激発生器ESおよび電気味覚発生器ETを装着し、さらにユーザの近傍にアロマディフューザADを配置する。
 この状態で、訓練対象のユーザが図示しない入力デバイスを操作してBCI訓練装置CSに訓練開始要求を入力したとする。BCI訓練装置CSの制御部1は、ステップS10により上記訓練開始要求を検知すると、上記訓練対象のユーザに対し訓練用の命令として手指を動かすように指示する。その指示手法としては、例えば表示デバイスDPにメッセージを表示する手法を用いてもよいし、例えばスピーカSPから音声メッセージを出力する手法を用いてもよい。
 上記指示に対しユーザが、脳内で例えば先ず親指を動かすことをイメージしながら当該親指をわずかに動かすと、このときの親指の動きがデータグローブGSにより検出され、グローブセンサデータとしてBCI訓練装置CSに入力される。
 BCI訓練装置CSの制御部1は、グローブセンサデータ取得処理部11の制御の下、ステップS11で上記グローブセンサデータを受信すると、命令判定処理部12の制御の下、ステップS12において、受信された上記グローブセンサデータをもとにユーザが動かした指の種類を判定する。そして、命令判定処理部12は、判定した指の種類をその検出時刻を表す情報と共に、命令の種類の判定情報としてユーザIDに対応付けて命令種別判定データ記憶部31に保存する。
 (2)感覚刺激の付与
 BCI訓練装置CSの制御部1は、次に上記指を動かすイメージに条件付けをするために、感覚刺激発生処理部13の制御の下、ユーザに対し動かした指に対応する命令の種類に対し事前に決められた感覚刺激を与えるための処理を実行する。
 すなわち、感覚刺激発生処理部13は、ステップS13において、上記命令判定処理部12により判定された命令の種類に対応する感覚刺激の種類を表す感覚刺激制御データを刺激制御データ記憶部32から読み出す。そして、感覚刺激発生処理部13は、読み出した上記感覚刺激制御データを、入出力I/F部5から刺激を発生するための複数のデバイスのいずれかへ出力する。
 例えば、いま親指を動かすイメージに対応する命令の種類に対し、視覚刺激が対応付けられていたとする。この場合、感覚刺激発生処理部13は、視覚刺激を発生させるための発光信号を入出力I/F部5から表示デバイスDPへ出力する。この結果、表示デバイスDPから例えばフラッシュ光が発生し、ユーザに対し視覚刺激が与えられる。
 また、例えば人差し指を動かすイメージに対応する命令の種類に対し、聴覚刺激が対応付けられていたとすると、感覚刺激発生処理部13は、聴覚刺激を発生させるための鳴音信号を入出力I/F部5からスピーカSPへ出力する。この結果、スピーカSPから例えばビープ音が発生され、ユーザに対し聴覚刺激が与えられる。
 さらに、例えば中指を動かすイメージに対応する命令の種類に対し、触覚刺激が対応付けられていたとすると、感覚刺激発生処理部13は、触覚刺激を発生させるための電気刺激信号を入出力I/F部5から電気刺激発生器ESへ出力する。この結果、電気刺激発生器ESによりユーザの腕の皮膚に電気刺激による触覚刺激が与えられる。
 またさらに、例えば薬指を動かすイメージに対応する命令の種類に対し、嗅覚刺激が対応付けられていたとすると、感覚刺激発生処理部13は、嗅覚刺激を発生させるための香気発生信号を入出力I/F部5からアロマディフューザADへ出力する。この結果、アロマディフューザADからアロマが噴射され、ユーザに対し嗅覚刺激が与えられる。
 同様に、例えば小指を動かすイメージに対応する命令の種類に対し、味覚刺激が対応付けられていたとすると、感覚刺激発生処理部13は、味覚刺激を発生させるための電気味覚信号を入出力I/F部5から電気味覚発生器ETへ出力する。この結果、電気味覚発生器ETによりユーザに対し電気味覚による味覚刺激が与えられる。
 (3)脳波パターンの検出
 ユーザに対し上記感覚刺激を付与すると、BCI訓練装置CSの制御部1は、続いてステップS14において、脳波測定データ取得処理部14の制御の下、上記感覚刺激の付与時点から一定時間内に、脳波センサBSから出力されるユーザの脳波測定データをセンサI/F部4を介して受信する。そして、脳波測定データ取得処理部14は、受信した上記脳波測定データから脳波パターンを識別し、識別した脳波パターンをその検出時刻を表す情報と共に、ユーザIDに対応付けて脳波パターン記憶部33に保存する。
 (4)命令の種類ごとの繰り返し処理
 BCI訓練装置CSの制御部1は、訓練制御部10の制御の下、それぞれの命令の種類について、ユーザが当該命令の種類に対応する指を動かすごとに上記ステップS11~S16による一連のデータ収集処理を複数回繰り返す。このときの繰り返し回数は命令推定モデルの学習に必要な回数に設定され、また繰り返し周期は、例えば4秒に設定される。
 上記データ収集処理複数回を繰り返すことにより、命令種別判定データ記憶部31および脳波パターン記憶部33には、それぞれの命令について、命令の種類とそれに対応する脳波パターンとのデータセットが複数個蓄積される。なお、上記命令の種類とそれに対応する脳波パターンとの紐付けは、両者に付与されている検出時刻により行われる。
 訓練制御部10は、各命令についてそれぞれ上記複数回のデータ収集処理が終了したか否かをステップS15により判定し、終了したと判定すると命令推定モデル学習処理部15に対し学習処理を指示する。
 (5)命令推定モデルの学習
 訓練制御部10から学習処理が指示されると、命令推定モデル学習処理部15は、ステップS17において、命令の種類ごとに、上記命令種別判定データ記憶部31および脳波パターン記憶部33から、蓄積されている命令の種類とそれに対応する脳波パターンとの複数のセットを読み出す。そして、命令推定モデル学習処理部15は、読み出した上記複数のセットを用いて命令推定モデルを学習させる。
 そうして、全ての命令の種類に対する学習処理が終了すると、命令推定モデル学習処理部15は、学習済みの命令推定モデルのパラメータを命令推定モデル記憶部34に記憶する。なお、学習アルゴリズムとしては、例えばディープラーニングが用いられるが、他の機械学習アルゴリズムが用いられてもよい。
 (6)他のユーザに対する命令推定モデルの学習
 BCI訓練装置CSの制御部1は、他の訓練対象ユーザについても同様の処理手順に従い、指の動きに対応する命令の各種類に対し感覚刺激を条件付けて訓練を行い、その結果得られた命令の種類と脳波パターンとからなる複数のセットを学習データとして用いて命令推定モデルを学習させる。そして、訓練の終了指示をステップS18で検知すると、BCI訓練装置CSの制御部1は、訓練制御部10の制御の下、訓練制御を終了し待機状態に戻る。
 (7)学習済みの命令推定モデルを用いた命令の種類の推定
 BCIを用いる際に、ユーザは先ず自身のユーザIDを入力して、BCI訓練装置CS内に記憶される命令推定モデルのうち自身に対応する命令推定モデルを指定する。そして、この状態でユーザは、入力したい命令の種類に対応する指を動かす状態を脳内でイメージする。そうすると、ユーザの脳波が脳波センサBSにより測定され、BCI訓練装置CSに入力される。
 BCI訓練装置CSの制御部1は、上記脳波の測定データを取得すると、脳波測定データ取得処理部14により、取得した上記脳波測定データから脳波のパターンを識別する。そして、識別した上記脳波パターンの特徴量を説明変数として、自身に対応する命令推定モデルに入力し、この命令推定モデルから目的変数として出力される命令の種類を表す情報を取得する。
 ここで、上記測定された脳波は指を動かすというイメージが反映されたものであるが、事前に行われた条件付け訓練において付与された感覚刺激による条件反射が反映された、変化の大きな信号となる。従って、上記脳波パターンの識別処理においては脳波パターンを精度良く識別することが可能となり、結果的に命令推定モデルでは入力命令の種類を高精度に推定することが可能となる。
 命令推定モデルから出力された上記命令の種類を表す情報は、例えばBCI訓練装置CS内の所定のタスク処理に使用される。なお、上記命令の種類を表す情報は、例えばBCI訓練装置CSから他のパーソナルコンピュータまたはサーバコンピュータに送信されて、遠隔地のロボットやメタバースのアバタを制御するために使用されてもよく、命令の用途を上記例に限らない。
 (効果)
 以上述べたように一実施形態では、訓練期間において、命令の種類を異なる指を動かすイメージに対応付ける場合に、訓練用の指の動きをデータグローブGSにより検出してそのセンサデータから命令の種類を判定して保存すると共に、判定した上記命令の種類に対応付けた感覚刺激をユーザに与え、このときのユーザの脳波を脳波センサBSにより検出してその測定データから脳波パターンを識別して保存する。そして、以上の処理を命令の種類ごとに複数回繰り返し実行して、上記命令の種類と脳波パターンとのセットを複数蓄積し、蓄積された上記複数のセットを学習データとして用いて命令推定モデルを学習させるようにしている。
 従って、指を動かすイメージに対し感覚刺激を用いて条件付け訓練が行われることになり、指を用いた運動想起そのものの成分は小さくても、感覚刺激による条件反射が反映された、指ごとに違いが顕著な脳波パターンを得ることができ、これにより複数の指を選択的に動かすイメージを用いて複数種類の命令を入力する際の推定精度を高めることが可能となる。
 この結果、BCIは、指を動かすイメージに対応する命令の種類を高精度に推定することができ、例えばユーザが任意の手指を動かすという動きの小さな身体動作をイメージした場合でも、命令の種類を精度良く推定することが可能となる。
 また、感覚刺激を用いた条件付け訓練により、脳波パターンの特徴が顕著に現れる。この結果、指を用いた運動想起が苦手なユーザでも特徴が顕著な脳波パターンが発生されることになり、これにより運動想起に対するユーザの個人差の影響を軽減して、どのユーザでも指を動かすイメージにより精度良く命令を入力することが可能となる。
 [その他の実施形態]
 (1)一実施形態では、1種類の命令に対して1種類の感覚刺激を対応させる場合を例にとって説明した。しかし、これに限らず、1種類の感覚刺激を複数種類の命令に対応させるようにしてもよい。
 例えば、右手または左手の親指の動きに対し視覚刺激を対応付け、右手または左手の人差し指の動きに対し聴覚刺激を対応させる。一般に、運動想起時の脳波パターンにおいて、右手と左手は区別がつき易いため、右手と左手に同一の感覚刺激を対応付けても、右手の親指を動かしたか左手の親指を動かしたかは、運動野と視覚野の脳波パターンから比較的容易に判別可能となる。
 (2)一方、嗅覚野と味覚野は脳の奥深くに位置するため、脳波パターンに表出され難い可能性がある。そこで、例えば嗅覚刺激を親指と対応付け、味覚刺激を小指と対応付けて条件付け訓練を行う。このようにすると、運動野間の脳波パターンの違いをより顕著にすることが可能となり、このようにすることで、親指と小指との間の命令の識別精度を高めることができる。
 (3)さらに、一実施形態では命令の入力手法として、手や指を用いた運動想起を使用する場合を例にとって説明した。しかし、これに限らず、例えば言葉または図や絵を脳内でイメージすることで命令を入力するようにしてもよい。この場合も、訓練期間に、言葉または図や絵に感覚刺激を対応付けて条件付け訓練を行い、その結果を用いて命令推定モデルを学習させることで、命令の種類を精度良く推定することが可能となる。
 (4)一実施形態では、BCI訓練装置CSをパーソナルコンピュータにより構成する場合を例にとって説明したが、Web上またはクラウド上に配置されたサーバコンピュータにより構成してもよい。この場合、ユーザごとに、訓練後のBCI命令推定モデルをサーバコンピュータからユーザが使用するパーソナルコンピュータにダウンロードし、以後BCIを使用した命令入力を行えるようにするとよい。
 (5)その他、BCI訓練装置の機能構成や訓練制御の処理手順と処理内容、脳波センサ等の各種センサの構成、各感覚刺激発生用のデバイスの構成等については、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
 以上、この発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点においてこの発明の例示に過ぎない。この発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、この発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
 要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
 CS…BCI訓練装置
 GS…データグローブ
 BS…脳波センサ
 DP…表示デバイス
 SP…スピーカ
 ES…電気刺激発生器
 AD…アロマディフューザ
 ET…電気味覚発生器
 1…制御部
 2…プログラム記憶部
 3…データ記憶部
 4…センサI/F部
 5…入出力I/F部
 6…バス
 10…訓練制御部
 11…グローブセンサデータ取得処理部
 12…命令判定処理部
 13…感覚刺激発生処理部
 14…脳波測定データ取得処理部
 15…命令推定モデル学習処理部
 31…命令種別判定データ記憶部
 32…刺激制御データ記憶部
 33…脳波パターン記憶部
 34…命令推定モデル記憶部
 

Claims (8)

  1.  脳波を使用してコンピュータを操作するブレインコンピュータインタフェースを訓練するブレインコンピュータインタフェース訓練システムであって、
     ユーザの脳波を測定するための脳波センサと、
     前記ユーザが想起する命令に対応付けられた前記ユーザの行為を検出する行為センサと、
     複数の種類の感覚刺激を選択的に発生して前記ユーザに付与する刺激デバイスと、
     前記脳波センサ、前記行為センサおよび前記刺激デバイスに接続される訓練装置と
     を具備し、
     前記訓練装置は、
     前記ユーザの行為を表す検出データを前記行為センサから取得し、取得した前記行為を表す検出データをもとに対応する前記命令の種類を判定する第1の処理部と、
     複数種類の前記感覚刺激の中から、判定された前記命令の種類に予め対応付けられた前記感覚刺激を選択し、選択した前記感覚刺激を前記ユーザに付与するべく前記刺激デバイスを制御する第2の処理部と、
     前記感覚刺激が付与されたときの前記ユーザの脳波を表す測定データを前記脳波センサから取得し、取得した前記測定データから脳波パターンを判定する第3の処理部と、
     判定された前記命令の種類と前記脳波パターンとからなるセットを学習データとして用いて命令推定モデルを生成し、生成された前記命令推定モデルを表すデータを記憶する第4の処理部と
     を備えるブレインコンピュータインタフェース訓練システム。
  2.  前記行為センサは、前記ユーザの5本の手指のうち少なくとも2本の手指の動きを検出し、
     前記第1の処理部は、前記行為を表す検出データをもとに前記ユーザが動かした前記手指を判定して、判定した前記手指に対応する前記命令の種類を判定する、
     請求項1に記載のブレインコンピュータインタフェース訓練システム。
  3.  前記刺激デバイスは、視覚刺激、聴覚刺激、接触刺激、嗅覚刺激および味覚刺激のうち少なくとも2つの刺激を発生する、請求項1に記載のブレインコンピュータインタフェース訓練システム。
  4.  脳波を使用してコンピュータを操作するブレインコンピュータインタフェースを訓練するブレインコンピュータインタフェース訓練装置であって、
     ユーザが想起する命令に対応する行為を表すデータを取得し、取得した前記行為を表すデータをもとに対応する前記命令の種類を判定する第1の処理部と、
     判定された前記命令の種類に予め対応付けられた感覚刺激を選択し、選択した前記感覚刺激を前記ユーザに付与するための処理を実行する第2の処理部と、
     前記感覚刺激を付与したときの前記ユーザの脳波パターンを取得する第3の処理部と、
     判定された前記命令の種類と取得された前記脳波パターンとからなるセットを学習データとして用いて命令推定モデルを生成し、生成された前記命令推定モデルを記憶する第4の処理部と
     を備えるブレインコンピュータインタフェース訓練装置。
  5.  前記第1の処理部は、前記ユーザが想起する前記命令に対応する前記行為として、前記ユーザの5本の手指のうち少なくとも2本の手指の動きを表す測定データを取得し、取得した前記測定データをもとに対応する前記命令の種類を判定する、請求項4に記載のブレインコンピュータインタフェース訓練装置。
  6.  前記第2の処理部は、視覚刺激、聴覚刺激、接触刺激、嗅覚刺激および味覚刺激のうち少なくとも2つの刺激の中から、前記命令の種類に予め対応付けられた前記感覚刺激を選択し、選択した前記感覚刺激を前記ユーザに付与するための処理を実行する、請求項4に記載のブレインコンピュータインタフェース訓練装置。
  7.  脳波を使用してコンピュータを操作するブレインコンピュータインタフェースを、情報処理装置を用いて訓練するブレインコンピュータインタフェース訓練方法であって、
     前記情報処理装置が、ユーザが想起する命令に対応する行為を表す測定データを取得し、取得した前記測定データをもとに対応する前記命令の種類を判定する過程と、
     前記情報処理装置が、判定された前記命令の種類に予め対応付けられた感覚刺激を選択し、選択した前記感覚刺激を前記ユーザに付与するための処理を実行する過程と、
     前記情報処理装置が、前記感覚刺激を付与したときの前記ユーザの脳波パターンを取得する過程と、
     前記情報処理装置が、判定された前記命令の種類と取得された前記脳波パターンとからなるセットを学習データとして用いて命令推定モデルを生成し、生成された前記命令推定モデルを記憶する過程と
     を実行するブレインコンピュータインタフェース訓練方法。
  8.  請求項4乃至6の何れかに記載のブレインコンピュータインタフェース訓練装置が備える前記第1の処理部、前記第2の処理部、前記第3の処理部および前記第4の処理部が行う処理の少なくとも1つを、前記ブレインコンピュータインタフェース訓練装置が備えるプロセッサに実行させるプログラム。
PCT/JP2024/000646 2024-01-12 2024-01-12 ブレインコンピュータインタフェース訓練システム、訓練装置、訓練方法およびプログラム Pending WO2025150193A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2024/000646 WO2025150193A1 (ja) 2024-01-12 2024-01-12 ブレインコンピュータインタフェース訓練システム、訓練装置、訓練方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2024/000646 WO2025150193A1 (ja) 2024-01-12 2024-01-12 ブレインコンピュータインタフェース訓練システム、訓練装置、訓練方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2025150193A1 true WO2025150193A1 (ja) 2025-07-17

Family

ID=96386867

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2024/000646 Pending WO2025150193A1 (ja) 2024-01-12 2024-01-12 ブレインコンピュータインタフェース訓練システム、訓練装置、訓練方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2025150193A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018131245A1 (ja) * 2017-01-12 2018-07-19 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2020532031A (ja) * 2017-08-23 2020-11-05 ニューラブル インコーポレイテッド 高速視標追跡機能を有する脳−コンピュータインタフェース
JP2021033677A (ja) * 2019-08-26 2021-03-01 富士ゼロックス株式会社 情報処理装置及びプログラム
WO2021145454A1 (ja) * 2020-01-16 2021-07-22 ソニーグループ株式会社 情報処理装置、情報処理端末及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018131245A1 (ja) * 2017-01-12 2018-07-19 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2020532031A (ja) * 2017-08-23 2020-11-05 ニューラブル インコーポレイテッド 高速視標追跡機能を有する脳−コンピュータインタフェース
JP2021033677A (ja) * 2019-08-26 2021-03-01 富士ゼロックス株式会社 情報処理装置及びプログラム
WO2021145454A1 (ja) * 2020-01-16 2021-07-22 ソニーグループ株式会社 情報処理装置、情報処理端末及びプログラム

Similar Documents

Publication Publication Date Title
JP6875010B2 (ja) 触覚情報変換装置、触覚情報変換方法、および、触覚情報変換プログラム
Bi et al. EEG-based brain-controlled mobile robots: A survey
JP5544620B2 (ja) 意思伝達支援装置及び方法
US20200097081A1 (en) Neuromuscular control of an augmented reality system
US10475351B2 (en) Systems, computer medium and methods for management training systems
US20170259167A1 (en) Brainwave virtual reality apparatus and method
CN101821699B (zh) 涉及脑计算机接口的改进
US20080206727A1 (en) Training System and Method for Improving Cognition and Motor Timing
JP2019513516A (ja) 人の視覚パフォーマンスを査定するために視覚データを入手し、集計し、解析する方法およびシステム
KR101970700B1 (ko) 뇌 신호 기반 기기 제어를 위한 뇌-컴퓨터 인터페이스 장치 및 방법
Ramzan et al. Emotion recognition by physiological signals
JP7141681B2 (ja) 情報処理装置、情報処理システム及びプログラム
Cernea et al. Measuring subjectivity: Supporting evaluations with the emotiv EPOC neuroheadset
US20240266061A1 (en) Model generating method, recording medium, information processing device, information processing system, information processing method, and training data generating method
WO2025150193A1 (ja) ブレインコンピュータインタフェース訓練システム、訓練装置、訓練方法およびプログラム
JP6445418B2 (ja) 印象推定装置、印象推定方法、およびプログラム
US20200214613A1 (en) Apparatus, method and computer program for identifying an obsessive compulsive disorder event
JP7639826B2 (ja) 認知能力検出装置、および、認知能力検出方法
CN114746017B (zh) 通过处理受试对象对刺激的反应来测试认知的方法和系统
WO2024107110A1 (en) Music-based emotion profiling system
US20210295730A1 (en) System and method for virtual reality mock mri
KR20230052799A (ko) 뇌파 신호를 디코딩 하는 디코딩 모델 구축 방법과, 이를 포함하는 터치 제어 시스템 및 방법
Suchalova et al. The Research on Controlling Virtual Reality by EEG Sensor
JP7428337B1 (ja) 情報処理方法、情報処理装置、及びプログラム
JP7554515B2 (ja) 振動情報提供システム、振動情報提供サーバ装置、振動情報取得装置、振動情報提供方法、振動情報提供用プログラムおよび振動情報取得用プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24917069

Country of ref document: EP

Kind code of ref document: A1