[go: up one dir, main page]

RU2833770C1 - Method for determining effect of information factors of virtual environment on emotional state of person according to cardiorhythmogram data - Google Patents

Method for determining effect of information factors of virtual environment on emotional state of person according to cardiorhythmogram data Download PDF

Info

Publication number
RU2833770C1
RU2833770C1 RU2024112497A RU2024112497A RU2833770C1 RU 2833770 C1 RU2833770 C1 RU 2833770C1 RU 2024112497 A RU2024112497 A RU 2024112497A RU 2024112497 A RU2024112497 A RU 2024112497A RU 2833770 C1 RU2833770 C1 RU 2833770C1
Authority
RU
Russia
Prior art keywords
virtual environment
data
emotional state
person
information factors
Prior art date
Application number
RU2024112497A
Other languages
Russian (ru)
Inventor
Сергей Викторович Стасенко
Софья Александровна Полевая
Иван Васильевич Лоскот
Евгений Викторович Еремин
Андрей Викторович Ковальчук
Ирина Владимировна Нуйдель
Владимир Григорьевич Яхно
Рустэм Альбертович Салихов
Виктор Борисович Казанцев
Алексей Владимирович Комягин
Александр Владимирович Колсанов
Original Assignee
Федеральное государственное бюджетное научное учреждение "Федеральный исследовательский центр Институт прикладной физики им. А.В. Гапонова-Грехова Российской академии наук" (ИПФ РАН)
федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации (ФГБОУ ВО СамГМУ Минздрава России)
Filing date
Publication date
Application filed by Федеральное государственное бюджетное научное учреждение "Федеральный исследовательский центр Институт прикладной физики им. А.В. Гапонова-Грехова Российской академии наук" (ИПФ РАН), федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации (ФГБОУ ВО СамГМУ Минздрава России) filed Critical Федеральное государственное бюджетное научное учреждение "Федеральный исследовательский центр Институт прикладной физики им. А.В. Гапонова-Грехова Российской академии наук" (ИПФ РАН)
Application granted granted Critical
Publication of RU2833770C1 publication Critical patent/RU2833770C1/en

Links

Abstract

FIELD: medicine.
SUBSTANCE: invention refers to medicine, namely to psychophysiology, and can be used to determine stress potential of virtual environment information factors. Disclosed is a method which employs a neural network algorithm for classifying cardiorhythmogram data. Data base of cardiorhythmograms, on which the algorithm is trained, includes cardiorhythmograms associated with positive, negative emotions when exposed to information factors of the virtual environment, as well as those associated with the absence of emotional responses to information factors of the virtual environment. All cardiac rhythmograms are obtained by event-related cardiac telemetry. Analysis of the effect of information factors of the virtual environment on the emotional state of a person according to the cardiorhythmogram includes: telemetric measurements of cardiac rhythmograms using a software and hardware complex consisting of virtual reality glasses, a miniature wireless sensor and a tablet with specialized software, analysis of the obtained data using a pre-trained neural network algorithm.
EFFECT: invention provides automatic recording of the emotional state of a person by a cardiorhythmogram under the influence of information factors of the virtual environment.
2 cl, 5 dwg

Description

Изобретение относится к области медицины, а именно к области психофизиологии, и может быть использовано для определения стрессогенности информационных факторов виртуальной среды.The invention relates to the field of medicine, namely to the field of psychophysiology, and can be used to determine the stress-producing nature of information factors in a virtual environment.

Из уровня техники известна группа изобретений (RU 2774274 «Устройство, система и способ определения эмоционального состояния пользователя», МПК А61В 5/16, А61В 5/053, публ. 30.06.2021 г.), которая относится к медицине, а именно к устройству, системе и способу определения эмоционального состояния пользователя на основе оценки вызванного эмоцией уровня кортизола. Устройство содержит интерфейс, блок обработки. Интерфейс предназначен для получения кривой психофизиологического сигнала. Кривая указывает на измеренную реакцию на стимулы, соответствующие нервной стрессовой реакции. Блок обработки предназначен для обработки кривой психофизиологического сигнала. Система содержит датчик для измерения психофизиологического сигнала и устройство определения эмоционального состояния пользователя. Датчик указывает на измеренную реакцию на стимулы, соответствующие нервной стрессовой реакции пользователя. При исполнении способа получают кривую психофизиологического сигнала, указывающую на измеренную реакцию на стимулы, соответствующие нервной стрессовой реакции. Недостатком известной группы изобретений является возможность регистрировать только эмоциональное состояние человека, соответствующее нервной стрессовой реакции.A group of inventions is known from the prior art (RU 2774274 "Device, system and method for determining the emotional state of a user", IPC A61B 5/16, A61B 5/053, published on June 30, 2021), which relates to medicine, namely to a device, system and method for determining the emotional state of a user based on an assessment of the cortisol level caused by the emotion. The device comprises an interface and a processing unit. The interface is designed to obtain a psychophysiological signal curve. The curve indicates the measured response to stimuli corresponding to the nervous stress response. The processing unit is designed to process the psychophysiological signal curve. The system comprises a sensor for measuring the psychophysiological signal and a device for determining the emotional state of the user. The sensor indicates the measured response to stimuli corresponding to the nervous stress response of the user. When executing the method, a psychophysiological signal curve is obtained indicating the measured response to stimuli corresponding to the nervous stress response. A disadvantage of the known group of inventions is the ability to record only the emotional state of a person corresponding to the nervous stress response.

Известен «Способ дистанционного распознавания и коррекции с помощью виртуальной реальности психоэмоционального состояния человека» (RU 2711976, МПК А61В 5/16, публ. 23.01.2020 г.), в котором для распознавания психоэмоционального состояния используется индивидуальный динамический мониторинг мимики лица, движений и речи, при этом для определения мимических показателей, двигательной и речевой активности человеку предъявляют тестовый материал для воздействия на его рецепторное поле. По полученным данным определяют психоэмоциональное состояние человека в соответствии с системой кодирования лицевых движений, полученное мимическое изображение классифицируется системой искусственного интеллекта как аффективный компонент нарушения эмоций - по выраженности и длительности эмоциональных нарушений, определяемых как простая эмоция, настроение, аффект; по характеру эмоциональных нарушений - сниженное настроение, повышенное настроение, неустойчивая эмоциональная сфера, качественное искажение эмоций; по моторному компоненту аффективных нарушений повышенная и сниженная двигательная активность; и идеаторному компоненту аффективных нарушений, определяемых по быстрой и медленной речи, и запоминается как база данных спектра эмоций индивидуального человека. После чего проводят дистанционный мониторинг в течение заданного времени с использованием искусственного интеллекта для постоянного сопоставления данных сокращения мимических мышц, двигательной и речевой активности со сформированной базой данных спектра эмоций человека, по полученным результатам выдаются рекомендации по возможности направления на коррекцию психофизиологического состояния. Коррекцию проводят посредством виртуальной реальности, вводящей человека в трансовое состояние, определяют форму коррекции как директивную или не директивную по индивидуальной программе, основанной на типе личности и преимущественной модальности восприятия информации - визуальной, аудиальной и кенестетической, при постоянном мониторинге энцефалографией, передающей данные искусственному интеллекту для определения эффективности коррекции. Изобретение обеспечивает возможность дистанционного распознавания негативного психоэмоционального состояния человека и своевременной коррекции его при помощи воздействия виртуальной реальности. Недостатком описанного аналога является определение психоэмоционального состояния человека в соответствии с системой кодирования лицевых движений без использования физиологических данных, например, данных ЭКГ при влиянии информационных факторов виртуальной среды.There is a known "Method for remote recognition and correction of a person's psycho-emotional state using virtual reality" (RU 2711976, IPC A61B 5/16, published on 23.01.2020), in which individual dynamic monitoring of facial expressions, movements and speech is used to recognize the psycho-emotional state, while in order to determine facial expressions, motor and speech activity, a person is presented with test material to influence his receptor field. Based on the data obtained, a person's psycho-emotional state is determined in accordance with the facial movement coding system, the resulting facial image is classified by the artificial intelligence system as an affective component of emotional disorders - by the severity and duration of emotional disorders, defined as simple emotion, mood, affect; by the nature of emotional disorders - depressed mood, elevated mood, unstable emotional sphere, qualitative distortion of emotions; by the motor component of affective disorders - increased and decreased motor activity; and the ideational component of affective disorders determined by fast and slow speech, and is stored as a database of the spectrum of emotions of an individual person. After that, remote monitoring is carried out for a specified time using artificial intelligence for constant comparison of data on the contraction of facial muscles, motor and speech activity with the formed database of the spectrum of human emotions, based on the results obtained, recommendations are issued on the possibility of referring for correction of the psychophysiological state. Correction is carried out by means of virtual reality, introducing a person into a trance state, the form of correction is determined as directive or non-directive according to an individual program based on the personality type and the predominant modality of perception of information - visual, auditory and kinesthetic, with constant monitoring by encephalography, transmitting data to artificial intelligence to determine the effectiveness of the correction. The invention provides the possibility of remote recognition of a negative psychoemotional state of a person and its timely correction using the influence of virtual reality. The disadvantage of the described analogue is the determination of the psycho-emotional state of a person in accordance with the coding system of facial movements without the use of physiological data, for example, ECG data under the influence of information factors of the virtual environment.

Известны способ, электронное устройство и система идентификации эмоции (CN 107992199 «Electronic equipment and emotion identification method and system for same», МПК G06F 3/01, публ. 04.05.2018 г.). Способ позволяет с помощью передней камеры электронного оборудования, микрофонного оборудования, данных частоты сердечных сокращений и кожно-гальванической реакции получать информацию об эмоциях пользователя. Недостатком способа является неиспользование для анализа эмоций данных кардиоритмограмм, в том числе при влиянии информационных факторов виртуальной среды.A method, an electronic device and a system for identifying emotions are known (CN 107992199 "Electronic equipment and emotion identification method and system for the same", IPC G06F 3/01, published 04.05.2018). The method allows using the front camera of the electronic equipment, microphone equipment, heart rate data and galvanic skin response to obtain information about the user's emotions. A disadvantage of the method is the failure to use cardiorhythmogram data for analyzing emotions, including under the influence of information factors of the virtual environment.

Известен способ распознавания эмоций на основе черт лица и голоса (CN 107705808 «Emotion recognition method based on facial features and voice features», МПК G06K 9/00, G10L 25/63, публ. 25.12.2020 г.), реализуемый с помощью камеры, микрофона и блока обработки эмоций. Недостатком метода является то, что он основан исключительно на анализе лицевых движений и голоса пользователя и не использует регистрацию кардиоритма.A method for recognizing emotions based on facial features and voice is known (CN 107705808 "Emotion recognition method based on facial features and voice features", IPC G06K 9/00, G10L 25/63, published on 25.12.2020), implemented using a camera, microphone and emotion processing unit. The disadvantage of the method is that it is based solely on the analysis of the user's facial movements and voice and does not use heart rate recording.

Известен способ и устройство для определения эмоций на лице пользователя (KR 101939772 «Method and apparatus for inferring facial emotion recognition system for inferring facial emotion and media for recording computer program», МПК G06K 9/46, G06T 7/00, публ. 17.01.2019 г.). Система включает базу данных изображений множества людей, классифицированных по эмоциональным и поведенческим признакам. Вышеуказанные признаки определяются на основе системы кодирования движений лица (FACS), а в системе кодирования движения лица поведенческие единицы соответствуют сочетанию мышц, связанных с изменениями внешнего вида лица или основным движением каждой мышцы. Недостатком является использование (анализ) только выражения лица и работы (движения) определенных лицевых мышц, а также отсутствие использования данных ЭКГ, в том числе при влиянии информационных факторов виртуальной среды. Отсутствует также возможность постоянного мониторинга и хранение полученных данных.A method and device for determining emotions on a user's face are known (KR 101939772 "Method and apparatus for inferring facial emotion recognition system for inferring facial emotion and media for recording computer program", IPC G06K 9/46, G06T 7/00, published on 17.01.2019). The system includes a database of images of many people classified by emotional and behavioral features. The above features are determined on the basis of the facial action coding system (FACS), and in the facial action coding system, behavioral units correspond to a combination of muscles associated with changes in facial appearance or the main movement of each muscle. The disadvantage is the use (analysis) of only facial expression and the work (movement) of certain facial muscles, as well as the lack of use of ECG data, including under the influence of information factors of the virtual environment. There is also no possibility of continuous monitoring and storage of the obtained data.

Известен способ распознавания выражения лица (US 10417483 «Facial expression recognition)), МПК G06N 3/08, G06N 3/12, G06V 30/194, публ. 17.09.2019 г.). Изобретение представляет собой автоматический геометрический метод анализа и распознавания выражения лица человека на основе извлеченных признаков с использованием нейронной сети. Выражения лица делятся на семь различных категорий эмоций: удивление, счастье, отвращение, нейтральность, страх, печаль и гнев. Метод использует алгоритм, который гибридизирует генетические алгоритмы и итерационный локальный поиск с алгоритмом обратного распространения, используемым для обучения нейронной сети. Недостатком метода является использование только лицевых выражений для регистрации базовых эмоций, а также отсутствие использования данных ЭКГ, в том числе при влиянии информационных факторов виртуальной среды.A method for recognizing facial expressions is known (US 10417483 "Facial expression recognition" IPC G06N 3/08, G06N 3/12, G06V 30/194, published on September 17, 2019). The invention is an automatic geometric method for analyzing and recognizing human facial expressions based on extracted features using a neural network. Facial expressions are divided into seven different emotion categories: surprise, happiness, disgust, neutrality, fear, sadness, and anger. The method uses an algorithm that hybridizes genetic algorithms and iterative local search with a backpropagation algorithm used to train the neural network. The disadvantage of the method is the use of only facial expressions to record basic emotions, as well as the lack of use of ECG data, including when influenced by information factors of the virtual environment.

Наиболее близким к заявляемому изобретению является «Способ непрерывного контроля уровня напряженного состояния человека» (RU 2649519, МПК А61В 5/024, А61В 5/11, публ. 22.09.2017 г.). Способ включает использование биометрического детектора в виде наручных часов или браслета, данные с которого используют для буферизации значений интервалов между соседними ударами сердца в течение заданного временного окна, а также для создания гистограммы распределения этих интервалов и вычисления уровня стресса. Данные биометрического детектора передают проводным или беспроводным способом на мобильное приложение и накапливают в течение определенного времени. Затем по распределению полученных данных во времени делают выводы о суточной двигательной активности и образе жизни человека. Вычисленный уровень стресса связывают с физической активностью человека и его взаимодействием с окружающими людьми и объектами по данным, которые собирают автоматически путем сбора сведений из приложений, установленных на электронном устройстве пользователя. Причем по собранным сведениям делают вывод о том, что именно послужило источником изменения уровня стресса, и предлагают пользователю исключить указанный источник. Изобретение позволяет повысить надежность и безопасность работы, улучшение методов психоэмоционального самоконтроля человека, повышение качества и информативности при общении людей в социальных сетях и прямом общении. Недостатком данного способа является измерение только уровня стресса пользователя, а не его эмоционального состояния.The closest to the claimed invention is the "Method for continuous monitoring of the level of human stress" (RU 2649519, IPC A61B 5/024, A61B 5/11, published on 22.09.2017). The method includes the use of a biometric detector in the form of a wristwatch or bracelet, the data from which is used to buffer the values of intervals between adjacent heartbeats during a given time window, as well as to create a histogram of the distribution of these intervals and calculate the stress level. The biometric detector data is transmitted by wire or wirelessly to a mobile application and accumulated over a certain time. Then, based on the distribution of the received data over time, conclusions are made about the daily physical activity and lifestyle of the person. The calculated stress level is associated with the physical activity of the person and his interaction with the surrounding people and objects according to the data that is collected automatically by collecting information from applications installed on the user's electronic device. Moreover, based on the collected information, they draw a conclusion about what exactly served as the source of the change in stress level, and offer the user to exclude the specified source. The invention allows to increase the reliability and safety of work, improve the methods of psycho-emotional self-control of a person, improve the quality and information content of communication between people in social networks and direct communication. The disadvantage of this method is that it measures only the user's stress level, and not his emotional state.

Задачей, на решение которой направлено предлагаемое изобретение, является разработка способа определения влияния информационных факторов виртуальной среды на эмоциональное состояние человека по данным кардиоритмограммы.The task that the proposed invention is aimed at solving is the development of a method for determining the influence of information factors of a virtual environment on the emotional state of a person based on cardiogram data.

Технический результат достигается за счет того, что разработанный способ определения эмоционального состояния человека так же, как и способ-прототип включает измерение значений интервалов между соседними ударами сердца, передачу и накопление этих данных в устройстве обработки и хранения, выявление источника, влияющего на эмоциональное состояние человека. Новым в разработанном способе является то, что воздействуют на человека информационными факторами виртуальной среды, для чего используют программно-аппаратный комплекс, состоящий из очков виртуальной реальности, датчика, с помощью которого измеряют R-R интервалы сердца, и компьютера со специализированным программным обеспечением. Анализируют полученные данные с помощью предобученного нейросетевого алгоритма, который заранее обучают с помощью данных кардиоритмограмм, полученных от пользователей, которым были предъявлены сюжеты виртуальной реальности с контролем эмоционального состояния по методике SAM. При этом делают вывод об эмоциональном состоянии человека после предъявленных информационных факторов виртуальной среды, классифицируя его как соответствующее негативным эмоциям, нейтральным эмоциям или позитивным эмоциям.The technical result is achieved due to the fact that the developed method for determining the emotional state of a person, as well as the prototype method, includes measuring the values of intervals between adjacent heartbeats, transmitting and accumulating these data in a processing and storage device, identifying a source that influences the emotional state of a person. What is new in the developed method is that a person is affected by information factors of a virtual environment, for which a hardware and software complex is used, consisting of virtual reality glasses, a sensor with which R-R intervals of the heart are measured, and a computer with specialized software. The obtained data are analyzed using a pre-trained neural network algorithm, which is trained in advance using cardiorhythmogram data obtained from users who were presented with virtual reality scenes with emotional state control using the SAM method. In this case, a conclusion is made about the emotional state of a person after the presented information factors of the virtual environment, classifying it as corresponding to negative emotions, neutral emotions or positive emotions.

В частном случае реализации предлагаемого способа в качестве специализированного программного обеспечения используют программное обеспечение «Стресс-Монитор».In the particular case of implementing the proposed method, the Stress Monitor software is used as specialized software.

Разработанный способ поясняется следующими фигурами.The developed method is explained by the following figures.

На фиг. 1 показана схема этапа обучения нейросетевого алгоритма.Fig. 1 shows the diagram of the training stage of the neural network algorithm.

На фиг. 2 показан пример записанных данных R-R интервалов, используемых для дальнейшего анализа.Fig. 2 shows an example of recorded R-R interval data used for further analysis.

На фиг. 3 приведен пример анкеты-опросника по кардиоактивным факторам образа жизни.Fig. 3 shows an example of a questionnaire on cardioactive lifestyle factors.

На фиг. 4 приведен пример анкеты-опросника для определения индивидуального аффективного профиля (ИАП).Fig. 4 shows an example of a questionnaire for determining the individual affective profile (IAP).

На фиг. 5 показана схема разработанного способа.Fig. 5 shows a diagram of the developed method.

Разработанный способ осуществляют следующим образом.The developed method is implemented as follows.

Вначале происходит обучение нейросетевого алгоритма, при этом кардиоритмограммы получают от испытуемых, которым предъявляются сюжеты виртуальной реальности с контролем эмоционального состояния по методике SAM, описывающей три признака: 1 - валентность, 2 - активность, 3 - уровень контроля. SAM (Self-Assessment Manikin) - это невербальный графический опросник, который напрямую измеряет аффект и чувства человека в ответ на воздействие объекта или события, например изображения. Существует база данных изображений (IAPS - International Affective Picture System), содержащая стандартизированный набор изображений для изучения эмоций и внимания, которая широко используется в психологических исследованиях.First, the neural network algorithm is trained, and cardiograms are obtained from subjects who are shown virtual reality scenes with emotional state control using the SAM method, which describes three features: 1 - valence, 2 - activity, 3 - level of control. SAM (Self-Assessment Manikin) is a non-verbal graphic questionnaire that directly measures a person's affect and feelings in response to the impact of an object or event, such as an image. There is a database of images (IAPS - International Affective Picture System), containing a standardized set of images for studying emotions and attention, which is widely used in psychological research.

Схема этапа обучения нейросетевого алгоритма показана на фиг. 1. Измеряется кардиоритмограмма беспроводным датчиком, и с помощью программного обеспечения выделяются R-R интервалы (1). На фиг. 2 показан пример записанных данных R-R интервалов, используемых для дальнейшего анализа. Пакетная передача данных от датчика к мобильному устройству производится, например, по беспроводному протоколу Bluetooth. Реализация связи, передачи и сохранения данных осуществляется на мобильном устройстве, в частном случае (по п. 2 ф-лы), с помощью оригинального программного обеспечения «Стресс-Монитор».The scheme of the training stage of the neural network algorithm is shown in Fig. 1. The cardiorhythmogram is measured by a wireless sensor, and R-R intervals (1) are identified using software. Fig. 2 shows an example of recorded R-R interval data used for further analysis. Batch data transmission from the sensor to the mobile device is performed, for example, via the Bluetooth wireless protocol. Communication, transmission and storage of data are implemented on the mobile device, in a particular case (according to paragraph 2 of the formula), using the original Stress Monitor software.

Параллельно с записью R-R интервалов испытуемый проходит (2 мин) анкету-опросник по кардиоактивным факторам образа жизни. Пример опросника показан на фиг. 3. Также пользователь проходит анкету-опросник для определения индивидуального аффективного профиля (ИАП): предлагается указать валентность эмоций, связанных с аффективными ситуациями (2 мин) (2), где валентность - это степень притяжения или отвращения, которое человек испытывает к определенному объекту или событию. Пример опросника показан на фиг. 4. Проводится фоновая запись R-R интервалов стоя (3 мин.).In parallel with the recording of R-R intervals, the subject completes (2 min) a questionnaire on cardioactive lifestyle factors. An example of the questionnaire is shown in Fig. 3. The user also completes a questionnaire to determine the individual affective profile (IAP): it is proposed to indicate the valence of emotions associated with affective situations (2 min) (2), where valence is the degree of attraction or aversion that a person experiences to a certain object or event. An example of the questionnaire is shown in Fig. 4. Background recording of R-R intervals is performed while standing (3 min).

Далее проводится регистрация эмоционального образа для пяти картинок из аффективной базы стимулов IAPS по методике SAM (5 мин.) для обучения формализованному описанию эмоций по трем признакам: 1 - валентность, 2 - активность, 3 - уровень контроля.Next, the emotional image is registered for five pictures from the IAPS affective stimulus base using the SAM method (5 min.) to teach a formalized description of emotions based on three characteristics: 1 - valence, 2 - activity, 3 - control level.

Шкалы SAMSAM scales

1 - валентность характеризует, какие были эмоции: от негативных к позитивным, центральное нейтральные;1 - valence characterizes what emotions there were: from negative to positive, centrally neutral;

2 - степень активации: от спящего, сильно релаксирующего к активированному, возбужденному, центральное - нейтральное;2 - degree of activation: from sleeping, strongly relaxed to activated, excited, central - neutral;

3 - удавалось ли вам сохранять контроль: от не удавалось к удавалось, центральное нейтральное.3 - were you able to maintain control: from failed to succeed, central neutral.

Далее пользователю предъявляются сюжеты виртуальной реальности через очки (3). После каждого сюжета, продолжая записывать R-R интервалы, пользователь проходит опрос по методике SAM. Далее производится фоновая запись (2 мин.). Таким образом происходит накопление базы данных R-R интервалов с метками эмоционального состояния человека (4). По размеченной базе данных производится обучение нейросетевого алгоритма классифицировать данные КРГ (5).Next, the user is presented with virtual reality scenes through glasses (3). After each scene, while continuing to record R-R intervals, the user takes a survey using the SAM method. Then background recording is performed (2 min). In this way, a database of R-R intervals with labels of a person's emotional state is accumulated (4). The neural network algorithm is trained to classify the CRG data using the labeled database (5).

База данных кардиоритмограмм, на которых происходит обучение алгоритма, включает в себя кардиоритмограммы, связанные с положительными и отрицательными эмоциями при воздействии информационных факторов виртуальной среды, а также связанных с отсутствием эмоциональных реакций на информационные факторы виртуальной среды. Все кардиоритмограммы получены методом событийно-связанной телеметрии сердца.The database of cardiorhythmograms, on which the algorithm is trained, includes cardiorhythmograms associated with positive and negative emotions under the influence of information factors of the virtual environment, as well as those associated with the absence of emotional reactions to information factors of the virtual environment. All cardiorhythmograms were obtained by the method of event-related cardiac telemetry.

Используя нейросетевой алгоритм, предобученный по вышеописанной схеме, проводят телеметрические измерения кардиоритмограмм сердца с использованием программно-аппаратного комплекса, состоящего из очков виртуальной реальности, миниатюрного беспроводного датчика и планшета со специализированным программным обеспечением. Затем анализируют полученные данные.Using a neural network algorithm pre-trained according to the above-described scheme, telemetric measurements of cardiac rhythmograms are carried out using a hardware and software complex consisting of virtual reality glasses, a miniature wireless sensor and a tablet with specialized software. Then the obtained data is analyzed.

Автоматизированное определение эмоционального состояния человека по данным кардиоритмограммы при предъявлении сюжетов виртуальной реальности (фиг. 5) осуществляется следующим образом: производится запись R-R интервалов испытуемого (6), параллельно подается информационный стимул (сюжет) в очки виртуальной реальности (7) и полученные данные анализируются предобученным нейросетевым алгоритмом (8) для определения эмоционального состояния человека (9).Automated determination of a person’s emotional state based on cardiorhythmogram data when presented with virtual reality scenes (Fig. 5) is carried out as follows: the R-R intervals of the subject are recorded (6), an information stimulus (scene) is simultaneously fed into the virtual reality glasses (7), and the obtained data are analyzed by a pre-trained neural network algorithm (8) to determine the emotional state of the person (9).

Пример реализации способа.Example of implementation of the method.

Телеметрические измерения ритмограмм сердца выполняли с использованием разработанного программно-аппаратного комплекса, состоящего из миниатюрного беспроводного датчика ЭКГ (НхМ; Zephyr Technology, США), планшета на базе операционной системы Android со специализированным программным обеспечением «Стресс-Монитор» и очков виртуальной реальности. Пакетная передача данных от датчика к мобильному устройству производится по беспроводному протоколу Bluetooth. Реализация связи, передачи и сохранения данных осуществляется на мобильном устройстве с помощью оригинального программного обеспечения «Стресс-Монитор».Telemetric measurements of cardiac rhythmograms were performed using a developed hardware and software system consisting of a miniature wireless ECG sensor (NxM; Zephyr Technology, USA), a tablet based on the Android operating system with specialized Stress Monitor software, and virtual reality glasses. Batch data transmission from the sensor to the mobile device is performed via the Bluetooth wireless protocol. Communication, transmission, and storage of data are implemented on the mobile device using the original Stress Monitor software.

Испытуемому предъявлялись сюжеты виртуальной реальности и проводились опросы по методике SAM следующей последовательности:The subject was presented with virtual reality scenes and surveys were conducted using the SAM method in the following sequence:

1. VR сюжет набережная Федоровского (2 мин);1. VR story Fedorovsky embankment (2 min);

2. SAM;2. SAM;

3. VR сюжет Хофбург, Вена (2 мин);3. VR story Hofburg, Vienna (2 min);

4. SAM;4. SAM;

5. VR сюжет в соответствии с указанной фобией (фиг. 4) в опроснике (2 мин);5. VR plot in accordance with the indicated phobia (Fig. 4) in the questionnaire (2 min);

6. SAM;6. SAM;

7. VR сюжет Roller coaster (4 мин);7. VR story Roller coaster (4 min);

8. SAM.8. SAM.

Полученные данные КРГ анализировались ранее предобученным нейросетевым алгоритмом, классифицирующим данные КРГ на три группы: положительные эмоции, отрицательные эмоции и связанные с отсутствием эмоциональных реакций на информационные факторы виртуальной среды.The obtained CRG data were analyzed by a previously pre-trained neural network algorithm, classifying the CRG data into three groups: positive emotions, negative emotions, and those associated with the absence of emotional reactions to information factors of the virtual environment.

Таким образом, разработан способ определения влияния информационных факторов виртуальной среды на эмоциональное состояние человека по данным кардиоритмограмм. Используется нейросетевой алгоритм, обучение которого происходит на базе данных кардиоритмограмм, связанных с положительными, отрицательными эмоциями при воздействии информационных факторов виртуальной среды, а также связанных с отсутствием эмоциональных реакций на информационные факторы виртуальной среды.Thus, a method for determining the influence of virtual environment information factors on a person's emotional state based on cardiorhythmogram data has been developed. A neural network algorithm is used, the training of which occurs based on cardiorhythmogram data associated with positive, negative emotions when exposed to virtual environment information factors, as well as those associated with the absence of emotional reactions to virtual environment information factors.

Приведенные в описании сведения являются примерами, которые не ограничивают объем настоящего технического решения, определенного формулой. Специалисту в данной области становится понятным, что могут существовать и другие варианты осуществления настоящего технического решения, согласующиеся с сущностью и объемом настоящего технического решения.The information provided in the description are examples that do not limit the scope of the present technical solution defined by the formula. It becomes clear to a specialist in this field that there may be other embodiments of the present technical solution that are consistent with the essence and scope of the present technical solution.

Claims (2)

1. Способ определения эмоционального состояния человека, включающий измерение значений интервалов между соседними ударами сердца, передачу и накопление этих данных в устройстве обработки и хранения, выявление источника, влияющего на эмоциональное состояние человека, отличающийся тем, что воздействуют на человека информационными факторами виртуальной среды, для чего используют программно-аппаратный комплекс, состоящий из очков виртуальной реальности, датчика, с помощью которого измеряют R-R интервалы сердца, и компьютера со специализированным программным обеспечением, анализируют полученные данные с помощью предобученного нейросетевого алгоритма, который заранее обучают с помощью данных кардиоритмограмм, полученных от пользователей, которым были предъявлены сюжеты виртуальной реальности с контролем эмоционального состояния по методике SAM, при этом делают вывод об эмоциональном состоянии человека после предъявленных информационных факторов виртуальной среды, классифицируя его как соответствующее негативным эмоциям, нейтральным эмоциям или позитивным эмоциям.1. A method for determining a person’s emotional state, including measuring the values of intervals between adjacent heartbeats, transmitting and accumulating these data in a processing and storage device, identifying a source that influences a person’s emotional state, characterized in that influence a person with information factors of a virtual environment, for which they use a hardware and software complex consisting of virtual reality glasses, a sensor with which they measure the R-R intervals of the heart, and a computer with specialized software, analyze the obtained data using a pre-trained neural network algorithm, which is trained in advance using cardiorhythmogram data obtained from users who were presented with virtual reality scenes with emotional state control using the SAM method, while drawing a conclusion about the emotional state of a person after the presented information factors of the virtual environment, classifying it as corresponding to negative emotions, neutral emotions or positive emotions. 2. Способ определения эмоционального состояния человека по п.1, отличающийся тем, что в качестве специализированного программного обеспечения используют программное обеспечение «Стресс-Монитор».2. A method for determining a person’s emotional state according to paragraph 1, characterized in that the specialized software used is the “Stress Monitor” software.
RU2024112497A 2024-05-07 Method for determining effect of information factors of virtual environment on emotional state of person according to cardiorhythmogram data RU2833770C1 (en)

Publications (1)

Publication Number Publication Date
RU2833770C1 true RU2833770C1 (en) 2025-01-28

Family

ID=

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"АДАПТАЦИЯ ТРЕНИНГА ПОВЫШЕНИЯ ЭМОЦИОНАЛЬНОЙ УСТОЙЧИВОСТИ", ОРГАНИЗАЦИЯ И ПРОВЕДЕНИЕ ТРЕНИНГОВ ПОВЫШЕНИЯ ЭМОЦИОНАЛЬНОЙ УСТОЙЧИВОСТИ (II ЭТАП), ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ СТРОИТЕЛЬНЫЙ УНИВЕРСИТЕТ, Москва 2009, сс. 1-20. *
https://appleinsider.ru/eto-interesno/kak-opredelit-uroven-stressa-s-pomoshhyu-apple-watch.html дата размещения 30.12.2024, дата размещения подтверждена по адресу https://web.archive.org/web/20221230194922/https://appleinsider.ru/eto-interesno/kak-opredelit-uroven-stressa-s-pomoshhyu-apple-watch.html. *

Similar Documents

Publication Publication Date Title
Kulke et al. A comparison of the Affectiva iMotions Facial Expression Analysis Software with EMG for identifying facial expressions of emotion
EP1383430B1 (en) Analysis of the behaviour of a subject
KR102282961B1 (en) Systems and methods for sensory and cognitive profiling
US20140315168A1 (en) Facial expression measurement for assessment, monitoring, and treatment evaluation of affective and neurological disorders
CN111326253A (en) Methods for assessing multimodal affective cognitive abilities in patients with autism spectrum disorder
US20220199245A1 (en) Systems and methods for signal based feature analysis to determine clinical outcomes
CN111222464B (en) Emotion analysis method and system
WO2015167652A1 (en) Remote assessment of emotional status of a person
WO2018151628A1 (en) Algorithm for complex remote non-contact multichannel analysis of a psycho-emotional and physiological condition of a subject from audio and video content
CN113647950A (en) Psychological emotion detection method and system
Zhuang et al. Real-time emotion recognition system with multiple physiological signals
CN109805944B (en) A system for analyzing children's empathy ability
Dar et al. YAAD: young adult’s affective data using wearable ECG and GSR sensors
Li et al. Multi-modal emotion recognition based on deep learning of EEG and audio signals
McGinnis et al. Validation of smartphone based heart rate tracking for remote treatment of panic attacks
CN110675953B (en) System for identifying psychotic patients using artificial intelligence and big data screening
Das et al. A spatio-temporal approach for apathy classification
Samarasekara et al. Non invasive continuous detection of mental stress via readily available mobile-based help parameters
RU2833770C1 (en) Method for determining effect of information factors of virtual environment on emotional state of person according to cardiorhythmogram data
RU2415645C1 (en) Method of diagnosing falsity of reported information by dianamics of parametres of person's nonverbal behaviour
Rafique et al. Towards estimation of emotions from eye pupillometry with low-cost devices
Mantri et al. Real time multimodal depression analysis
RU2772185C1 (en) Method for registering emotional maladaptation based on a cardiorhythmogram
JP7620367B1 (en) Mental Disorder Analysis Device
CN111460952B (en) Method, system and prediction system for generating face recognition rule of schizophrenia