CN108401129A - 基于穿戴式设备的视频通话方法、装置、终端及存储介质 - Google Patents
基于穿戴式设备的视频通话方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- CN108401129A CN108401129A CN201810240067.0A CN201810240067A CN108401129A CN 108401129 A CN108401129 A CN 108401129A CN 201810240067 A CN201810240067 A CN 201810240067A CN 108401129 A CN108401129 A CN 108401129A
- Authority
- CN
- China
- Prior art keywords
- wearable
- user
- wearable device
- physiological characteristic
- mood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Medical Informatics (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- General Engineering & Computer Science (AREA)
- Telephone Function (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明适用通信技术领域,提供了一种基于穿戴式设备的视频通话方法、装置、终端及存储介质,该方法包括:当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过该穿戴式设备获取穿戴式设备用户的生理特征参数,根据获取到的生理特征参数分析该穿戴式设备用户的当前情绪,将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效,将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出,本发明根据穿戴式设备用户的情绪变化在视频通话的视频画面中添加特效,从而提高了视频通话的趣味性,进而提高了用户体验。
Description
技术领域
本发明属于通信技术领域,尤其涉及一种基于穿戴式设备的视频通话方法、装置、终端及存储介质。
背景技术
随着移动通信技术的发展,人们对信息交互的要求越来越高,现有的无线语音通话和短信交流方式已经不能满足人们的需求,而视频通话可以借助于移动终端上的摄像头,将移动终端捕捉到的图像数据和声音数据同步传输给对方,使得通信双方能够既闻其声又见其人,达到面对面交流的效果,因此越来越被人们所青睐。
然而,目前的视频通话只有一些简单的功能,例如,通过切换移动终端的前后摄像头采集个人头像和实际场景,在视频画面中显示,这些仅仅是视频通话的基本功能,随着社会的不断发展,已经不能满足人们日益丰富多彩的生活需求。
发明内容
本发明的目的在于提供一种基于穿戴式设备的视频通话方法、装置、终端及存储介质,旨在解决现有技术导致视频通话功能单一、趣味性低的问题。
一方面,本发明提供了一种基于穿戴式设备的视频通话方法,所述方法包括下述步骤:
当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过所述穿戴式设备获取所述穿戴式设备用户的生理特征参数;
根据所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪;
将所述分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与所述当前情绪相匹配的情绪特效;
将所述匹配到的情绪特效在视频通话的双方视频画面中同步显示输出。
另一方面,本发明提供了一种基于穿戴式设备的视频通话装置,所述装置包括:
参数获取单元,用于当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过所述穿戴式设备获取所述穿戴式设备用户的生理特征参数;
情绪分析单元,用于根据所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪;
特效获得单元,用于将所述分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与所述当前情绪相匹配的情绪特效;以及
显示输出单元,用于将所述匹配到的情绪特效在视频通话的双方视频画面中同步显示输出。
另一方面,本发明还提供了一种通话终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如前所述方法的步骤。
另一方面,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如前所述方法的步骤。
本发明在当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过该穿戴式设备获取穿戴式设备用户的生理特征参数,根据获取到的生理特征参数分析该穿戴式设备用户的当前情绪,将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效,将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出,本发明根据穿戴式设备用户的情绪变化在视频通话的视频画面中添加特效,从而提高了视频通话的趣味性,进而提高了用户体验。
附图说明
图1是本发明实施例一提供的基于穿戴式设备的视频通话方法的实现流程图;
图2是本发明实施例二提供的基于穿戴式设备的视频通话方法的实现流程图;
图3是本发明实施例三提供的基于穿戴式设备的视频通话装置的结构示意图;
图4是本发明实施例三提供的基于穿戴式设备的视频通话装置的优选结构示意图;
图5是本发明实施例四提供的基于穿戴式设备的视频通话装置的结构示意图;
图6是本发明实施例五提供的基于穿戴式设备的视频通话装置的结构示意图;以及
图7是本发明实施例六提供的通话终端的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现进行详细描述:
实施例一:
图1示出了本发明实施例一提供的基于穿戴式设备的视频通话方法的实现流程,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S101中,当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过该穿戴式设备获取穿戴式设备用户的生理特征参数。
本发明实施例适用于通话终端,例如,智能手机、平板电脑、智能手表等,通话终端和穿戴式设备可以为同一设备,例如,当穿戴式设备内置有摄像头时,可以通过自身的摄像头实现与家人、朋友的视频通话,而当穿戴式设备没有摄像头时,可以将该穿戴式设备通过蓝牙或者WiFi与具备摄像头的通话终端进行连接,借助于通话终端上的摄像头来实现与家人、朋友的视频通话。
在通过穿戴式设备获取该穿戴式设备用户的生理特征参数时,优选地,通过穿戴式设备内置的脉搏传感器、温度传感器等传感器对穿戴式设备用户的脉搏和/或体温和/或血压进行检测,以得到穿戴式设备用户对应的生理特征参数,从而提高了获取的生理特征参数的精确度。
在本发明实施例中,进一步优选地,在通过穿戴式设备对穿戴式设备用户的脉搏和/或体温和/或血压进行检测的同时,当穿戴式设备具有身高和/或体重测量功能时,也可以通过穿戴式设备对穿戴式设备用户的身高和/或体重进行检测,从而进一步提高了获取的生理特征参数的精确度。
在步骤S102中,根据获取到的生理特征参数分析该穿戴式设备用户的当前情绪。
在本发明实施例中,情绪主要是指紧张、恐惧、气愤、尴尬、高兴、伤心等,不同的情绪对应不同的生理特征参数,例如,当人紧张或恐惧时,心跳会加速、血压也会升高,而当人兴奋或尴尬时,体温会上升,因而根据穿戴式设备用户的生理特征参数,可以分析出该穿戴式设备用户的当前情绪。
在根据获取到的生理特征参数分析该穿戴式设备用户的当前情绪之前,优选地,首先,通过穿戴式设备对穿戴式设备用户的语音进行检测,以得到该穿戴式设备用户的语音特征(例如,声强、响度、音频等特征),然后,根据得到的语音特征和获取到的生理特征参数分析该穿戴式设备用户的当前情绪,从而提高了分析当前情绪的准确度。
进一步优选地,根据语音特征对男音、女音进行辨别,从而提高后续匹配出的情绪特效的生动性。
在步骤S103中,将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效。
在本发明实施例中,将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效,例如,当分析出穿戴式设备用户当前情绪为高兴时,则可在预先设置的情绪特效数据库中匹配出笑脸的特效。
优选地,匹配出的情绪特效会根据分析出的当前情绪的强弱进行调整,例如,当分析出当前高兴程度很强烈时,则笑脸幅度越大或者增加笑脸的数量,从而提高了视频通话的趣味性。
在步骤S104中,将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出。
在本发明实施例中,将匹配到的情绪特效(例如,笑脸特效)与通话终端中视频通话的双方视频画面进行合成,并在双方视频画面中同步显示输出。
优选地,通过穿戴式设备获取视频通话时的天气情况,将获取到的天气情况(例如,晴、多云、风、雪等)作为通话终端中视频通话的背景,与匹配到的情绪特效和视频通话的视频画面进行合成,并在双方的视频画面中同步显示输出,从而提高了通话终端中视频通话的趣味性。
在将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出时,优选地,穿戴式设备根据获取到的穿戴式设备用户的生理特征参数和穿戴式设备用户的语音特征判断该穿戴式设备用户与正在进行视频通话的通话终端用户是否为同一个人,当判断出为同一个人时,将匹配到的情绪特效在通话终端的视频通话的双方视频画面中同步显示输出,从而提高了当前输出的情绪特效与穿戴式设备用户当前情绪的匹配度。
在本发明实施例中,当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过穿戴式设备获取穿戴式设备用户的生理特征参数,根据获取到的生理特征参数分析该穿戴式设备用户的当前情绪,将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效,将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出,本发明实施例根据穿戴式设备用户的情绪变化在通话终端的视频通话的视频画面中添加特效,从而提高了通话终端中视频通话的趣味性,进而提高了用户体验。
实施例二:
图2示出了本发明实施例二提供的基于穿戴式设备的视频通话方法的实现流程,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S201中,当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过该穿戴式设备获取穿戴式设备用户的生理特征参数。
本发明实施例中适用于通话终端,例如,智能手机、平板电脑、智能手表等。通话终端和穿戴式设备可以为同一设备,例如,当穿戴式设备内置有摄像头时,可以通过自身的摄像头实现与家人、朋友的视频通话,而当穿戴式设备没有摄像头时,可以将该穿戴式设备通过蓝牙或者WiFi与具备摄像头的通话终端进行连接,借助于通话终端上的摄像头来实现与家人、朋友的视频通话。
在通过穿戴式设备获取该穿戴式设备用户的生理特征参数时,优选地,通过穿戴式设备内置的脉搏传感器、温度传感器等传感器对穿戴式设备用户的脉搏和/或体温和/或血压进行检测,以得到穿戴式设备用户对应的生理特征参数,从而提高了获取的生理特征参数的精确度。
在本发明实施例中,进一步优选地,在通过穿戴式设备对穿戴式设备用户的脉搏和/或体温和/或血压进行检测的同时,当穿戴式设备具有身高和/或体重测量功能时,也可以通过穿戴式设备对穿戴式设备用户的身高和/或体重进行检测,从而进一步提高了获取的生理特征参数的精确度。
在步骤S202中,通过通话终端对该穿戴式设备用户的面部表情进行检测,以得到该穿戴式设备用户的面部表情特征。
在本发明实施例中,通过通话终端对该穿戴式设备用户的面部表情(例如,嘴部、眼部、眉毛等部位的表情)进行检测,以得到该穿戴式设备用户的面部表情特征(例如,嘴角的弧度、瞳孔的收缩状态、眉毛的状态以及鼻孔的状态等)。
在步骤S203中,根据得到的面部表情特征和获取到的生理特征参数分析该穿戴式设备用户的当前情绪。
在本发明实施例中,根据得到的面部表情特征和获取到的生理特征参数分析该穿戴式设备用户的当前情绪,例如,得到的面部表情特征有嘴角翘起、面颊上抬起皱、眼睑收缩,获取到的脉搏跳动过快(例如,100次/分),则说明该穿戴式设备用户当前非常高兴。
在步骤S204中,将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效。
在本发明实施例中,将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效,例如,当分析出穿戴式设备用户当前情绪为高兴时,则可在预先设置的情绪特效数据库中匹配出笑脸的特效。
优选地,匹配出的情绪特效会根据分析出的当前情绪的强弱进行调整,例如,当分析出当前高兴程度很强烈时,则笑脸幅度越大或者增加笑脸的数量,从而提高了视频通话的趣味性。
在步骤S205中,将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出。
在本发明实施例中,将匹配到的情绪特效(例如,笑脸特效)与通话终端中视频通话的双方视频画面进行合成,并在双方视频画面中同步显示输出。
优选地,通过穿戴式设备获取视频通话时的天气情况,将获取到的天气情况(例如,晴、多云、风、雪等)作为通话终端中视频通话的背景,与匹配到的情绪特效和视频通话的视频画面进行合成,并在双方的视频画面中同步显示输出,从而提高了通话终端中视频通话的趣味性。
在将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出时,优选地,穿戴式设备根据获取到的穿戴式设备用户的生理特征参数和穿戴式设备用户的语音特征判断该穿戴式设备用户与正在进行视频通话的通话终端用户是否为同一个人,当判断出为同一个人时,将匹配到的情绪特效在通话终端的视频通话的双方视频画面中同步显示输出,从而提高了当前输出的情绪特效与穿戴式设备用户当前情绪的匹配度。
在本发明实施例中,根据穿戴式设备用户的生理特征参数和面部表情特征获取该穿戴式设备用户的当前情绪,以在通话终端的视频通话的视频画面中显示输出符合该穿戴式设备用户当前情绪的特效,从而提高了通话终端中视频通话的趣味性,进而提高了用户体验。
实施例三:
图3示出了本发明实施例三提供的基于穿戴式设备的视频通话装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分,其中包括:
参数获取单元31,用于当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过穿戴式设备获取穿戴式设备用户的生理特征参数。
本发明实施例中适用于通话终端,例如,智能手机、平板电脑、智能手表等。通话终端和穿戴式设备可以为同一设备,例如,当穿戴式设备内置有摄像头时,可以通过自身的摄像头实现与家人、朋友的视频通话,而当穿戴式设备没有摄像头时,可以将该穿戴式设备通过蓝牙或者WiFi与具备摄像头的通话终端进行连接,借助于通话终端上的摄像头来实现与家人、朋友的视频通话。
在通过穿戴式设备获取该穿戴式设备用户的生理特征参数时,优选地,通过穿戴式设备内置的脉搏传感器、温度传感器等传感器对穿戴式设备用户的脉搏和/或体温和/或血压进行检测,以得到穿戴式设备用户对应的生理特征参数,从而提高了获取的生理特征参数的精确度。
在本发明实施例中,进一步优选地,在通过穿戴式设备对穿戴式设备用户的脉搏和/或体温和/或血压进行检测的同时,当穿戴式设备具有身高和/或体重测量功能时,也可以通过穿戴式设备对穿戴式设备用户的身高和/或体重进行检测,从而进一步提高了获取的生理特征参数的精确度。
情绪分析单元32,用于根据获取到的生理特征参数分析该穿戴式设备用户的当前情绪。
在本发明实施例中,情绪主要是指紧张、恐惧、气愤、尴尬、高兴、伤心等,不同的情绪对应不同的生理特征参数,例如,当人紧张或恐惧时,心跳会加速、血压也会升高,而当人兴奋或尴尬时,体温会上升,因而根据穿戴式设备用户的生理特征参数,可以分析出该穿戴式设备用户的当前情绪。
特效获得单元33,用于将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效。
在本发明实施例中,将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效,例如,当分析出穿戴式设备用户当前情绪为高兴时,则可在预先设置的情绪特效数据库中匹配出笑脸的特效。
优选地,匹配出的情绪特效会根据分析出的当前情绪的强弱进行调整,例如,当分析出当前高兴程度很强烈时,则笑脸幅度越大或者增加笑脸的数量,从而提高了视频通话的趣味性。
显示输出单元34,用于将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出。
在本发明实施例中,将匹配到的情绪特效(例如,笑脸特效)与通话终端中视频通话的双方视频画面进行合成,并在双方视频画面中同步显示输出。
优选地,通过穿戴式设备获取视频通话时的天气情况,将获取到的天气情况(例如,晴、多云、风、雪等)作为通话终端中视频通话的背景,与匹配到的情绪特效和视频通话的视频画面进行合成,并在双方的视频画面中同步显示输出,从而提高了通话终端中视频通话的趣味性。
在将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出时,优选地,穿戴式设备根据获取到的穿戴式设备用户的生理特征参数和穿戴式设备用户的语音特征判断该穿戴式设备用户与正在进行视频通话的通话终端用户是否为同一个人,当判断出为同一个人时,将匹配到的情绪特效在通话终端的视频通话的双方视频画面中同步显示输出,从而提高了当前输出的情绪特效与穿戴式设备用户当前情绪的匹配度。
因此,如图4所示,优选地,其中,参数获取单元31包括:
参数获取子单元311,用于通过穿戴式设备对穿戴式设备用户的脉搏和/或体温和/或血压进行检测,以得到该穿戴式设备用户的脉搏和/或体温和/或血压参数。
在本发明实施例中,基于穿戴式设备的视频通话装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明。
实施例四:
图5示出了本发明实施例四提供的基于穿戴式设备的视频通话装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分,其中包括:
参数获取单元51,用于当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过该穿戴式设备获取穿戴式设备用户的生理特征参数;
面部表情检测单元52,用于通过通话终端对该穿戴式设备用户的面部表情进行检测,以得到该穿戴式设备用户的面部表情特征;
第一情绪分析单元53,用于根据得到的面部表情特征和获取到的生理特征参数分析该穿戴式设备用户的当前情绪;
特效获得单元54,用于将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效;以及
显示输出单元55,用于将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出。
在本发明实施例中,基于穿戴式设备的视频通话装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明。各单元的具体实施方式可参考实施例二的描述,在此不再赘述。
实施例五:
图6示出了本发明实施例五提供的基于穿戴式设备的视频通话装置的结构,为了便于说明,仅示出了与本发明实施例相关的部分,其中包括:
参数获取单元61,用于当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过该穿戴式设备获取穿戴式设备用户的生理特征参数;
语音检测单元62,用于通过穿戴式设备对该穿戴式设备用户的语音进行检测,以得到该穿戴式设备用户的语音特征;
第二情绪分析单元63,用于根据得到的语音特征和获取到的生理特征参数分析该穿戴式设备用户的当前情绪;
特效获得单元64,用于将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效;以及
显示输出单元65,用于将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出。
在本发明实施例中,基于穿戴式设备的视频通话装置的各单元可由相应的硬件或软件单元实现,各单元可以为独立的软、硬件单元,也可以集成为一个软、硬件单元,在此不用以限制本发明。各单元的具体实施方式可参考实施例一的描述,在此不再赘述。
实施例六:
图7示出了本发明实施例六提供的通话终端的结构,为了便于说明,仅示出了与本发明实施例相关的部分。
本发明实施例的通话终端7包括处理器70、存储器71以及存储在存储器71中并可在处理器70上运行的计算机程序72。该处理器70执行计算机程序72时实现上述基于穿戴式设备的视频通话方法实施例中的步骤,例如图1所示的步骤S101至S104。或者,处理器70执行计算机程序72时实现上述各装置实施例中各单元的功能,例如图3所示单元31至34的功能。
在本发明实施例中,当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过穿戴式设备获取穿戴式设备用户的生理特征参数,根据获取到的生理特征参数分析该穿戴式设备用户的当前情绪,将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效,将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出,本发明实施例根据穿戴式设备用户的情绪变化在通话终端的视频通话的视频画面中添加特效,从而提高了通话终端中视频通话的趣味性,进而提高了用户体验。
本发明实施例的通话终端可以为智能手机、平板电脑、智能手表。该通话终端7中处理器70执行计算机程序72时实现基于穿戴式设备的视频通话方法时实现的步骤可参考前述方法实施例的描述,在此不再赘述。
实施例七:
在本发明实施例中,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述基于穿戴式设备的视频通话方法实施例中的步骤,例如,图1所示的步骤S101至S104。或者,该计算机程序被处理器执行时实现上述各装置实施例中各单元的功能,例如图3所示单元31至34的功能。
在本发明实施例中,当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过穿戴式设备获取穿戴式设备用户的生理特征参数,根据获取到的生理特征参数分析该穿戴式设备用户的当前情绪,将分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与当前情绪相匹配的情绪特效,将匹配到的情绪特效在视频通话的双方视频画面中同步显示输出,本发明实施例根据穿戴式设备用户的情绪变化在通话终端的视频通话的视频画面中添加特效,从而提高了通话终端中视频通话的趣味性,进而提高了用户体验。
本发明实施例的计算机可读存储介质可以包括能够携带计算机程序代码的任何实体或装置、记录介质,例如,ROM/RAM、磁盘、光盘、闪存等存储器。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于穿戴式设备的视频通话方法,其特征在于,所述方法包括下述步骤:
当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过所述穿戴式设备获取所述穿戴式设备用户的生理特征参数;
根据所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪;
将所述分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与所述当前情绪相匹配的情绪特效;
将所述匹配到的情绪特效在视频通话的双方视频画面中同步显示输出。
2.如权利要求1所述的方法,其特征在于,通过所述穿戴式设备获取所述穿戴式设备用户的生理特征参数的步骤,包括:
通过所述穿戴式设备对所述穿戴式设备用户的脉搏和/或体温和/或血压进行检测,以得到所述穿戴式设备用户的脉搏和/或体温和/或血压参数。
3.如权利要求1所述的方法,其特征在于,
当检测到与穿戴式设备连接的通话终端正在进行视频通话时,根据所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪的步骤之前,所述方法还包括:
通过所述通话终端对所述穿戴式设备用户的面部表情进行检测,以得到所述穿戴式设备用户的面部表情特征;
根据所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪的步骤,包括:
根据所述得到的面部表情特征和所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪。
4.如权利要求1所述的方法,其特征在于,当检测到与穿戴式设备连接的通话终端正在进行视频通话时,根据所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪的步骤之前,所述方法还包括:
通过所述穿戴式设备对所述穿戴式设备用户的语音进行检测,以得到所述穿戴式设备用户的语音特征;
根据所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪的步骤,包括:
根据所述得到的语音特征和所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪。
5.一种基于穿戴式设备的视频通话装置,其特征在于,所述装置包括:
参数获取单元,用于当检测到与穿戴式设备连接的通话终端正在进行视频通话时,通过所述穿戴式设备获取所述穿戴式设备用户的生理特征参数;
情绪分析单元,用于根据所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪;
特效获得单元,用于将所述分析出的当前情绪与预先设置的情绪特效数据库中的情绪进行匹配,获得与所述当前情绪相匹配的情绪特效;以及
显示输出单元,用于将所述匹配到的情绪特效在视频通话的双方视频画面中同步显示输出。
6.如权利要求5所述的装置,其特征在于,所述参数获取单元包括:
参数获取子单元,用于通过所述穿戴式设备对所述穿戴式设备用户的脉搏和/或体温和/或血压进行检测,以得到所述穿戴式设备用户的脉搏和/或体温和/或血压参数。
7.如权利要求5所述的装置,其特征在于,所述装置还包括:
面部表情检测单元,用于通过所述通话终端对所述穿戴式设备用户的面部表情进行检测,以得到所述穿戴式设备用户的面部表情特征;以及
所述情绪分析单元包括:
第一情绪分析单元,用于根据所述得到的面部表情特征和所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪。
8.如权利要求5所述的装置,其特征在于,所述装置还包括:
语音检测单元,用于通过所述穿戴式设备对所述穿戴式设备用户的语音进行检测,以得到所述穿戴式设备用户的语音特征;以及
所述情绪分析单元还包括:
第二情绪分析单元,用于根据所述得到的语音特征和所述获取到的生理特征参数分析所述穿戴式设备用户的当前情绪。
9.一种通话终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述方法的步骤。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201810240067.0A CN108401129A (zh) | 2018-03-22 | 2018-03-22 | 基于穿戴式设备的视频通话方法、装置、终端及存储介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201810240067.0A CN108401129A (zh) | 2018-03-22 | 2018-03-22 | 基于穿戴式设备的视频通话方法、装置、终端及存储介质 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN108401129A true CN108401129A (zh) | 2018-08-14 |
Family
ID=63092028
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201810240067.0A Pending CN108401129A (zh) | 2018-03-22 | 2018-03-22 | 基于穿戴式设备的视频通话方法、装置、终端及存储介质 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN108401129A (zh) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109345258A (zh) * | 2018-09-26 | 2019-02-15 | 广东小天才科技有限公司 | 一种安全支付方法、装置及智能穿戴设备 |
| CN109996026A (zh) * | 2019-04-23 | 2019-07-09 | 广东小天才科技有限公司 | 基于穿戴式设备的视频特效互动方法、装置、设备及介质 |
| CN111176440A (zh) * | 2019-11-22 | 2020-05-19 | 广东小天才科技有限公司 | 一种视频通话方法及可穿戴设备 |
| CN111507143A (zh) * | 2019-01-31 | 2020-08-07 | 北京字节跳动网络技术有限公司 | 表情图像效果生成方法、装置和电子设备 |
| CN112102949A (zh) * | 2020-08-31 | 2020-12-18 | 安徽大学 | 面部血流脉冲信号和面部器官运动特征提取方法 |
| CN112565913A (zh) * | 2020-11-30 | 2021-03-26 | 维沃移动通信有限公司 | 视频通话方法、装置和电子设备 |
Citations (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101018137A (zh) * | 2006-02-11 | 2007-08-15 | 腾讯科技(深圳)有限公司 | 一种向即时通信用户界面推送聊天场景的方法 |
| CN101720010A (zh) * | 2008-10-08 | 2010-06-02 | 三星电子株式会社 | 用于在移动通信终端中提供情绪表达的装置和方法 |
| CN101986732A (zh) * | 2010-11-05 | 2011-03-16 | 北京工业大学 | 一种在手机通话中添加背景场景的方法 |
| CN102307292A (zh) * | 2011-09-01 | 2012-01-04 | 宇龙计算机通信科技(深圳)有限公司 | 一种可视通话方法及可视终端 |
| US20130201272A1 (en) * | 2012-02-07 | 2013-08-08 | Niklas Enbom | Two mode agc for single and multiple speakers |
| US20140118547A1 (en) * | 2010-12-16 | 2014-05-01 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
| CN103905296A (zh) * | 2014-03-27 | 2014-07-02 | 华为技术有限公司 | 情绪信息的处理方法及装置 |
| CN103916536A (zh) * | 2013-01-07 | 2014-07-09 | 三星电子株式会社 | 用于移动终端中的用户界面方法和系统 |
| CN104035558A (zh) * | 2014-05-30 | 2014-09-10 | 小米科技有限责任公司 | 终端设备控制方法及装置 |
| US20140274185A1 (en) * | 2013-03-14 | 2014-09-18 | Aliphcom | Intelligence device connection for wireless media ecosystem |
| CN104285439A (zh) * | 2012-04-11 | 2015-01-14 | 刁杰 | 在虚拟会议中传达注视信息 |
| CN104426841A (zh) * | 2013-08-21 | 2015-03-18 | 阿里巴巴集团控股有限公司 | 设置背景图像的方法及相关的服务器和系统 |
| US20160066829A1 (en) * | 2014-09-05 | 2016-03-10 | Vision Service Plan | Wearable mental state monitor computer apparatus, systems, and related methods |
| CN105451090A (zh) * | 2014-08-26 | 2016-03-30 | 联想(北京)有限公司 | 图像处理方法和图像处理装置 |
| CN105847734A (zh) * | 2016-03-30 | 2016-08-10 | 宁波三博电子科技有限公司 | 一种基于人脸识别的视频通信方法及系统 |
| CN105847735A (zh) * | 2016-03-30 | 2016-08-10 | 宁波三博电子科技有限公司 | 一种基于人脸识别的即时弹幕视频通信方法及系统 |
| CN106537901A (zh) * | 2014-03-26 | 2017-03-22 | 马克·W·帕布利科弗 | 用于提供定制的娱乐内容的计算机处理方法和系统 |
| CN106791893A (zh) * | 2016-11-14 | 2017-05-31 | 北京小米移动软件有限公司 | 视频直播方法及装置 |
| CN107111334A (zh) * | 2014-11-06 | 2017-08-29 | 微软技术许可有限责任公司 | 用于传达情感状态的模块化可穿戴设备 |
| CN107623772A (zh) * | 2016-07-15 | 2018-01-23 | 阿里巴巴集团控股有限公司 | 通话界面的内容显示方法、装置、系统及智能通信设备 |
| CN107710222A (zh) * | 2015-06-26 | 2018-02-16 | 英特尔公司 | 情绪检测系统 |
| CN107807947A (zh) * | 2016-09-09 | 2018-03-16 | 索尼公司 | 基于情绪状态检测在电子设备上提供推荐的系统和方法 |
-
2018
- 2018-03-22 CN CN201810240067.0A patent/CN108401129A/zh active Pending
Patent Citations (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101018137A (zh) * | 2006-02-11 | 2007-08-15 | 腾讯科技(深圳)有限公司 | 一种向即时通信用户界面推送聊天场景的方法 |
| CN101720010A (zh) * | 2008-10-08 | 2010-06-02 | 三星电子株式会社 | 用于在移动通信终端中提供情绪表达的装置和方法 |
| CN101986732A (zh) * | 2010-11-05 | 2011-03-16 | 北京工业大学 | 一种在手机通话中添加背景场景的方法 |
| US20140118547A1 (en) * | 2010-12-16 | 2014-05-01 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
| CN102307292A (zh) * | 2011-09-01 | 2012-01-04 | 宇龙计算机通信科技(深圳)有限公司 | 一种可视通话方法及可视终端 |
| US20130201272A1 (en) * | 2012-02-07 | 2013-08-08 | Niklas Enbom | Two mode agc for single and multiple speakers |
| CN104285439A (zh) * | 2012-04-11 | 2015-01-14 | 刁杰 | 在虚拟会议中传达注视信息 |
| CN103916536A (zh) * | 2013-01-07 | 2014-07-09 | 三星电子株式会社 | 用于移动终端中的用户界面方法和系统 |
| US20140274185A1 (en) * | 2013-03-14 | 2014-09-18 | Aliphcom | Intelligence device connection for wireless media ecosystem |
| CN104426841A (zh) * | 2013-08-21 | 2015-03-18 | 阿里巴巴集团控股有限公司 | 设置背景图像的方法及相关的服务器和系统 |
| CN106537901A (zh) * | 2014-03-26 | 2017-03-22 | 马克·W·帕布利科弗 | 用于提供定制的娱乐内容的计算机处理方法和系统 |
| CN103905296A (zh) * | 2014-03-27 | 2014-07-02 | 华为技术有限公司 | 情绪信息的处理方法及装置 |
| CN104035558A (zh) * | 2014-05-30 | 2014-09-10 | 小米科技有限责任公司 | 终端设备控制方法及装置 |
| CN105451090A (zh) * | 2014-08-26 | 2016-03-30 | 联想(北京)有限公司 | 图像处理方法和图像处理装置 |
| US20160066829A1 (en) * | 2014-09-05 | 2016-03-10 | Vision Service Plan | Wearable mental state monitor computer apparatus, systems, and related methods |
| CN107111334A (zh) * | 2014-11-06 | 2017-08-29 | 微软技术许可有限责任公司 | 用于传达情感状态的模块化可穿戴设备 |
| CN107710222A (zh) * | 2015-06-26 | 2018-02-16 | 英特尔公司 | 情绪检测系统 |
| CN105847734A (zh) * | 2016-03-30 | 2016-08-10 | 宁波三博电子科技有限公司 | 一种基于人脸识别的视频通信方法及系统 |
| CN105847735A (zh) * | 2016-03-30 | 2016-08-10 | 宁波三博电子科技有限公司 | 一种基于人脸识别的即时弹幕视频通信方法及系统 |
| CN107623772A (zh) * | 2016-07-15 | 2018-01-23 | 阿里巴巴集团控股有限公司 | 通话界面的内容显示方法、装置、系统及智能通信设备 |
| CN107807947A (zh) * | 2016-09-09 | 2018-03-16 | 索尼公司 | 基于情绪状态检测在电子设备上提供推荐的系统和方法 |
| CN106791893A (zh) * | 2016-11-14 | 2017-05-31 | 北京小米移动软件有限公司 | 视频直播方法及装置 |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109345258A (zh) * | 2018-09-26 | 2019-02-15 | 广东小天才科技有限公司 | 一种安全支付方法、装置及智能穿戴设备 |
| CN109345258B (zh) * | 2018-09-26 | 2021-03-23 | 广东小天才科技有限公司 | 一种安全支付方法、装置及智能穿戴设备 |
| CN111507143A (zh) * | 2019-01-31 | 2020-08-07 | 北京字节跳动网络技术有限公司 | 表情图像效果生成方法、装置和电子设备 |
| CN111507143B (zh) * | 2019-01-31 | 2023-06-02 | 北京字节跳动网络技术有限公司 | 表情图像效果生成方法、装置和电子设备 |
| US12020469B2 (en) | 2019-01-31 | 2024-06-25 | Beijing Bytedance Network Technology Co., Ltd. | Method and device for generating image effect of facial expression, and electronic device |
| CN109996026A (zh) * | 2019-04-23 | 2019-07-09 | 广东小天才科技有限公司 | 基于穿戴式设备的视频特效互动方法、装置、设备及介质 |
| CN111176440A (zh) * | 2019-11-22 | 2020-05-19 | 广东小天才科技有限公司 | 一种视频通话方法及可穿戴设备 |
| CN111176440B (zh) * | 2019-11-22 | 2024-03-19 | 广东小天才科技有限公司 | 一种视频通话方法及可穿戴设备 |
| CN112102949A (zh) * | 2020-08-31 | 2020-12-18 | 安徽大学 | 面部血流脉冲信号和面部器官运动特征提取方法 |
| CN112565913A (zh) * | 2020-11-30 | 2021-03-26 | 维沃移动通信有限公司 | 视频通话方法、装置和电子设备 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108401129A (zh) | 基于穿戴式设备的视频通话方法、装置、终端及存储介质 | |
| CN109446876B (zh) | 手语信息处理方法、装置、电子设备和可读存储介质 | |
| CN105825486B (zh) | 美颜处理的方法及装置 | |
| KR101533065B1 (ko) | 화상통화 중 애니메이션 효과 제공 방법 및 장치 | |
| CN102103617B (zh) | 获取表情含义的方法和装置 | |
| US11527242B2 (en) | Lip-language identification method and apparatus, and augmented reality (AR) device and storage medium which identifies an object based on an azimuth angle associated with the AR field of view | |
| CN104850828B (zh) | 人物识别方法及装置 | |
| CN110377761A (zh) | 一种增强视频体验的方法及装置 | |
| CN110446000A (zh) | 一种生成对话人物形象的方法和装置 | |
| CN106339680A (zh) | 人脸关键点定位方法及装置 | |
| CN105357425B (zh) | 图像拍摄方法及装置 | |
| WO2020215590A1 (zh) | 智能拍摄设备及其基于生物特征识别的场景生成方法 | |
| CN105072327A (zh) | 一种防闭眼的人像拍摄处理的方法和装置 | |
| CN106469297A (zh) | 情绪识别方法、装置和终端设备 | |
| JP2021529634A (ja) | 色素検出方法および電子機器 | |
| CN111144266A (zh) | 人脸表情的识别方法及装置 | |
| CN106815557A (zh) | 一种人脸面部特征的评价方法、装置以及移动终端 | |
| CN112151041A (zh) | 基于录音机程序的录音方法、装置、设备及存储介质 | |
| CN114241347A (zh) | 皮肤敏感度的显示方法、装置、电子设备及可读存储介质 | |
| CN111698600A (zh) | 一种处理执行方法、装置及可读介质 | |
| KR20150134822A (ko) | 카메라를 구비하는 전자 장치의 부가 정보 획득 방법 및 장치 | |
| US20180173394A1 (en) | Method and apparatus for inputting expression information | |
| US11430264B2 (en) | Eye open or closed state detection method and electronic device | |
| CN107948503A (zh) | 一种拍照方法、拍照装置及移动终端 | |
| CN106341712A (zh) | 多媒体数据的处理方法及装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180814 |
|
| RJ01 | Rejection of invention patent application after publication |