CN114684176A - 控制方法、控制装置、车辆和存储介质 - Google Patents
控制方法、控制装置、车辆和存储介质 Download PDFInfo
- Publication number
- CN114684176A CN114684176A CN202011583442.5A CN202011583442A CN114684176A CN 114684176 A CN114684176 A CN 114684176A CN 202011583442 A CN202011583442 A CN 202011583442A CN 114684176 A CN114684176 A CN 114684176A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- target
- interaction
- driver
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种控制方法,用于车辆的图形用户界面。控制方法包括:获取车辆的驾驶员的视觉信息,并响应于根据视觉信息确定的交互目标,控制交互目标进行预定操作以实现与图形用户界面进行交互。本申请实施方式的控制方法,使得车辆的驾驶员仅需通过较小的动作变化如眼睛和表情的变化、点头摇头等,即可实现与车辆图形用户界面的交互操作,在一定程度上代替了手的触控操作,有效地提高了驾驶过程的安全性。本申请还公开了一种控制装置、车辆和存储介质。
Description
技术领域
本申请涉及车辆技术领域,特别涉及一种用于车辆的图形用户界面的控制方法、控制装置、车辆和存储介质。
背景技术
随着汽车电子技术的发展,车辆越来越智能化。用户可通过车载中控大屏的车辆控制系统与车辆进行交互,从而实现对车辆的智能化控制。相关技术中,通常需要驾驶员先观察确定目标再通过触控操作与目标进行交互操作,然而,过多的接触操作会分散驾驶员在驾驶过程中的注意力,手眼并用在驾驶过程中也存在一定的安全隐患。
发明内容
有鉴于此,本申请的实施例提供了一种用于车辆的图形用户界面的控制方法、控制装置、车辆和存储介质。
本申请提供了一种控制方法,用于车辆的图形用户界面,控制方法包括:
获取所述车辆的驾驶员的视觉信息;
响应于根据所述视觉信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互。
在某些实施方法中,所述车辆包括多个摄像头,所述获取所述车辆的驾驶员的视觉信息包括:
获取所述多个摄像头采集的所述驾驶员的眼球信息以获取所述视觉信息。
在某些实施方法中,所述控制方法还包括:
获取所述驾驶员的表情信息;
所述响应于根据所述视觉信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互包括:
响应于根据所述眼球信息和所述表情信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互。
在某些实施方法中,所述车辆与云端服务器通信连接,所述服务器用于:
接收所述车辆发送的所述眼球信息和所述表情信息;
根据所述眼球信息确定所述驾驶员的视觉中心并确定所述视觉中心对应的目标;
根据所述表情信息确定所述驾驶员对所述目标的确认信息以确定所述目标为所述交互目标;
发送所述交互目标的确认信息至所述车辆;
所述响应于根据所述视觉信息和所述表情信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互包括:
响应于接收到的所述服务器反馈的所述确认信息,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互。
在某些实施方法中,所述驾驶员佩戴有可穿戴设备,所述可穿戴设备用于发射微波信号,所述车辆包括微波检测设备,所述获取所述车辆的驾驶员的视觉信息包括:
根据所述微波检测设备检测到微波信号获取所述视觉信息。
在某些实施方法中,所述响应于根据所述视觉信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互包括:
检测所述微波信号的发射方向;
确定所述发射方向对应的目标为所述交互目标。
在某些实施方法中,所述确定所述发射方向对应的目标为所述交互目标包括:
检测所述微波信号在所述发生方向上的驻停时间;
在所述驻停时间大于预定时间的情况下,确定所述发射方向对应的目标为所述交互目标。
本申请还提供了一种控制装置,用于车辆的图形用户界面,控制装置包括:
获取模块,用于获取所述车辆的驾驶员的视觉信息;
控制模块,用于响应根据所述视觉信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互。
本申请还提供了一种车辆,所述车辆包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,实现所述的用于车辆的图形用户界面的控制方法。
本申请还提供了一种计算机程序的非易失性计算机可读存储介质,当所述计算机程序被一个或多个处理器执行时,实现所述的用于车辆的图形用户界面的控制方法。
本申请实施方式的用于车辆图形用户界面的控制方法、控制装置、车辆和存储介质中,通过获取车辆的驾驶员的视觉信息,并响应于根据视觉信息确定的交互目标,通过控制交互目标进行预定操作以实现与图形用户界面进行交互。使得车辆的驾驶员仅需通过较小的动作变化如眼睛和表情的变化、头部的倾斜等,即可实现与车辆的图形用户界面的交互操作,在一定程度上代替了手的触控操作。因不需要手眼并用与图形用户界面进行交互操作,有效地提高了驾驶过程的安全性。
附图说明
本申请的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解。
图1是本申请某些实施方式的控制方法流程示意图;
图2是本申请某些实施方式的控制方法装置模块图;
图3是本申请某些实施方式的控制方法流程示意图;
图4是本申请某些实施方式的控制方法流程示意图;
图5是本申请某些实施方式的控制方法流程示意图;
图6是本申请某些实施方式的控制方法流程示意图;
图7是本申请某些实施方式的控制方法流程示意图;
图8是本申请某些实施方式的控制方法示例示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
请参阅图1,本申请提供了一种控制方法,用于车辆的图形用户界面,包括:
S10:获取车辆的驾驶员的视觉信息;
S20:响应于根据视觉信息确定的交互目标,控制交互目标进行预定操作以实现与图形用户界面进行交互。
请参阅图2,本申请实施方式还提供了一种用于车辆的图形用户界面的控制装置100,本申请实施方式的控制方法可以由控制装置100实现。控制装置100包括获取模块110和控制模块120。S10可以由获取模块110实现,S20可以由控制模块120实现。或者说,获取模块110用于获取车辆的驾驶员的视觉信息。控制模块120用于响应于根据视觉信息确定的交互目标,控制交互目标进行预定操作以实现与图形用户界面进行交互。
本申请实施方式还提供了一种车辆。车辆包括存储器和处理器。存储器中存储有计算机程序,处理器用于获取车辆的驾驶员的视觉信息,并响应于根据视觉信息确定的交互目标,控制交互目标进行预定操作以实现与图形用户界面进行交互。
随着汽车智能化的发展,驾驶员可通过图形用户界面(User Interface,UI)如车载中控大屏与车辆进行交互,从而实现对车辆的智能化控制。而车载中控大屏的UI中有多种APP程序及应用如车载导航APP、空调控制、及音乐播放等。驾驶员需要通过车载中控大屏的UI界面选择所需的APP。当进入选择的APP后,车载中控大屏的UI界面会切换为当前APP的UI界面,然后驾驶员进行更多后续选择。
具体地,当驾驶员启动本申请的控制方法时,相应模块会开始获取车辆的驾驶员的视觉信息。例如通过智能摄像头捕捉驾驶员的图像或视频信息,包括静态及动态信息。当驾驶员需要打开某个APP时,只需进行较小幅度的动作变化,例如通过眼睛看向所需APP,当摄像头捕捉到驾驶员的双目视线聚焦点后,通过相应模型进行截取、特征提取等计算识别出驾驶员想要打开的APP。UI界面严格划分为N*N块子区域,以对应N个APP的显示位置。
请参阅图8,例如,UI界面的长为40cm,宽为20cm,N=5,则界面可显示25个APP,而每一个APP占据的范围为长为8cm,宽为4cm。当根据视觉信息计算得出驾驶员的双目视线聚焦点的二维坐标位置为O(6cm,20cm),此位置位于空调APP的区域范围内,即宽为4cm-8cm,长为16cm-24cm。如此可确定驾驶员想打开的APP位置。
进一步地,可持续捕捉驾驶员的视觉信息,例如嘴角上扬、点头等较小幅度的动作变化。通过对此类视觉信息进行计算识别出当前驾驶员是否对确定的APP进行打开操作。其中,驾驶员还可通过某些可穿戴的设备发射出电磁波如微波进行操作,此时微波及其发射方向为获取的视觉信息。
进一步地,当根据视觉信息确定交互目标如某个APP后,控制APP进行预定操作,例如打开APP、切换或者关闭APP。当进入APP的UI界面后,还可根据视觉信息进行进一步类似的操作,驾驶员通眼睛看向APP相应控制按钮实现点击的功能。
例如,当驾驶员在形式过程中想调节空调系统,首先开启本方法,摄像头开始捕捉驾驶员的视觉信息。当驾驶员看向车载中控大屏的空调显示区域并实施嘴角上扬的动作,摄像头将此视觉信息发送至相应服务器进行计算并判断出驾驶员当前想打开空调系统,然后执行相应操作如打开空调APP。驾驶员继续进行下一步操作如想对空调进行升温,则驾驶员看向温度增加控件“+”并实施嘴角上扬的动作,摄像头将此视觉信息继续发送至相应服务器进行计算从而执行温度增加的操作。
需要说明的是,驾驶员不需要长时间注视UI界面,而仅需看向UI界面某个区域并立即返回之前的作动即可,后续的嘴角上扬等动作可与看向同时实施或在返回之后实施。
如此,本申请通过获取车辆的驾驶员的视觉信息,并响应于根据视觉信息确定的交互目标,通过控制交互目标进行预定操作以实现与图形用户界面进行交互。使得车辆的驾驶员仅需通过较小的动作变化如眼睛和表情的变化、点头摇头等,即可实现与车辆的图形用户界面的交互操作,在一定程度上代替了手的触控操作。因不需要手眼并用与图形用户界面进行较长时间的交互操作,有效地提高了驾驶过程的安全性。
请参阅图3,在某些实施方法中,车辆包括多个摄像头,S10包括:
S101:获取多个摄像头采集的驾驶员的眼球信息以获取视觉信息。
在某些实施方法中,S101可以由获取模块110实现。或者说,获取模块110用于获取多个摄像头采集的驾驶员的眼球信息以获取视觉信息。
在某些实施方法中,处理器用于获取多个摄像头采集的驾驶员的眼球信息以获取视觉信息。
具体地,车辆可设置多个摄像头用于获取驾驶员的视觉信息。其中,摄像头的位置可根据实际情况设置,例如在车载中控大屏的角落位置,或车载中控大屏上方的位置。具体根据以可实现获取驾驶员的视觉信息来识别出眼球视觉中心位于UI界面的位置,其具体实现位置信息不作为对本申请的限制。
其中,摄像头的数量为四个或四个以上,目的为可较为准确获取驾驶员的双目视线聚焦点,从而判断出驾驶员看向的APP的位置。要实现此功能,需要四个或四个以上摄像头,如四个摄像头,分别从车载中控大屏的上下左右四个方向来捕捉驾驶员的视觉信息。
请参阅图4,在某些实施方法中,控制方法还包括:
S30:获取驾驶员的表情信息。
进一步地,S20包括:
S201:响应于根据眼球信息和表情信息确定的交互目标,控制交互目标进行预定操作以实现与图形用户界面进行交互。
在某些实施方法中,S30可以由获取模块110实现,S201可以由控制模块120实现。或者说,获取模块110用于获取驾驶员的表情信息,同时控制模块120用于响应于根据眼球信息和表情信息确定的交互目标,控制交互目标进行预定操作以实现与图形用户界面进行交互。
在某些实施方法中,处理器用于获取驾驶员的表情信息,并响应于根据眼球信息和表情信息确定的交互目标,控制交互目标进行预定操作以实现与图形用户界面进行交互。
具体地,驾驶员的表情信息包括嘴巴信息或者头部信息等。例如嘴角上扬、噘嘴等,或者点头、摇头等较小的动作信息。
通过多个摄像头如四个摄像头获取视频或动态图像,然后对所获取的信息进行预处理,及人脸检测。当识别出人脸后,进一步地,通过相应的注视点估计技术去追踪驾驶员的双目视线聚焦的落点。同理,亦可截取出嘴部信息识别判断是否为嘴角上扬状态、或噘嘴等。或根据人脸行为识别判断是否为点头、摇头。
具体地,对人脸进行检测可将获取的视频或动态图像信息经坐标变换得到像素坐标图,然后对4个坐标图提取ORB特征(Oriented FAST and Rotated BRIEF)并进行粗匹配,并利用随机抽样一致(Random Sample Consensus,RANSAC)算法剔除误匹配点,拟合出单应性矩阵的初始值,再使用Levenberg-Marquardt非线性迭代最小逼近法进行求精,经图像配准、融合和拼接后,生成全景坐标视图。
进一步地,可利用Haar特征或LBP特征训练多个弱分类模型,组成最终的分类器进行人脸检测。
当检测出人脸图像后,四个摄像头可进一步获取包括左眼图像、右眼图像、人脸图像以及人脸位置。对这四种信息输入由四条支路分别处理,融合后输出得到一个二维坐标位置(x,y)。其算法可利用单隐层前馈神经网络中的极限学习机。然后将此二维坐标位置(x,y)与UI界面如车载中控大屏N*N块子区域进行匹配,计算出驾驶员当前的双目视线聚焦落点的APP。
进一步地,当检测出人脸图像后,可截取驾驶员的嘴部感兴趣区域(Region OfInteresting,ROI),利用卷积神经网络对上扬的嘴角进行定位。同理可对点头或摇头等动作进行识别确定。
如此,仅需驾驶员通过眼睛看向UI界面的某个APP区域,并通过多个摄像头对驾驶员的视觉信息进行捕捉,即可识别出驾驶员想要打开的APP。进一步地,通过识别驾驶员的表情信息以对确定的APP执行打开操作。在一定程度上代替了手的触控操作。因不需要手眼并用与图形用户界面进行较长时间的交互操作,有效地提高了驾驶过程的安全性。
请参阅图5,在某些实施方法中,车辆与云端服务器通信连接,服务器包括:
S200:接收车辆发送的眼球信息和表情信息;
S300:根据眼球信息确定驾驶员的视觉中心并确定视觉中心对应的目标;
S400:根据表情信息确定驾驶员对目标的确认信息以确定目标为交互目标;
S500:发送交互目标的确认信息至车辆;
进一步地,S201包括:
S2011:响应于接收到的服务器反馈的确认信息,控制交互目标进行预定操作以实现与图形用户界面进行交互。
具体地,服务器可为云端服务器,主要用于对获取的信息进行计算识别。当本申请的控制方法启动时,车辆的摄像头捕捉并获取到驾驶员的眼球信息和表情信息,并将此信息实时且持续地发送至云端服务器,服务器根据眼球信息及UI界面和各APP的相关参数信息进行计算,以确定驾驶员双目视线聚焦点对应的交互目标,或者说驾驶员当前想要打开的APP,并发送至车辆。同时,根据获取的表情信息进一步识别其嘴部信息如嘴角上扬,若判断驾驶员当前嘴角上扬,则可生成打开控制指令,并将交互目标的确认信息及控制指令发送至车辆。
当车辆收到确认的交互目标及其控制指令,如交互目标为“导航控制系统”,控制指令为“打开”,则执行相应操作,即打开“导航控制系统”APP。
如此,通过云端服务器对控制方法进行计算识别并生成控制指令,然后返回至车辆,车辆执行相应操作。
请参阅图6,在某些实施方法中,驾驶员佩戴有可穿戴设备,可穿戴设备用于发射微波信号,车辆包括微波检测设备,S10还包括:
S102:根据微波检测设备检测到微波信号获取视觉信息。
在某些实施方法中,S102可以由获取模块110实现。或者说,获取模块110用于根据微波检测设备检测到微波信号获取视觉信息。
在某些实施方法中,处理器用于根据微波检测设备检测到微波信号获取视觉信息。
具体地,驾驶员可佩戴有可穿戴设备,可穿戴设备用于发射微波信号,例如可发射微波的眼镜或可发射微波的头盔等。当驾驶员需要对UI界面进行操作时,可佩戴此眼镜。进一步地,驾驶员可通过方向盘操作开启微波控制功能。当此功能开启后,驾驶员头部快速转动看向UI界面上所需打开的APP并保持短暂停留如1秒,微波检测设备如雷达可检测识别到该微波信息。其中,微波检测设备可安装在车载中控大屏后端以接收微波。
请再次参阅图6,在某些实施方法中,S20还包括:
S202:检测微波信号的发射方向;
S203:确定发射方向对应的目标为交互目标。
在某些实施方法中,S202和S203可以由控制模块120实现。或者说,控制模块120用于检测微波信号的发射方向,并确定发射方向对应的目标为交互目标。
在某些实施方法中,处理器用于检测微波信号的发射方向,并确定发射方向对应的目标为交互目标。
具体地,当微波功能开启后,驾驶员头部快速转动看向UI界面上所需打开的APP,此时微波检测设备如雷达可检测识别到该微波信息。进一步的,根据该微波的发射方向,并结合UI界面和APP的相关参数信息进行识别以判断出该微波停留的区域范围,从而得到驾驶员想要打开的APP,当确定APP后,可直接执行点击以打开该APP,也可通过二次微波发射或其它进一步确认操作以打开该APP。
如此,本实施方法的可发射微波的可穿戴设备,通过发射微波以确定交互目标,在一定程度上避免了驾驶员的手动触控,降低了手眼并用的安全风险。另外,无需在服务器中增加计算方法模型,实现较为简单。需要说明的是,因其需要驾驶员视线的短暂停留,可更多应用于非行驶过程中的UI界面控制。
请参阅图7,在某些实施方法中,S203包括:
S2031:检测微波信号在发生方向上的驻停时间;
S2032:在驻停时间大于预定时间的情况下,确定发射方向对应的目标为交互目标。
在某些实施方法中,S202和S203可以由控制模块120实现。或者说,控制模块120用于检测微波信号的发射方向,并确定发射方向对应的目标为交互目标。
在某些实施方法中,处理器用于检测微波信号的发射方向,并确定发射方向对应的目标为交互目标。
具体地,当微波功能开启后,驾驶员头部快速转动看向UI界面上所需打开的APP并保持短暂停留大于或等于预定时间如1秒,此时微波检测设备如雷达可检测识别到该微波信息,并通过预定时间进行判断。若微波停留时间小于1秒,则不识别,例如驾驶员扫过该区域的情况。反之,若微波停留时间大于或等于1秒,则开始识别,根据该微波的发射方向,并结合UI界面和APP的相关参数信息进行计算以判断出该微波停留的区域范围,从而得到驾驶员想要打开的APP。当确定APP后,可直接执行点击以打开该APP,也可通过二次微波发射或其它进一步确认操作以打开该APP。
如此,本实施方法在前述通过可发射微波的可穿戴设备来进行UI界面交互的控制方法的基础上加入了预定时间,通过预定时间可排除某些误判情况如驾驶员仅扫过该区域,而不是想要打开该区域所属的APP。从而有效地提高了该控制方法的准确度。
在某些实施方法中,可结合微波发射与人脸检测。具体地,当微波功能开启后,驾驶员头部快速转动看向UI界面上所需打开的APP并保持短暂停留大于或等于预定时间如1秒,此时微波检测设备如雷达可检测识别到该微波信息,并通过预定时间进行判断是否确定交互目标。若微波停留时间小于1秒,则不识别,例如驾驶员扫过该区域的情况。反之,若微波停留时间大于或等于1秒,则可确定为交互目标,进一步地,可根据驾驶员的表情信息包括嘴巴信息或者头部信息判定是否对交互目标执行操作如打开,例如嘴角上扬、噘嘴等,或者点头、摇头等较小的动作信息。
具体地,通过多个摄像头如四个摄像头获取视频或动态图像,然后对所获取的信息进行预处理,及人脸检测。当识别出人脸后,截取出嘴部信息识别判断是否为嘴角上扬状态、或噘嘴等。或根据人脸行为识别判断是否为点头、摇头。
如此,结合检测到微波发射信号以确定交互目标,然后根据嘴角上扬等较小的动作信息打开交互目标APP,相较于上述方案提高了识别的准确性。
在某些实施方法中,当微波功能开启后,驾驶员头部快速转动看向UI界面上所需打开的APP,此时微波检测设备如雷达可检测识别到该微波信息。进一步地,可根据驾驶员的表情信息包括嘴巴信息或者头部信息确定及打开交互目标,例如嘴角上扬、噘嘴等,或者点头、摇头等较小的动作信息。
具体地,通过多个摄像头如四个摄像头获取视频或动态图像,然后对所获取的信息进行预处理,及人脸检测。当识别出人脸后,截取出嘴部信息识别判断是否为嘴角上扬状态、或噘嘴等。或根据人脸行为识别判断是否为点头、摇头。
如此,结合检测到微波发射信号,根据嘴角上扬等较小的动作信息确定及打开交互目标APP,相较于上述方案,无需视线停留时间,有效地提高了行驶安全性。
综上所述,本申请实施方式的用于车辆图形用户界面的控制方法、控制装置、车辆和存储介质中,通过获取车辆的驾驶员的视觉信息,然后通过智能模型识别出驾驶员的双目聚焦视线点以确定驾驶员看向的交互目标,并通过较小的动作或表情信息对确定的交互目标进行操作。使得车辆的驾驶员仅需通过较小的动作变化如眼睛和表情的变化、头部的倾斜等,即可实现与车辆的图形用户界面的交互操作,在一定程度上代替了手的触控操作。因不需要手眼并用与图形用户界面进行交互操作,有效地提高了驾驶过程的安全性。优选地,可通过多个摄像头获取驾驶员的眼球信息来确定交互目标的准确位置,进而通过获取驾驶员的表情信息来确定是否执行点击操作。将确认和操作分步实行,可在一定程度上提高控制方法的准确性,提升用户体验。在某些实施方法中,还可通过可发射微波的可穿戴设备及微波检测设备来进行UI界面的交互控制,而无需在服务器增加计算识别等模型,在一定程度上简单地实现了代替了手的触控操作,以避免手眼触控带来的驾驶安全风险。
本申请实施方式还提供了一种车辆。车辆包括存储器及一个或多个处理器,一个或多个程序被存储在存储器中,并且被配置成由一个或多个处理器执行。程序包括用于执行上述任意一项实施方式所述的用于车辆的图形用户界面的控制方法的指令。处理器可用于提供计算和控制能力,支撑整个车辆的运行。存储器为存储在其中的计算机可读指令运行提供环境。
本申请实施方式还提供了一种计算机可读存储介质。一个或多个存储有计算机程序的非易失性计算机可读存储介质,当计算机程序被一个或多个处理器执行时,实现上述任一实施方式的用于车辆的图形用户界面的控制方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的软件来完成。程序可存储于一非易失性计算机可读存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种控制方法,用于车辆的图形用户界面,其特征在于,所述控制方法包括:
获取所述车辆的驾驶员的视觉信息;
响应于根据所述视觉信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互。
2.根据权利要求1所述的控制方法,其特征在于,所述车辆包括多个摄像头,所述获取所述车辆的驾驶员的视觉信息包括:
获取所述多个摄像头采集的所述驾驶员的眼球信息以获取所述视觉信息。
3.根据权利要求2所述的控制方法,其特征在于,所述控制方法还包括:
获取所述驾驶员的表情信息;
所述响应于根据所述视觉信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互包括:
响应于根据所述眼球信息和所述表情信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互。
4.根据权利要求3所述的控制方法,其特征在于,所述车辆与云端服务器通信连接,所述服务器用于:
接收所述车辆发送的所述眼球信息和所述表情信息;
根据所述眼球信息确定所述驾驶员的视觉中心并确定所述视觉中心对应的目标;
根据所述表情信息确定所述驾驶员对所述目标的确认信息以确定所述目标为所述交互目标;
发送所述交互目标的确认信息至所述车辆;
所述响应于根据所述视觉信息和所述表情信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互包括:
响应于接收到的所述服务器反馈的所述确认信息,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互。
5.根据权利要求1所述的控制方法,其特征在于,所述驾驶员佩戴有可穿戴设备,所述可穿戴设备用于发射微波信号,所述车辆包括微波检测设备,所述获取所述车辆的驾驶员的视觉信息包括:
根据所述微波检测设备检测到微波信号获取所述视觉信息。
6.根据权利要求5所述的控制方法,其特征在于,所述响应于根据所述视觉信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互包括:
检测所述微波信号的发射方向;
确定所述发射方向对应的目标为所述交互目标。
7.根据权利要求6所述的控制方法,其特征在于,所述确定所述发射方向对应的目标为所述交互目标包括:
检测所述微波信号在所述发生方向上的驻停时间;
在所述驻停时间大于预定时间的情况下,确定所述发射方向对应的目标为所述交互目标。
8.一种控制装置,用于车辆的图形用户界面,其特征在于,所述控制装置包括:
获取模块,用于获取所述车辆的驾驶员的视觉信息;
控制模块,用于响应根据所述视觉信息确定的交互目标,控制所述交互目标进行预定操作以实现与所述图形用户界面进行交互。
9.一种车辆,其特征在于,所述车辆包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,实现权利要求1-7任一项所述的控制方法。
10.一种计算机程序的非易失性计算机可读存储介质,其特征在于,当所述计算机程序被一个或多个处理器执行时,实现权利要求1-7任一项所述的控制方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202011583442.5A CN114684176A (zh) | 2020-12-28 | 2020-12-28 | 控制方法、控制装置、车辆和存储介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202011583442.5A CN114684176A (zh) | 2020-12-28 | 2020-12-28 | 控制方法、控制装置、车辆和存储介质 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN114684176A true CN114684176A (zh) | 2022-07-01 |
Family
ID=82130080
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202011583442.5A Pending CN114684176A (zh) | 2020-12-28 | 2020-12-28 | 控制方法、控制装置、车辆和存储介质 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN114684176A (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117784934A (zh) * | 2023-12-27 | 2024-03-29 | 湖北工业大学 | 一种车载触摸屏多媒体智能信息系统 |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4565999A (en) * | 1983-04-01 | 1986-01-21 | Prime Computer, Inc. | Light pencil |
| KR19980066375A (ko) * | 1997-01-23 | 1998-10-15 | 김광호 | 헬멧 마우스 |
| US6373961B1 (en) * | 1996-03-26 | 2002-04-16 | Eye Control Technologies, Inc. | Eye controllable screen pointer |
| US20150109191A1 (en) * | 2012-02-16 | 2015-04-23 | Google Inc. | Speech Recognition |
| US20150346820A1 (en) * | 2014-06-03 | 2015-12-03 | Google Inc. | Radar-Based Gesture-Recognition through a Wearable Device |
| US20160041391A1 (en) * | 2014-08-08 | 2016-02-11 | Greg Van Curen | Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space |
| CN110825216A (zh) * | 2018-08-10 | 2020-02-21 | 北京魔门塔科技有限公司 | 一种驾驶员驾驶时人机交互的方法和系统 |
-
2020
- 2020-12-28 CN CN202011583442.5A patent/CN114684176A/zh active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4565999A (en) * | 1983-04-01 | 1986-01-21 | Prime Computer, Inc. | Light pencil |
| US6373961B1 (en) * | 1996-03-26 | 2002-04-16 | Eye Control Technologies, Inc. | Eye controllable screen pointer |
| KR19980066375A (ko) * | 1997-01-23 | 1998-10-15 | 김광호 | 헬멧 마우스 |
| US20150109191A1 (en) * | 2012-02-16 | 2015-04-23 | Google Inc. | Speech Recognition |
| US20150346820A1 (en) * | 2014-06-03 | 2015-12-03 | Google Inc. | Radar-Based Gesture-Recognition through a Wearable Device |
| US20160041391A1 (en) * | 2014-08-08 | 2016-02-11 | Greg Van Curen | Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space |
| CN110825216A (zh) * | 2018-08-10 | 2020-02-21 | 北京魔门塔科技有限公司 | 一种驾驶员驾驶时人机交互的方法和系统 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117784934A (zh) * | 2023-12-27 | 2024-03-29 | 湖北工业大学 | 一种车载触摸屏多媒体智能信息系统 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111931579B (zh) | 利用眼动追踪和手势识别技术的自动驾驶辅助系统及方法 | |
| US11249557B2 (en) | Methods and systems for controlling a device using hand gestures in multi-user environment | |
| US12360588B2 (en) | Virtual models for communications between user devices and external observers | |
| WO2019149061A1 (en) | Gesture-and gaze-based visual data acquisition system | |
| CN114041175A (zh) | 一种用于使用真实感合成数据估计头部姿势和视线的神经网络 | |
| CN110362193B (zh) | 用手或眼睛跟踪辅助的目标跟踪方法及系统 | |
| US10635170B2 (en) | Operating device with eye tracker unit and method for calibrating an eye tracker unit of an operating device | |
| CN112241204A (zh) | 一种车载ar-hud的手势交互方法和系统 | |
| US20160171321A1 (en) | Determination apparatus and determination method | |
| US20150293585A1 (en) | System and method for controlling heads up display for vehicle | |
| US20220153278A1 (en) | Cognitive Heat Map: A Model for Driver Situational Awareness | |
| CN103853462A (zh) | 车辆内使用手形痕迹识别提供用户界面的系统和方法 | |
| CN109968979B (zh) | 车载投射处理方法、装置、车载设备及存储介质 | |
| CN114998870A (zh) | 一种驾驶行为状态识别方法、装置、设备及存储介质 | |
| CN113815627A (zh) | 用于确定车辆乘员的命令的方法和系统 | |
| CN114684176A (zh) | 控制方法、控制装置、车辆和存储介质 | |
| US20220043509A1 (en) | Gaze tracking | |
| CN114581627A (zh) | 基于arhud的成像方法和系统 | |
| CN118906967A (zh) | 一种内后视镜调节方法、装置、电子设备及存储介质 | |
| CN110796116A (zh) | 多面板显示系统、具有多面板显示系统的车辆及显示方法 | |
| CN120353026A (zh) | 显示系统及其显示控制方法、装置、介质及交通工具 | |
| CN109034137A (zh) | 头部姿态标记更新方法、装置、存储介质和终端设备 | |
| CN114495072A (zh) | 乘员状态检测方法及装置、电子设备和存储介质 | |
| EP4659980A1 (en) | Implicit gaze and focus distance calibration | |
| CN119018048B (zh) | 注视自适应的汽车交互部件发光调节方法、计算机装置和存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220701 |