今天分享下显式交互,顾名思义就是驾驶员和乘客主动发起与汽车进行互动的方式。与隐式交互相比,驾驶员和乘客等用户可以通过对话、主动执行任务、手势等方式与智能车辆助手进行显式交互。智能座舱在主动与用户互动的同时,还需要考虑各种文化和地理因素。

总的来讲显式交互其主要包括以下四个方面:

1、基于语音的交互

2、基于显示屏的交互

3、基于触觉的交互

4、多模式混合界面交互

一、基于语音的交互

当前语音交互分主机厂自己的,还有集成第三方助手当前主机厂自己的语音助手如我们之前介绍蔚来的Nomi,小鹏的小P(小鹏的自动驾驶XPILOT以及智能座舱Xmart OS) 还有宝马的,带有“嘿,宝马!”的 BMW 智能个人助理。奔驰的MBUX语音助手,当然还有Nvidia英伟达的 AI 智能汽车信仰中介绍的Drive concierge等。

集成的第三方助手,例如国内的天猫精灵,百度的小度等,例如国外的 Amazon Alexa 和 Apple CarPlay。

导航是最常用的 智能语音任务之一,其中驾驶员可以在旅途中请求导航方向,而无需在触摸屏控制台上键入内容,也无需在安全关键驾驶条件下查看显示路线。在长途驾驶中,尤其是在夜间,众所周知,与前排座位上的同伴交谈有助于保持驾驶员的警觉和清醒。

语音助手还可以帮助提醒驾驶员注意迎面而来的紧急车辆。警报器是由警车、救护车和消防车等紧急车辆发出的独特声音。紧急车辆发出警报声,提醒其他车辆和行人让路。提出了一种基于 CNN 的集成模型,用于将交通声景分类为噪声、警笛声和其他车辆声音。该方法展示了 96% 的准确度,即使是短 0.25 秒的样本也能正确分类紧急警报器。

二、基于显示的交互

我们在之前文中提到当前大屏时代,所以显示交互例如HMI都非常重要,当前显示输入可以是传统的基于按钮和旋钮、基于触摸屏的交互、语音交互或基于手势的交互。当前车载显示主要分三种:

1、普通屏幕显示

2、3D屏幕显示

3、AR 抬头显示

普通屏幕显示目前已经普及,目前HUD,特别是AR-HUD 和 HMD是发展的方向和重点,将信息丰富的虚拟元素与真实场景融合在一起,防止驾驶员将视线从道路上移开。HUD 通常用于高速驾驶,因此驾驶员在通过交通时无需将视线从道路上移开。以下是必要的而且是难点:

1)车辆的绝对位置以及姿态

2)头部和眼睛相对于车辆坐标系的相对位置和方向

3)识别和跟踪车辆外部的物体(例如车辆)

我们在之前提供了关于头部姿势估计的详细描述 。配准算法需要是实时的,以防止视觉延迟问题,适应车辆振动、快速的头部或眼睛运动以及来自真实场景的遮挡。提出了一种实时配准算法,AR HUD 应用的平均配准时间为 0.0781 秒,从而避免了视觉延迟问题。车辆振动可能会导致注册问题,并提出了一种在大振动期间从 HUD 隐藏虚拟对象的方法。

3D显示器可用于提供被动 3D 格式的显示信息。可以通过自动立体显示器提供警报和其他必要信息,因为已知 3D 信息可以更快地吸引人类注意力。这些研究为将 S3D 显示器整合到车辆中提供了指导。还有一个权衡,因为复杂的显示器对驾驶员来说更具吸引力和身临其境,但会增加对主要任务的分心。因此,在结合3D显示器时需要考虑适当的设计。

CAR路里大学堂特推出智能座舱功能测试工程师线上培训培训课程,课程分为线上课程和线下课程两部分,线上课程在5月8日正式开课,线下实操课程定在6月份开课,下图附线上大纲:(培训合格推荐就业),有感兴趣的朋友可以联系我们,咨询这套课程;

CAR路里大学堂是汽车技术、知识在线传播打造领导者。公司总部及研发基地设立于中国上海国际汽车城。为汽车技术人员的在线学习大学。为汽车及相关企业的工程师、高校相关大学生及广大汽车技术爱好者提供包括技术研发、生产制造、流程体系等全方位的知识库、培训课程。

CAR路里大学堂汇集业界精英、荟萃国内外先进技术,为汽车工程师们提供紧跟时代、全技术链的培训方案。是汽车技术、知识的圣地,人才成长的第二大学。聘请汽车行业具有实战经验的一线资深工程师,出身名校&名企,亲身授课,理论与实践紧密结合。带你学习“真功夫”,“掌握核心科技”.

参考文章

华夏EV网

来源:网络 ,如有侵权请联系我们

关键词: 智能座舱测试工程师系列文章六交互技术之显式交互(语