LOFTER for ipad —— 让兴趣,更有趣

点击下载 关闭
智能座舱的下一个十年:被数字化占领
itashk 2020-10-28

多屏联动、智能表面、自动驾驶、新材料、情感引擎正在迅速普及到中高端豪华电动车型中,智能座舱的下一个十年,更多数字化技术将会完美融入到智能座舱中,智能座舱也势会以更全新的形式呈现出来!
 


 

1

从被动到主动的交互模式

真实驾驶场景中,驾驶者视线与双手被驾驶任务占据,但驾驶员拥有与外界交互的需求,在人车交互体系中,驾驶员的核心注意力一定是被“开车”这件事占据的。所以,驾驶人员和车机系统进行“沉浸式”的交互短时间内并不现实。

除了注意力这种无形的交互限制外,驾驶人员的双手和视线两个重要的交互通道也被占用了。驾驶员可以偶尔单手操作,但可交互的距离被限制在了臂长范围内,同时,由于路面可能会颠簸、单手操作时的肘部是悬空的,这些都会导致操控的精准度下降。

 

而另一方面,驾驶员的视线无法离开路面超过3秒,尤其是在高速驾驶的场景下,1秒钟内汽车的移动距离最高可达30多米,眨眼间,可能就会造成惨剧。

但是,人们其实很难在驾驶过程中老老实实的,双手握好方向盘,视线紧盯路面,别的什么都不做。通过我们的调研发现,用户在开车时,会做很多事情,比如看看路况、听听音乐、和朋友聊聊天,甚至下班的路上顺便定个外卖,到家刚好能吃上。

在这个数字化的智能时代,我们不可能让驾驶人员一坐进车里就突然断掉与外界的一切沟通,不去处理任何生活和工作的相关信息,只做开车这一件事。

 

结合前面说的驾驶场景下的交互特点,就会发现被动式交互是不适合在车内使用的。

用户需要发起和推进每一个节点,这样会导致视线需要频繁从路面上移开,不仅带来不安全的隐患,整个过程也是非常低效的。

于是我们设想,人与车的交互可不可以打破这种由人来发起再逐层深入的方式?汽车能不能在我需要的时候主动的把对应的服务放到我面前,而不再需要我在开车时手忙脚乱的去找。这样美好的体验设想,我们把它称为“主动式交互”。

 

那么什么是主动式交互呢?不同于被动式交互由人来发起,主动式交互以机器为起点,主动输出执行结果或建议给使用者,其次,机器可以自己主动的从外界输入信息然后进行决策判断,不再需要人来输入指令。随着智能化,自动化,电子化的趋势发展,车舱交互目标方向都为之动态变化。

智能化:随着技术,硬件和成本的发展,车里会越来越智能,智能化对交互方式影响是机器会增加担任主动输入的能力,所以随着车越来越智能化,车主在输入方面投入加少,效率更快。

自动化:随着自动驾驶的技术越来越成熟和普及,车主会逐渐释放注意力资源和手眼,可以更多投入车舱更多的娱乐操作当中。也会导致在输入输出反馈中更好利用视觉反馈。

电子化:去掉实体控件,科技感,简化内饰,降低成本,变成一种趋势。但是无论是触摸屏还是语音,都没有办法完美取代实体控件交互。然而,趋势仍然是站在触摸屏这边的。所以这也导致在车舱里交互的变化。

我们把车舱交互阶段抽象归纳为3个阶段进程,用户主动式交互---机器建议式交互---机器主动式交互。我们目前处于用户主动式交互到机器建议式交互到过渡期。而我们能推理出用户输入,机器输出/反馈和场景信息采集在这3个阶段进程里的趋势。

 

所以我们在规划未来的多模交互时,要增加对机器输出/反馈界面的重视,逐渐降低对用户输入的投入,重视场景信息采集,让机器承担更多主动输入输出的角色,从而真正解放用户的思考,达到自然交互的目的。

主动式交互的车机系统,应该做到精准与无感知的主动输入

主动输入的体验目标有两个,精准度和无感知。如果一开始机器对外界的感知就不精准,判断出错,那么机器的主动输出很有可能不是用户需要的,所以我们要确保精准。另一方面,机器的主动输入过程也不能干扰用户,那最好的方式就是让用户感知不到,也就是无感知交互。

 

我们把车和人感知世界的方式做比较,人有感官,可以通过看和听来感知周围的环境。同样的,我们通过在车内搭建一套硬件传感系统作为车的感官,借助AI的识别技术,让汽车也具备和人类似的听、说、看的能力。

主动式交互的车机系统,应该做到简洁高效的主动输出

说完了主动输入,我们再来看看主动输出;输出是机器主动和人进行沟通的重要环节,在驾驶这个特殊的场景下,机器的主动输出要尤为注重减少驾驶干扰和提升传达效率。

主动式交互能有效减少用户视线转移次数,提升安全性,主动式交互能省去记忆和寻找功能入口的麻烦,提高效率,无人车时代的“主动式交互”将由车内拓展到车外。

 

 

人工智能技术使得机器的自主性越来越强,机器会变得越来越智能,随之交互也会变得越来越主动。那么,在更加智能的无人驾驶时代,汽车又会怎样的“主动”的和人类交互呢?

事实上,在无人驾驶的时代,车不仅要和车内用户交流,还要主动的和车外行人、道路上行驶的其他车辆进行交互。而车和外部环境的沟通方式,由于距离和噪声的影响,也会有很大不同。

 

当我们走向车辆,汽车会通过传感器或人脸识别等技术来以语音、灯光、全息影像、车外屏等形式来给我们来打招呼。同时,会对我们进行全面识别,以确定我们是否携带行李和儿童,从而为我们提供行李搬运机器人,并为我们打开车门,安排适合我们乘坐人数的座椅配置方案。

 

 

 

2

从按键-语音-到多模态交互进阶

语音成为多模态融合的主流交互方式

随着科技发展和车主的期望,车内外的信息和功能越来越多,作为HMI设计师的任务就是让车主减少注意力资源占用,减少驾驶分神,所以交互方式由此产生阶段性变化:物理旋钮/按键——数字触屏——语音控制——多模态交互。

车内信息和功能随着越来越多,物理旋钮/按键的交互方式已经满足不了内容的扩展,数字界面由此在车内出现。但是当网联化后,娱乐信息成为了车内一大内容,数字界面的弊端也逐渐暴露出来了。界面层级导致操作效率的下降,而数字组件控件虽然解决了空间,成本,扩展迭代的问题,但是同时也缺失了物理旋钮/按键原本的触感反馈,易定位性及效率精细操作等优势,一定程度上影响到驾驶安全。

 

而此刻语音的出现,可以有效的提高操作效率,减少车主视线移开路面的时长,提高了驾驶安全。那么语音交互就是最终的理想形态了吗?答案是否定的,功能不可见性/输入输出效率低/识别正确率/意图理解/勿扰性等等弊端导致语音交互并不能解决所有问题。而近几年多模态交互方式概念的提出并应用,试图改善这些问题。

 

我个人觉得车舱交互的未来一定是以语音为主的多模态交互方式,从车辆、环境、驾驶员状态等全面的感知、融合、决策、交互。丰富多模的输入,语音作为主交互模式,其余模态作为辅助与增强作用。语音又是人工智能的先锋,也是最先落地的技术,当前还有很大的提升空间。

 

区别于以往的交互方式,语音交互在输入和输出方式上发生了质的变化,语音可以解放人们的双手和双眼,降低驾驶场景的操作风险,提高安全度。但目前语音交互仍不够自然,会受诸多条件限制,例如需要在安静环境下,先唤醒然后发出指令,使用普通话交流等,这些并不符合人们日常对话的习惯。

 

未来,随着语音技术的不断完善,语音交互的自然度将进一步提升,并愈加趋向人类自然对话的体验。


推荐文章
评论(0)
分享到
转载我的主页