汽车智能座舱展|AI,能否“卷”出智能座舱的终答案?
汽车上容易引入AI大模型技术的系统应该就是语音交互系统,不仅接入的操作难度较低,还能取得比较好的效果。
AI的高级自然语言处理技术够解析复杂的语言结构和语境,使语音系统能够理解用户的自然语言指令,使语音交互更加流畅、自然。区别于传统的语音助手,AI能够维护对话的上下文信息,支持多轮对话,提供更加连贯的交互体验。
以拥抱大模型的新势力为例,2023年6月,理想就发布了自研认知大模型Mind GPT,使车载语音助手理想同学更聪明。
通过大模型的高知识储备,Mind GPT可使理想同学的对话能力、理解能力得到提升,并且具备逻辑推理能力,问答体验更加流畅。Mind GPT自带的记忆网络还赋予了理想同学基于历史对话记住个性化偏好和习惯的能力,从而更好理解用户。
汽车智能座舱展了解到,当AI大模型逐渐从单模态走向多模态,车载交互系统还能从单一的语音交互转变为结合语音、视觉和触觉等多种感官输入的交互。
在触觉交互方面,多模态大模型能够使用压力传感器检测触摸力度和位置,利用电容变化检测触摸事件,并通过振动马达等设备提供触觉反馈,增强交互的直观性。
汽车智能座舱展了解到,在视觉交互方面,多模态大模型能够使用计算机视觉技术处理摄像头捕获的图像和视频,识别面部特征、视线方向和手势,进而通过面部识别进行驾驶员身份验证,分析驾驶员的视线方向,提供相应的交互反馈或辅助功能,并通过摄像头捕捉和分析手势动作,实现非接触式控制。
如果再加上使用结构光、ToF(Time of Flight)等技术获取三维空间的视觉信息,多模态大模型还能实现更精确的手势和面部识别。
人脸、手势、静脉,甚至眼球追踪……搭载了多模态大模型的车载交互简直就像开了黑科技。
以理想L7为例,它配备了3D深度传感器,如Melexis的MLX75027,能够识别用户的手势动作,允许用户通过手势来控制车内的导航、空调等。只要食指指向车窗,就能自动实现升降。
还有魏牌蓝山DHT PHEV,能够将语音和头姿结合,通过车载摄像头捕捉驾驶员的头部动作,进行确定或否定答复。
在智能化的下半场,由于汽车电子电气架构向中央集成式发展,舱驾融合无疑成为了目前公认的电动车的发展趋势。
航盛集团技术中心中央研究院副院长钱乾认为:“跨域融合能够通过一体化设计,解决算力的高效利用问题;不同部门之间也可以在流程上进行协同,提高开发效率。反映在整车产品上,是产品力的提升,系统间的数据传输将更快、系统效率与响应速度将更高;系统在复杂场景下的适应性将提升,用户的人机共驾体验将改善;而车型的平台化延展性也可以借助舱驾融合实现提升。”
而在此趋势下,AI大模型还能发挥更大的优势。
汽车智能座舱展了解到,座舱从开始的机械座舱,转变为带触摸技术、大屏的智能空间,而在舱驾融合的趋势下,很多智能驾驶的功能将由智能座舱向用户传递,智能座舱正承担着越来越多的使用场景。
在平时,AI可以收集驾驶者的驾驶习惯、偏好,从而在智驾时提供个性化设置,比如定制的驾驶模式、驾驶路线等等。
并且,在驾驶途中,AI还能利用多模态交互收集传感器数据,以语音或可视化的形式向驾驶员传递车辆性能和路况的信息,并根据驾驶员的指令做出相应的行为。
以商汤绝影的DriveAGI为例,用户不仅可以通过问询让DriveAGI解释自己的决策过程,还能通过语音或手势指令来控制自动驾驶行为。
例如,未来在自动驾驶状态下,导航指示车辆需在下个路口调头以抵达目的地,但驾驶员知晓可在前方有近路可以直接转弯,那么他只需对系统说出「直接左拐」,系统便会根据当前路况来执行这一指令。
目前ADAS和智能座舱结合得不深,未来将二者融合可能会成为一个新的趋势,能够创造出许多新功能和交互模态,从而提升驾驶体验和安全性。
在蔚来科技日新发布的Banyan 3中,也能感受到AI正在越来越多地影响舱驾融合。例如,对NOMI说“找个好停的停车场”,它就会主动分析停车场和目的地的步行距离,在天气热的时候推荐地下停车场,甚至车位是否机械车位等信息。
不仅如此,NOMI还可以调用车端记录仪,推理并总结包括人靠近、车靠近、人驻留、开门杀等在内的八大场景。
文章来源:铃轩之声--微信公众号