2030 年,智能座舱是什么样子?—— 《智能座舱市场与技术发展趋势研究白皮书》独家解读

文章来源:车云 发布时间:2021-07-05
分享到
最近,IHS Markit 推出了《智能座舱市场与技术发展趋势研究白皮书》,我们就借着智能座舱技术趋势的发展,看看是哪些技术让座舱越来越智能,猜一猜未来智能座舱的样子。
自动驾驶

如果要在汽车这个钢铁机器上,选出最感性的一部分,那座舱一定高票当选。

作为汽车上与用户最直接接触的智能化产物,我们很难直接用「好」与「坏」来评价一个座舱、给它打个分数,这是智能座舱设计的难点,也正是它的魅力所在。

这个魅力吸引着极客汽车从两年前推出了《奇妙车机情报局》专栏,从一台台车的车机系统开始,感受智能座舱这个尚且年轻的产物的变化,也试图勾勒出它未来的样子。

自动驾驶

没有人能精确的预知未来,但我们可以从技术的趋势和需求去预测它大概的样子,毕竟任何产品的发展都离不开技术的驱动和用户真实的需求。

最近,IHS Markit 推出了《智能座舱市场与技术发展趋势研究白皮书》(以下简称「《白皮书》」),我们就借着智能座舱技术趋势的发展,看看是哪些技术让座舱越来越智能,猜一猜未来智能座舱的样子。

自动驾驶

苏小敏(Felix Su)

IHS Markit 中国汽车咨询服务高级顾问

多模态交互,让座舱学会察言观色

在「情报局」过去两年几十辆车的测评中我们发现,尽管现在的语音交互还不够完美,但是不得不承认:车载语音系统越来越智能了。

这除了技术指标的提升外,一个关键的原因就是:把语音当成平台,而不仅仅是一款产品 。在 2020 年的测评中,语音交互表现不俗的博泰擎 mobile、小鹏 P7 的语音系统,都将语音作为平台,集成了电子电气架构、车辆信息安全、车辆数据等等,来共同优化语音交互的能力。

在《白皮书》中我们看到,在 2021 年,以智能化的车作为平台、全面的车外和车内的感知为基础,将语音与触屏、情绪识别、手势识别、人脸识别、位置定位等等融合而成的多模态交互技术,正成为智能座舱的大势所趋。

自动驾驶

无论完全自动驾驶何时到来,人与汽车都将面临长期共驾的未来。高度自动驾驶能够进一步地释放驾驶员和乘员在移动出行过程中的精力,良好的座舱空间可以帮助驾乘人员更好地享受美好生活。面对智能座舱内爆炸般的海量信息,如何充分利用语音、表情等开车时占用较少的肢体,是提升驾驶体验和交互体验的关键。

自动驾驶

单独的语音交互,不可避免遇到噪音、回声、识别不清晰等状况,甚至座舱这个「半公共空间」内会遇到「难以启齿」的指令需求。就像人需要五官来「眼观六路、耳听八方」一样,只依靠单模语音的座舱,依然是一个「指哪打哪」的机器,离真正的「智能」还差点意思。而通过手势、眼神、表情甚至情绪等其他交互与语音互补,才能发挥交互的最大作用。


自动驾驶

比如,将语音跟唇动判断技术融合,在车内噪音大、系统没办法完全听清指令的时候,也能通过读取用户唇语,准确接受任务。

在我们测评的中,长安 UNI-T 作为业内首个搭载了多模语音交互方案的量产车型,使用了地平线的 Horizon Halo 车载智能交互方案,通过结合语音、唇动等多模态 AI 技术,准确判断声音指令的来源位置,避免误唤醒,遇到打电话时座舱还能自动降低音乐的音量。

未来,这种多模语音交互的模式,可以让座舱变得更主动、更懂你。比如让语音与视觉、声学等感知融合,当用户看着车窗时说「大一点」,车窗就能开大一点;当眼睛盯着空调时说同样的话,指令就变成空调开大一点;当你情绪悲伤的时候,说「播放音乐」,座舱会帮你播放一首舒缓的音乐来抚慰你的情绪……

自动驾驶

当然,现在畅想未来多模语音融合的场景,想象力还远不够丰富。不过技术就是用来为我们提供无限的可能。


感知系统加码,座舱内传感器越来越多

多模语音交互,给我们带来了方便,让座舱不再是一个只能按部就班听指挥的机器,而是能交互、有情感交流。不过它的前提是,车内的感知系统要足够精确,这就需要座舱内传感器的作用。

根据 IHS Markit 的统计,2020 年平均单车状态的传感器数量是 3.3 个,包括车载摄像头、毫米波雷达、体征测试传感器等等。而到 2030 年,单车传感器将达到两位数,平均每辆车有 11.3 个传感器。这其中座舱内用到最多的就是车内摄像头和麦克风。

自动驾驶

在 2021 年的上海车展上,小鹏 P5、极氪 001、智己 L7、阿尔法 S 等新发布的车型中,座舱内都搭载了不只一个摄像头,这些摄像头主要用于人脸识别 FACE-ID 和驾驶员疲劳监测。

自动驾驶

不仅摄像头数量增加,座舱内麦克风数量也增加。从 2020 年到 2021 年,短短一年时间里,平均每台新车多装了 0.5 个麦克风,根据白皮书中预测,到 2030 年,这个数字会变成 8.7 个,也就是每辆新车是平均都有 8、9 组麦克风。

座舱内摄像头和麦克风的增加不仅体现在数量上,位置和功能也在变化。 如果说传统的座舱是以驾驶员为中心,那智能座舱正在逐渐转变成以座舱内全员为中心,座舱内监控系统从 DMS(驾驶员监控系统)向 IMS(座舱内全员监控系统)发展。

自动驾驶
自动驾驶

车内摄像头不只监控驾驶员的行为和表情,像长安 UNI-T 内置的两个摄像头,也对副驾驶位以及后排乘员的状态进行监控;极氪 001 也用鹰眼摄像头进行骨骼监测,来识别人的行为、动作和姿态;未来可能还会出现针对后排娱乐屏幕 FACE-ID 和情绪识别的摄像。多麦克风阵列也从驾驶员两侧,向副驾驶位、后排座位扩张,让后排乘客亦可以用语音发出指令,用语音开关车窗、调节空调温度等等。

自动驾驶


高算力AI芯片成为智能化核心

汽车电子电气架构向集中式演进,让芯片逐渐代替几十上百个 ECU 的功能。而座舱内传感器规模、交互模式的升级,甚至我们直观的仪表盘、中控屏幕、HUD 等,都需要依赖座舱系统芯片的能力。

这一年来我们已经逐渐感觉到了车企间座舱算力大战:WEY 摩卡、蔚来 ET7、零跑 C11 等选择了算力高达 4.2TOPS 的高通 8155 系统芯片;奥迪选择了三星自研的 Auto V9 芯片,算力达 2TOPS;特斯拉前不久发布的 Model S Plaid 上,搭载的 AMD 半定制芯片,展示了打游戏《赛博朋克 2077》,座舱内车载娱乐芯片的性能开始对标 PS5 游戏主机。

自动驾驶

国内的芯片供应商也不示弱:在上海车展上,华为推出了一芯拖五屏、算力 3.5TOPS 的麒麟 990A 智能座舱芯片;地平线的征程 2 芯片,4TOPS AI 算力,已经使用在长安 UNI 系列的两款车型上。根据地平线透露,目前已经完成流片的征程 5,更是将车内人机交互与自动驾驶融合在一起,将智驾和智舱的功能在同一个车载中央计算平台上完成。

自动驾驶

算力的 PK,并不是单纯的数字大战。AI SoC 作为统一控制座舱内各种软硬件和功能的大脑,任何硬件、软件、功能上的细微改变,摄像头的增加、麦克风的增加、分辨率的提升、运行帧数的提升,都会产生「蝴蝶效应」般的叠加效果。IHS Markit 的研究显示,影响算力的因素至少有 22 种以上,而每一个因素,都会对我们直接使用的应用功能产生影响。

比如,我们要增加一个 FACE-ID,就需要对人脸的关键点进行检测,这需要增加一个专门采集人脸图像的摄像头;为了准确识别人脸这个 3D 的球状形象,还要提高分辨率,引入 3D 信息,同时采集后将模型优化;为了让系统运行起来不至于卡顿,还需要提高运行的帧率……这一系列的因素,每一个都对芯片算力的要求增加一点点,共同作用,算力的要求就大幅度提高。

自动驾驶

事实上,从 2021 年到 2024 年,仅仅在感知层面上,NPU 算力的需求就会每年增加一倍,而 CPU 算力需求将会翻 6 倍。

自动驾驶

这种对芯片算力的强需求,也让芯片和算法研发企业逐渐成为智能生态体系的核心参与者,比如地平线、恩智浦、Ambarella 等芯片企业,商汤科技、科大讯飞等参与视觉、语音感知的算法企业。

未来的座舱,势必要围绕着这些「硬核」的智能技术来打造差异化的功能。

最后

你想要一个什么样的未来智能座舱?这个问题可能太飘渺,一时间给不出具体的答案。不过借着技术创新的东风,我们对座舱的需求也会慢慢发生改变。

十年前,你对一台车座舱首要要求是安全,此外能听广播、放音乐就足够了;五年前,能够准确的导航、能用语音操控成了大家的主要需求;到了今天,座舱里智能化的配置已经开始影响大家购车的决策,座舱不仅要听见用户的指令、听懂用户的指令,甚至要读懂用户没说出口的需求。

从最初的按键、触摸屏,到语音、手势交互,再到未来的多模交互、情绪交互,智能座舱在逐步变得更智能、更主动,这种无形化的体贴服务,依赖的是交互技术的突破,也是背后硬件传感器和芯片算力的研发和普及。

未来,座舱里有几块大屏幕、是否有物理按键、采用什么样的 HMI,都只是不同的载体而已,能满足用户真实需求、跟用户做朋友的功能,才能长久的跟时间做朋友。而这些功能,都离不开感知系统、算法、AI 芯片等技术的驱动,尤其是大算力芯片的研发和普及,给用户体验带来无限的可能性。

座舱的智能化交互将会带给我们机器人时代全新的智能化交互,车将会是主动,个性,有情商的机器人。


收藏
赞一下
0