张涛:2023年HUD配置率13.2%,2026年超过25%

撰文 / 张   涛(江苏泽景汽车电子股份有限公司董事长)

编辑 / 张   南
设计 / 师   超

 

2023年中国市场HUD配置率13.2%,预计2026年配置率将超过25%。成本方面,如果以2016年成本作为基数,到2023年下降了79%。

 

2023年11月11日下午的2023中国汽车供应链峰会上,江苏泽景汽车电子股份有限公司董事长张涛在演讲中分享了HUD市场的数据与现状。

 

HUD是一个高速发展的市场,2015年成立的泽景从2018年开始每年增长一倍以上,2023年出货量可达60万套。

 

为什么以往只在高档车上搭载的HUD近几年会取得这么快的发展?张涛的答案是HUD重塑了驾驶者的视觉交互模式。

 

HUD与智能驾驶是相辅相成的。景泽的第一个客户是蔚来,只是选装功能,随着智能驾驶辅助功能提升,HUD选装率从不到50%上升到70%-80%,客户评价说有了HUD更敢用辅助驾驶了。

 

另一个重要原因是成本和价格的降低,如果把2016年HUD成本作为基准,到2023年已经下降了79%。“我印象里面在2016年我们最简单的WHUD差不多能卖3000-5000块左右,均价在4000块左右。”张涛说。根据这些数据,很容易推算出当前HUD的大致价格。

 

以下是张涛的演讲实录。


 

各位来宾,大家下午好!我是江苏泽景汽车电子股份有限公司的张涛。今天非常荣幸能够跟大家来分享一下我们对座舱里面的一些思考和认识。

 

今天的题目是“座舱视觉交互的重塑”,我们是HUD出身的,始于HUD,但是对于座舱视觉交互的考虑远不止HUD,这是我今天演讲的题目。

 

在演讲之前想先跟大家分享一下我的经历。2017年时我们在德国出差跟一家整车厂在沟通交流,在高速公路上开车。刚开始中国习惯120公里的开,结果就看旁边的车唰一下就过去,唰又一部过去,甚至连Polo超得我们连尾气都闻不到,所以意识到德国高速不限速,马上加速。加到一定程度时发现车有点抖了,我开的是美国大型MPV,横风一吹感觉有点漂移感,很紧张。

 

开车的时候看多少速度想看仪表,但速度太快车又多,不敢低头看,一看就150、160公里的时速。这样紧张的开,中间还错过一个路口,2017年导航系统不太好用,车机上导航都是德语半懂不懂,就绕了几十公里。这个时刻我的心情叫既烦恼,因为绕几十公里差点耽误事儿,但另一方面又开心,因为深刻感受到我们的产品让客户提供价值,让你在开车的时候更有安全感。

 

HUD配置率已达13.2%

 

用这个小故事介绍一下我们的产品。最近如果这两年谈起HUD市场只有两个字可以形容,这是我们同事帮我统计了一下截止现在我们在这个市场上我们的友商,今天我看到我们现场也有几位,包括康总、卢总,这个市场上已经有超过30几家的我们的供应商在里面,当然这里面我们写的量产的21家里面不是说它已经开始量产产品了,还有拿到量产项目在研发过程当中的。

 

其中国际供应商、本土供应商,现在本土供应商已经明显占据优势了。为什么会出现这种场景?为什么HUD市场会这么火?下面我想跟大家分享我们的认识,HUD正在跨越鸿沟。


 

从2006年中国第一台HUD的量产车型到蔚来ES8的定点,到2023年中国HUD配置率已经达到13.2%。泽景2015年成立,中国HUD最早的厂家基本上是这个附近开始成立的,在前四五年我们市场占有率上升是比较缓慢的,但到2020年开始这个曲线加速向上,后面几年是我们的预测,到2026年市场HUD的配置率会超过25%,这是一个高速发展的市场。

 

有幸的是跟着这个市场的发展的节奏,泽景的出货量持续上升,我们基本上从2018年到现在每年是翻一倍以上的速度在成长,到今年我们的出货量差不多能达到60万台,在中国我们是数一数二的供应商。

 

为什么HUD在这几年会取得这么快的发展呢?在思考这个问题,我们的答案是HUD确实重塑了我们驾驶者的视觉交互模式。

 

大家看一看,刚才我用一个小故事跟大家分享了在HUD里面的安全场景,这个是我们常见的通过我们的仪表盘在观察我们的路况、导航信息,看这个信息是必须要低头的。但如果用HUD的话,我们视线不用离开路面,这是它安全性的基础。在高速公路上,我们算一下以120公里的时速飞驰的时候,如果低头看导航、仪表,一秒钟相当于盲开33米,这个是HUD核心价值——安全价值。

 

当然大家也会问如果只有这么一个价值的话,为什么HUD到最近几年才爆发?因为HUD在世界上最早的出现其实是1980年代美国通用就应用上世界上第一款HUD,但之后相当长一段时间里HUD都只是作为豪华车型上的配置,为什么最近几年它的配置率会快速的突飞猛进呢?

 

带着这个问题给大家看一张图,因为我们不少的朋友们可能对HUD的接触还不多,我花点时间稍微介绍一下。这是我们今年年初量产的一款车型上的HUD的界面,跟以往它只有车速、简单的信息相比,我们现在分了三个区域:左边是车身状态区域,中间是环境区域,右边是我们的导航区域。随着HUD它的硬件参数的增强,我们显示的范围更大,显示的角度更大了,我们显示的内容更丰富了,不低头就可以完成除了车速之外我们其他的看导航、看周边环境所有的功能。


 

在这个过程当中,大家可以看这个视频,车子处在辅助驾驶状态,这个车子在告诉你“我需要变道”,成功的完成了变道的工作。这个是电动化和智能化给HUD赋能的一个非常典型的例子。原来有开过辅助驾驶车的朋友,我这里想调查一下,我们这里面用过辅助驾驶功能的,它可以自动变道功能的朋友们,有多少,能不能举手看一看?我问问你们,你们第一次开自动驾驶这个车让它变道的时候,是不是有种特别心慌的感觉?

 

(台下互动:特别刺激。)

 

对,特别刺激。我第一次开蔚来ES8这个功能之后,开完之后背后的衬衫是湿的。所以你在开这个功能,很大的问题是你不知道车要干什么,它什么时候要变道,这个变道可以不可以,那就增加了一个新的问题叫人机信任。HUD非常好的提供了这样的价值,所以我印象里面当时我们第一个客户是蔚来,原来它是选装,辅助驾驶功能上去之后,它的选装率从原来不到50%上升到70%-80%,客户都评价说有了HUD开始更敢用这种辅助驾驶了。所以在人机共驾的阶段,HUD可以提供非常高的功能。从另外一个角度来说也是电动化和智能化推动了它的发展。

 

当然,还有一个非常重要的原因,这里面列出来了。大家可以看看2016年的时候我们按100%价格来算,到2023年我们价格成本下降了多少?答案是79%。我印象里面在2016年我们最简单的WHUD差不多能卖3000-5000块左右,均价在4000块左右,大家都在讲中国的市场卷,但从另外一个方面对于创新者来讲卷有卷的好处,因为通过卷我们把这样产品的成本真正从原来的奢侈品变成了我们大家都用得起,所有用户都用得起的产品,这是我分析了为什么HUD可以在过去这几年里面起到高速的发展。

 

配置率只有1%的AR HUD

 

谈到HUD,如果不谈AR HUD,我觉得赶不上形势,没有办法讲我们怎么样遥遥领先,所以这里把AR HUD我们的观点分享一下。

 

这个是我们把市面上的一些AR HUD的效果都拿出来做了一个简单的汇总,大家可以看到特点就是非常的热闹,但是非常的混乱。因为我们的整个市场对于AR HUD的定义不是特别清晰,还没有形成统一和标准的定义。这个是一些假想图,我们同事在畅想未来AR HUD应该能实现什么功能,这里包括POI都体现在里面,这是一个美好的想法。再往下,泽景怎么对定义AR HUD?

 

第一成像距离要大于7米,它的好处是可以更好的实现我们的虚实融合,第二FOA要大于10度乘3度,这个是为了可以覆盖更多的车道。还有一点是虚实融合,通过软件、通过我们的系统和信号和核算,我们要真正的实现虚实融合,这是我们对AR HUD的定义标准,当然能实现虚实融合我们叫AR HUD系统,能实现前两点就可以称为具备AR功能的基础的AR HUD的硬件了。


 

从我们对市场的判断来看,AR HUD目前仍处于早期,正在努力的化茧成蝶。大家可以看看真正按照泽景AR HUD的标准,在AR HUD只有1%左右的市场配置率,它是典型的处于创新者的阶段。为什么它还处在这样的阶段,没有像WHUD一样快速的增长呢?

 

几个原因:第一个原因我们做AR HUD希望它的体积更大,希望它的显示距离更远,希望它的视场角更大。如果都采用这样的系统,它的参数和体系是直接挂钩的,越大就体积越大,但体积太大就很难塞到车的仪表盘里。

 

第二点我们的软件和系统,从空间上要对准,从时间上对准,时间上对准就是系统延迟要短,摄像头拍到路上的车道线要显示车道线警告,中间的延时一定要非常短,越短越好。第二个是空间,我们在空间上如果看到了障碍物或者人,我们想跟踪它,我必须在显示的时候我们这些虚拟的图像和真实的图像能重合起来,在空间上要对准。还有一点要在视觉上对准,我们现在的HUD更多的还是显示的是平面的信息,但是我们真实的世界其实是三维的。用一个平面的图像去模拟三维的显示和三维东西重叠的话,其实这里在人的认知视觉原理和心理原理上有很多挑战。

 

因为这么多技术难题,导致现在HUD虽然是百家争鸣、百花齐放但本质上大家都还是在解决怎么样能做出好的体验的状态。还有一件事,因为AR的显示方式之前是非常新的,我们没有经验。高频场景是什么样的,大家都在探索。

 

这里给大家看一个小短片,我们同事有一个很有趣的工作是我们经常通过视频想象未来的HUD到底应该实现什么样的功能,这是在L4自动驾驶的状态下,我们在想AR HUD可以做哪些场景,这是其中的一个场景。在以后如果我们的车型里面有了OS,我们把里面的信号能做标准的话,那就很有可能这些场景不仅仅是我们,而且是我们的客户甚至我们的最终用户,大家一起能来定义的场景,这是非常有意思的。

 

为了解决我们系统软件各个方面的困难,我们非常深刻的体会就是必须要从封闭式创新走向开放式创新。大家可以看到为了做AR系统,我们涉及的不仅仅是HUD本身还有我们这么多的传感器,还有我们整个里面的算法。围绕这些东西,单靠一家HUD厂商是根本不可能完成的。如果想把这个产品真正的能推向市场就必须进行生态合作和生态创新,包括地图厂、定位商、ADAS厂商、雷达厂商,但最重要的是我们的整车厂愿意出来跟大家一块来把这些信息,把这些软件全部都组合在一起,形成新的显示方式。


 

最后再跟大家分享一下我们的技术趋势,我们研发趋势还是围绕着我们刚才讲的那些困难来做的。一个是减小体积,比如我们用光波导的方式,用全息膜模式在将来把HUD的体积减小。还有怎么样增强3D感,从原来的平面显示,虽然它有显示距离,但本质上它是平面显示,怎么样把它变成立体的显示,这个我们现在大家有人在多焦面上尝试,有人在计算前期,长期来讲是一个非常好的方式,但目前在工程应用上还不够成熟,所以需要观察它的进一步的结果。我们很多同行、友商大家都在沿着这些方式不断努力,希望能解决刚才讲到的技术困难。

 

下面分享座舱视觉交互,泽景的一些看法。在座舱里面,我们不仅仅有HUD,我们叫WHUD,正中间小一点的框子,还有AR HUD,显示区域更大。大家可以看到我们现在还有PHUD,我们的宝马在CES上也展示出这样的概念,我们还有CMS还有车窗投影,围绕着座舱360度座舱内部,光座舱内部我们就会有非常多的显示方式,以后真的会出现在车里面可以实现屏读,到处都是屏幕,当然这个屏幕会根据你的需求随时显示,而不是一直亮在那里面。

 

最后一点讲讲大模型,最近一段时间很热,不讲大模型好像无法讲智能座舱了。具体的我们不细讲,就讲最近的感受,最大的感受就是大模型进入智能座舱之后,座舱真的变成智能,能感知到我们的驾驶员和乘客所有的状态。

 

举一个例子,原来我们后座的乘客我们期望把侧窗投影给他们,让他们能看到一些东西,但是测窗投影一直推得不太好,因为找不到场景,大家不知道显示这个有什么用。举个例子,大模型上车智能化提升之后,想象一个场景,你带着一个小孩坐在后座去游览昆山、上海,正好看到外面的建筑,小孩子指着特色的建筑问,这是什么?那时我们大模型能感知他的需求,能恰在其时给他展示在玻璃窗上我们外面是什么建筑,这是东方明珠,多高,它是什么样的一个历史,它就真正可以变成人和人的智能交互的场景。

 

这个是我们对未来的一些畅想,当然大模型上车的话它应该可以产生的变化远不止此,我们希望和在座的各位大家一起沟通努力,能够把我们的座舱真正的让它变到重塑座舱,让中国的智能座舱能够引领我们世界座舱的潮流之先。谢谢大家!


2024 CES,繁花散落之后


 

海外“蔚小理”,倒在血泊里


 

谁动了特斯拉Model Y的奶酪


 

车企UBI业务,是新能源车险的良药吗


 

点击阅读原文