仔细看了一下大疆车载昨天的推文,除了给这套智驾解决方案命名为「成行」(chéng xíng)以外,还透露了很多技术细节。
大疆这套方案最大的特点就是「性价比极高」,这种性价比的背后不是靠砍功能实现,而是依靠「超强的算法」+「最大程度的硬件复用」实现的。
如果实际体验好的话,会对「高成本的智驾解决方案」、「刚开始自研辅助驾驶的车企」、「L4 做不出来准备做 L2 的自动驾驶公司」有巨大的打击。
- 关于硬件
这套解决方案有两种硬件基础的硬件方案,就是图一和图二。
算力标注的都是 32-200 TOPS,这个应该是根据硬件数量调整需要的算力(城区记忆行车 32 TOPS / 城区领航驾驶 80 TOPS)。
两者唯一的区别就是 9V 方案增加了 2 颗侧向感知的摄像头,也得益于增加了这 2 颗摄像头,所以功能上也多了一个「领航城区」。
其中 7V 是 1 组前置双目 + 4 颗环视 + 1 颗后向摄像头,相比现在主流的方案少了 4 颗侧向感知摄像头。
所以在这套方案上的变道是通过后向 + 环视侧向实现的。
之前在 Kiwi EV 上体验过,只依靠后视镜上的环视可以实现打灯变道。
优势在于依靠硬件的复用让没有侧向 ADAS 摄像头的车具备了打灯变道的功能,劣势在于环视是颗超级广角,所以感知距离很有限,在 Kiwi EV 上貌似只能在 80 km/h 以内实现打灯变道。
现在加了一颗后向的之后,可以对远距离车辆进行感知,近距离后向摄像头有盲区,但是也进入环视的感知范围了,所以应该问题不大。
而且这套硬件哪怕环视的鱼眼也是 300 万像素的,比大部分车型上 100 万像素的高不少,所以侧向的感知能力更强。
等量产之后可以和有 4 颗侧向 ADAS 摄像头的辅助驾驶比一比打灯变道能体验上有什么差异。
9V 的方案增加 2 颗侧向摄像头,这 2 颗摄像头很明显就是为了对正侧进行补充的,提升城区拐弯和侧向的感知能力,也是因为增加了这 2 颗摄像头,所以具备了领航城区的能力。
其实到这,所有的能力基本都是依托视觉感知实现的,虽然大疆说支持增加毫米波雷达、激光雷达,但是如果纯视觉就已经可以或得很好的体验的话,还有啥必要加这些成本呢?
- 关于功能
实现的功能都在图三。
和目前第一梯队的蔚小理华都差不多,城区 + 高速的无图领航,停车场的记忆泊车,但是传感器硬件少了很多。
图四城区无高精地图记忆行车
图五无高精地图领航高速
图六记忆泊车
一个细节,大疆这套领航辅助把收费站通行也做进去了,这里面有很多技术难点,这里先不展开了,等体验到了在看,有这个功能之后,高速和城区其实是可以接上的,体验更加连贯了;
- 技术点
1. 惯导双目感知技术 图八
双目最大的优势在于具备距离感知能力,大疆无人机上的视觉避障就是这个原理。
但是双目的问题在于感知距离比较近,不过大疆这套前向的双目摄像头都是 800 万像素的,这个应该是目前唯一的 800 万像素双目立体视觉摄像头。
像素相比奔驰、斯巴鲁上的高不少,可以一定程兼顾看得远 + 看得广。
但是单论看得远和广,肯定比不上现在蔚小理 1 颗 800 万长焦 + 1 颗 800 万广角,不过从图二的感知范围来看,前向和侧向摄像头基本上已经没啥盲区了,加上 BEV 算法,广度没啥太大问题。
但是远距离感知能力比较好奇,所以等这套系统在高速 120 km/h 对前方故障车的感知做得如何,是我希望量产之后试一试的。
而且在文章大疆车载还提到:「惯导立体双目还可以为车辆其他系统提供数据支持,如为自适应智能悬挂提供路面预瞄数据,为自动车灯、自动雨刷等提供环境信息等等。」
这个硬件的压榨利用太顶了,拿双目做辅助驾驶感知是主要任务,还可以为自适应空悬提供路面预瞄数据,这个算法太顶了,还能拿来做自动车灯、自动雨刷等提供环境信息……
2. 在线局部高精度地图技术
这个其实就是依靠自身传感器(双目摄像头 + 惯导 + BEV 算法)扫图 + 建图,来实现记忆行车功能,但是这个「在线」怎么理解呢?理论上这类数据都只能在车端本地存储吧?
3. 行泊一体 BEV 感知技术
BEV 感知其实没啥稀奇的了,大家都在干,但是大疆 NB 的地方是用 32 TOPS 算力来干,这个就很顶了。
而且停车场的泊车功能也上了 BEV 算法。
4. 全向深度估计技术
前向因为是双目摄像头,所以有深度感知能力很合理,但是侧向和后向都是单目,大疆是咋做的深度估计?而且能检测路沿、细杆、悬空障碍物,这个相当于是用视觉做通用障碍物识别,尤其是细杆这个难度感觉很高啊……
不过有了这个技术之后,管你车位上是个地锁、锥桶还是摆几块专,这套系统都是可以正常感知避让的。
注意看图七,可视化上很准确的显示出了周围障碍物的轮廓,这个都是依靠视觉实现的。
5. 4D 场景流技术
这个感觉就是和 Occupancy 差不多的效果,用视觉做通用障碍物识别,不过……和上面的「全向深度估计技术」区别在哪?感觉效果时差不多的,只是技术路线不同?
6. 4D 纯视觉自标注技术 图十二
大部分车企在标注训练的时候都会引入激光雷达的数据作为真值,之前大家看到顶着激光雷达的特斯就是在干这个,但是大疆车载这个「在不依赖激光采集车的前提下,完成纯视觉构型量产车的真值标注闭环」。
所以是利用双目的测距力能来当做真值,来训练标注?
7. 基于纯视觉的主动安全技术
视觉做主动安全,也是性价比 + 研发能力的体现。
8. 开放空间的决策规划技术 图十三
感觉有点类似 Mobileye 的 RSS 责任敏感安全模型。
大疆这套方案最大的特点就是「性价比极高」,这种性价比的背后不是靠砍功能实现,而是依靠「超强的算法」+「最大程度的硬件复用」实现的。
如果实际体验好的话,会对「高成本的智驾解决方案」、「刚开始自研辅助驾驶的车企」、「L4 做不出来准备做 L2 的自动驾驶公司」有巨大的打击。
- 关于硬件
这套解决方案有两种硬件基础的硬件方案,就是图一和图二。
算力标注的都是 32-200 TOPS,这个应该是根据硬件数量调整需要的算力(城区记忆行车 32 TOPS / 城区领航驾驶 80 TOPS)。
两者唯一的区别就是 9V 方案增加了 2 颗侧向感知的摄像头,也得益于增加了这 2 颗摄像头,所以功能上也多了一个「领航城区」。
其中 7V 是 1 组前置双目 + 4 颗环视 + 1 颗后向摄像头,相比现在主流的方案少了 4 颗侧向感知摄像头。
所以在这套方案上的变道是通过后向 + 环视侧向实现的。
之前在 Kiwi EV 上体验过,只依靠后视镜上的环视可以实现打灯变道。
优势在于依靠硬件的复用让没有侧向 ADAS 摄像头的车具备了打灯变道的功能,劣势在于环视是颗超级广角,所以感知距离很有限,在 Kiwi EV 上貌似只能在 80 km/h 以内实现打灯变道。
现在加了一颗后向的之后,可以对远距离车辆进行感知,近距离后向摄像头有盲区,但是也进入环视的感知范围了,所以应该问题不大。
而且这套硬件哪怕环视的鱼眼也是 300 万像素的,比大部分车型上 100 万像素的高不少,所以侧向的感知能力更强。
等量产之后可以和有 4 颗侧向 ADAS 摄像头的辅助驾驶比一比打灯变道能体验上有什么差异。
9V 的方案增加 2 颗侧向摄像头,这 2 颗摄像头很明显就是为了对正侧进行补充的,提升城区拐弯和侧向的感知能力,也是因为增加了这 2 颗摄像头,所以具备了领航城区的能力。
其实到这,所有的能力基本都是依托视觉感知实现的,虽然大疆说支持增加毫米波雷达、激光雷达,但是如果纯视觉就已经可以或得很好的体验的话,还有啥必要加这些成本呢?
- 关于功能
实现的功能都在图三。
和目前第一梯队的蔚小理华都差不多,城区 + 高速的无图领航,停车场的记忆泊车,但是传感器硬件少了很多。
图四城区无高精地图记忆行车
图五无高精地图领航高速
图六记忆泊车
一个细节,大疆这套领航辅助把收费站通行也做进去了,这里面有很多技术难点,这里先不展开了,等体验到了在看,有这个功能之后,高速和城区其实是可以接上的,体验更加连贯了;
- 技术点
1. 惯导双目感知技术 图八
双目最大的优势在于具备距离感知能力,大疆无人机上的视觉避障就是这个原理。
但是双目的问题在于感知距离比较近,不过大疆这套前向的双目摄像头都是 800 万像素的,这个应该是目前唯一的 800 万像素双目立体视觉摄像头。
像素相比奔驰、斯巴鲁上的高不少,可以一定程兼顾看得远 + 看得广。
但是单论看得远和广,肯定比不上现在蔚小理 1 颗 800 万长焦 + 1 颗 800 万广角,不过从图二的感知范围来看,前向和侧向摄像头基本上已经没啥盲区了,加上 BEV 算法,广度没啥太大问题。
但是远距离感知能力比较好奇,所以等这套系统在高速 120 km/h 对前方故障车的感知做得如何,是我希望量产之后试一试的。
而且在文章大疆车载还提到:「惯导立体双目还可以为车辆其他系统提供数据支持,如为自适应智能悬挂提供路面预瞄数据,为自动车灯、自动雨刷等提供环境信息等等。」
这个硬件的压榨利用太顶了,拿双目做辅助驾驶感知是主要任务,还可以为自适应空悬提供路面预瞄数据,这个算法太顶了,还能拿来做自动车灯、自动雨刷等提供环境信息……
2. 在线局部高精度地图技术
这个其实就是依靠自身传感器(双目摄像头 + 惯导 + BEV 算法)扫图 + 建图,来实现记忆行车功能,但是这个「在线」怎么理解呢?理论上这类数据都只能在车端本地存储吧?
3. 行泊一体 BEV 感知技术
BEV 感知其实没啥稀奇的了,大家都在干,但是大疆 NB 的地方是用 32 TOPS 算力来干,这个就很顶了。
而且停车场的泊车功能也上了 BEV 算法。
4. 全向深度估计技术
前向因为是双目摄像头,所以有深度感知能力很合理,但是侧向和后向都是单目,大疆是咋做的深度估计?而且能检测路沿、细杆、悬空障碍物,这个相当于是用视觉做通用障碍物识别,尤其是细杆这个难度感觉很高啊……
不过有了这个技术之后,管你车位上是个地锁、锥桶还是摆几块专,这套系统都是可以正常感知避让的。
注意看图七,可视化上很准确的显示出了周围障碍物的轮廓,这个都是依靠视觉实现的。
5. 4D 场景流技术
这个感觉就是和 Occupancy 差不多的效果,用视觉做通用障碍物识别,不过……和上面的「全向深度估计技术」区别在哪?感觉效果时差不多的,只是技术路线不同?
6. 4D 纯视觉自标注技术 图十二
大部分车企在标注训练的时候都会引入激光雷达的数据作为真值,之前大家看到顶着激光雷达的特斯就是在干这个,但是大疆车载这个「在不依赖激光采集车的前提下,完成纯视觉构型量产车的真值标注闭环」。
所以是利用双目的测距力能来当做真值,来训练标注?
7. 基于纯视觉的主动安全技术
视觉做主动安全,也是性价比 + 研发能力的体现。
8. 开放空间的决策规划技术 图十三
感觉有点类似 Mobileye 的 RSS 责任敏感安全模型。
31
3
27