搜索
当前位置:首页 > 传统电子行业 > 汽车电子 > 汽车视觉产业研究(下):视觉感知进入深水区,算法决定赢家

汽车视觉产业研究(下):视觉感知进入深水区,算法决定赢家

作者: 2020-05-21 14:30:00 浏览:0

佐思汽研发布《2019-2020 汽车视觉产业链研究报告(下)双目及其他》。 据舜宇光学观点,汽车摄像头分为感知摄像头和影像摄像头。


感知摄像头用于主动安全,需要准确捕捉图像,一般用于前视和内视。影像摄像头用于被动安全,并将所拍摄的图像存储或发送给用户,一般用于环视和后视。因此,感知摄像头和影像摄像头在成像质量要求和温度可靠性要求方面完全不同。


感知摄像头用于车道检测、信号灯检测、道路标志识别、车内监测等。如果感知摄像头拍摄的图像有任何错误,将会引起软件计算错误,并导致不可避免的后果。所以,感知摄像头的价格敏感性相对较低。 影像摄像头对价格非常敏感,因此存在激烈的价格战,对性能的要求不是很高,国内企业介入较多,但是绝大多数都不赚钱。从 2019 年中国乘用车环视前装市场格局图可知,环视市场各厂商份额比较分散,不像前视单目市场呈现市场相对集中的局面,TOP6 占据 90%以上份额。

 

来源:佐思汽研

 

前视摄像头需要复杂的算法和芯片,前视单目的单价接近 1000 元,双目则需 1000 多元。后视、侧视以及内置摄像头单价在 200 元左右。


双目领域取得突破

 

国内初创企业在双目领域取得了突破性进展,尤其是在商用车和专用车市场。 中科慧眼双目已经出货一万多台,主要用在 Apollo 系列无人车、江铃轻客、环卫车、无人船、拖拉机、巡逻车等。中科慧眼双目产品的典型应用是 AEBS 和限高检测。大约有 30 多个城市的公交集团装配中科慧眼双目系统。 双目用于限高装置的检测,是中科慧眼的首创,除了常规的的限高杆,诸如乡下的小牌坊,涵洞等各种非标限高装置均可准确感知并及时通过声光报警装置提醒司机。房车、特种车辆等均有限高检测的强需求。

 

来源:中科慧眼

 

2019 年,双髻鲨宣布开发出自由双目系统,可以使用两个完全独立的单目摄像头实现双目系统,以摆脱双目设备体积大、工艺复杂、安装困难、成本高等固有缺陷。

 

来源:双髻鲨科技

 

两个摄像头独立安装,固定在车体右侧即可。中间无需刚性连接,也不需要严格控制摄像头的角度和间距。“自由双目”的核心原理是自校准技术,即使摄像头在使用过程中发生了轻微的变形和移动,双髻鲨的算法会自动检测并重新校准,免除了常规双目所需的定期重新标定校准工作。 2020 年 4 月,Foresight 宣布与 FLIR 合作,整合 FLIR 的红外摄像头,结合可见光立体视觉和热成像立体视觉的技术,在恶劣的光线和天气条件下提供精确的障碍物检测。两个立体通道之间的数据融合,可以有效解决隧道口等明暗快速变化的极端情况下的不报或者误报。


佐思发布的毫米波报告中曾指出,毫米波雷达在侵蚀其他传感器的地盘。摄像头也是一样,有很多企业用单目摄像头做测距,做 3D 成像,试图取代双目或激光雷达。譬如 MAXIEYE。 MAXIEYE 第一代产品 IFVS-200 系列基于机器学习方案,第三代产品 IFVS-500 系列基于深度学习方案实现单目测距和 3D 扫描。IFVS-500 系列让单目视觉产品可以像激光雷达一样进行三维扫描,也可以在 50 米以内实现接近激光雷达的 3D 场景点云扫描,提供目标的直接测距功能,实现 200 米范围的机动车检测、100 米范围的行人及小目标障碍物检测。 


纷纷增强极端场景下的视觉能力

 

无论是车内还是车外,都需要在光线不好甚至黑暗时获得视觉能力,这意味着需要利用红外技术。安森美半导体的 RGB-IR 图像传感器采用了 NIR(近红外)技术,另一家厂商 Trieye 则通过短波红外(SWIR)相机。短波红外相机的优势在于能够在任何天气 / 光照条件下看到物体,可以提前识别道路危险(例如道路结冰)。

 


2020 年 4 月,阿里达摩院研发出用于车载摄像头的 ISP 处理器。根据路测结果显示,使用达摩院 ISP 处理器,车载摄像头在夜间场景下,图像物体检测识别能力比业内主流处理器有 10%以上的大幅度提升,原本模糊不清的标注物也得以清晰识别。 2020 年 5 月 19 日,豪威科技正式发布搭载 Nyxel 近红外技术的图像传感器 OX03A2S 。这款 250 万像素的 ASIL-B 等级传感器专为外置成像应用设计,可用于车身周围 2 米内的弱光甚至无光环境。OX03A2S 能够在弱光环境下检测和识别其它图像传感器无法捕捉的物体。

 

 

来源:豪威科技


视觉感知进入深水区,算法决定赢家

 

随着智能汽车中视觉传感器的大量增加,不同类型视觉传感器的加入,产生的天量数据,给算法处理带来了挑战和机会。 视觉 ADAS 算法的领导者 Mobileye 在视觉感知体系当中,同时使用了多种相互独立的感知算法实现冗余叠加,目的是为了在 Detection 和 Measurement 两个维度上提升感知的精确度与稳定性。Detection 是决定感知的对象是什么物体,Measurement 是通过对摄像头的 2D 画面进行推算,得出感知对象的 3D 信息。 在 Detection 维度,Mobileye 就采用了 6 种独立算法:

 

3D 汽车检测(3DVD):识别 2D 画面中的目标车辆,将其标注上 3D 的边界框。

 

Full Image Detection:主要用于识别车辆两侧近距离的大型物体(如客车或卡车)。

 

Top View FS:重点识别画面中没有被占用的道路并进行标注。

 

Features Detection (如 Wheels):重点识别独有特征的物体,例如车轮。

 

VIDAR:通过多个摄像头的三角测量生成 3D 画面,再将 3D 画面导入到激光雷达感知算法中进行物体识别。

 

Scene Segmentation(NSS):通过像素级识别,分割出不同种类的物体并用不同颜色标注。

     

    来源:Mobileye

     

    特斯拉也是视觉感知算法的领先者,特斯拉把它的深度学习网络称为 HydraNet。整个 HydraNet 包含 48 个不同的神经网络,通过这 48 个神经网络,就能输出 1000 个不同的预测向量,理论上来说,HydraNet 能同时检测 1000 种物体。为了增强算法能力,特斯拉特地收购了计算机视觉初创公司 DeepScale。 为了在视觉感知算法上追赶特斯拉和 Mobileye,主机厂和 Tier1 们都在扩充软件工程师团队。算法能力将成为左右视觉感知性能优劣的决定性因素之一。


    参与评价

    最新评价

    相关推荐

    热文推荐