
作者:电子创新网张国斌
最近,懂车帝一次长达数天、36款车在15公里封闭道路上的辅助驾驶实测,让智驾的天塌了!
这次测试设置了多个高风险场景,模拟真实车流下的事故场景,其中在高速路测试中,模拟了高速惊现事故车、施工路遇卡车、高速临时施工、消失的前车、高速入口遇野蛮加塞等在日常驾驶中常见的场景。在城市道路测试中,则设置了开进大转盘、转盘内汇入、斜刺电频和儿童过马路、盲区左转电瓶车等场景。
参与测试品牌包括了特斯拉、比亚迪、小米、问界、小鹏、蔚来、长城、领克、大众、本田、丰田等等新老势力,结果让人大跌眼镜:没有一家车企的辅助驾驶系统能够完美通过所有测试项目!(以下是测试结果)
在高速模拟场景中,参测的36款车型竟全军覆没,无一能通过全部6项测试!
这个测试结果发布后,科技部、公安部接连表态,为“自动驾驶”降温。科技部发布了《驾驶自动化技术研发伦理指引》,确立安全优先、公平公正等原则,按辅助驾驶等级(L0-L5)明确责任主体,防范科技伦理风险,强调宣传智能辅助驾驶时应实事求是。
公安部交管局局长王强则在国务院新闻办公室举办的发布会上强调,市场上销售的汽车所搭载的“智驾”系统,都还没有实现“自动驾驶”的目标,驾驶人才是最终责任主体。
《人民日报》、新华社等权威央媒则迅速跟进报道公安部的这一权威定调。为过度夸大的的“自动驾驶”宣传降温。
这场测试揭示了一个严峻且可怕的事实,那就是智驾系统存在严重的缺陷!面对这样残酷的事实,参与智驾的本土业者们,是不是该深刻反思一下?我们当前的这条智驾技术路径走的对吗?我们需要补齐哪些短板?
对智能驾驶底层技术的深度思考
从技术角度来看,智驾系统的最顶层系统架构都是:感知-决策-运动。在这三部分中,运动部分问题已经解决了,懂车帝测试的36辆车的运动控制都没有发生故障。而在感知部分和决策部分都发生了错误。感知部分的错误是漏过信息和信息失真。决策部分的缺陷是算力不足和算法错误。
感知部分发生漏过信息和信息失真的原因是目前普及车载的传感器功能不足导致的。比如黑色野猪的出现,在人眼看来是非常明显的障碍物,但是对于车载而言,识别出这个障碍物却是巨大的困难。特斯拉汽车是基于目标色彩特征大量训练得出的识别结果,最核心的就是“大量”两个字。如果黑色野猪不是大量出现的物体,就无法训练这样的数据,因此特斯拉的纯视觉是很困难识别这些马路上不常见的物体的,因此,穿成奇装异服的行人对于特斯拉而言也是较难识别的。
以XX车型为代表的激光雷达加视觉的感知系统,同样很难在高速行驶时识别出黑色野猪,原因是激光雷达点云稀疏并且速度太慢。激光雷达打出的激光光斑非常小,距离稍远就点云稀疏,这头野猪身体或许只能反射几个激光点。汽车如果根据几个激光点信号就刹车,那么车辆激光雷达系统自身产生的噪点会导致车辆持续无缘无故刹车。如果激光雷达点云要达到一定密度,那就只能检测10-15米内近距离目标。但是激光雷达融合视觉,每采集一帧需要0.1秒,计算一帧需要0.3秒,总计至少会延迟0.4秒,导致120公里/小时的车辆,激光雷达每帧错过13.3米,那等于是把能识别的距离都错过了。
所以激光雷达在高速行驶过程中几乎没有作用,很多厂家在高速上自动关闭激光雷达工作也就是因为这个原因。这个感知系统的缺陷依靠目前行业普及的低级别传感器是无法解决的。只有换用高级别的航空级全天候视觉系统,不需要大量数据就可以训练识别人眼水平的识别能力,并且可以通过视觉识别物体大小、距离和化学成分,每秒25帧,不用和激光雷达融合计算。才能弥补上感知的缺陷。
决策部分的问题就是算力不足和算法错误。中国芯片工业相对于芯片技术先进国家还有一定的差距,短期内不可能生产出廉价的大算力芯片。要满足车辆算力需要,就需要安装多套计算系统,安装更多的芯片,合起来达到算力总量。但是算力芯片是车辆上最贵的芯片,多装几套意味着成本飙升,对于内卷的车企而言,实在非常困难。同时,目前智驾算法也是高不成低不就的问题,视觉方案的识别率和召回率不够,依赖视觉算法无法全天候全路段智驾,不说雨天雾天,就是在正常夜间车灯打开情况下,能够识别出前方故障车辆和隔离锥桶的就是这次测试中的佼佼者了。如果在雨天雾天,大概率没有车辆能通过。而激光雷达融合视觉的算法,看似成本增加,但实际识别率和召回率还没有特斯拉纯视觉的识别率和召回率高。
目前,我们的智驾似乎想通过大算力来解决驾驶中的所有难题,如果车企多加算力芯片来堆算力,如上文所述,也只是解决了决策系统中一半的问题,其他问题还是无法解决。升级算力一定是好事情,但是要真正解决智驾问题,还需要升级传感器和升级算法。
把若弱感知弱算力向强感知发展
上海叠铖光电创始人王平博士在接受电子创新网专访时指出:目前的智驾是弱感知弱算力状态,部分研究人员支持优先强化算力,走弱感知强算力技术路线。但这条路线的问题是感知和算法没有解决的情况下,无限升级算力也不能实现全天候全路段智驾。目前车载的各种传感器都解决不了信息遗漏和信息错误的问题,数量多也是无法达到人工驾驶的水平的。感知系统的等级是由主传感器等级决定的,不是由数量决定的,很多低级别传感器加一起也顶不上一颗高级别传感器。因此弱感知搭配强算力是一场困局。
他认为中国智驾应该走“强感知弱算力”路线!
据王平博士介绍,叠铖光电超宽光谱图像传感器解决了目前自动驾驶领域视觉传感器遇到的所有挑战,并利用红外等多光谱成像技术,完美实现了对在于雨、雾、烟、霾、雪、尘等极端天气以及炫光逆光暗光等恶劣环境的图像感知,而且,只需要30TOPS的算力就可以实现对数据的处理和融合感知!
这是一段叠铖光电超宽光谱图像传感器应用视频!震撼吧!在完全没有视觉图像的烟雾中,超宽光谱图像传感器可以清晰地提供车辆信息!
据王平博士介绍叠铖光电全天候超宽光谱图像传感器是解决自动驾驶到无人驾驶的革命性创新解决方案,一经问世便得到业内广泛关注,目前已经在环境极其恶劣的矿场应用,在视觉传感器无法感知的环境下,叠铖光电全天候超宽光谱图像传感器能完全感知矿卡。这是叠铖光电全天候超宽光谱图像传感器在鄂尔多斯试验场的无人矿卡实地演示!
需要注意的是,这台实验的无人矿卡仅用了一个AIPC就运行了所需的智驾算力!这才是真正颠覆性的!
目前很多智驾方案是把各种传感器如激光雷达、毫米波、视觉、红外等信号进行融合后在进行分析判断,对此,王平博士指出不同传感器由于无法做到像素曝光时间由统一时钟脉冲控制,所以同一个位置的信息在不同传感器里是在不同时间采集的。例如一辆时速120公里的车辆,在每米起伏0.05米的路面行驶,即使看前方静止的物体,视觉和激光雷达同时看静止物体上同一个点,依然会随机错开最多6个像素。只要物体较远,它就在融合图上变成模糊一团。因此,多传感器数据转换到像素级精度对齐,就必须把路面做到非常平整不起伏,车速慢到一定程度,并且看前方静止物体。如果前方有移动物体,一定做不到像素级精度。
他表示智驾目前就是需要解决感知和决策的问题。前面已经解释了优先无限升级算力的弱感知强算力技术路线是困难的。那相反的,优先升级感知就成为了唯一道路。当感知问题解决了以后,算法问题才可以解决。所有的算法都是基于感知数据研发的,像素级对准的色彩、深度、温度、化学成分特征是算法研究中理想的标准真值数据,可以把不能用车轮无视压过的障碍物都区分开,做到全天候全路段100%识别率。因此感知解决后,算法才能体系化闭环,这个阶段,针对100%识别率的算法,匹配上足够的算力,智驾就能实现并且不浪费宝贵算力。
这条智驾路线才是更有发展潜力的。
目前,登陆科创板的利扬芯片全资子公司光瞳芯已经与叠铖光电签署了合作协议,叠铖光电的核心技术是“全天候超宽光谱叠层图像传感芯片”,光瞳芯独家为叠铖光电提供超宽光谱叠层图像传感芯片的晶圆异质叠层、测试等工艺技术服务。晶圆异质叠层工艺复杂,必须利用光刻机、刻蚀机、薄膜沉积、晶圆检测等一系列前道及后道半导体设备和工艺,实现晶圆材料改性、键合等多种工艺,最终交付质量合格的超宽光谱叠层图像传感芯片。
这一合作为两公司未来发展奠定了良好的基础。
目前,在首台无人矿卡演示成功后(详见《见证历史!全球领先!基于叠铖·利扬 TerraSight芯片的无人矿卡成功演示!》)叠铖光电的方案已经获得多家新势力汽车的青睐,此外,该方案还获得了一些新兴领域厂商的认可,王平博士透露公司的解决方案已经获得大量订单,公司的产品策略是从无人矿卡向乘用车、消费电子产品甚至机器人发展,公司也将据此获得高速发展。
关于以叠铖光电的未来发展,他给出了如下估算:以第一个目标市场无人矿卡为例,若2026年实现目标中的1万台出货,保守估计则至少产生超过4亿人民币营收,鉴于其突破性技术产生高额利润,预计利润率不低于80%。而与叠铖光电密切合作的利扬芯片全资子公司光瞳芯将获得超额投资获利,同时获得产品封测利润,预计净利润在5000万人民币左右。若2027年顺利实现目标中的10万台出货,叠铖光电净利润高达2.4亿!估值飙升将会非常惊人!由此,与叠铖光电深度合作的利扬芯片市值也将有惊人的提升!
“感知和算法的关系就好比食材和烹饪技术的关系。不精确的多传感器数据就像会发生化学反应生成毒药的不同食材,不能随便搭配下锅,烹饪技术举步维艰。精确的多种感知数据就像相互兼容的食材,随便怎么搭配下锅都能吃,可以产生很多搭配方案,落地从智驾到机器人等很多人工智能应用场景商业化方案。高效、巧妙的搭配就像高超的厨艺,一个场景的解决方案就是一道可口的佳肴,其中对各种食材特性的理解和各种已经发现的搭配功效就可以汇聚成一本叠铖超宽光谱感知芯片光谱学应用手册。当各家公司广大人工智能解决方案设计师对叠铖手册熟悉使用后,将会对叠铖配方的超宽光谱芯片熟悉和快速开发,而对今后叠铖竞争对手超宽光谱芯片难以适应。”王平博士指出,“我们的芯片领先业界5年,未来叠铖超宽光谱感知芯片开发系统就会变成一个类似英伟达CUDA的生态系统,让开发者利用感知数据开发出适应各种场景的应用!”
这是一个宏大的目标!中国的感知CUDA系统,如果实现,我看叠铖光电将值万亿!
注:本文为原创文章,未经作者授权严禁转载或部分摘录切割使用,否则我们将保留侵权追诉的权利