无人自动驾驶真能实现吗?
第二个难点,路况太复杂了,瞬息万变,AI直接懵圈。现实中常常出现的电动车乱窜、行人闯灯、摊贩占道,信号灯异常,地上交通线、路障临时更改,路上突然出现的散落物,车辆随意违章停放,此起彼伏的喇叭声等等。而国内大多数厂家采用的 激光雷达+毫米雷达+视觉 的方案虽然看上去更安全,更精确,但是成本高,整合三种信息的技术难度大,算力成本更高,同时也无法克服恶劣天气、环境对摄像头和雷达的相互干扰。总而言之,无人
近日,小某汽车致命的事故,悲痛的同时,引起了很多人对自动驾驶的关注:自动驾驶到底能实现安全驾驶吗?
2025年初,从特斯拉的FSD落地中国到国内新老势力的群雄并进,厂商们喊得震天响:“智驾时代来了!”
可现实呢?事故频发、系统崩盘,别说“解放双手”,命都不安全了!
为啥自动驾驶这么难?不是能识别红绿灯、自动泊车、春节千公里“自动”驾驶回老家了吗?去年武汉的无人出租车不是已经很火爆了吗?
自动驾驶还有多远的路要走?
目前,智能驾驶分了6个级别,每个级别对应的人类对车的干预不同:

目前车企只是实现了L2、L3级别的自动驾驶,离L5级别的真正的自动驾驶还很遥远。
今天,我们掀开AI“黑科技”的盖子,解码它为啥总翻车,看看这场技术梦,到底卡在哪儿!

第一个难点,车辆的“眼睛”不太好,无法像人眼一样准确看清世界。虽然现在新车靠摄像头、毫米波雷达、激光雷达等多种设备来“看”世界。可现实路况、环境太复杂!
比如特斯拉采用纯视觉的设计来监视路况,受天气和环境制约较大,雨天,大雾,夜晚,强光,摄像头污垢容易引起视觉障碍;对远距离、动态场景的识别精度不理想;容易看花眼,比如在黑色路面会无法识别黑色的车辆;难以检测无视觉特征的障碍物,透明物体(如玻璃墙)、光滑反射表面(如水坑)。无法识辨AI没见过的东西,比如头塞进水桶中的牛。
而国内大多数厂家采用的 激光雷达+毫米雷达+视觉 的方案虽然看上去更安全,更精确,但是成本高,整合三种信息的技术难度大,算力成本更高,同时也无法克服恶劣天气、环境对摄像头和雷达的相互干扰。
一百万次的识别成功,错误一次也是很致命的。

第二个难点,路况太复杂了,瞬息万变,AI直接懵圈。现实中常常出现的电动车乱窜、行人闯灯、摊贩占道,信号灯异常,地上交通线、路障临时更改,路上突然出现的散落物,车辆随意违章停放,此起彼伏的喇叭声等等。
再如印度牛车满街,欧洲窄巷挤爆,中国早高峰变停车场,各国情况不同。再比如,人类的恶意“别车”,或者其他的“使坏”,武汉的无人出租车不是经常被滴滴司机“别停”的么。人类随机行为(挖路、别车、高速逆行)超出了AI的预训练范围。

第三个难点,也是最主要的难点,车辆的“大脑”还不够聪明。
AI用海量数据训练神经网络(像CNN、RNN),可现实场景有“长尾效应”——90%的常规路况好对付,剩下10%的极端情况(夜间大雾、突发路障)样本稀缺。
无人驾驶需实时决策,比如前车急刹是减速还是变道?路怒司机别车咋应对?这需要动态博弈能力,可当前算法的算力需求爆表,车载芯片(如NVIDIA Orin,252 TOPS)远不够实时处理复杂博弈的500+ TOPS需求。
同时硬件方面也有极高要求。比如高精度传感器,CAN总线延迟10ms(0.01秒),在高速驾驶场景下就是致命风险,需车载以太网或TSN升级。
哪怕是目前最厉害的大模型,也常常会觉得他们不够聪明,更何况小小的汽车呢?
总而言之,无人驾驶的“大脑”不够聪明,因为它卡在数据、算法、算力、现实的“四重天堑”,导致很多自动驾驶的动作无法理解和完成。
现在的车企技术,多是L2+(部分自动化级别的),得人盯着,只能是辅助驾驶。能满足60%-90%的使用场景。可用户偏偏当它是L5!这两个级别差了十万八千里。以为他是全能的 ,车主高速路上行驶时睡觉,刷手机,结果悲剧频发。
紧急情况下,AI退出智驾 到 人类“接管”需3-6秒,但HMI(车辆与驾驶员之间的交互系统)只给2秒,RTI(反应时间指标)不够。 高速上2秒,车都飞60米出去了!
然而糟糕的是,教育缺位:用户啥也不知道!不知道智驾是辅助驾驶,不是无人驾驶。一些自媒体吹“黑科技”,不讲边界。

自动驾驶难,因为它面对的是个复杂的世界。技术、环境、伦理,法律、资金,每一步都充满困难。但正因为难,它才值得期待。
你说呢?自动驾驶啥时候能成?
------------------------------------------------------------------------
(关注我们,下一期继续聊!)

红炉起氤氲
围着火锅说点醉话
15篇原创内容
公众号
更多推荐


所有评论(0)