近日,小某汽车致命的事故,悲痛的同时,引起了很多人对自动驾驶的关注:自动驾驶到底能实现安全驾驶吗?

2025年初,从特斯拉的FSD落地中国到国内新老势力的群雄并进,厂商们喊得震天响:“智驾时代来了!”

可现实呢?事故频发、系统崩盘,别说“解放双手”,命都不安全了!

为啥自动驾驶这么难?不是能识别红绿灯、自动泊车、春节千公里“自动”驾驶回老家了吗?去年武汉的无人出租车不是已经很火爆了吗?

自动驾驶还有多远的路要走?

目前,智能驾驶分了6个级别,每个级别对应的人类对车的干预不同:

图片

目前车企只是实现了L2、L3级别的自动驾驶,离L5级别的真正的自动驾驶还很遥远。

今天,我们掀开AI“黑科技”的盖子,解码它为啥总翻车,看看这场技术梦,到底卡在哪儿!

图片

第一个难点,车辆的“眼睛”不太好,无法像人眼一样准确看清世界。虽然现在新车靠摄像头、毫米波雷达、激光雷达等多种设备来“看”世界。可现实路况、环境太复杂!

 比如特斯拉采用纯视觉的设计来监视路况,受天气和环境制约较大,雨天,大雾,夜晚,强光,摄像头污垢容易引起视觉障碍;对远距离、动态场景的识别精度不理想;容易看花眼,比如在黑色路面会无法识别黑色的车辆;难以检测无视觉特征的障碍物,透明物体(如玻璃墙)、光滑反射表面(如水坑)。无法识辨AI没见过的东西,比如头塞进水桶中的牛。

而国内大多数厂家采用的 激光雷达+毫米雷达+视觉 的方案虽然看上去更安全,更精确,但是成本高,整合三种信息的技术难度大,算力成本更高,同时也无法克服恶劣天气、环境对摄像头和雷达的相互干扰。

一百万次的识别成功,错误一次也是很致命的。

图片

第二个难点,路况太复杂了,瞬息万变,AI直接懵圈。现实中常常出现的电动车乱窜、行人闯灯、摊贩占道,信号灯异常,地上交通线、路障临时更改,路上突然出现的散落物,车辆随意违章停放,此起彼伏的喇叭声等等。

再如印度牛车满街,欧洲窄巷挤爆,中国早高峰变停车场,各国情况不同。再比如,人类的恶意“别车”,或者其他的“使坏”,武汉的无人出租车不是经常被滴滴司机“别停”的么。人类随机行为(挖路、别车、高速逆行)超出了AI的预训练范围。

图片

第三个难点,也是最主要的难点,车辆的“大脑”还不够聪明。

AI用海量数据训练神经网络(像CNN、RNN),可现实场景有“长尾效应”——90%的常规路况好对付,剩下10%的极端情况(夜间大雾、突发路障)样本稀缺。

无人驾驶需实时决策,比如前车急刹是减速还是变道?路怒司机别车咋应对?这需要动态博弈能力,可当前算法的算力需求爆表,车载芯片(如NVIDIA Orin,252 TOPS)远不够实时处理复杂博弈的500+ TOPS需求。

同时硬件方面也有极高要求。比如高精度传感器,CAN总线延迟10ms(0.01秒),在高速驾驶场景下就是致命风险,需车载以太网或TSN升级。

哪怕是目前最厉害的大模型,也常常会觉得他们不够聪明,更何况小小的汽车呢?

总而言之,无人驾驶的“大脑”不够聪明,因为它卡在数据、算法、算力、现实的“四重天堑”,导致很多自动驾驶的动作无法理解和完成。

    现在的车企技术,多是L2+(部分自动化级别的),得人盯着,只能是辅助驾驶。能满足60%-90%的使用场景。可用户偏偏当它是L5!这两个级别差了十万八千里。以为他是全能的 ,车主高速路上行驶时睡觉,刷手机,结果悲剧频发。

    紧急情况下,AI退出智驾 到 人类“接管”需3-6秒,但HMI(车辆与驾驶员之间的交互系统)只给2秒,RTI(反应时间指标)不够。  高速上2秒,车都飞60米出去了!

    然而糟糕的是,教育缺位:用户啥也不知道!不知道智驾是辅助驾驶,不是无人驾驶。一些自媒体吹“黑科技”,不讲边界。

    图片

    自动驾驶难,因为它面对的是个复杂的世界。技术、环境、伦理,法律、资金,每一步都充满困难。但正因为难,它才值得期待。

    你说呢?自动驾驶啥时候能成?

      

      ------------------------------------------------------------------------

      (关注我们,下一期继续聊!)
       

      红炉起氤氲

      围着火锅说点醉话

      15篇原创内容

      公众号

      Logo

      欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

      更多推荐