{{detailStore.author.is_follow?'已关注':'关注'}}
管理
智驾时代的人车融合
文章

现今,人口红利到科技红利,汽车从手动挡到自动挡,从定速巡航到辅助驾驶,硬软件的技术快速迭代,作为交通参与者,为增加行车安全,减少事故,不仅要会开车,更需要理解辅助驾驶的车机状态和逻辑闭环,做到从人车合一到人车融合。

 辅助驾驶直观的好处是减轻驾驶疲劳,比如有了定速巡航,高速就不用一直踩着油门,减少了右脚的使用频率,但还是需要视线和双手协同;有了ACC和车道保持,就一定程度上解放了手脚,双眼也不用一直盯着前方,一定时间内(30秒,轻微转到方向盘,从新计时30秒),这个间隙,可以自由活动眼镜,活动脖颈,改换坐姿,饮水进食,冷热增减衣服,如此等等。

 为求不盲目把个人的生命安全交给车机,需要认识和把握如下场景对应的车机逻辑:

简单来说,现行未上激光雷达或4D毫米波雷达,都是两重融合ACC(视觉+毫米波雷达,一般都是全速域的);毫米波雷达对运动的前车100%识别,识别距离160米;但不能识别静止车辆(因为傅立叶变换,将车辆与静止的大地一起扣除背景,扣没了,如同蛙眼),如果车辆前视方向只有一个毫米波雷达,对左右45度加塞车辆不能及时发现,容易剐蹭,需要接管。(加塞车辆尾灯进入视野,车机会有效识别并刹车减速,相对速度大,会急刹,体验不好)。,

静止的车辆靠前视摄像头,有条件识别,识别距离大概20-50米,视觉算法用的是卷积神经网络,仅对能够提取特征的物体识别(如车尾、交通锥,行人,自行车,摩托车),异形物是不识别的,所以车的侧面100%不识别,静止的异形车,如泥罐车,几乎不识别,除非贴了白红条带;

(注:双目摄像头可以测距,用的是视觉相位差,单目摄像头无法测距,所以对45度加塞车辆不能有效应对,也容易剐蹭)

 为了知道车机什么时候刹车,什么时候不刹车,驾驶员需要自学习看仪表盘(知晓车机所处的状态:速度、电量、车道保持是否启用,是否识别前车,图示如下:

屏中的小白车,即前车(距离较远);小白车两侧的蓝线,即车道保持启用(白色是未识别或未启用);双蓝线左边绿色方向盘符号,即ACC和TJA启用;双蓝线右边,即当前定速

其实有一个办法能确保安全,就是驾驶员需要看仪表显示的识别信息,识别了一定会显示,一定会刹车,不显示即不识别,一定不刹车,车主需要养成看仪表或HUD的习惯。

注:静止的车辆识别较晚,不同车识别所需时间和距离不一样。有的车型是多车道显示,但逻辑是一样的,会把当前车道的前车标记为蓝色,别的车无标记(灰色)。

红绿灯前有静止的车辆,可手拨退出ACC,一定距离内,识别前车,再启用,让车机刹车,注意相对速度,拥堵路况尤其好用省心。

另:无车道线跟车,前车转向,曲率大于15度,车道保持退出,这个建立在现有16线毫米波雷达的方向角偏差上,角度大回波信号弱,需要人接管,但不用踩刹车,即使定速过80也不会急加速,回正前才加速,建议灵活定速(30-50),

目前L2不适用的场景:匝道,直角,掉头等,

所有上述的逻辑,一开始会觉得费事,但经过熟悉一段时间后,开车就变得简单轻松;

逻辑清楚,才能掌控车的安全

最后,鉴于L2的不足,R7增加了高精地图(方便大曲率匝道转向),增加了4D毫米波雷达(识别静态有高差的物体),增加了luminar激光雷达(波长1550nm,不伤眼,探测500m),增加了5G-V2X(超视距感知),为此6重融合,全天候全场景成为可能。

驾驶逻辑焦点在AR-HUD(不用频繁看仪表屏),有后向4D毫米波雷达,还能有效识别跟车,…………

特别注意:特斯拉不适用这套逻辑,纯视觉算法,大屏显示的虚拟路况,无可视逻辑焦点(即显示与刹车不直接相关)。

写评论
积分赞赏
点赞
评论区
  • 编辑
  • {{is_favourite ? '已收藏' : '收藏'}}
  • 举报
  • 加入黑名单
  • 删除
  • 取消置顶
  • 置顶推荐
    • 6小时
    • 12小时
    • 24小时
    • 3天
    • 一周
    • 长期
  • {{digest?'撤销精华':'设为精华'}}
回到顶部
  • 全部评论{{detailStore.commentnum}} 条
  • 只看作者
  • 最热
  • 最新
  • 最早

「待审核」

{{ comment.relativeTime }} 已被赞赏 {{comment.integral}} 积分 回复

暂无相关评论

发表一下个人看法吧