今天稍微科普一下新鲜词汇 大模型幻觉是指大型语言模型在生成内容时,因概率驱动机制产生虚构、错误或违背事实/逻辑的信息。 (本质:模型基于统计规律过度延伸语义关联,导致输出脱离现实约束) --- 关键特征浓缩 1. 虚构性 → 捏造不存在的人物/事件/数据 2. 失真性 → 扭曲时空关系或专业事实(如混淆科学定律) 3. 逻辑断裂 → 自洽但错误的因果推论 4. 诱导放大 → 特定提示下虚构率显著提升 > 例如:若询问“2025年诺贝尔奖得主”,模型可能生成虚构姓名及成果(尽管当前真实奖项尚未公布)。 这个现象在车企行业最典型的现象就是sr建模错误,比如把骑自行车的人识别为骑摩托的人,把过马路的狗,识别成过马路的小孩等等。 甚至把广告图里的数字识别成限速标志,把路灯或者天桥的阴影识别为障碍物等等。这些危险程度就会高一些。 归根到底还是辅助驾驶技术从指令和高精地图组合的先验信息,向以大模型为底层的实时决策转变。 所以一切大模型存在的问题,辅助驾驶都会有,没有例外。 而且大模型幻觉是概率发生,不可能不发生,这是客观证明的,所以未来辅助驾驶和自动驾驶一定有概率发生事故,区别大概就是多少,不可能完全消除。
长图
  • 全部评论3 条
  • 只看作者
  • 最热
  • 最新
  • 最早

好吧实在听不懂

学到了学到了

科技和名词都在与时俱进

写评论
积分赞赏
点赞
评论区
  • 收藏
  • 举报
  • 加入黑名单
回到顶部