之前听一个AI专家说:模型的摩尔定律是「3个月」,3个月就可以用更小的模型达到大一级的效果。 在deepseek出来之前,我还不信。现在等于是击碎了所谓高算力,以及储备算力的迷信。 这个规律放在智能驾驶行业里亦然,智驾进步的速度非常快,不看储备算力,看的是各家的模型算法,也是智能驾驶的竞赛可能才刚刚开始。 由于模型需要的算力越来越少,接下来的趋势将是AI PC,每个终端都将是一台本地AI。 所以,未来几年最火的不再是云端算力,而是终端算力。 车端的算力越强,蒸馏下来的模型越完整,比如deepseekr1 llama支持8b-70b(80亿-700亿的参数)的版本,70b比8b的强不少。
  • 全部评论0 条
  • 只看作者
  • 最热
  • 最新
  • 最早

前排沙发空着~

还没有人评论哦,快抢沙发吧!
写评论
积分赞赏
点赞
评论区
  • 收藏
  • 举报
  • 加入黑名单
回到顶部