自动驾驶如何应对大模型的幻觉问题的?

查看 53|回复 5
作者:HarrisIce   
关注到最近车企都在推端到端的自动驾驶大模型了,但是目前的大模型不都是生成式的么,车企如何解决大模型的幻觉问题的?在道路上的大模型,一旦输出错误的结果,就非常危险了,车企如何应对这些问题的?
我现在推测可能是预训练的小参数量、多模态模型,在端侧 orinx 推理后,再由传统的 rule-base 的模型做一层验证 or 过滤?可能以前的 rule 是道路规则,现在的 rule 可能是违规规则,以实现对大模型输出的危险的结果的过滤?
有行业内的朋友科普一下吗
murmur   
没解决幻觉问题啊,前几天哪家的车不是把广告牌上的汽车识别成障碍物然后刹停了
MillaMaxwell   
应该是会一直迭代训练更新的吧
说起来,以前上班路上有一个路口,旁边是小山坡,每次路过的时候地图上都会识别出一个人在那站着(实际上那块是空气),差不多过了一个月,更新了一次系统之后就再没识别出来人了
James2099   
规则加端到端,不是完全端到端
James2099   
现在就特斯拉端到端实际落地了,其他家全部还是高清地图加不停地几十万行规则代码实现的,ads3.0,小鹏理想后面也会发端到端的
James2099   
没看到国内的都是不完全端到端的,你要相信你所想到的问题工程师早就想到了
您需要登录后才可以回帖 登录 | 立即注册

返回顶部