大家好我是陆星宇在节目正式开始之前我还是提醒一下大家进群跟买书这两件事进群就是微信加 car 下滑线 1105 就可以被拉群 car 下滑线 1105 然后就是买书我跟街公益出版社的合作可以搞到一些修养自己家的书然后大家直接去收纳了可以看一下就行
上期我们聊到了什么是端到端端到端的好处和坏处是什么以及基于规则开发的好处和坏处是什么还有端到端的效率优势 VOM 到底端到端以及特斯拉 FSD 的税务不符那我们就从什么导致了特斯拉 FSD 的税务不符继续聊
其中一个问题就是它的路径规划错然后它的认路是出现错误对其中它的这个一个问题就有可能是这个定位是问题而不是说它的算法定位问题这个话可以我这边可以补充一下大部分的这个车载车道线的这个定位的话如果你单纯一号 GPS 的话通常是正负三米
然后另外一个的话这个还要跟你的这个 GPS 信号车速信号很大的关系有的时候的话呢你基本上可以需要要一些地面站的纠正才可以但是的话国内的话是没有 GPS 的那个地面站来纠正的你在北美的话是可以用的
但在国内的话这个是不可以的那所以它的 FDSD V13 本身没有区别只是它能够接收到的这个 JPN 的这个地图信息在中国是缺失的
你可以这么来说就是说本身这是 GPS 定位的一个 bug 如果你没有一个对应的这个地面站的一个给你第二条的一个回馈信息包括你空过 LTE 也好可以给他一个回馈然后的话可以办的精度做的稍微能控制但是即使是那样的话就我德国德国的一些供应商也好不包括北美的供应商也好他们做到了现在这个标准的话你可能连 ACLA 都达不到的所以如果其他 ACLA 都达不到那你就不要想去作为
做这个所谓的车道线是不可以的你是需要有其他的额外的手段来帮助你做这个车道线定位那其他在中国的自动驾驶的车企公司都在做什么呢他这件事你要有高精度地图就会好很多那就是他需要采集地图信息
但是特斯拉好像有吗我不知道因为中国政府不允许外企去私家采集这个信息是的就是你一旦出现这种问题会有几个维度首先去考虑对吧比如说出现定位然后就是你的这个识别层面你是不是识别有问题啊
然后还会考虑比如说你这个位置相关性就不是绝对位置而是你的相关位置就是你和这个车道牌的关系这个就是可以再去考虑的
对所以说就像你刚才说的出现这种问题它并不是说绝对就需要去用规则来去解决而是还是有不同的维度有 AI 相对的有端到端相对的方法去解释它又解决它是吧
对就是有在目前这个 AI 的架构端到端的架构下就会有这种架构下所相应解决的这个思路所以其实有一种就是普世性对吧就是 FSD 没在中国开发过它在美国开发了然后它现在同样的模型它可以去为中国版的数据它就可以变成瞬间变成中国可以开的
这个事还不能完全这么理解就是这么说吧就是这个目前这个 FSD 这 V13 很多人说它是一个阉割版其实其实并不是怎么说呢就是它从算法层面它的这个能力是没有任何阉割的也就是说它的呃
首先咱们这个能力咱们分了两方面说一个就是它的认路识别能力还有一个就是和车辆的博弈能力认路能力就是你首先得看到周围有什么场景对吧你的车道线路牌红绿灯标识等等这些对这个是
肯定是需要本土的数据来训练的这是毫无疑问的要不然你这个纽约中文字识别不了对吧你这个这边的咱们的停车标和北美停车标也不一样然后红绿灯也不一样车道线也不一样颜色也不一样形状大小都不一样对吧这个但是他说是基于这个公开的这个道路信息训练我觉得这个应该没有什么问题
然后博弈能力我觉得这个其实是这个 V13 比较强的一点就是他对这个处理这个复杂场景然后很多情况下这个我看一些这个测评视频他们很多时候都说这个无论你这个
是对特斯拉因为很多博主他的风格不一样有的包有的点但是很多情况下他对复杂场景的处理能力他们都还是比较认可的甚至都是会说很丝滑真的感觉还是像老司机一样就不会
该犹豫的时候就是不该犹豫的时候不犹豫然后比较果断然后这个刹车也不会说是一脚重刹这种就是这种它的博弈能力处理场景控制车辆能力它绝对是没有问题的我觉得这个是直接是搬过来的但是目前它差的是什么就是我首先就是
这边的道路法规对吧这个是目前他特斯拉欠缺的因为很多情况下我不知道你们看过陈震视频直接是给他整了 7 个罚单这会已经凌晨 5 点多了全部都处理完了然后视频里一共是出现了 5 个伪装然后到这边调了一下监控一共是 7 个伪装包括走自行车道包括压实线
包括转弯车道执行等等一共是 7 条我想跟大家说的就是在辅助驾驶的过程当中尤其是在现在 L2 级别的辅助驾驶的过程当中你坐在驾驶位你就是这个车的第一责任人所以当发生了所有的比如说事故比如说伪装就都是由你来承担这个就没什么可争的没有什么可说的
也没见了我以后也会注意的回家睡觉了禁用公交车道时间他开上公交车道然后还有比如说什么那个
飞行的车道对吧使用不出来因为北美的飞行车道就是自行车道很窄你不像咱们这自行车的一整条真正的车道甚至有的比机动车道还宽他可能就不认为这就是能走的像这种中国特色的这些路况然后交规
这些他目前是没有然后甚至其实马克思他自己都说了就是 FSD 应该是去年年底的时候他说的这个面临的一个重大的问题就是无法去实现这个中国特有的一些教规的
一些场景它特别就还是甚至点出这个公交车道是一个难点因为咱们有的公交车道是全天限行有的是有限行时段有的是早晚限行有的是周末不限行周中限行还有的比如像北京长安街上它就是全时段限行这些你都是
没办法在路牌上找出这个信息的我有印象他说这件事的主要理由是因为中国政府的网站中国道路规则的网站上从来不公布这些信息他说过这件事而且咱们就是因为我也跑过很多地方就是你甭说其他二三四线城市了你就是一线城市北京上海的道路情况差别有多大
这个我觉得真的是外国车企业和工程师无法想象因为它因为中国太大了它不可能用一个非常统一的标准来去要求所有的这个道路法规对吧所以说这个你每个城市之间的这个场景都不一样每个城市之间的驾驶风格也不一样每个城市之间的这个路牌标识可能甚至也有区别那你这个
又没有这个统一的一个网站或者说这个这个这个标准来去要求那这个难度真的就很大了如果你不在本土做训练的话对我我觉得这里边就是有两个层面一个层面是特斯拉觉得这是一个难点呃但是很显然在中国不只有特斯拉这一个车企我们有各种各样的车企都在开发这个类似的功能呃
所以从我工程师的角度我只是想知道他这里边的工程难点在哪是说你需要开更多的测试车在路上跑然后跑很多尝试去发掘规则然后去做所谓的强化学习还是说我们没有这个人力的情况下我们想要获得一些公开资料我只是想要这个公开资料我已经懒得去做这些学习或者说这种特点
特定场景的测试因为我听过理想他们的说法说是现在很多的测试的场景是 AI 生成的那我其实很好奇如果是这样的话如果理想可以做简单来说就是如果理想可以做那
特斯拉为什么不可以做呢是这样首先特斯拉是他这个也是有点悲催他这个受双重险第一就像刚才他们说的他的这个所有中国的数据是禁止出境的对吧这个就是
说白了就是你中国这些路上跑的 FSD 其实是有上传数据能力的但是不允许也就是说他不允许传回北美的训练中心做数据处理第二美国是禁止特斯拉在中国建设训练中心的
你说他根本就没有办法在本土在中国做训练这个事根本就不可能这还是美国政府规定的这是美国政府规定的因为其实他是这么想的就是说你一旦在中国设置了这个训练中心你就会接受这个什么美国叫什么出口管制你这个你想北美投入那么大他自己的那个 Dojo 的那个超算再加上了那么多的那个
英伟达的那个显卡你这个是巨额投入你在中国再来一遍吗啊即使你有这个钱啊你算算这个你能能能出来就是你有这个预算你北美也不会你本来特那个英伟达的高端显卡就是禁止就是已经是在这个出口管制的名单上啊所以你就算有钱你也不可能在中国干这个事嗯啊
然后所以说他的方法就是说基于公开的数据去做有限的训练这么说然后还有就是说你刚才提到理想用模拟其实是目前也是主流解决
训练数据的一个问题因为其实咱们也知道刚才说的很多训练的模型需要海量的数据其实你看现在很多新势力它根本就没有那么大的数据没有车队对没有车队是的它肯定有自己的研发车队然后训练做一些测试标定这个没有问题是但是其实最主要的数据来源还是客户车辆对
对吧特斯拉为什么牛他有这个每年有几百万的新的数据来源啊他累计我忘了那数据具体多少了呃几十亿英里还是十几亿英里的数据嗯可以给他做训练对吧这个数据是海量那么咱们国内呢对吧你你魏小李你加起来一年能卖多少车对吧有然后这些车上有多少是装了这个支架的啊
然后所以说你这么算起来你的数据还是远远不够的包括华为之前也说它一年是一个月能产生 1500 万公里数据其实这个已经是听起来挺多但是你真正想要去训练那么大的一个模型其实这个数据量还是不够的那当然还有一个问题就是说你即使有这些数据就像我刚才说的你有这些数据你不能保证这些数据都是可用的或者说是有用的因为很多比如说是一个是重复数据
对吧比如那么多我开一辆车正常情况下我天天上下班就跑那一条路场景重复再一个我怎么保证我的场景的丰富性然后比如说我要解决一个 bug 我这个场景怎么复现
然后还比如说我怎么去覆盖 corner case 怎么去解决肠胃问题这些都是很多实际数据中并不是那么轻易能拿到虽然说听起来数据很多所以说这时候解决办法就是一个用模拟数据就是这个也是从去年年底也是比较火的就是大量应用的一个技术就是 word model 世界模型世界模型这也是行业中最近非常火的一个词儿
有了这个世界模型车企就不需要在公共道路上无限测试了这绝对是 AI 带给自动驾驶界的一个重大突破好了聊到这里这期节目也接近了故事的结尾我们从传统基于规则的 ALS 开发流程聊到端到端还聊了各自的好处和坏处然后我们用特斯拉的案例展示了什么是端到端自动驾驶的上限高和下限低
那么作为汽车工事而不是 AI 科学家我们必须要回到汽车行业的核心价值安全做 AI 可以天马行空但造车必须保证安全而回到杨继峰在节目开始时提出的那个核心观点用 AI 开发的访人开车系统本身就是存在千天的不可解释性的理想也说了自动驾驶是一种能力而不再是功能
那如何验证它的安全呢这就不得不提到如何定义安全安全概念里面的话你会发现就是在 HAC R2P2 里面的话它会说所谓的最大的可接受风险的比率那么我们来说我们对于一辆单独的车的话我们没有说 AI 也好没有说其他的控制的就是说没有 AI 控制的一些东西没有自动驾驶技术的话
那它的这些所有的这些风险数据也好它的失效数据也好我们用 61508 可以做到足够了由于人类驾驶员作为真正的主导 61508 这是一份国际电工委员会 IEC 在 1998 年首次发表的用于工业领域的国际标准其名称是电气电子可编程电子安全相关系统的功能安全
而真正到了 L3 以上的话那么有多少是由于以前的数据都是基于有可能是人类驾驶员的事物有可能是系统风险的事物那么现在针对于 L3 以上的话由 AI 主导的这个驾驶行为的对于每一个这个自动驾驶的不管说自动驾驶还是普通驾驶你每一个 feature
你每一个这个特征量的话它造成的这个风险的话是并没有一个足够多的数据的现在的自动驾驶你现在没有这些事故数据的事情你怎么跟人家驾驶员比比安全性而且如果你真正看的话所有现在自动驾驶全在做 ALARP 原则翻译成中文就是最低合理可行
这是一个风险评估的原则也是之前说到的 61508 对降低风险的原则之一那这些所谓的 R-LAP 原则的话你可以看一下在真正的 HSE 的 R2P2 这个法规这个是一个法律条款我们可以这么认为它是强制性的 HSEHealth and Safety Executive
安全卫生执行署是一个英国的非政府部门的公共机构负责监管和执行职业安全健康等工作并负责研究英国的职业风险对应到中国可以相当于国家安全生产监督管理总局 R2P2 是 Reducing Risks, Protecting People 降低风险保护人员它是一份描述 HSE 决策过程的文件
它旨在使 HSE 遵循的程序和协议透明化以确保 HSE 的决策过程包括风险评估和风险管理被视为有效你可以说它是一个非常有英国特色的文件但有趣的是这个来自 1974 年的 ALARP 理念恰好被 IEC 沿用了
R-LAP 是里面可接受的原则而并不是说是完完全全是公众可接受原则因为它里面分两种一种是 R-LAP 原则一种是完完全全不需要再做额外的事情就是公共可接受原则那么这两个的区别在于哪 R-LAP 的原则是一旦出现了新的技术
那你需要重新审视你的系统重新更新你的自动驾驶的这个功能和安全的能力这是 R-LAPR-LAP 是需要有迭代的后续是有费用的如果现在按照现在我们来说在自动驾驶中所有人在提 R-LAP 原则说那第一个我们刚才说了现在的事故数据不完全你怎么证人比人类强你是不是足够满足 R-LAP 这件事情是未知的
第二件事情,你用了阿拉伯原则,这个只是一个事情的开始,只是你能够允许你上路能达到最低条件,而在后续如果出现新的技术的时候,你是需要重新拿新的技术来审视你原有设计而且要不停的更新的,这也是法规的要求。好吧,所以说目前来看,如果自动驾驶 AI 只是走阿拉伯原则的话,那说明自动驾驶远未成熟,还早的呢。
而这些数据从哪来需要用后续的话各种小白鼠汤出来所以这也是为什么说很多人要推说 L3 的这个法规要不停的解禁慢要解禁然后才有真正的数据才能然后回复到后续的模型然后来说来修你的模型那么你看啊这 AI 的这个端对端其实就是一个事情你要的是数据的吧你要的是你预期的行为预期的最后的一个执行行为吧
那你需要的是什么那你其实需要一个高质量数据那么回来再说这个 AI 安全性来说你收集到这些数据的话这些事情能由 AI 来实现吗这个事情可能蛮难的因为 AI 的话和他所有的如果你跟 AI 相关的这个安全系统安全设计的话如果他们两个放在了一起的话同样都由能 AI 来做他们中间的这个他们的系统的独立性是没有办法保证的
所以这个时候的话如果说你有一个 AI 来执行功能再有个 AI 来执行安全这两个东西的话很难保证这个事情是后续即使有也是一个很难做到的一个事情你除非你不仅要保证硬件的独立性还要保证软件的模块的一些独立性甚至还有一些额外采集数据的一个独立性 OK 到这里我们总结一下对社会开放自动驾驶这件事需要社会对潜在风险达成共识
而共识需要数据而目前没有足够多的数据证明自动驾驶的出事的概率是足够低的因此 L3 很难放开此外如果想用 AI 来同时做功能和安全需要硬件独立软件独立数据独立这都很难做到针对第一个挑战到底出事的概率多低算足够低呢这是一个叫做一个 safety targeting 的 setting 的问题就是说你要设置你的安全目标的
你的安全目标的话你要设计一个所谓的叫做 maximum tolerable risk 就是说你最大允许的这个最大风险是多少然后这个风险设定的话它会针对什么呢会针对于说单个人员然后针对于这个公众以及公众广义能接收然后分说单个人员还是说多个人多人伤亡这种事情
那这个情况下的话,它会有一个你需要来设定的一个,怎么说呢,一个目标值吧比如说对于这个单个人员上网,对于一年来说的话,它的概率可能说是十的负三次方张翔这里引用了一本介绍功能安全的书,书名是 The Safety Critical Systems Handbook 作者叫 David J. Smith 博士
这里说的概率是每年的概率 10 的-3 次方的意思就是每年每一千人中有一个人伤亡那对于说这一到两个人啊那如果是三到五个人呢就变成 3 乘以 10 的-5 次方然后如果是六个人以上的话可能是 10 的-5 次方这个是所谓的最大可接受的这个单个人的如果你说最大可接受的这个上限
如果你要说下限的话下限的话你比如说如果是针对于说三到五个人的话那可能是三乘以十的负五次方那对于说这个公众而言的话那公众可接受的话说那不行那是三乘以十的负七次方要足足两个数量级听到这里我想大家应该理解张翔介绍 HSE R2P2 的原因了
这是一个量化风险的决策方式而对于整个自动驾驶行业来说利用这个决策方式可以有效地确定风险的概率这样对政府决定放开 L3 上路也能对公众有个交代因为这个决定是有数据支撑的当然每个国家对高风险低风险定义是不同的能开放 L3 的时间当然也是不同的这是张翔提出的第一个挑战积累足够多的数据来告诉公众自动驾驶已经足够安全了
那他提出的第二个挑战如何用 AI 来保证安全这个挑战该如何解决呢首先就是从架构角度设计就是增加它的安全冗余
有的方案就是刚才也提到就是增加比如说规则兜底这个方法还有比如说它是增加了一个额外的监督模式就是它还是一个 AI 模型但是只不过是用这个 AI 模型去监控主 AI
就有点像这个刚才聊到这个 L3 的这个架构它也是相当于有两条路然后其中一条去作为备选然后去监督然后一旦失效它可能会切换有这么一个模式
然后其实还比如说包括刚才咱们聊到这个 AEB 或者说这个车道保持甚至 ESA 对吧这些直接影响到车辆安全的或者说咱们可以称为主动安全的一些功能还是一大部分应用了手写的或者说规则的开发模式并没有应用到端到端
也是为了保证它尽量的安全这是一个从架构设计角度的考虑然后还有就是说有一个额外的安全机制
因为这个我也是了解到有的这个 AI 设计架构它是增加了一个自我检测的一个机制也就是说当这个系统到了一个一定的这个模式或者说一些场景它无法准确判断出哪个是最优路线或者说无法判断出哪条是最安全的一个方案
那么它会增加一个监督就是说会有一个评估一个体系那么这个体系如果给出一个安全值如果这个安全值低于一个胭脂的话
那么他可能会说我这个系统现在无法去胜任这个复杂场景去等于是提交给驾驶员然后或者说我需要驾驶员一个确认我是否可以进入这个场景他会有这么一个模式还有一个就比如说
从这个训练角度来考虑就是说这个比如特斯拉用的这个影子模式对吧就是还是去更好的收集说到底还是去更好的收集他的这个优质的数据从这个驾驶员的角度在一些复杂的场景驾驶员从作为手动开车的情况下他是怎么去处理这个场景的
这个其实还是以数据驱动的模式去做这个事情然后包括其实 Mobileye 它有一套自己的理论就是用了叫 RSSResponsibility Sensitive Safety 这是它的一个数学模型就是
规定了一些场景说到底当然也是这个这个 Ruby 啊但是他就是用数学模型去呃限定了这个功能他有些场景下他的最大的能发挥的一些效率比如说他的这个
加速度减速度在一些限制条件下啊他就给你限制死了啊来去避免比如说 AI 我去规划一个突然加速或者一个呃极减速啊这种这种不安全或者说不舒适的这种呃这种规划的可能性啊
然后还比如说有一种情况就是说目前比如说咱们都知道这个高竞地图可能是应用的越来越少因为确实因为成本问题啊部署问题啊等等更新问题但是其实这个思路我觉得是没有问题的就是说他会用这个第三方的一个信息啊不是用车载的这个你的这个感知而是用这个比如说现在越来越火这个
V2X 就是车路协同其实我觉得这个反而是可能今年甚至这个自动驾驶之后非常重要的一个信息来源或者一个辅助信息就是比如说我很多车车辆互相联网然后跟路况信息联网我可以实时分享比如一辆车看到了这个
比如说修路,公矿这块临时修路和我的地图信息不匹配然后我这辆车可能临时做出一定处理,不管是正确还是不正确我上传到云端,但是云端的算力很大,云端的算力能力更强,可以可能组织更合理的规划
然后这时候可能会有其他车辆同样加载这个系统然后同样遇到这个路况那么我的处理就相当于多了一个维度来去解决这个事情然后这个其实也是能间接的提高安全性对其实就是说白了还是
AI 就是这个端到端本身这个事你要解决它的安全性或者功能安全这个事其实我觉得或多或少是个伪命题因为就是无解但是你可以从 AI 自己解决的对但是你可以从其他维度来辅助它达到我们所谓的这个安全的要求
但是从其他维度的话其实最大的问题的话就涉及到一个这个仲裁的问题了你可以提供冗余度但是仲裁之后的话你对于你的单个执行器而言的话你除非你把 AI 这条回路给直接禁掉那这样的话 AI 的输出和你其他的安全功能的输出以谁为准这个事情是很难做仲裁的除非就像你刚才说的 AI 说我自己决定主动退出所以看来张翔提出的第二个挑战也是无解的
从目前我们国家 L2 加的发展来看我们目前看起来正处于一个狂野的西部谁越无法可依谁的技术进化就越快因为你是需要对于 public 和对于 single person 的话你是要有目标值的你要有一个社会可接受值的现在最狂野的西部并不是由于说我们是都是狂野西部都没监管但没监管的时候在美国和我们不一样的地方是人家是有一个目标值的但这没目标值
嗯嗯嗯懂了那所以就是说你之所以从头开始就一直在提这个 R2P2 和 RLAP 原则的原因是因为无论今天讨论的是 AEB 还是不是 AEB 对吧无论是 L2 加的这个驾驶员服务系统还有 R3 就是它需要有一个基本的这个法规的认同让整个社会认同在一个数上至少我们要有这个现在如果没有这个的话那就是后面全都是狗
狗屁你连目标都没有你就说我什么东西我都做了然后我应用的是 alab 但你 alab 的目标在哪 alab 也是有目标的是是是所以尽量就保证自己车卖到 1000 辆以下是不是反正根本就或者是这样或者是有你要有足够的数据支撑来安全现在就要有收集很完整的数据举个例子我们来说一个事情就是说
就说公的安全里面会经常引用一些最早的比如说西门子的标准比方说 IEC62380 的标准 61709 标准还有一个更重要的标准叫做美军的军标对吧那就这个 military 的一些标准这些 reliability 的标准那么我们来说一个很好笑的一个事情我就不说谁了就是欧洲有一个特别大的半导体厂商好吧
他说他按这个那个 62380 做的好做完了然后出事了出事之后我问他我说你里面引用的原始数据是什么他居然告诉我说是 1000 个小时 25 度实验室条件好理解吧
很多情况下很多厂商这个不仅在中国的问题在很多欧洲也有同样的问题就是他们引用的这些数据的话实际上是理想情况下的现实数据没有 field 的数据为什么我要说这个事情呢我们刚才要回到刚才说美军军标这个事情之前我的一个同事就是这么说吧他在美国军队服役过一个美国老头
然后他实实确确的告诉我一件事情就是说你看到的美军军标中引用的每一个数据是因为我们有很完整的这个 field return 的流程有我们的数据处理流程每一个数据每一个数据的最终的数据分析都会导入到最后的军标演进中每一代的数据迭代所以他们有完整的数据而且这个数据从 193 几年就已经开始 192 几年就已经开始有了嗯
他们为什么敢说他的这个这个为什么大家都要用他这个流程因为他有完整的数据那么同样的不管是中国要做任何的自动驾驶企业的话这个数据收集要从政府层面上做起一定要有这样的数据收集你才有可能说为你的监管放松设定可能性为你的这个 alab 来的话提供一个指导规范
为什么英国要有这个 H2P2 呢其实它是为整个社会的所有的运行的任何一个工业体系都提供了它的一个指导规范张克祥我觉得你说的太好了我觉得这简直就是整个节目的亮点我从来就没有想过这个问题咱们来说一个非常具体的事情就是在大概一个月以前啊
这个比亚迪说这个天神之眼要提供这个所谓的质价到 998 就是 99800 的一个车型上也就是说他们所有卖的车都要提供质价 one way or another 对吧就是一个配置或者另一个配置它绝对都是质价我很好奇你怎么看这件事我觉得很好啊我甚至觉得那个北里宫的数据收集平台也很好啊
而且我还在我想我特别赞成的一个事情就是数据不输国因为为什么因为这部分的数据是极端珍贵的数据这部分的极端珍贵数据会为我们后续的不管是自动驾驶也好为我们的所有的企业也好提供极大的支撑这部分数据包括它的总体的为什么每一个为什么每一个磁场景的数据我就不输国因为没有这部分数据的话你连目标都设不了你干嘛呀
说句不好听的你有没有 AI 的话做不做端对端这些东西都是实现层面上的事你只要你的上层的这个需求和你的需求没定清楚你就白扯了那这部分需求的话通常大部分的需求都是用数据来做支撑的就包括你训练也是你也要数据做支撑这数据我不给你你永远都敲不开这个大市场的门
我理解你意思也就是说端到端也好什么供能安全也好这些是手段然后如果你有足够量的类似的 L2+的功能的车上路了然后你开始采集数据了然后你有足够多的数据而且你针对不同的场景去采集不同的数据这时候比如说闯红灯的数据或者说那个
又拐拐而让撞死人的数据不同的这个风险来源数据根据它进行分类之后哪些是由这个呃传统的情况来采用的哪些是由 AI 的这个所谓的端对端来来采集的最终的话可以得出很明确的对比了解所以最终只要你最后那个数据是够的比如说证明呃这个 alpha go 下围棋呃
永远会下过这个人类世界冠军那你就不用再去说两路看三路看你不用搞这些东西因为你就不用用数据上证明它安全对吧对没错 OKOK 这个事其实跟我插一句这个不補充一下我也是很认同这个观点就是说到底其实就是数据为王现在这年头 AI 嘛
谁有数据占领数据谁就是最后的真理持有者然后再举个具体例子就是说咱们拿 Sotive 说之前在传统开发的时候你说 Sotive 我要定义比如说我的错误识别率不能高于比如说 10 的-10 次方打个比方
那你这个数怎么来的你这个是纯理论定义的对吧因为之前没有这么多数据来去让做这个标准那么其实换到现在你这个有数据这个为支撑的这个开发成为可能的时候
我这么多车在路上跑我经过这么多的场景我经过就是同样的场景我有这么多不同的车不同的这个模型最后我验证出来我可能我跑十八次方经过这个场景我最后都没有出错
那么我是不是就可以认为我的这个安全已经达到了这个 10 的八次方的这个目标或者反过来说我的出错率是不是就低于了 10 的这个 10 的负八次方
对啊对不对这就是其实可以反过来就是原来是正向证明是不可能的但是现在这个大数据已经把这个正向证明称为可能了那么我为什么不直接用是的这反而是更简单粗暴而且这是我一个观点第一个除了你现在的这个车辆数据很重要以外车辆禁止出国这个数据我绝对赞成因为这个的话是
这是最终的决定力量你决定了你的市场是不会被别人占领你也决定了你自己的本土企业能不能够在这场竞争中赢这是第一个事但是这是这个故事的一部分第二个故事中最重要的一个事情就是你看到了我们说回国的时候你一看红绿灯那么精准 V2X 这么棒基础设施这么棒那你想想为什么要修这些基础设施啊
为什么因为这里面有个很重要的一个事情就是说如果 AI 这个事情 AI 控制的车辆造成的社会危害性很大的话
那么我们需要有一个什么,就是说如果一旦控制不住,你需要有另外一个东西,这个东西叫做 Low,这就是说叫做 Layer of Protection,就是你有不同的 Layer,就举个例子来说,你有一手榴弹,捏手里,一般人肯定捏不住,可能炸死了,说句不好听的,那如果你有一个超强的棺材,你把它封里面,你就坐在棺材底下,你担心什么呀,没问题的。
就是你需要有一个叫做一个在这个在正常的很早的一个对原先的这个这个安全设计中就有个 LOPR concept 那你的第二层你如何来做防护呢你这层防护的话你可能说你可能有比方说你需要的一些最早期的一些数据支撑你需要 V2X 你需要这个高精突的这些地图这些数据为什么不开放
这些地方的话是你要想保存第二层安全性当你的 AI 发现说 AI 你可以理解什么你理解它就是一个 CO approach 它干完这事之后它没有办法 cover 所有的场景那么在这个情况下那其他的场景支撑它一定需要外部的一些数据的一些输入甚至说哪怕有一些甚至说控制的输入或者说 prevention method 的输入那这部分东西的话是掌握在谁手里啊
掌握在谁拥有这个外部 context 谁就掌握在谁的手里那么同样的道理来说的话那么现在我们来举个例子我们说一个特别极端的事我就说特斯拉 FSD 它肯定跑不完所有的场景常委相信肯定是决定了它没有办法做到百分百覆盖的那么好了只要没有百分百覆盖的话那对于从一个律师的角度来说它就有超大的机会对吧
那对于怎么来把这个利息的机会干掉呢那就是你外面要加一层 LOPR 给它再加一层防护比方说这基础设施限制也好说我不同场景也好原先的 ODD 实际上就是我说句挺不好听的一句话就是其实就是我
保护自己的特定的 condition 那现在如果没有得成特定的 condition 的话那我就靠 Lofa 的 concept 那外部的比如说 V2X 其他的一些东西能够能干成所以最终的话你可能会形成一个什么情况呢就是说你的 AI 端对端加上你的基础设施加上对应的这个安全网络安全的防护手段或者云端的防护手段才能构建出一个真正的这个自动驾驶的社会而偏偏
之前我们也聊过其实偏偏的话对于中国来说的话其实我们并不太需要这事但是这个是一个你就理解为说你买中式武器你不能说只买一个班你得买一个旅我们想卖一个旅的东西而已你这么理解就好了其实输出的是一套体制不是仅仅输出的是一个单一技术但其实这个东西对自己可能并没有什么太大用处
从我的角度听上去就是 L2 加是一个必经之路而且是一个很重要的路因为要采集数据你需要知道但是现在的问题是我们如果要想做到再往上 L3 和 L4 的话这本数据的处理也是很重要的你需要高质量的数据和分类
而且这不是车企在做的事情是吧这个需要来国家层面上来做的事情 OK 我顿时对未来又有了希望因为之前跟你做节目觉得 L2 加是一个问题我没改变我的观点就是说这个东西是未来但是现在 L2 加的话是很危险的我肯定是不会去买
这个观点这个是我要说明白的而且另外一个的话我对 L3 以上我还是没有信心的因为刚才也说过现在对于 AI 的话所有的安全手段要求叫什么叫做说 AI 可被禁止可被人类所终止那实际上还是人在还你 L3 包括 L4 以上那就不可能你就卡死在 L3 了对吧
所以从监管的角度来看从目前的监管的方向来看的话其实是卡死在这的要是我的话我是不会往 L4 投的我会老老实实做 L2 把钱挣了然后把数据交给国家然后让他们来做决定 OK 我觉得很正确的至少有一点就是车企没有
没有地位去做 L3 以上的事情他没有地位做这个事情是的因为这个的话是涉及到对于你的事故数据的分类对于公众可接受程度的调查对于整个的人力成本的这个分析来说的所以这部分是不应该由车企来承担的
是是是了解所以其实我们现在在对 L4 的悲观并不是某个车企没能力或者某个技术供应商没能力而是这根本不是车企该做的事情也是没能力
也是没能力而且这事车企也干不了我顿时感觉马斯克去当国务卿特别正确他为什么要那么干你不想想吗只有这样他才能打通他的生态生态化反了是不是因为作为
政策制定者的话他是你要突破任何一个政策除非能给政策制定者本身带来收益好理解吧如果不能给他带来收益的话一切那他还不如守成呢节目到了这里就要告一段落了怎么样各位喜不喜欢张翔对当前自动驾驶的思路
只有超越汽车行业和 AI 行业看这件事才能看到问题的本质这是一场数据、政策和风险的游戏只掌握数据,不能影响政策车企根本搞不定 L3 或以上自动驾驶
感谢各位收听本节目如果关于本期节目的各个嘉宾的观点有任何看法欢迎在评论区留言感谢猫右和 PSE 的简洁支持我是罗欣云我们下期节目再见
好