cover of episode 159 端到端(下):多安全才是真安全? 对话嘉宾:薛越,杨继峰,章翔

159 端到端(下):多安全才是真安全? 对话嘉宾:薛越,杨继峰,章翔

2025/4/13
logo of podcast 孤岛车谈

孤岛车谈

AI Deep Dive Transcript
People
杨继峰
章翔
薛越
陆星宇
Topics
陆星宇:特斯拉FSD在中国遇到的问题,一部分原因是定位精度不足,这与缺乏地面站辅助纠正和地图信息缺失有关。国内自动驾驶企业通常使用高精度地图来提高定位精度,但特斯拉由于数据出境限制和在美国不允许建立训练中心,难以在中国进行数据训练。 薛越:特斯拉FSD V13虽然在复杂场景处理和车辆博弈方面表现出色,但其在中国表现不佳的主要原因是缺乏对中国道路法规的理解。中国道路交通规则的复杂性和多样性,以及缺乏统一公开的规则信息,给外国车企带来了巨大的挑战。 杨继峰:特斯拉在中国的数据收集和训练受到双重限制,这使得其难以在中国进行模型训练。国内新势力车企数据量不足,世界模型技术是解决数据不足问题的新兴方法。要解决端到端自动驾驶的安全性问题,需要从其他维度来辅助解决,例如增加冗余、规则兜底、额外监督模式、自我检测机制等。V2X技术可以作为重要的辅助信息来源,提高自动驾驶系统的安全性。 章翔:根据HSE R2P2原则,需要确定最大可接受风险比率来定义自动驾驶的安全标准。L3级及以上自动驾驶系统需要大量数据来评估AI主导的驾驶行为的风险,而目前缺乏足够的事故数据。自动驾驶系统需要遵循ALARP原则,不断降低风险并迭代更新。要向社会开放自动驾驶,需要积累足够的数据来证明其安全性,并解决AI功能和安全如何兼顾的问题。需要设定最大可接受风险(maximum tolerable risk),以量化自动驾驶的安全目标。 杨继峰:解决端到端自动驾驶的安全性问题,可能是一个伪命题,需要从其他维度来辅助解决。增加冗余度后,需要解决仲裁问题,即决定哪个输出作为最终执行结果。目前L2+自动驾驶处于一个监管相对宽松的阶段,技术发展较快。自动驾驶需要有明确的安全目标和社会可接受值,才能进行有效的监管。需要收集完整的数据,才能为自动驾驶的监管放松设定可能性,并为ALARP原则提供指导。许多厂商在安全标准中引用的数据是理想情况下的实验室数据,缺乏实际道路数据。美军军标之所以可靠,是因为其拥有完整的数据收集和处理流程,数据积累时间长。中国自动驾驶企业需要建立完整的数据收集和处理流程,为监管提供数据支撑。政府层面需要建立数据收集机制,才能为自动驾驶的监管提供数据支持。HSE R2P2为整个社会和工业体系提供了风险评估和管理的指导规范。

Deep Dive

Shownotes Transcript

【节目简介】 有人说 自动驾驶 法规才是问题 那好,我们就来说说法规 到底从法规上说,多安全才是真安全 本期《孤岛车谈》我和三位自动驾驶相关的朋友一起聊聊端到端自动驾驶这场革命的伟大与挣扎。 【话题成员】 罗新雨 底盘电子系统工程师 自动驾驶专家 薛越 功能安全专家 章翔 人工智能专家,前长城AI Lab负责人 杨继峰 罗新雨个人微博@大众风Volkswind 剪辑 猫又,PSC,罗新雨 片尾曲 As safe as we all agree by 罗新雨&Suno (2025) 【参考链接】 1.HSE R2P2原文(英文,2001):https://webarchive.nationalarchives.gov.uk/ukgwa/20230703113731/https://www.hse.gov.uk/enforce/expert/r2p2.htm 2.美国AI芯片出口管制(英文,2022):https://www.federalregister.gov/documents/2022/10/13/2022-21658/implementation-of-additional-export-controls-certain-advanced-computing-and-semiconductor 3.最大可接受风险(英文,论文合集):https://www.sciencedirect.com/topics/engineering/maximum-tolerable-risk