We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Terrorists could use driverless cars to commit attacks

Terrorists could use driverless cars to commit attacks

2025/7/1
logo of podcast World in 10

World in 10

AI Deep Dive AI Chapters Transcript
People
W
William Allchorn
Topics
William Allchorn: 我认为联合国发出的警告很有必要。目前,恐怖分子和恶意行为者对人工智能的采用还处于早期阶段,但外国和敌对国家行为者因其资源更值得警惕。随着技术普及和不同技术融合,AI辅助的恐怖袭击风险增加,例如利用自动驾驶车辆进行袭击。自动驾驶车辆的关键风险在于其集群攻击能力,即多辆车协同攻击软目标。无人机武器化是另一个关键威胁,利用无人机在公共场所进行协同攻击,特别是使用模式识别或面部识别技术,可能构成安全威胁。即使是不太复杂的技术滥用,例如利用大量手机和谷歌地图数据来转移人群到潜在目标,也可能导致AI模型朝着有害方向发展。污染AI模型的训练数据可能会导致模型朝着有害的方向发展。主要是成熟的组织在使用这些技术,例如非洲萨赫勒地区的ISIS和青年党等暴力非国家行为者使用无人机作战。新兴技术的另一个方面是3D打印图像和枪支在极右翼中的应用。许多新纳粹团体利用3D打印武器来规避侦查,从而进行潜在的袭击和暴行。我自己的研究表明,一些组织正在使用大型语言模型(LLM)来策划游击战行动。最近芬兰发生了一起袭击事件,袭击者利用ChatGPT来规划不同的袭击方案。威胁行为者需要提高技术水平才能利用LLM和3D打印机等技术,或者可能会出现雇佣服务。当涉及到自动驾驶车辆时,他们必须开发补充或替代技术和修改。需要找到系统中的弱点并进行破解,然后插入新的指令和代码,用于目标定位和路线规划,以便与其他车辆协调进行攻击。虽然需要较高水平的技术,但一旦这些技术在相关圈子中普及,采用的门槛就会降低。各国及其安全部门和警察需要更好地思考和监管这些技术,不仅是政府和安全部门,制造商也应参与。不应过度恐慌,但要意识到可能出现的风险。安全部门和专业人员应该思考科幻故事可能成为现实的未来,公司可能没有意识到其模型或技术可能被滥用,因此需要公司和执法机构之间加强合作。解决之道是公司和执法机构之间加强合作。在不太遥远的将来,可能在五年到十年内,自动驾驶汽车与其他技术结合用于定向攻击可能会成为现实。我们需要思考并意识到这些技术,并在设计中考虑到如何阻止恶意使用和劫持。

Deep Dive

Shownotes Transcript

The UN has raised concerns about extremists weaponising emerging AI technologies. Could hacking fleets of autonomous vehicles become a devastating shortcut to mass casualty events? Dr William Allchorn of ARU explores the evolving threat landscape and unpacks the risks.

The World in 10 is the Times' daily podcast dedicated to global security. Expert analysis of war, diplomatic relations and cyber security from The Times' foreign correspondents and military specialists. 

Watch more: www.youtube.com/@ListenToTimesRadio 

Read more: www.thetimes.com

Photo: Getty Images Hosted on Acast. See acast.com/privacy) for more information.