cover of episode 69. AI伦理 | 语音克隆诈骗狂潮:你妈来电可能是AI?

69. AI伦理 | 语音克隆诈骗狂潮:你妈来电可能是AI?

2025/5/8
logo of podcast 扩博智聊 | 有AI味道的访谈节目

扩博智聊 | 有AI味道的访谈节目

AI Deep Dive Transcript
People
潘天一
魏梦祎
Topics
魏梦祎: 我认为AI伦理研究应该基于真实发生的事件,运用数据分析和可视化方法,让大众更易于理解。我研究的AI伦理问题,包括AI是否有意识、图灵测试的有效性、算法偏见以及公众如何参与到AI伦理讨论中。我个人认为AI目前没有意识,其拟人化表现源于大量的统计模型和数据分析。在情绪价值方面,用户可能并不在意AI答案的真实性,而更关注其能否提供心理安慰和情感寄托。关于电车难题,我认为自动驾驶领域更多的是技术准确性问题,而非道德困境。推荐算法中存在的结构性偏见会放大社会偏见,长期使用会导致个人思维固化。为了避免这些问题,我们需要公众参与到AI伦理讨论中,提高AI伦理认知,并提升在AI时代下如何作为人的理解。我们也尝试通过数据可视化和叙事方式,吸引公众参与讨论,并降低AI伦理问题的理解门槛。 关于版权问题,我认为需要新的技术手段,例如数字水印和区块链技术,来保护原创作者的权益。 我推荐英剧《真相捕捉》(The Capture),它展现了AI技术合成虚假视频的风险,以及由此带来的伦理问题。 潘天一: 本期节目讨论AI伦理,特别是语音克隆诈骗、AI觉醒与图灵测试、算法偏见等问题。我们邀请了AI伦理方向的专家魏梦祎,探讨了这些问题,并对AI伦理的未来发展方向进行了展望。

Deep Dive

Shownotes Transcript

我知道当我们使用这个 AI 或者是担心它造成了伦理问题的时候我们都希望去写算法的那个人他本身能够去规避这种风险但你知道这种东西就相当于是 AI 的发展是一个时代的进程它不可能倒退它只能往前进但是 AI 技术它的本质本来就是服务于人类的那你不可能把这个

所谓的使命落在单独的一个人或者是一类人身上既然它是服务于人类那普通的公众他就有他其实也有所谓的使命然后去参与到这个进程去改变它大家好欢迎收听阔博之聊智慧的智聊天的聊我是主持人潘天一

《阔波治疗》是一档带有 AI 味道的访谈节目节目背后的《阔波智能》虽然也是一家 AI 企业但我们在节目中邀请到的嘉宾也好讨论的话题与行业也好

都并不一定限于扩博智能自己服务的行业领域所以我们的愿景是通过《扩博治疗》这档节目让我们的听众更广泛地了解到一些多样性的人工智能应用场景和这些行业里有趣有故事的人想更深入了解这些人可以关注我们的微信公众号 扩博智能 Clobotics 留言听友群三个字加入我们节目粉丝和嘉宾的互动群我们期待您的参与

我们今天讲的这期内容其实在往期里面也从很多角度已经有聊过不同方面主要大题就是 AI 伦理比如说我们在去年的夏天有上海浦东科幻协会组织的一期活动里边的嘉宾也是讨论这个问题但是他们也是都是可能各种

片面去讨论那么今天呢我们很有幸地邀请到了在慕尼黑工业大学的博士生研究 AI 伦理方向的维蒙伊欢迎来我们的节目 Hello 大家好听到这个慕尼黑工业大学可能

有一些我们长期的听众还记得我们早期其实在两年前了在我们节目的很开始的时候也采访过慕尼黑工业大学的另外一位博士生刘年华当时候是聊这个

GIS 也就是这种地理信息这方面的信息怎么去定位什么的在 AI 里面的应用场景其实很有趣的就是这一期的孟宇老师也是莲华老师帮我们介绍的所以我其实还蛮感兴趣的是你在

读这个慕尼黑公立大学之前你是什么样子的一个学习的历史你是也是从国内考出去的吗我在国内的话然后我本科是在那个中国地理大学武汉然后因为我本科学的是地球物理然后后来是保送到了北京大学然后再继续学的还是地球物理

然后但是就是我硕士毕业了之后就是工作了一段时间可能我当时就是随着自己的一个成长吧然后感觉自己虽然喜欢做研究但是会更想弄清楚自己想做的这个研究方向所以后来在我工作的那段时间然后我也在去想就是如果我未来做研究的话到底要做什么方向然后就

在工作期间后面继续申请了就是国外的博士生然后在这个时候也比较好的有一个机会然后可以跟到我比较喜欢的导师然后做到就是我比较喜欢的这个研究方向因为我们之前学地球物理的时候就是

会学很多的数学物理和计算机但因为我自己本身又会对一些比较社会科学性的问题很感兴趣然后我就很希望能够把这种数学和物理作为一个手段一个研究方法然后来去研究一些所谓的

社会的一些问题或者是一些难题然后这个时候我们老师刚好也有一个项目然后是做 AI 伦理这个方向的然后我就很想参与然后也就刚好趁着这个契机然后就开始了我的博士研究那从这个你学的这个物理学再转到 AI 伦理那就是现在我还是挺好奇这个跨度是你的兴趣是就摆在这儿还是是怎么一个契机让你做这么大的一个转化

我发现其实可能在别人听这两个专业的时候你会觉得这个跨度很大但是可能对于我自己来说我觉得可能就是一个

就对我来说比较自然而然的因为我之前就是一直以来虽然我是一个理科生然后包括地球物理都是学的理学但是我其实自己的兴趣都有一直在读一些比如说社会科学的

一些书籍呀或者是说关注一些这个上面的问题我会发现我对这个还是比较有兴趣的所以可能以前的时候我对我来说我的科研跟我的兴趣是两部分分开的就是

我虽然喜欢数学物理这些理科的东西但是我做的研究它可能更偏向于自然科学一点就比如说我做的机球物理我讲地震什么东西可能很多跟大家日常生活没有特别大的关联但是我也会跟别人去聊一些社会性的问题但它对我来说就是一个爱好然后可能有一天

就是你会发现做研究这个东西我自己的感觉啊我觉得它可能需要支撑的就是你感兴趣的东西就是我的兴趣点所以后来我在想我为什么不能把我的兴趣点跟我的研究结合呢但是这只是一个就是在我当时看来是一个比较天马行空的一个想法就是我觉得它也不一定能实现所以

就后来就是非常自然而然的发生了然后感觉我也没有想到就是会能把这两个兴趣点给结合在一起但是可能对于别人来说是一个比较跳跃但是对于我自己来说我觉得可能是一个比较慢慢的就是就那么自然而然的一个过程吧对

所以现在研究的这个方向是完全就等于是这跟 AI 伦理就跟之前的那些没有任何关系了是吧

对但是其实我现在在研究这个的时候比如说我在解决这个社会问题的时候因为我是做数据驱动型的然后那我有很多数据分析的方法或者是数据挖掘的方法其实还是基于我以前学的数学物理的基础所以这个其实是有很大的帮助的

那当然这个是这种做科学的科学研究的一个方法论可能还是比较通用这个还是能理解这个还是能理解那挺好的因为我们今天其实其实我是拿了一些

就是可能从抽象到比较具象分的一些各种样子的我能想到的伦理问题然后就是想拿这些问题抛出来然后我们这边就随便算是随便聊一聊吧但是还是从一个伦理的角度去探讨因为最近其实在 AI 行业里面

近几个月啊我觉得也发生了很多新的进展值得我们去重新从不同的角度去看一看这些问题而且这些问题就像我一开始说的有一些话题可能在我们往期的一些节目里其实也也也

有聊過也有從不同的角度去探討過所以我們也可以基於這個再繼續討論一下不過在我們進這些話題之前你能不能從你自己現在做的一些事情簡單介紹一下或者科普一下你具體現在自己在研究什麼類型的倫理問題是抽象一點的還是具象一點的

我现在主要做的这个 AI 伦理的研究它其实是基于这种真实发生的 AI 伦理事件的一些研究然后包括因为我们我在博士的这个课题组我们的一个背景是做那个可视化分析所以其实我的一个研究的一个方向就是用那种可视化分析的方法然后让大家去

更了解我们身边发生的真实的 AI 伦理的案例但是我们可能比较偏向科学研究的方向就是我们试图把我们研究的这个成果更让广大的可能你不是有那么强的专业背景的人能够去理解现在我们可能面临的一些伦理问题是什么比如说大家最多讨论的最关心的然后或者说这些真实世界中的 AI 伦理问题它会

通过我们大量的数据的研究它会传达一些什么样的信息对那还是就是偏比较实践的多一点是吧那我们可以在一开始聊这些比较可能抽象或者就是甚至我觉得都没有一些正确答案的这些问题的时候就是这些偏理论其实第一个我在想因为现在最近这些大圆模型其实又是经历了一波的

升级吧就是无论是就是今年年初当然这个在国内比较震撼的那个 DeepSeek 但是现在在 DeepSeek 发布之后其实各个大厂也一直持续的在发布一些更新的模型不管是纯文字还是这种多模态我自己最近其实也在研究这种语音方面的聊天就是因为

通过一个声音 通过另外一种媒介不仅是文本或者文字我的感觉是它可以带来另一种感觉尤其是如果它的机器的声音能做成非常迷人化非常真实的样子的话就是因为我们的人接受这个信息的时候

看字其实是一种感觉那听又是另一种感觉而且人的耳朵还是挺敏锐的就是如果你真的能把这个效果做得很好他对我就是我跟一个某一个主体在聊的时候我对他这个对方的一个认知

就感觉会提升一个程度这个可能介绍还是比较长的但我其实想说的是因为我们在也是在比较早期的一期节目中谈到了所谓的 AI 觉醒那个时候连 ShotGBT 都还没出来那是 ShotGBT 可能出来的前

提前大概半年还是一年我们就聊这个 AI 觉醒的问题当时候是说谷歌里边是已经有人做出这种聊天机器人他认为这个聊天机器人已经觉醒了然后所以就我们聊到这方面的一些

一些伦理可能是伦理问题就是他是真的觉醒了还是他只是给我们一个这种一个幻觉一个错觉一个感觉但他其实不真的

然后同时跟这个话题我觉得有点挂钩的就是这个图灵测试其实它也是一个只是一个 thought experiment 它是一个思想的一个测试这种测试可能实际上是不太方便去真的执行了但是有的人是拿这个他的想法去

还专门真的让人跟一个不知道对方是谁去聊那么他们聊完了以后是不是能猜出来他聊的那个对象是一个机器还是是另外一个真人那最近就是我记得还近期有个报道就是说那个新的一些什么 OpenAI 的 4.1 还是 4.5 还有一些可能是那个 Advanced 的一些模型新的模型

在这种聊天测试里边甚至好像 70%以上的这个人就参与这个测试的人会觉得他们跟一个人在聊天但实际上就是一个机器就是他会模拟这种人的反应所以就是先抛第一个问题就是你觉得这个图灵测试现在还

还有用吗或者它是不是一个相关的一个度量的方法感谢主持人的这个提问因为这个里面其实真的包含了非常多的信息然后我们可以先从这个图灵测试开始说起其实图灵测试它其实最早的时候就是图灵它开始发明这个计算机然后它其实想做到的就是比如说在人们不了解的这个情况下然后你可能在一

一间屋子里面然后你怎么去判断比如说跟你对话的是人还是机器然后如果这个机器可以蒙混过关就是让人感觉到好像跟我对话的是人还是机器我没有办法分辨然后感觉他就通过这个图灵测试就是人们觉得可能机器达到了像人的这种水平一样然后其实现在在科学界的话也有很多呃

还在继续使用图灵测试比如说像这个 CHPT 出来了之后大家的确有

用它跟人做同样的一个任务然后你去把这个任务给分解然后去看人做的一个比如说一个正确的比例然后或者说它包含的一些人的像情感的方面因为你要是写科学论文的话你到后面你可能是需要人去审稿嘛然后有一项研究它就是

通过人去审告跟 CHPGPD 去审告然后看他们中间能够有多大的这种一致度或者说差别是在哪这个时候它可能会转向于比如说一些准确率呀然后这种可以非常显性的评价标准但它可能也会有一些

所谓情感的一些分类的指标然后当这两个指标都合在一起去测试的时候看人跟这个机器的这种一致度有多少这个可能就是我们现在转化在这种科学研究里面使用的就是图灵测试如果这个 GPT 切 GPT 比如说它能够跟人拿到一个很好的一致性或者说甚至在某些方面做得比人好然后那可能就验证了一个它的这个能力

所以这个图灵测试的确还是会去

就是探究人和机器之间有多大的这种相似度或者说一致性的一个衡量标准吧还是会有在使用的对然后说到就是就是大家很关心的一个就关于 AI 是不是会有意识这个其实因为我本来是做这种对真实世界发生的 AI 伦理问题进行研究了嘛然后你会发现其实

我们所了解到的 AI 伦理的事件可能大家更多的都来自于一些科幻的电影小说然后因为在这个里面它的确非常的超前然后它会站在很未来的视角然后如果有一天 AI 有了意识然后统治人类然后怎么怎么样它的确是一个对它作为一个电影或者是一个科幻作品的话是非常好因为它能够就是对人有很大的吸引力

但是实际对于你做科学研究来说这个我刚好前两天有读到过一篇文章它就是讲 AI 是不是会有意识然后在这个里面它其实给出来的就是 AI 是没有人类的意识的但是它如果从科学研究的角度来说的话因为意识它本来其实是一个非常复杂的东西它可能是跟你那个呃

神经科学有关然后那怎么来在这种生物学的领域然后研究神经系统然后人的意识是怎么样的然后机械意识是怎么样的就是据我了解因为我对这个神经科学还不是特别了解然后我也只是零散的了解到一些信息比如说它

去想要去进行人造的神经网络的一些研究然后试图让机器也具有这样的人的这种神经网络可是人的意识的这种东西它本来就目前应该没有非常清楚的那个标准去转化然后对所以你怎么让机器去拥有这个意识就是

如果是从科学研究的角度上来说的话这个真的就是最起码现在这个阶段是还差得很远但为什么人觉得好像机器越来越拟人化了它是不是要有人的意识但我们现在看到的这种大语言模型它其实都是

基于已有的数据然后它进行一个大量的输入了之后它依据大量的这个数据库然后根据你问的问题给出来你一个回答它更多的可能依据的是现有的信息比如说在很大的统计

模型之下然后给你一个就是你可能没有想到的回答或者说你觉得哎他能很好地回答我的这个问题但是他这个背后应该还是属于那种大量的计算呀或者是模型呀最后得出来的这个东西包括的声音呀什么就是这种的

他可能是会让你觉得他很好地跟我进行交流了但是这并不是因为他具有了人的意识所以这个其实是两回事然后到这儿的话就是我觉得可能我们在现在这个阶段

我们跟 GPT 去聊天的时候如果基于最开始的那种图灵测试的话你可能就会觉得它已经是人类了因为我已经没有办法分辨我是跟人聊天还是跟机器聊天这可能是未来可能会需要去重新去评估或者说研究的一个方向但目前的话还是会用科学研究做一些图灵测试但是对于人们的话就是

可能会有这个误导吧然后会觉得它是不是像机器像人一样了但 AI 如果像人一样拥有意识最起码在现在这个阶段还没有达到而且我觉得它不是一个短期内能够达到的一个过程 OK 主要也是因为我们自己无论是从神经科学脑科学还是这种心理学角度可能也没有很好的去

回答这个问题对吧就是意识到底是什么东西或者对我不知道是这个意识是一个好的用的词还是那个另外一个词叫那个英文叫 sentence 可能更加

更加的那个概念就是具有感情方面或者情感方面的这个就更有这种 feeling 而不仅是这个 thinking 的一个部分就是这些定义可能本身就已经比较混乱但我的确在中文的文章里面读到更多的就是大家觉得 AI 是不是有意识

这个情感这个我表达我个人的观点我觉得 AI 它不会有情感就是我们觉得它好像有情感就相当于是因为它有大量的数据模型然后它能够很好的回答你的问题但是它更多的基于的是一个非常所谓

统计的一个世界里面对它会给你一个答案但是并不代表它有了情感然后可能它的情感更多的来源于人类本身对就是你需要一个支撑物体的想象就是你是把你的情感寄托在了它的身上

对这个是我个人的理解但是好像就首先首先能听出来这个就非常这个有科学数学背景统计学背景的一个回答好像就是可能看点是这样然后另一方面确实就是我们作为一个使用者或者跟他们聊天的一个自己就我们自己是一个意识个体那么

在我们的这个自己的这个范围之外人家是什么样子是模拟出来的还是有真实的其实某种意义上讲好像我觉得这个伦理上面好像有一个这个问题就是你对方给出来的这个意思或者他的 sentence

是真正的还是是它模拟出来的但是如果这两种方式对于我这个感受者来说是辨别不出来的那么它有实际的不一样吗这个可能这个问题问得很深啊这里也没有一个真正的答案但是我是只是想看看你的一个看点是什么

你还会 care 它的背后逻辑吗我觉得这个是角度不一样比如说对于一些模型开发的工程师来说他可能会比较在意这个是因为可能这个在于我的模型的准确性是怎么样的因为我要追求

就比如说在我们所谓一个数理的世界里面我希望我的算法应用在模型里面最后得出来的是更好的结果那我会去追求这个但是如果我是一个使用这种 AI 的一个普通的人那我可能就在于我的这个比如说我问他一个问题然后那我可能更多的或者说我经常的去跟 AI 沟通交流

我觉得这个可能会有很大一部分是情感寄托在那我可能不会太在意他是不是算法的准确可能他需要更多的是能不能给他提供到一些心理的安慰或者是一些情感的这个寄托当然我们这个讨论都是在于他给出的这个答案要在一个可以接受的伦理范围之内因为最开始的时候的确呃

最早期的语音的机器人他们会有很大的错误率就比如说他会传导一些不好的思想但我们现在就讲的是如果你需要类似于一个所谓的陪伴或者说解答你的问题的话我觉得对于使用者来说他们可能并不在乎他是不是真实是不是准确他可能就是需要在这个时间然后可以跟 AI 互动因为这个的话可能是我基于我跟我身边使用

然后比如说你做研作的人使用跟你普通的人使用他们的那个不同的感受还是有点不同的对对就是你说的第二个这种 case 就是其实你如果在情绪价值上面能达到这个目的那其实你也不会 care 他是他是个真人出来的还是他是个模拟出来的这个答案就只要他能触动你那个

一个正确的感受吧对我觉得对于普通的用户的话他们可能并不太在意这个模型的准确性对但是对于模型的开发者来说我觉得他是需要保证我的这个回答是要在一个伦理可接受的这个大的范围之内这个我听起来就好像已经聊到一些比较具体的那个

这个轮旅的问题就是可能从一个这个模型的安全度啊或者是这种角度去考虑的话可能可以有一些实际的实际的操作这个我们可以放在后面因为我们会会聊的比较具象到后面但确实我因为最近就是稍微稍微在 linger 在这个话题上面就是我自己为了因为最近我不是说我也研究一些呃专门是语音方面的一些东西吗那么呃

可能在我测试这些语音模型的时候我也很震撼我觉得现在有些模型还真的能做到连我作为一个开发者都很难辨别出来它是不是一个真的人同时我又觉得很恐怖因为肯定有一部分是恐怖股的效应另一部分我又觉得这是一个巨大的机会

那語音方面這個其實我們後面也會討論的在比較具體的問題上所以我這個就先不多說先我們為了那個節目的後半部分埋下一個關子其實我下一個問題還是要提一嘴因為這個問題可能在很多方面就是已經

就是已经算是一个一匹死马吧就已经聊得太烂了就是所谓的这个 Trolley Problem 那个在可能在机动驾驶的环境里面或者这个场景里面会比较多就是说其实我想引入的一个讨论或者伦理的问题是这个就是一种功利价值或者实用价值就英文叫 Utilitarian 的角度去考虑这个问题就是

就是说那个什么一个小车会撞到一个人或者撞到五个人那么这种情况下你如何做这种决策呃

當然這個是放在一個很簡單的問題就是可能會有幾個派一個派就是說 哲學派就會說任何生命都是很重要的然後有的派就是說即使任何生命都是很重要的但是你可以把集體的善或者害也是用數學的方式給它加在一起然後就可以評估一下總的

善或者害在这个度那确实刚才我们在录制节目之前其实我们也讨论过在实际的场景中很难遇到这么这种很干所谓干净的伦理问题它其实很多即使是真正的自动驾驶场景里面其实也有很多很模糊的底带所以它其实问题并不是那么简单你的一个看法是什么

其实我知道比如说在谈起来自动驾驶的话大家可能首先就想到的就是这种经典的电车难题然后当你面对这个一个人还是多个人然后你该选择哪个这个的话我感觉它也不只是存在于

嗯比如说自动驾驶或者说这种开车的这种我觉得它更多的反映了其实在各个各个的领域或者是方面人们都会有一个难以两全或者说两难取舍的这个情况就比如说那个母亲和女朋友落在海里这也算一个对这是嗯

对我想说的是其实在自动驾驶领域比如说对于我们来说我们更多的想关注研究真实的世界里面发生的 AI 伦理事件的话这个也是我们会发现大家主流关心的这个伦理问题可能更多的都会被比如说这种

媒体的报道呀或者是影视剧作品呀所影响但其实在我们研究的自动驾驶领域里面它可能更多的出现伦理事件的就有的你可能想起来都会觉得怎么会这样就我举一个非常简单的例子比如说一个自动驾驶汽车

他把一个红色的旗帜识别成红灯然后他就会停下来或者是说你本来停在一个十字路口然后这个时候是红灯然后你是不能够过马路的但你就是在停着的时候但是你也

没有启动车但是这个车它会突然自己启动然后就抽向马力对面就是其实你在更多的这个自动驾驶领域里面目前出现的这些轮理问题可能很多都是在这些方面的就是它可能也不是说是

要面临到你开了这个车然后你这个刹车失灵了然后你又没有办法控制它然后你的车被算法就是控制了然后它应该撞向一个人还是应该撞向多个人其实

就是他不是把你放在一个这样的道德困境里面更多的可能还是一些比如说技术的准确性的问题这个可能是在这个自动驾驶领域里面比较多的出现的就是目前我们总结到的真实发生的这个事件里面他没有那么大的噱头就是他非常的简单实际然后但是

但是它如果真的不解决的话其实这些小的问题它就会未来可能会造成一个比较大的一个隐患这个我就想起那个在科幻活动里面的那个讨论好像是说就是你说的如果是一个只是一个技术的 bug 听起来确实很好像很很简单很那种 everyday 会发生的事情就是一个技术的 bug 引起了

比如说造成人命的问题对吧那么这个时候责任会责任方会在哪里对吧是这个厂商还是这个是这个开发软件的团队或者某一个工程师还是要最后可能要赔钱的话还是保险公司就是这样一个技术的问题其实会引发很多很多社会上面的

这个连带的问题对对对其实我们也有就是去研究你刚刚说的这个方面然后我记得不是特别清楚但是比如说第一层的话它其实就是属于技术层面的问题比如说它的传感器识别的精度不够或者说识别错误

但是用户的话就是你使用这个自动驾驶汽车的那你可能是看了车企的宣传但车企在宣传的时候那它肯定是用自己最好的比如说车型配

配置级别最高的一款车然后来介绍它这个技术可以达到的这种程度但实际你在购买这个自动驾驶汽车的时候肯定不是每个人都能够有能力去购买最高配置的但你可能看到车企的宣传它是这

这样的就是他的技术可以达到这个了他有的时候会造成用户对这个技术的过度信任然后你会觉得我开启自动驾驶的模式了然后他的技术是可以的然后我可能就完全会呃

觉得要交给对交给这个自动驾驶但虽然车企业会提醒就是你人要去把控但你知道用户本来就是各种各样的然后他可能会出现就是过度信任的这种情况那接下来他就会出现一些事故在这个这是属于第二层属于用户心理层面那到第三层的话就相当于是

你这个事件发生了之后你会发现这个法律责任是很模糊的因为你首先你去追责它其实是一个比较困难的过程而且这个里面会面临非常多的这种伦理困境就是比如说我刚刚说的那个呃

那个自动驾驶汽车停在那个十字路口然后在红灯的情况下人他没有启动但是车突然过去了那你说在这个过程中人是不是应该本来要保持一些意识的但是那你说作为用户的话如果我要是时时刻刻也注意这种情况的话那我何必要要自动驾驶呢所以这个中间就会很就是会有一些矛盾在但是

的确在这个第三步的话它会存在很明显的就是这种责任划分和模糊的这个状况然后那到第四层的话就是你会发现目前在这个自动驾驶领域它的法律就是交通的这种规则它会存在一个滞后性就是因为中国的这个自动驾驶还是比较发达的就是它已经有实际的这个车

行驶在路上但是我们的确也目前就是据我了解其实全球各国都出台了一些自动驾驶相关的这个政策但我们其实还对很多的细节都不是特别了解所以这些政策更多的它会更就是比较模糊化或者是宽泛嗯

宽泛一些对然后像我了解到的实际的自动驾驶事件发生了之后对这个案件的判决调查大部分都是根据这个案例本身去研究就是比如说在法庭上然后或者说这个事件本身然后大家去双方讨论针对这个事件是怎么去解决的但是对于这种比较普世的这种

规则呀然后可能还没有一个太具体的一个这种实施的范本对关于自动驾驶这方面而且还有这个跨国的对比或者至少是中美之间的一个对比还有那个主要是从这个政府的角度去看这些政策的话我们其实扣播治疗节目也也曾经往期

有采访过这方面的专家所以也可以我会把这些所有的节目都 link 在我们这期节目上面所以感兴趣的小伙伴可以去听我们之前的是这个朱小姐做的一个介绍然后确实我也想说一下我自己的一个感受就是我们在

今年的春节的时候有一段因为没买上火车票没抢到所以就叫了一辆车嘛嗯

然后他就是这个车这个司机就用这个车的这种自动辅助驾驶的功能我觉得这个车可能应该也不是你说的这种很高配的反正就看起来很一般但是已经具有这种能力可以在比如说高速上或者其实好像就是任何一个道路上都可以去行驶这种行驶那么我把一家人就是带到这个车上然后就眼看这个司机整个一

一路就是可能好几百公里一共开了大概从一个下午一直开到半夜其实还开了蛮长时间然后他就基本上一直在刷手机这种样子我也挺慌的让我想到就是现在我们在马路上看到的大部分车是不是都已经是这样子了就是让我觉得好像

好像有点还是有点恐怖啊就是也许也许我们的这个一般的车可能上面司机都已经不再注意注意在开什么了所以所以确实确实好像对啊如果如果出现一个什么简单的技术的 bug 可能就会引发很多的伦理问题嗯

OK 那么这个话题我本来是本来就没有想讨论的太深我们也做了一些这个介绍我觉得在这种比较抽象里边或者说可能已经接近抽象和比较具象的一个就是交叉点了我想聊的一个是我之前也做过

我曾经是在一家电商公司也做过一段时间嘛那就是在里边做一些这种产品的推荐啊或者就是不同的用户对这个产品的购买或者他的喜好打分什么的然后就把它转成一个给新的一些用户做推荐的这种推荐算法对就是这种方面的

一些 AI 是不是也会有一些伦理问题因为它用这种大量的或者不一定我不知道是隐私和伦理是不是也是挂钩的但是我记得曾经有报道说比如说有一些比较大的这种商家因为他们确实可以收集巨大巨多的用户的各种消费行为的数据

那比如说他就从一些很微小的微妙的一些一些 hints 里边就是一些一些例子就可以看到你这个人是不是怀孕了然后他可以他又结合一些个性化这个推广和广告的生成那比如说他就给你看一些如果你是这个怀孕的状态的时候你是买一些

不同的产品那么可能在你这个人自己都可能没有意识到或者没有想让别人知道的情况下那如果你收到这种广告被别的人看到了就会觉得就会就有很奇怪的情况会发生我大概就是理解这个问题就其实是嗯

比如说像推荐算法然后可能你刚刚讲的就是到你怎么获取用户的数据然后给他们进行这种

比较所谓个性化的推荐然后就让他们浏览就是通过这种算法模型得出来的他们感兴趣的信息这样的这个一系列的这个过程其实我们对于这块有一些研究就是但是我们可能更多的偏向的是在就是伦理这个层面上的比如说像因为你在原始的这个数据里面肯定都会存在一些所谓结构性的这个偏见然后

那接下来的话它就会让 AI 去学习这些数据然后那 AI 就会把这个当成一个比较正常的这个规律然后它会去收集这些数据但其实这些数据它本身也都会存在一些偏见就是它肯定是

会有一些少数群体它会有一些这种代表性不足的这种情况但当你把它给涉及到你的这个算法模型里面的时候有的时候你的这种偏见它是隐性的然后你是察觉不出来的但是当它在实际使用的时候你可能就会能够看到这种偏见的存在比如就是我们都很了解的像那种

人电识别里面它可能就会很明显的存在所谓的这种种族歧视的问题之类的对这也是我提到的一个话题确实有个案子就是那种非洲背景的研究员用一些商用的

人脸识别软件就可能根本就识别不出来他的脸对对所以这个其实就是所谓一种结构性的偏见然后放在算法里面然后他他就成了一种隐性的歧视嗯

因为我们如果抛开故意的用 AI 来做一些就是故意的使用它做一些不好的用途的这种例子的话那在现实中实际上它可能就是你人自身的一些 bias 你可能也没有意识到你放在算法里面它呈现到一些隐性的这种偏见然后通过在现实生活中的应用它就会把这种偏见给放大

然后比如说对在推荐算法这块的话其实至于收集数据这块我感觉我们上网留下的各种痕迹然后比如说大数据联网之后可能你是在这个平台使用但是那个平台也能够获取到你的这个信息然后它就会

知道就是就是识别到你是一个什么样偏好的用户群体然后他就会给你个性化的定制你需要或者说你感兴趣的这个东西然后对其实我们更关注的就是我比较感兴趣的是在于当人们长期的会被所谓这种定制化的推荐算法给推荐你感兴趣的这个东西之后

人自己本身就会越来的越具有一些 bias 就是就有一些这种偏见就你就会在他会被你那个算法推到一个角落对你就会出来了对你就会在巨大的信息减仓里面你会以为这个世界就是这个样子的其实对我关注的我其实更感兴趣的是后面所以我研究在这部分的话我其实比较偏向于后面的这种的你知道如果人的思维被固化了

然后就是你的世界里面就是看到了这些东西然后你不停地去看然后你就会被算法推荐更多的这种东西的之后对它是一个就是 self reinforcing 对它是

它是滚动的越来越往细小的一个方向钻但是更可怕的就是它会让每个人钻到自己的一个洞里面而且这些洞都不一样所以就导致了这个社会上面现在有各种割裂每个人都认为自己看到的是一个全局但是其实大家都是看到一个非常细小的

一个很偏的东西对特别是就是当你在某一个方面你觉得自己越是专家然后越就是感觉比较精通这个方面的时候你就会更加的相信自己

就是更加相信自己相信自己所知道的这个东西然后你的这个 bias 就会不断地被扩大然后其实我觉得这个对人是一个比较长期的一种伤害因为你作为人本身我觉得人能够区别于 AI 就是最大的一个点之一吧就是你其实具有很灵活的或者说是一个包容性的看待所有问题的一个

我们人类自身的一个特点然后你是具有很强大的知识获取或者是学习能力的这个不是像 AI 一样我是被骗人设计的然后人你可能本来你自身你出生的话我们人的学习能力就是这样那你应该是更多的看待很多角度的问题或者说很多的这种知识然后你可以去理解

这个世界上各种各样的人他们的思想看到这个世界巨大的包容性但是如果你在算法影响的这个就是你的这个视角里面然后你越来越被算法所调控之后你其实就失去了这个很

厉害的能力然后你就会觉得你看待问题的这个方式就被越来越固化但是这个也有一个很大的风险是你不知道自己已经这个样子当你没有意识到这个问题的时候你就更难去解决或者是去改变自己了是啊这个在社交媒体出来以后就

就越来越出现这个我们叫那个 filter bubble 就是每个人是在自己的一个泡沫空间里面他们只能看到或者说他们可能就主动的去寻找一些跟自己思想相同的人大家当然就喜欢肯定嘛

就是都会被周围的人肯定但是都是思想为统一的人那么就会出现这种我们对比他们什么就是各种他们然后就会产生不管是人与人之间的还是就是这种派与派之间的国家与国家之间的这种冲突

就越来越厉害了对但是就是推荐算法的话我觉得它会加重这些它可能在比如说以前社交媒体

我觉得这个还是一个很

就是值得警惕的一点是你说的这种东西就比如说在 YouTube 上面或者在什么 TikTok 这种视频网站上很常见的就是你如果让他这个算法就每次看他给你推荐的视频就我从某种意义上讲我是能理解的因为这个是一个很懒的做法就是就你说一个人是具有这种能力他可以去了解很多不同

不同样子的声音再把它给结合起来做 integrate 那么但是这个都是需要能量的它需要你付出做这种研究的功夫那如果你不想付出这种功夫没有时间或者没有精力然后就去看一个默认给你推送的东西而这个东西可能是因为你之前的一个偏好就越往那个方向去驱动你的话

对啊就是把你的这个思维给外包到外包给这个推荐算法对就是我觉得可以比如说可能会没有那么大的能量或者说会比较

不太愿意去选择自己感兴趣或者说寻找的这个领域的东西但是如果在之前就是可能他没有那么好的推荐算法那个情况下你打开你的 YouTube 或者是 TikTok 的这个页面他可能还是会有很多种的

你虽然没有主动去选择但你可能还会有机会去看到一些其他的东西但是当现在就是你被越来越精准的这种算法给捕捉了之后那你可能每次都是只看到同一类的这种东西然后那你接下来你就更加不知道你该去寻找什么了然后你就会只在这些这些 bubble 里面然后去了解你的

或者是认知你所感受到的这个世界是啊所以是个很可怕的而且我们好像也没有很好的这个解决方法而且最又再说搞笑的吧就是

这些什么社交媒体公司他们也并不是说想把这个世界推成这个样子而是因为他们这个算法给他的一个命令就是你就提高这些用户在使用我们产品的一个时长这个其实我们在那个往期的这个节目里也有专门在脸书做做这个机器学习算法的人的

这个采访我觉得这个也值得值得去听一下就是他到后面做了做了就觉得他不想做这个事情嗯

就是他也能看到对人的这个害但是我的 point 是这些公司其实也没有说我专门是想把这个世界搞成这个样子而他们就是放了一个对他们来说好像很 make sense 的一个目标就是提高市场因为提高市场以后他们用户就可以看到更多的广告看到更多的广告他们就可以卖更多的钱

那最后都是跟这个经济效益有关系但是没想到就是这个算法怎么判断什么是最好算法也懒嘛它是什么最好的方法让这些人就吸在这个产品面前去更多的看那就是给他推荐他喜欢的东西而不给他推荐他不喜欢的东西因为如果他看到一个他不喜欢的东西他有可能就离开了但是我们采访的那个人就说有的时候可能

你不用我们的产品是对你更好就是从一个这个人的健康角度去看的话对关于这个的话我就就表达一下我们这个观点所以我觉得为什么其实我们需要专门的来去研究 AI 伦理而且目前呢就我我其实所理解的 AI 伦理它其实可能不

不是单纯的等同于比如说哲学里面的这个伦理然后现在就是就我来说我觉得我做这个 AI 伦理它是一个非常交叉的学科就是计算机背景社会的社会科学心理学然后神经科学啊什么的就是大家可能都会有所去关注因为

这个伦理问题的发生它的确不是每个人或者说某个领域的人有意的把它给推向这个情况的其实很多时候我们都只是站在自己的这个立场上去想尽力做好我们自己的事情比如说对于

大的互联网公司来说它的目标就是追求利润因为它作为一个企业它要存活下去这本来就是他们的一个使命然后那其他的用户来说那是它的这个目标群体但是你用户你作为普通人类你肯定也有自己

生活或者是生存的一些需要所以 AI 伦理问题它之所以很复杂就是因为它牵扯到了各个领域特别的多它是一个非常综合非常交叉的一个学科那我们需要有这个学科去研究这个问题就是你要明白它是一个动态演化造成的这个问题就是可能我们用很一般的心态就是

就是他不是说某一类人或者说某一个领域的人一定要出现这种情况或者说伤害人所以伦理为什么要先行就是

你不能等到很多严重的后果已经发生了然后你才去去就是对他进行一些惩罚或者是一些改进因为底线肯定是法律嘛然后当我们做伦理的话就相当于是我们想要去提前去感受或者说是呃

研究未来可能会有哪些风险性发生然后我们能够有什么样的方法去预防或者说去规避或者说去提醒

你在从事这种 AI 相关行业的人然后你需要去注意什么所以这个的确是一个很复杂的东西也不是每个人都想要去把它给变成这样但是当这些技术或者说时代到这个点的时候那它逐渐演化就是会出现这种问题我觉得这恰好应该是我们应该要去做的部分在但是它也不能停留在一个研究上面或者说我觉得就是

最大的这个影响肯定还是在那些企业里面的各个就是单个工程师单个个体就是他很有觉悟的人他可能跳出来就是哪怕

在冒着一个对自己职业生涯的一个风险发展风险的这个情况下他会把这些问题给抛出来那有可能他的团队或者他自己就会被干掉然后最后一切都还没有就是一切都没有改变这也是个很

很伤心这个事情关于这点的话我可能就是有一些不同的理解就是我知道当我们使用这个 AI 或者是担心它造成了伦理问题的时候我们都希望去写算法的那个人他本身能够去规避这种风险但你知道这种东西就相当于是 AI 的发展是一个时代的进程它不可能倒退它只能往前进但是 AI 技术它的本质本来就是服务于人类的那你不可能把这个

所谓的使命落在单独的一个人或者是一类人身上既然它是服务于人类那普通的公众他就有他其实也有所谓的使命然后去参与到这个进程去改变它然后这个其实是我们想做的对的东西我们不是想把单纯的 AI 伦理做到一个研究里面我们希望更多的人能去了解到实际的伦理是什么然后你能够参与到这个

讨论或者是说我们怎么去规避 AI 技术的这个风险里面因为单个人他肯定是具有很大的 bias 的你要要求一个算法工程师他可能本身是一个很有觉悟

首先你选很有觉悟的算法工程师那你要是这样的话你可能就选不到人首先这个东西就很难去评判然后其次的话就是你就算选到这个人我们作为人物我们肯定都有固有的这个 bass 有自己的自身的偏见在你很难去达到一个完全的去排除这个的一个过程所以其实这个东西是一个需要共同去共同去努力的这个过程像

互联网公司其实他们也有关注这个其实他们是比如说在做研究这块他们是最早会被关注到怎么去排除 bias 然后让 AI 更规范化的实行的一一类人但是但是其实你会发现当技术在不断发展的时候它其实是需要大家共同的参与进去而且

你作为被 AI 服务的普通公众你其实是一个更大的市场你作为普通用户你要使用它包括它对人类的影响可能很多反映在普通用户上面比如说如果你更多的依赖 AI 那你的自身的学习能力或者是创造能力是不是会降低呢所以

我的观点就是我觉得每一个人你生活在这个 AI 的时代下你应该都觉得自己需要去了解它就是去认知它然后去参与到这个所谓规范化的这个过程里面这个是我们想做的一个事情我们想要给每个人都提供一个接口去了解这个实际的这个风险就是

你可以欣赏科幻的电影但是我们也想让大家知道主流的就是目前真实的 AI 伦理事件的风险是什么然后你去认知到你自身要有这个警惕性在然后在 AI 的时代下你怎么作为人因为你看机器都在不停的学习

那你人怎么去应对这种机器的学习你其实也需要去成长对这个也是我们想要去关注和做的东西哇我听到这个以后确实感觉我刚才想的可能也太局限了就是其实你们做的这个东西是给整个

有点像社会去做科普那也很高兴就是你现在有个这个渠道通过我们的节目给大众因为我们的听众应该也不仅是这个技术人员我们还有很多小白在各行各业的就是所谓的普通人那也就是只是对 AI 感兴趣那我也希望如果你听了这个节目的时候对蒙尼说这些东西很有

感触的话也希望你把我们的节目推广给至少一位你的朋友让他们也多了解一下就是可能我们在这个生活中多么容易会被这些算法去左右

在我们甚至没有意识的情况下就这个不是 AI 的意识了这才是人没有意识了对对这个其实也是我们就是想一直去做的这个然后也希望我们能够去做出来更多能够给普通的公众去

提高自己 AI 伦理认知或者说去影响我们未来在这个 AI 时代下我们本身需要去注意或者说去怎么去提升自己的一个理解的一个这种方法吧然后这也是我们想要去研究的一个目标对

你可以再从这个可视化的角度去说一下因为我们在一开头就是你提到过就是专门是从一个可视化的角度去做这个有点像是伦理的伦理问题的传播或者宣传吧就是你们会在这个可视化的方面做一些什么样子的工作嗯

我们现在还是就是在走在一个试图把这种科学的结果呈现给更多的

人能够去了解或者是说看懂他的一个这个阶段比如我们最这个的话就是刚好我们这个可视化分析这个背景他可以去做到的一些事情比如说我们研究目前大家最关注的就在社交媒体上大家最关注的 AI 伦理问题是什么

但其实关于社交媒体的这种数据的研究在很多领域都已经有很多但是它可能更多都集中在就是科学研究这比如说我对这些数据进行挖掘然后呈现了一个分析的结果那就是对于具有科研背景的人来说他们能看懂我的这个结果可能就可以了但我们想做的就是

讲述就是用通俗的话讲就是来讲述这个数据故事就是这个社交媒体数据本身它传递的是一个什么样的故事我们怎么能够把这个数据背后蕴藏的这些信息通过讲故事的方式或者是说更容易让人们理解的方式去了解到

比如说这个社交媒体上关于 AI 伦理大家都在去讨论什么它是一个怎么样的一个演化的这个过程我们想通过可视化的方式然后让更多的人能够更容易看懂然后它会对更多的人会更有吸引力去读这些数据科学的故事这个是我们就是做的就相当于是开始的这一些工作之一吧然后

我们接下来的话其实我们想要去把真实世界的这个 AI 伦理的这个世界去通过一些更有趣的可视化的方式然后让大家去参与进来因为这个东西它本身可能会

对人们来说会更具吸引力然后我们想通过这种有趣的方式然后让大家认识到就是真实的世界里面 AI 伦理的问题到底是怎么样的

那你本身可能会有一个提醒的这种风险的这个作用那其实对于这个 AI 伦理问题来说的话它也会因为它其实是一个需要公众不断的去参与这个讨论的这个过程我们才能够共同的去促使这个技术会有更好的发展

那你在这个学习或者是你在阅读的这个过程中我们可能会很关注你是怎么去思考它的然后我们想要去获取更多人的意见然后去共同的给一些给这种所谓的开放性的问题一个讨论的空间然后给每个人一个试图参与的一个渠道就是你不要觉得自己的声音非常的弱小就是你

如果大家都有这种我应该是这个 AI 技术发展的利益相关者的话然后我们每个人都可以去发出自己的声音的话那它可能会更加的促使我们的这个技术在发展的过程中听到各方的需求然后去让它更加规范化的到真正服务我们人类的这个角度去进行嗯

这个就是说它已经不仅是一个数据可视化的一个东西它更加像是一个那个叫 data storytelling 数据数据讲故事或者这个有叙事的这个

這個含量在裡面其實這個這個有說到我想起了一個東西就是在在很久以前那個是好像是 18 幾幾年那個就是在在什麼那個戰爭上面有一個英國的這個護士還是護士長叫那個 Florence Nightingale

然后他把一些在什么就是部队里边这种环境很差的地方的就是他们身的各种病什么什么这种数据统计起来目标是为了

去让这些做决策的者就是注意到比如说你的一个部队里面那个房子的一些设计怎么去让它这个卫生环境更好然后他也是收集了很多这种比较

底层的数据但是通过可视化的方式把这个故事给讲出来了画出了各种各样的那种饼啊或者这种图但是在当时候这些图其实是一个非常创新的一个方式现在我们看这些好像都有看过很多类似的不过我自己看这些图的时候我也会惊讶就是还有这种东西我自己都不知道了

可以有这样的可视化所以其实有人把它收集成一本书了还蛮有意思的就是看他做的整个人生方面的一个工作吧

然后确实到叙事化的时候这里还可以我们时间其实不多因为已经稍微超了一点但是我本来还想就是刚好被你又拉回到一个我本来都想放弃的一个话题了就是也是跟最近这些模型的

发展有关系不是前一阵子那个在 ChatGPT 上面 OpenAI 也更新了它的一个新的一版图像生成模型就是在已经有几年前的这个 Dadly 3 基础之上又发布了一个新的一款图片的或者图像生成的模型

就叫 GPT Image 那么很多人就是大家当时候是很火的很火的一个图就是生成各种那个日漫的那个画面尤其是这个吉布利的风格就是宫崎骏的那个 studio 的这个

画风的一些图片就是可以把任何一张比如说照片转成他们电影里面那个风格那其实也是很就是这方面其实也有我们节目之前这个芝加哥大学的那个赵老师有讨论过就他们的团队还研发了一些你可以去作为这个艺术家或者这个设计师可以在你作品里加的一些所谓反抗的

因素就是可以让你比如说发表到网上的一些图片加一些稍微比较渺小的修改就是人眼睛可能看不到看不出来太大区别的跟你的原图看不出来太大区别但万一你这些图片被这种大厂的就是为了训练 AI 模型的这种爬虫给吸进去的话

其實會負面影響他們訓練出來的模型這個當然說到已經比較極端了有點像這種極端運動了因為好像這些藝術家認為你的正常的一個版權或者這種法律途徑已經沒法保護你在這個方面就是你的作品被

被這些大模型吸進去去做訓練把你的風格給 copy 出來他們覺得已經對這種傳統的社會體系喪失了一個信心覺得好像我們都是藝術家我們也沒有什麼很大的一個 representation 他們沒法共同

起来对这种大厂进行抗拒或者投诉或者就是申诉他们那么就直接去用工具来来对抗来甚至试图破坏他们的这些大厂的模型就是已经极端到这个程度上了但其实也是能看出来就是这种 AI 的引进对一些工种对一些做

不同行业的人带来的这种打击吧嗯

关于这块我有大概了解比如说的确因为这种大模型它肯定都是基于它能收集到的这些数据然后去进行训练然后帮你生成一些东西那肯定会存在一些所谓的这种版权侵害的问题特别是对于这种艺术领域比如说绘画呀或者是音乐呀这种的然后

我看到有一部分人他们正在研究就是怎么来进行这种呃

数字的版权保护比如有一些会研究所谓的数字水印然后或者是说让大圆模型它在生成一些东西的时候它会给出来它所参考或者说它所基于的这些数据的来源来保护这种原创作者的这种版权的问题这的确也是一个这其实是在这个

AI 伦理的这个里面一个讨论非常大的一个问题就大家都会很关注这种版权侵害我觉得现在慢慢的会比之前注意到多然后也会有一些人来采取一些方法就

比如说像数字水印然后还有通过一些所谓的这种区块链的技术然后来保证这个你的这种数字产品的这种安全性可能

我不知道它未来的效果会怎么样但是看到会有一些人在努力可能会让以后所谓这种极端的现象去减少吧然后如果你的数据被大圆模型所利用来生成其他的东西的话然后那你的版权有被声明或者说有被保护或者说你不是属于像现在这种你被这样的一个

不知名的这种侵犯或者说改变你的这种作品的这种极端的情况发生虽然它还有一个很长的路需要去努力但是也的确有在这方面有改变这是我看到的一些技术永远是在前面超前然后这些社会上面的制度也好法律也好都是之后的他们没法去 follow 或者说反映这些已经发生的事情

对法律肯定就是会比较去滞后因为它可能也是最后一个底线吧但这个的确也是目前在研究 AI 伦理的时候我们能够得到一个就是比较明显的一个结果就是它会存在这个

法律本身的一个这个滞后性那你对就是我们节目最后有一个环节是嘉宾推荐嘛这个就完全人肉不经过任何推荐算法来做的推荐所以你对我们的这个听众做一个推荐你最近比如说喜欢的看的东西啊玩的东西啊或者什么就是任何一个可以跟我们今天聊的话题不一样的我

的确就是因为我最近就非常巧的然后我在看一部电视剧然后它叫真相捕捉然后我就觉得跟我们聊的又的确有点相关就还挺接近的就是这应该是一部英剧吧然后因为其实我是非常巧合就是很偶然的情况下看到这个

我觉得这个我可以稍微的讲一下就它有两季因为我看完第一季但第二季还没就是完全开始看但是它很有意思就是比如说我们之前感觉去认知一些事实会基于一些视频就是如果你看到真实的一些视频里面的事件发生在你面前的时候你就会觉得这个是真的吗这个肯定也会作为很多时候

比如说当双方有争执的时候的一个判断标准但真相捕捉它对着它一个证据但真相捕捉它展示出来的就是当然那个涉及到那个政治的因素我们就不讲它这个里面就是比如说像 AI 技术它的一个点它能够去合成比如说它捕捉到你很多的照片视频你个人的一些影像资料信息了之后它能够去呃

生成一些所谓虚假的东西它第一季的话它就是通过侵入你那个实时的 CCTV 然后去播放他们之前已经录制好的一些视频然后让你以为这个事情是你现在此刻看到真实发生的但是它其实并不是它只是被

黑客侵入了你的这个实时的 CCTV 去展示的这个视频然后让你以为发生在你眼前的这个真实的这个东西是真实的但是它是虚假的然后第二季的话就更高端它可能跟 AI 就更相关了就是它捕捉了你的影像资料之后它可以虚构一段视频

然后他就用在对于一些特别有重要身份的一些人物在公开场合的讲话比如说他接受了某一项新闻的一个邀请的采访但他本人可能并没有出席这个采访但是我生成的这个视频就可以让他按照我所期待的那些发言去讲述一个观点这个其实是一个非常风险性的一个点就可能是基

技术的这个发展之后大家要面临的一个很严重的风险性吧然后我就觉得这个电视剧因为我最近在看然后我感觉还挺就跟我们讨论的

是的,我看了一下,这个英文名叫 The Capture,所以谢谢你的推荐,这个我其实还真的没听说过,但是我一看这个介绍以后,包括听你的这个讲述以后,我确实对这个感兴趣了,非常感兴趣。

非常而且还刚好就是你又提到了我本来已经想放弃的第二个话题那我既然说到这个我就刚才不是在一开始我们也说过了吗就是做这种语音方面的这个应用只不过你刚才说它通过不仅是语音但是甚至这个画面就是一个人的这个面孔的一个克隆和声音的克隆可以导致

把它整个一个人的这种形象给复制一遍那这个其实也在真实世界里也不是没有发生过对吧就是好像在去年还是前年就已经看到有人就做过一个这种假的而且它是在多人的这种复制的情况下

忽悠了一个什么银行的员工把一大笔钱给转他不仅是让那个人跟一个老板去聊天而是让他参加一个电话会议这个视频会议然后这个视频会议上可能有五六个人还是多少个人但其实除了他以外都是假的都是他们后面那个作案团队用电脑复制出来的人

然后就在这种聊天中能让他把一个非常常规的一笔钱给汇出去也很可怕这是为什么我之前说哪怕只是语音就先不说视觉方面哪怕只是一个语音方面如果你能做得听起来很像一个真人的话就已经很容易做各种这种很黑暗的事情了

你大不了就是你就诈骗电话嘛对吧这个在中国也到处都是在警告这个小心诈骗电话什么的那是不是通过一个这种很高级的语音模型你可以甚至把这种电话诈骗也变成很自动化也不需要人来操作了就放一些电脑来给不同的人打电话就是很可怕的一个

一个社会发展吧我们这个节目聊到后面怎么都是全都是这些负面的东西都出来整个情绪都已经聊得很低落了其实我虽然做 AI 伦理但是我不是我其实对 AI 还是抱有一个比较积极的心态了然后为什么但为什么我们去研究这个东西或者说我们关注这个东西然后我们还是希望它能够往更好的方向发展

这个的话的确比如说被他用来就是你进行一些所谓的视频造假或者是声音造假这个的确是一个很大的危险但是的确现在目前的这种被明确的使用 AI 用于非法的这种方式的话它肯定是属于很严格的禁止的所以这种情况也就大家很担心但是

怎么说呢就是我觉得他的这个处理的话应该也是比较果断的但是我们现在研究这个 AI 伦理问题它是属于那种当你把它正常的用于人们的这个生活的时候它会出现一些什么风险进行防范至于那种非法的用途我觉得这个其实

都是属于跟其他的是有类似的其他领域都是一样的比如说你从最开始的工具的发明你可能发明一个斧头发明一个就是什么包括枪支什么这种出现的时候那大家肯定都会担心它被非法使用因为它的危害力的确是逐步的在增大然后我们去防范所以我们会有一些

明确的这个法律去怎么去使用它或者说明明禁止使用这些杀伤力很强的这种工具对于你这种 AI 对你用在这种明确很坏的这种意图上面的话你去这种制止我们是一样的然后但是

你知道我们在享受它巨大便利的同时我们肯定会要去意识到它会有一些风险然后这个风险我们之所以现在要重点去研究就是因为它可能跟以前有些不太一样因为毕竟技术很先进嘛所以我们做 AI 伦理的话我们更多的肯定是研究在于我们在用在好的用处上面的时候需要防范哪些风险但我们也是为了让我们能够更好地去享受 AI 的这个便利

而且其实据我们调查整体来说整个社会普遍对 AI 的这种积极性的反馈还是要大于这种负面的所以也不用就是太过于悲观因为你看我们刚刚讨论的那些极端的情况它其实在每一个新的比如说工具或者说是一些比较有争议的这种技术出现的时候它都会有的问题但我们人类也一直都

去制定一些法律或者说我们怎么去通过自身的法律道德去规避这些风险我们也一直在这个

这条道路上都已经前进了如此久了所以我们应该也应该对自己有信心就是这种极端的情况我们肯定是可以去防范它的然后但我们未来要做的就是怎么让 AI 更好的去服务我们然后我们怎么去规避它在服务我们的这个意图下面然后会有哪些风险这样才可以让我们更好的享受这种技术的便利性是的而且就像刚才你说的

我们也没法阻止这个技术演变的这个过程它就不管你想不想它还是会发生的对 它已经出现了还不如就是随着它随着它就是去

而不是反抗它对我们但我们也有自己就是需要去注意去做的这个点对但整体来说我个人的话还是比较积极的看待这个事情好的那我们最后还是还是以一个非常积极的方式来结束我们的这个节目非常感谢魏萌姨给我们的这个精彩分享而且还专门给我们我们准备的这个很有意思的推广谢谢谢谢谢谢

您现在收听的是《阔波治疗》一档带有 AI 味道的访谈节目如果您喜欢这一期节目请给我们留个言或点个赞也欢迎在各大播客与电台平台上搜索订阅并关注《阔波治疗》智慧的智 聊天的聊

同时欢迎关注我们的微信公众号 扩博智能 Clobotics 留言听友群三个字可以加入我们节目粉丝和嘉宾的互动群并且收到下一期扩博治疗的上线通知我们期待您的参与