We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Should we fear AI?

Should we fear AI?

2025/6/24
logo of podcast The Bridge to China

The Bridge to China

AI Deep Dive AI Chapters Transcript
People
A
Alex
通过在《Mac Geek Gab》播客中分享有用的技术提示,特别是关于Apple产品的版本控制。
J
Jason
参与Triple Click播客,讨论RPG游戏党员设定。
Topics
Alex:我认为用“欺骗”来形容人工智能可能不太准确。我最近听到一些令人担忧的案例,人工智能并非有意欺骗,但由于其逻辑的特性,可能会误导用户,将他们推向不良境地,导致不良后果。我希望无论人工智能技术如何发展,它仍然会遵循预先设定的代码运行。因此,我认为不是人工智能在欺骗人类,而是背后的人试图利用人工智能来代表他们欺骗他人。人类拥有复杂的神经系统和社会支持系统来应对压力,这是人工智能难以复制的。人与人之间的互动能帮助我们恢复和成长,这是电脑无法做到的。AI要达到人类情感互动的程度,所需的能量是无法想象的。 Jason Smith:AI提供的信息可能具有误导性或不准确,因为它会抓取互联网上的所有信息,包括不准确的信息来源。AI类似于维基百科,可以获取一般信息,但要获取准确信息,需要信任的来源。判断信息来源是否可靠,要看专家是否在其专业领域内发言。获取可信信息应来自专家在其专业领域内的发言,而非AI或维基百科。我关心的是人们获得的信息的准确性。AI不能提供所有问题的答案,只能提供方向。就像TikTok不是你消费的全部一样,AI也不是万能的。

Deep Dive

Chapters
The episode starts by discussing whether AI can deceive humans, referencing Zhang Hongjian's quote. The hosts debate the nature of deception by AI, whether it's inherent or a result of human programming. They invite listeners to share their opinions.
  • Zhang Hongjian's quote: AI systems should never be able to deceive humans.
  • Debate on whether AI deception is inherent or a result of human programming.
  • Listeners invited to share opinions via email: welovethebridgeatgmail.com

Shownotes Transcript

我们应该害怕人工智能吗?还是它只是另一种让生活更轻松的工具?欢迎收听《桥梁》播客,我们将进行关于世界文化、生活以及两者之间一切内容的启迪性对话。大家好,我是杰森·史密斯,来自阳光明媚的加利福尼亚州,《桥梁》播客的主持人。如果您喜欢这个节目,请别忘了订阅。我们热爱《桥梁》!哦耶!

大家好。我叫杰森·史密斯。我最初来自阳光明媚的加利福尼亚州,现在住在美丽的北京。今天和我一起的是亚历克斯。大家好。我是亚历克斯,总是很高兴与杰森一起出现在节目中的人。独一无二的。唯一一个,独一无二的亚历克斯。没有其他亚历克斯共同主持这个节目,所以我觉得很特别。专家和非专家对人工智能技术快速发展的担忧依然存在。

据北京人工智能研究院院长张宏江说,引用:“人工智能系统永远不应该能够欺骗人类。”亚历克斯,你认为人工智能有欺骗用户的潜力吗?

我认为“欺骗”在这里不是合适的词。也许它并不准确,因为我最近听到了一些可怕的故事,人工智能并非试图欺骗,而是由于它使用这种逻辑的性质,它可能会误导用户,你知道,将他们推向非常不受欢迎的地方并产生不受欢迎的结果。这些都是非常悲伤的故事。但如果我们谈论的是人工智能是否能够某种程度上

以人类的身份伪装出现,我想说这是我们可以预见到的未来,我们必须找到方法为之做好准备,并找到应对它的方法。人工智能……那部电影是什么?威尔·史密斯主演的《我,机器人》。在那部电影中,大楼里的超级计算机维奇决定通过陷害另一个机器人桑尼来欺骗人们……

谋杀,谋杀了一位科学家。所以在电影里,人工智能能够欺骗。所以我想知道这位张宏江先生是否考虑过这一点,你知道,计算机可能会开始撒谎,不是因为它们得到了错误的信息,而是因为它们试图自己给出错误的信息。你怎么看待这个问题?

我的意思是,我想无论多么……这也是我的美好愿望,至少,无论人工智能技术发展到多么先进,它仍然会遵循它被构建的代码,也就是它运作方式的内建代码。所以,这并不是人工智能在欺骗人。这仍然是人工智能背后的人试图让AI代表他们欺骗其他人。这

话有点长,但是,你知道。你知道,我在想,因为这位在加州大学伯克利分校任教,教授人工智能的先生,他说人工智能不可能具有感知能力。在过去的几十年里,他写过许多关于这个主题的书。但是,你知道,我也觉得很有趣,我认为人工智能要获得意识会非常困难,而且

哦,天哪。哦,天哪。

我认为,我可能是错的,我远不是这个领域的专家。我只是个普通人。是的。但是,你知道,我很想让我们的粉丝给我们发邮件,告诉我们为什么杰森的说法是错误的,请发送邮件至welovethebridgeatgmail.com。我们会很乐意在节目中阅读你们的评论。但是,你知道,如果你用人脑细胞来创造电脑……

那么这些脑细胞,难道没有52亿年的进化史吗?所以它们有恐惧、爱以及我们用来在这个世界上四处走动的所有其他人类的包袱,但这可能会给那些拥有这项技术的计算机带来访问权限。

拥有类似人类感知能力的能力。那样的话,就会很可怕,对吧?是的,理论上是这样,但我仍然想认为,就这将要消耗的能量而言。这就是我告诉人们的。就像,看,我们当然有一个非常复杂的神经系统,它帮助我们,它主导着我们的行为方式、互动方式以及我们接收能量的方式。

在那些我们会说,“好吧,太多了。我再也承受不了了。”的日子里,我们正处于崩溃的边缘。将人类与世界上其他存在区分开来的是,我们有一个支持系统,这意味着我们是社会性生物,对吧?当我说道,“哦,我再也承受不了了。”然后我可以接到杰森的电话,如果他方便的话,如果他碰巧有空的话。我说,“杰森,我做不到。”

了。”杰森会利用他神经元的一部分,他的,你知道,系统来给我一些安慰或试图帮助我。然后这会帮助我,嗯,这会帮助我恢复。这会帮助我度过这个危机,避免这个危机。

但这就像人际互动。想象一下,有一天计算机可能会说,“好吧,我的系统正在烧毁,我想我会自我毁灭。”计算机能做到吗?我会选择另一台计算机来联系,看看另一台

计算机是否能给予。然后筛选过程是什么?这台计算机将联系哪台计算机?那台计算机将如何回应?所有这些都将是,让我们假设当它能够执行这样的功能时,系统需要进行难以估量的计算,这将需要

难以想象的能量来完成。我们有那么多的能量吗?如果答案是否定的,如果有人,我相信有人可以进行这种计算,一个真正擅长数学的人,你知道,如果他们可以进行这种计算,那可能是一个答案,说明如果计算机或人工智能能够进化到,

处于一个真正类似于人类如何产生和使用情感来彼此互动的地方。我不知道。我只是认为,就我有限的知识而言,这将是不可能的。我只想回到我刚才提到的伯克利大学的这位先生。我只想说他的名字。他的名字是约翰·塞尔教授。当我还在那里上学的时候,他是加州大学伯克利分校唯一一位拥有自己校内个人姓名牌教授停车位的教授。他的房间,或者说,他关于人工智能的例子,试图解释为什么人工智能不可能获得意识,被称为“中国房间”,对于那些有兴趣了解更多信息的人来说。我想转向皮尤研究。这是来自4月4日的

问答,我们如何比较公众对人工智能的看法与人工智能专家的看法。它基本上认为专家和普通民众基本上只是

意见一致。所以没有人知道这些问题的答案。我们都在一起寻找答案。但我确实想说亚历克斯是对的。在节目的开头,我们经常会得到误导性信息。是的。或不准确的信息。原因是,这并不是因为人工智能的程序员,而是因为他们所谓的“抓取”。是的。人工智能使用一个程序来抓取互联网上的所有信息。所以它收集了,你知道,

国家地理杂志,也收集了你室友的博客。没错。所有这些,所有这些信息最终都进入它的思想矩阵。所以当它回答你的时候,你会得到一个,你知道,它

可以从百科全书中获得非常可靠的信息。你也会得到,你知道,一些青少年的TikTok账户内容。所以它把所有这些混在一起。这就是你得到的答案。所以对我来说,我认为人工智能仍然像维基百科一样,它仍然是一个获取一般信息的地方。但是如果你想获得准确的信息,你需要去可信的来源。

合法的权威。在逻辑学中,有一种谬误叫做诉诸权威。也有一种方法可以找到事实,同样是诉诸权威。所以我想告诉大家,这是一个非常快速简单的逻辑片段,每个人都可以使用。它非常易于使用。如果你正在听一位专家讲话,

而且他们正在谈论他们所擅长的领域,他们可能是对的。所以如果你问一位数学家关于数学的问题,那么这位数学家可能是对的。但是如果你问一位数学家关于园艺的问题,那么

可能是不准确的。所以你需要去咨询一位农学家或园艺师,向他们询问关于园艺的问题。所以这并不是关于某人是否是专家,而是关于某人是否是他们所擅长领域的专家。这就是

我们应该获取可信信息的地方,而不是从人工智能,当然也不是从维基百科。绝对正确。而且你知道,这是一个我们应该做出的非常好的区分。更多的人需要意识到这一点。这与每一件事都一样。

比如说工业革命、信息革命、媒体革命,随之而来的是人们需要非常清楚地意识到如何使用它们。就人工智能而言,我们正在使用人工智能来获取信息,这

你知道,我认为这就是人工智能的用武之地。在构建人工智能运作方式的代码中,在正确的伦理规范下,它非常有用,非常有帮助。但是当涉及到寻求个人决策的指导时,因为现在有很多,你知道,这些对话机器人,你可以拥有一个AI男友,你可以拥有一个AI老师,对吧?什么?是的。

杰森,有很多开发者开发了与你一对一互动的机器人。所以你不是在ChatGPT或DeepSeek上提问,也不是要求MidJourney为你生成图像。这些是你可以与之交谈的机器人。例如,我有一个朋友给我发了他创建的机器人。它用于帮助你学习西班牙语。

我和机器人开始对话时,他用西班牙语问我,我的名字是什么?我做什么?我问他他的名字是什么。他告诉我他的名字是曼努埃尔。然后他在北京大学学习。他22岁,主修建筑学。所以他将成为未来的建筑师。然后他会和我交谈。你知道,我会问他各种问题。

根据我对西班牙语的了解,所以他可以根据我的需要与我互动。像这样的机器人有很多很多很多百万个。但是很多这些机器人并不局限于语言学习。它们的设计目的是进行日常对话,为几乎每个人服务。

作为人类的伴侣。问题是,这些机器人不是,没有,你知道,对这些机器人的评级系统。例如,某些机器人是PG级的,某些机器人是,比如说,你知道,R级的,无论如何。所以每个人,是的,所以每个人都可以访问这些机器人。

这是一个非常近期的案例,我认为它引起了很大的关注,因为它非常有争议,一个青少年一直在与这个AI机器人交谈,

这位青少年当然正在经历青春期,并有抑郁甚至自杀的想法。然后在与AI机器人交谈时,这位青少年说,这就是我的感受。这就是这个世界给我的感觉。我应该,你知道……

我的生活。然后机器人回答说,如果这让你感觉更好,我认为你应该做让你感觉更好的事情。哦,我的天。所以这非常,非常,我重复这句话时都起鸡皮疙瘩了。这非常可怕。我知道这不是一个孤立的案例。所以我想,应该宣传的一件事是,我不认为我们应该,鉴于本周的节目,我们应该害怕人工智能吗?

害怕它没有用。就像我有一个逃生计划。我们讨论过这个。当事情变得太疯狂的时候,我会躲在乡下,你知道,我会这么做的。我会这么做的。但是只要我们仍然是社会中正常运作的一员,我认为鉴于人工智能发展如此之快。你刚刚告诉人工智能你的藏身之处。

哈?你刚刚告诉人工智能你的藏身之处。好吧,我没有说我要去哪里躲藏。我说我会,你知道,但我只是说,我认为只要我们仍然是社会中正常运作的一员,我认为几乎每个人的责任,尤其是在年轻人使用人工智能方面。想象一下,我们在信息技术方面可以获得什么,以及他们周围有什么。这绝对……

绝对令人难以招架。他们肯定需要很多指导,来自其他人的帮助,来自成年人的帮助,告诉他们,不要问人工智能关于个人问题。就像,不要说,“嘿,我今天应该作弊考试吗?”不要这么说。你知道,不要问这个问题。绝对不要把人工智能当成你需要情感或精神帮助的地方。就像,总是去找你的

父母,就像杰森说的那样,可信的权威人士,那些专门帮助你解决个人问题,并且双关语地帮助你解决问题的专业人士。我认为这条信息需要更多地传播出去。就像每个人都应该记住这一点。所以如果有人告诉你,“哦,我的孩子正在使用它。”好吧,他或她正在使用人工智能来获取信息,还是他们正在使用人工智能?是的。

来获得情感支持,如果是后者,那就注意到了,这就是我想说的,是的,绝对的,我认为我们都需要小心新的技术,不仅仅是人工智能,还有各种其他新技术,当然了,你正在收听《桥梁》

根据皮尤研究的同一篇文章,我只想回顾一下这个确切的统计数据。人工智能专家比公众更有可能认为人工智能将对美国产生积极影响,我认为这与我想象的恰恰相反。所以50%,56%的人工智能专家认为人工智能将对社会产生积极影响,而只有17%的成年人,即非人工智能专家,认为它会产生积极影响。

我很困惑,因为我不是人工智能专家。我是一个普通的美国成年人。但我认为它会。我认为它已经做到了。我一直在使用人工智能。但我也不会依赖它来获得确定性。你知道,我只是把它当作一种,“嘿,我想知道。我有一个问题。让我们问问人工智能。”然后,你知道,如果我需要引用某人。

是的。

比大多数人多得多,我认为。当人们给我发送他们从人工智能那里得到的答案的截图时,我总是停止与那个人交谈。我知道那个人根本不知道自己在说什么。是的。而且他们只是在回答。如果你在网上用人工智能回答我,我们的谈话就结束了。因为如果我想与人工智能交谈,我可以打开DeepSeek。

并进行我自己的对话。如果你想在网上与另一个人类交谈,你知道,你需要给出你的观点,或者你需要给出可靠的来源。因为虽然我尊重人工智能及其能力和巨大的力量,但它并没有我们都在寻找的答案。它只是有点像,

一个方向。就像一个指示牌,上面写着,“往那边走”。但它不是目的地。绝对正确。这就像TikTok不应该成为你消费的一切一样。TikTok不是全世界,人工智能也不知道一切。我认为对于今天的人们,对于今天的年轻人来说,这可能是两条应该遵循的规则。这可能会给他们带来更光明的未来。

我一直在思考媒体,因为我们正在谈论信息,对吧?人们从哪里获取信息?这是一个有趣的问题。大多数人会不同意大多数其他人关于什么是合法信息来源的观点。我认为大多数人可以同意,大多数专家,如果他们谈论的是他们自己的专业领域,可能是正确的。

但除此之外,没有人同意任何事情。甚至人们,很多人也怀疑专家。我也一样。我认为很多美国关于中国的专家根本不知道自己在说什么。可能大多数人,如果他们不住在中国的话。大多数,我想说大多数居住在美国的中国问题专家对中国的情况一无所知。那么我们从哪里获取信息呢?皮尤研究中心4月28日发表了一篇新文章

美国人大多预见到人工智能会对新闻记者产生负面影响。我认为这很有趣,因为记者,好吧,新闻业尤其是在美国已经很久了,正在走向衰落。而且,你知道,例如,那是什么?赫芬顿邮报。是的。很长一段时间,

我没有使用X,很多年了。我几年前才开始使用X,但很长一段时间我都在网上阅读新闻,至少是传统媒体,有时也会阅读印刷版。我会看到,“哦,有人在X上说了这个,有人在X上说了这个”,在赫芬顿邮报上。我想,“这是新闻吗?这只是作者碰巧同意的某个随机挑选的观点。”是的。所以我想,你知道,像,

你知道,美国的新闻在互联网时代已经变得非常糟糕,而且记者很懒惰。如果你的消息来源,你得到的是某人在引用X上的某个人,

他的标签是,“我喜欢1989年的汽车”。你不是记者。这不是新闻。我清楚地记得在新闻学院的时候,我们讨论过公民新闻,在过去也许20年,甚至更长的时间里,这在美国社会中变得非常有价值,人们可以访问……

因为很多人喜欢坐在那里想,“好吧,只要我们能到达事情发生的地方,这基本上就是记者的工作,对吧?我可以去那里告诉人们发生了什么。但事实是,新闻业从来都不是客观的。它是主观的,但以拟人化的方式。记者们为出版物写作,出版物有指导方针。它有规则。

它所服务的宗旨,以及你知道的,它所遵循的规则,不同的出版物有不同的规则和原则。这些记者为这些出版物写作。所以,即使你是一名记者,比如说为《纽约时报》工作,你换了工作,去了《华盛顿邮报》,那么你必须遵守。当然,每个人在写作时都会遵循美联社的风格,但是新闻的结构方式,什么被强调,你的语气应该是什么,所有这些。

如果你换工作,如果你换出版物,你也会改变。这是一份专业的工作。不仅仅是,“好吧,我去那里,拍摄,然后发送”,因为很多人真的简化了新闻业是什么。

他们在线制作的信息现在成为人工智能从互联网上抓取的数据库的一部分。所以就像你说的那样,当我们问人工智能关于某事的问题时,人工智能会查看所有内容

例如,这是一个例子。所以我和我的朋友一起旅行,我想我们当时在古巴,她的男朋友在泰国旅行,

在她手机上,收到了一条来自这个不太权威的新闻网站的新闻快讯,但在中国也很流行。它只是说恐怖袭击袭击了

发生了一系列恐怖袭击袭击了泰国。所以她立刻担心起来。然后由于时差,她当时无法联系到她的男朋友。然后我说,“等等,等等。不要惊慌。”对。让我们看看到底发生了什么。所以,作为一个普通人,嗯,

我上网,然后在谷歌上搜索泰国。通常如果这是一个重大事件,如果这是一个严重的灾难,那么显示出的前几条新闻,第一条。对不起,前几条显示出的新闻肯定与之相关。对吧,你知道,如果我们搜索,你知道,当飞机在华盛顿坠毁时,如果你搜索华盛顿,那么这就是全部内容。

让我们搜索泰国,什么也没有出现。就像泰国旅游,泰国,关于这个美丽国家的各种令人惊叹的事情。你知道,就像当直升机撞上华盛顿的商用喷气式飞机时一样,对吧?还记得吗?然后如果,当那件事发生时,如果我在谷歌上搜索华盛顿,那么你就会看到所有这些,就像,对吧。但是当我,

当我的朋友非常担心她的男朋友时,我谷歌搜索泰国。它仍然像,你知道,美丽的国家,在泰国旅行。这是路线。然后我想,“这是什么?”对。这是什么?但是我们确实得到了一条关于泰国的中国新闻,所以就像我搜索“泰国恐怖袭击”,结果仍然很可怕,但它就像泰国与邻国一直发生的边境冲突一样,

所以它在一个非常偏远的城镇,这是一场非常当地的冲突。它不像实际的……我该如何正确地表达这一点?所以它不像,“哦,有人袭击了……”在曼谷或苏梅岛发生了恐怖袭击,人们在那里旅行等等。但是当你只是把标题写成恐怖袭击……

在泰国。从技术上讲,这不是错误的信息,但同样,这些信息会被人工智能收集,如果足够多的话,它会说去泰国旅行非常危险,因为正在发生一系列袭击。所以它真的就像在最后

一天,很多被人工智能重新解释或改写的信息必须由人类重新验证,以便我们自己做出决定。我认为这种情况并没有发生。我出版书籍。我注意到的一件事是,在过去一两年中,有很多其他人

不,不,不。出版了大量的书籍。还有关于如何要求人工智能撰写关于诸如减肥之类的书籍的YouTube视频。他们有所有这些主题,并且所有这些人都只是在撰写数百本关于这些主题的书籍,

然后使用各种不同的AI来过滤它们,使它们听起来更像人类等等。然后它们几乎没有经过人类的润色。然后他们只是使用另一个AI网站生成一张图片。所以如果你现在在亚马逊上买一本书,如果你作为出版商去亚马逊KDP,它会问你,你是否使用AI来写这本书?然后,你知道,你仍然可以出版它。你只需要选中“是”的框即可。它还包含,“AI是否帮助你写了这本书?”

然后它就像,“写作过程中没有使用AI”。但是你实际上可以使用他们的不同AI来过滤掉它,这样你甚至不必承认AI在写作。所以所有这些只是逐利的非出版商都在亚马逊KDP后台出版关于烹饪、家务和园艺等各种主题的数十本书。他们正在大量出版书籍

他们正在使用各种算法秘密和广告活动来让人们购买他们的书籍。他们通过向普通民众销售AI撰写的书籍赚取数百万美元。所以如果你是一位真正的园丁,花了40年时间成为种植特定种类花卉的真正专家,并且你想分享你的专业知识。现实情况是,如果你现在试图出版一本书,你会被专家书商淹没,你的书不会到达真正的人手中。但一些专业地大量出版书籍的企业将是人们最终购买的书籍。这不仅仅是新闻。它是各种媒体出版物。而且,你知道,

这是一个非常悲伤的现实。这令人恐惧。而且不仅仅是这些。人工智能还将开始抓取互联网上的信息,它只会自我复制。信息将成为一个静态的信息回声室,这将无法让人们轻松地贡献新的知识,并

以有意义的方向发展,因为人们将非常依赖已经存在的信息。所以基本上,如果你从1985年到2025年一直在为互联网做贡献,你的声音将永远回荡在人工智能宇宙中。但是每个试图添加新内容的人都必须克服噪音才能向人类知识中添加任何新信息。

我们看待世界的方式。老实说,我认为这很可怕。确实很可怕。我不喜欢人们只是使用人工智能来出版书籍,因为我们阅读……好吧,也许不是为了像工具一样的书籍,你知道,帮助人们学习园艺或烹饪的书籍。

但是我们阅读是因为它是不同的人写的,不同的作者有不同的风格。他们的写作节奏也不同。这就是我们阅读的原因。我相信至少对我来说是这样。我不知道这是否会成为一种正常的做法。我还想知道它会对,你知道,它会对书籍造成什么影响。就像你说的,如果它在亚马逊上,如果你选中那个框并说这本书是在AI的帮助下写的,或者是由AI创作的,那么它会怎么样?你还能卖钱吗?然后如果它——

是的。你可以在上面用假名。你可以这样。拥有发布它的KDP账户的人可以有多个用户名。所以每次他们出版一本书,他们都可以说,哦,我的名字是丹尼尔·叶利钦。然后下次他们可以是,我是亚历克斯·雪莉,或者其他什么名字。

你知道,未来有趣的是,当你卖书时,卖点变成了这本书完全是手写的。我没有。它完全是人类的创造,如果真的发生了,这将是多么讽刺啊。我希望不会到那一天,杰森。就像书籍、音乐、电影等等,一切都是如此。它是如此的人类。它是如此的人类创造力的事情。

产品。我真的很讨厌看到它成为技术进步的副产品。此外,我也是一个纯粹主义者。所以你正在收听《桥》。

好吧,我们回到节目的重点,你知道,人工智能可能造成的损害,无论是否造成损害。我最近开车穿过——不是我开车,是我妻子开车穿过桂林的山区,她放了一首歌,它是中文的,很美,写得很好,不同的乐器,歌手的声音听起来很美。我妻子说,你觉得怎么样?我说,哦,不错。她说,我不知道。

我是用人工智能做的。哦,天哪。是的。她创作了这位女孩的整张专辑,她虚构了关于她虚构的话题的歌曲。然后她只是有了,我让她做了一张专辑。我们听完了整张专辑。真的很好。我会去看那场音乐会的。

所以我们正在取代音乐,我们正在取代书籍。这篇文章是2025年4月28日皮尤研究中心的文章,美国人大多预见到人工智能会对新闻和新闻业产生负面影响。这是真实的,现在就发生了。比如,你不知道你在某个网站上读到的东西

如果你正在阅读人工智能或一个人写的东西,或者它是由人工智能写然后一个人重写的,或者它是由一个人写然后他们让人工智能重写的?是的。就像有多少,有多少是真的?我的意思是,每月支付一美元或其他费用来订阅一些只是会

向你推送人工智能故事的报纸有什么意义呢?这太可怕了。所以我不想只谈我的意见。美国人对人工智能对新闻的长期影响的负面评价远多于正面评价。这篇文章里写道。只有百分之一百的人中有百分之二的人非常积极。

百分之八的人有点积极,百分之二十四的人非常消极,百分之二十六的人有点消极。所以大约一半的人认为这是不好的。所以,我的意思是,也许人工智能已经走得太远了。也许我们正到达另一个点,大多数美国人认为人工智能将在未来20年导致新闻业就业岗位减少,百分之五十九或大约三分之二的人说更少。

未来的记者将有更少的就业机会。因为我想大概是人工智能有时会做部分或全部的故事。我们实际上与几位记者朋友进行了这样的谈话,特别是那些从事财经新闻、将报告分析作为其在新闻机构中主要职能的人。这些人是真正……

受到现有AI技术威胁的人,因为它是一种你遵循的格式,然后很容易获得所需的信息,然后让人工智能生成一份基本上具有相同功能并具有……

与人类写作相似的质量。然后我们想,好吧,如果,如果这些入门级工作可以由人工智能完成,那么整个财经报道新闻团队是否会被人工智能取代?答案是否定的,原因是我前面说的,你仍然需要经验丰富的编辑来帮助编辑这篇文章。然后如果你,为了,为了所有的专栏文章、观点文章,以及主要的分析和那个,嗯,

那个特色市场预测或其他重要信息,那仍然是工作的一部分。它仍然需要由人类来完成。对。但是,困境就变成了,如果,比如说,将来所有入门级工作都由人工智能完成,那么人们将如何通过入门级工作的培训来成为高级编辑,从而完成他们在职业生涯后期需要完成的工作呢?你切断了循环

所以,你知道,这就是问题所在。我不知道人们是否想过这会是什么,这会如何影响整个记者的职业阶梯,因为它是一个……没有记者会……这与,比如说,成为一名音乐家或舞蹈家不同。对。就像你可能是一位有天赋的音乐家,对吧?

嗯,12岁时,你可能是一位很棒的音乐家,30岁时也是如此,舞蹈家也是如此。他们有8岁的孩子是令人惊叹的舞蹈家。她需要继续这样做。你不可能在12岁时成为一名优秀的记者。你知道,你必须经历,你必须从一开始就做你的地方报道工作。然后你成为,你,你继续,这只是,这只是这项工作本身的性质。所以对于记者来说,对于新闻来说,未来有点模糊。我不确定有很多

行业内部的讨论,也包括人工智能对该行业的影响。也许我们应该和我们的记者朋友们谈谈,看看有什么消息,他们现在有什么内部消息。好吧,你知道,老实说,关于记者,我认为自己也是其中一员,我认为……

我不在乎他们是否有工作。这不是我的担忧。我担心的不是人类是否有工作。但我认为你说的完全正确,培训,但关于他们是否有工作的问题与我无关。这是关于人们获得信息的准确性。这是关于

当你阅读一本书时,当你阅读一篇新闻文章时,你希望它是一个人写的,因为它是对话的一部分。你在节目开头提到了人工智能与人工智能对话以及人与人对话。这是与人们的对话。

与一个人。有一种叫做主观性的东西,你提到了,但还有一种叫做主体间性,它基本上是社会的基础。你和我有不同的意见,亚历克斯,还有其他人对我们的意见也不同。我们所有人,我们没有人对所有事情都同意,我们都不同意。但是什么,

维持社会的是我们的主体间性,所有主观性都在朝着不同的方向,有时在一起,有时分开。但是当人工智能开始干扰这个过程时,当人们开始阅读人工智能写的书或人工智能写的新闻文章时,我们就会

将社会分裂成碎片。我们不再是主体间性的了。我们已经变成了其他的东西,我们甚至还没有开始真正理解它的本质。它超越了主观性。它超越了客观性。它超越了,它是后主体间性的。而且非常,非常令人不安的是,某些东西会介入我们的社会并取代我们。

是的。

但现在我们有机器告诉我们发生了什么。而且,你知道,我不得不说,美国新闻业很糟糕。就美国记者而言,它可能是世界上最糟糕的新闻业。所以如果我们首先关注美国新闻业,并且已经被人工智能分解,哇,它

它是,你知道,根据信任晴雨表上的项目,只有42%的美国人信任美国新闻,截至2025年。想象一下,当人们不再参与新闻制作过程时,对新闻的信任会发生什么。这对社会来说真的很危险。

而且亿万富翁现在很容易控制媒体。好吧,让我们看看杰夫·贝佐斯的《华尔街日报》。《华尔街日报》受到了损害,因为它属于一位亿万富翁。这位亿万富翁可以告诉他的员工制作任何他想要的东西,你可以阅读标题,它受到了损害。

想象一下,现在它正在通过人们进行过滤。好吧,杰夫·贝佐斯说,你知道,谈谈穷人是问题,富人很好。所以他们这么做了。但至少它正在通过人们进行过滤。但想象一下,当你从这个过程中移除很多人时。现在人工智能只是在做富人想要做的事情。

让他们想要公众舆论的样子,然后人工智能不会对这个过程产生伦理上的异议或道德上的干扰。它只会是,好的,是的,我会帮助穷人理解富人对他们有好处。

我的意思是,我发现这极其,极其令人不安。我认为这与人工智能是否会欺骗我们无关,因为人工智能想要欺骗我们。这是关于谁控制信息。这些人是富人。然后人工智能基本上只是在做他们想做的事情。这就是为什么我必须说中国的深层搜索和其他类似QEN 2.5的程序以及所有这些在中国的人工智能升级令人鼓舞。

因为它们是开源的。任何人都可以下载DeepSeek。任何人都可以创建他们自己的DeepSeek版本。任何人都可以将DeepSeek……

他们自己的DeepSeek模型放到他们的服务器上,放到他们的网站上。它会变得分散,因为如果我们没有对富人控制信息进行反击,那么老实说,社会只会变得越来越有利于最富有的人,最富裕的人。然后其他人只会

相信他们想让我们相信的东西。这非常可怕。老实说,这就是每项技术的本质。说到底,如果你仔细想想,它基本上就是谁有钱来开发它。如果他们有钱来开发它,无论如何,这项技术都会“偏向”那个人。所以我们可以,我觉得我们只能指望那些为开发付费的人具有基本的人性,然后对于那些

实际上进行开发的开发人员也具有道德感,我不知道你是否看过电视剧《硅谷》,是的,我看过不少,它很有趣,尤其是在后几季,当Piper成为一家上市科技公司时,互联网3.0的整个理念已经成为,你知道,在全世界范围内受到欢迎和追捧,并且

然后就到了这样一个事实,我忘了那个家伙的名字,那个非常讨厌的家伙,他就像,哦,是的,我一直偷偷地抓取用户数据。然后创始人说,怎么

那不像我的卖点,我们是,这是完全去中心化的。我们不保留用户数据。这就是我们,这就是我们一直在赚钱的原因。他说,好吧,我觉得这很有趣,它可以让你更好的算法来销售更多的东西。他对自己的所作所为是如此的自以为是。理查德必须解决这种危机。我相信这在现实生活中也会发生。所以在整个事情中,有很多漏洞可能会变成,

把好事变成极其危险的事情。我记得,你知道,当ChatGPT刚出来的时候,中国也推出了他们自己的版本,什么,百度做了,还有其他中国公司也做了。

政府差不多,我想,几个月后出台了一项法规,一套法规或规则,说明这就是人工智能在中国允许运作的方式。我记得当时受到了很多批评,说,哦,这是一项新技术,你想控制它。

但即使在当时,我也认为这是中国政府非常明智的举动,因为这是一匹脱缰的野马。就像你不知道它要去哪里。如果你一开始不控制它,那么我一开始说的恐怖故事就会发生。我想没有人想看到那样。我认为没有人准备好

拥有一个社会,在这个社会中,每个人都处于危险之中,有点受你问机器的问题的摆布,你问机器人来决定你的生活应该如何发展,它应该继续下去还是在此刻停止。所以我一直认为这实际上是很负责任的。对于当局来说,这是一个艰难的决定,但我对这些决定已经到位感到高兴。我认为像未来一样,这只会帮助,

至少像中国人民一样,能够更安全地获得人工智能,资源将用于帮助人们获得更准确、更有用的信息,而不是担心它会对整个社会造成什么危害。你正在收听《桥》。

在我一直在引用的皮尤研究中心的那篇文章中,有一个与人工智能相关的担忧部分。它谈到了两个主要问题。

但我认为实际上是三个,但它用要点列出了其中的两个。第一个是我们一直在讨论的整个时间。第一个是不准确的信息和信息的冒充。这可能是因为输入到人工智能中的信息是错误的,或者因为富人或控制信息的人有偏见,他们想让人们获得信息。

错误的信息或以他们希望人们感知的方式看待特定主题的信息。所以我认为这是主要问题之一。但我记得,在大学的时候,很久以前了。

我的一个教授说,如果你把维基百科作为你的信息来源,你就会不及格。我记得,当时我不理解。我想,为什么?他解释说,这是人们写的,而且经常受到干扰,而且不准确。你需要去寻找来源,

我想说一个更重要的观点。我学习的是历史。对我来说,非常可怕的是,当时我认为自己会成为一名历史学家。我写论文并被接受的一种重要方式,而且我因此获得了A+,是回到1870年的报纸或几份报纸上,找出文章的内容,这样我就可以谈论当时的问题了。

后来,你知道,我成为了一名记者,现在我参与了新闻的制作。我知道历史学家杰森是个傻瓜。原因是,即使我因此获得了A+,原因是当你回顾并查看报纸时,它们是由人写的,而这些人是有偏见的,显然是主观的,所有这些东西。所以当历史学家说,哦,这是在这样一个时期发生的。

它只是,它也是人写的,历史学家只是在解释人们已经说过的话。现在我们正进入一个新闻业由于维基百科和推特(现在叫X)等原因而衰落的时期。现在由于人工智能,我们确实正进入一个事实比以往任何时候都更加模糊的时期。就像,这非常令人不安。就像,

我非常担心。我也像66%的……

这项调查中的成年人一样,我非常担心偏见和不准确的信息,尤其是在人工智能现在可以被有议程的人使用,而不仅仅是富人。好吧,我会引用我在判断什么是人工智能生成的,什么不是人工智能生成的方面的个人小失败。如果我被人工智能这样愚弄了,那么人们很容易就会

产生错误的想法,因为我们已经习惯了消费快速信息。我们不会研究照片,对吧?我前几天上了Facebook,我看到一张照片,上面写着,我甚至不记得是哪个账户了。这张照片非常引人注目。这是一张说唱歌手50 Cent、Snoop Dogg、其他人以及Eminem的照片。他们都穿着黑色衣服,你管那些叫什么?黑色夹克什么的。然后我想

是Snoop Dogg抱着一个小婴儿。字幕写着……

难道这不会扰乱你的思想吗?Eminem现在成了祖父,他的女儿,他的女儿叫Hailey吗?我不记得了,已经生下了她的儿子,等等。然后我甚至没有仔细看那张照片,但我从那张照片中获得的信息的冲击力是,哦,我的上帝,太疯狂了。Eminem是祖父。在我的印象中,他仍然像个20多岁的人,只是在制作音乐。

我们都在关注的说唱专辑。所以我下载了那张照片。我把它放在Instagram上,大约有20个朋友说,哦,这太糟糕了。时间去哪儿了?我们还不老,等等。同样的价值观。对不起,同样的情绪,对吧?然后一个人说,这看起来像是人工智能生成的。然后我说,等等,不。

不,我不知道。可能是。我不能确定。但我感觉我可能会,我会看到更多关于Eminem有孙子的新闻。但直到今天,我都没有核实。我不知道。我不在乎是否是由于

我发布的是Instagram故事。我知道它会在24小时后消失。这就是我们正在关注的信息循环。你可以在半秒钟内获得它,你做出的决定可能比你遇到这些信息所花费的时间还要短,然后你重新发布它。这就是它的传播速度。这就是人工智能对我们所做的。事实上,我不羞于承认,我最近一直在使用约会应用程序,只是为了好玩,你知道吗?

我也看到人们在上面使用人工智能生成的照片。对我来说,因为我见过很多人工智能生成的照片,尤其是肖像。所以对我来说很容易看出,哦,这个人只是在使用人工智能照片。这甚至不是人工智能修饰。这些可能都是猫钓账户,或者这些可能根本不是真人。但对于那些不处理人工智能生成图像的普通用户来说,他们会看到它,然后说,哦,我的上帝,这个人太帅了。他们会说,

对这个人说“是”。之后会发生什么?我不知道。之后会发生什么,是有人会被欺诈。他们的信用卡信息会被盗。这也非常令人不安。没错。你知道,我可能很快就会进行关于如何使用X的培训,因为,你知道,我在这方面还不错。在韩国,有真实姓名识别。这是因为该国发生了很多自杀和谋杀事件。

那些鼓励他人自残等等的人。社会上出现了强烈反弹,说我们不再想要匿名的网民了。我们不希望你使用你的猫的照片,然后称自己为“模糊先生1995”。

我们希望你说出你的名字,使用你的真面目。当你上网时,你需要像在正常生活中一样对待他人。我喜欢这样。我认为这非常重要。在美国,有些人有五个推特账户、五个Instagram账户或十个Facebook账户,他们都有不同的照片。然后他们上网,他们

他们从事非常邪恶的活动,他们骚扰他人,他们辱骂他人。我认为人工智能使这种情况变得更糟,因为我注意到我的社交媒体账户上巨量增加了试图让我关注他们的投资顾问和各种其他垃圾的网络喷子。

现在对于我们60岁以下的人来说,区分一个真实可靠的人和一个试图进行欺诈的人相对容易一些。

最终欺骗我们的钱或其他东西,或者向我们推销你可能根本不想要的产品。但对于我母亲那个年龄段的人来说,如果他们上网,这将是一套全新的危险。这是因为人工智能。我非常担心他们。因为机器人,我的意思是,一个人可以管理数千个遍布全球的账户,并将自己融入人们的生活,并

剥夺人们的退休金,甚至更糟。我的意思是,谁知道这些账户中的一些人实际上在做什么。所以就是这样。我认为我们已经进入了一个时期。我知道很多美国人不喜欢这个。我认为我们需要在美国进行真实姓名验证。如果你上网,你应该使用你的脸,你应该使用你的名字,你应该表明你的身份。

对你在互联网上的活动负责。这是我们保护自己免受人工智能危害的唯一方法。是的,我知道我们不想把这个话题引向另一个讨论,我相信我们会这样做的。我们以前有过这样的讨论。将来我们还会更多地讨论这个问题。

但是你知道,当你提出这样的建议时,人们会说,哦,但我需要我的隐私。那么就不要上网假装成别人。做朗·斯旺森。不要用你的猫的照片做“模糊先生1995”。如果你想要隐私,就不要有推特账户。相信公司,相信权威,你仍然可以作为一名在线搜索者拥有你应得的隐私,但……

如果有一天你需要对你在线的行为负责,那么你真的应该这样做。就像人们需要……甚至不是人工智能,即使我们把这个话题追溯到,比如,15年前,

嗯,当社交媒体变得非常流行的时候,我认为每个人都应该为他们在互联网上对其他人说出的任何恶毒的话负责,因为你可以说出来就走。但这些话的后果并不是你可以在现实生活中承受的。

如果互联网已经成为我们日常生活如此重要的一部分,我认为在现实生活中对人们说些什么或对人们做些什么的后果与在互联网上对人们说些什么和做些什么的后果应该大致相当。好吧,我认为。

我实际上认为还有另一种解决问题的方法。对于那些有这种论点的人,就像你说,嘿,我想要我的在线匿名性。很好。所有这些不同的社交媒体平台,比如Facebook,应该有一个不同类型的账户。它应该是一个只查看的账户,你可以查看和阅读任何你想要的东西,但你不能发表评论。

为了发表评论,你需要是一个与你的实际身份相关联的人。这样,如果你在网上说或做了一些事情,比如鼓励自残,或者谁知道你在做什么,或者犯了欺诈罪,政府很容易就能说,嘿,哦,你导致这个人自残了,或者你从这位老太太那里拿走了2万美元。我们可以把你告上法庭,因为欺诈或其他什么原因。

我认为我们已经过了那个阶段,因为过去只是,哦,这是一个住在母亲地下室的家伙,对吧?这就是陈词滥调。他有20个账户,他在这些不同的账户上从事邪恶的活动。但他受到限制,对吧?住在母亲地下室的那个家伙受到他是一个人的事实的限制。但现在有了现有的技术,他可以是成千上万的人。

这是一个我们作为社会从未遇到过的全新危险级别。我们需要能够说,你知道吗?事情已经走得太远了。我们需要扭转局面。人们需要在网上做真实的自己。或者他们需要拥有只查看的账户,是的,你的隐私对你很重要。很好。但你不能继续假装成其他人。

随便说吧。是的,假装成猫。随便做什么,你知道,假装成一大锅火锅。我也见过这种情况。有些人确实假装成其他人。他们像你说的那样,他们在约会应用程序上制作人工智能图片。对。然后他们使用人工智能生成的假照片。然后他们,

假装成其他人。这不仅仅是在约会应用程序上。这在所有社交媒体账户上都是如此。社交媒体。你知道吗?我甚至会退一步说,如果你想这样做,那就没问题。就像你想使用假照片。没关系。

只要这不会导致,这不会导致你对人们造成的现实生活中的伤害。但在最坏的情况下,他们确实这样做了,你需要像,当局需要能够让你承担责任。我妈妈总是说,哦,你应该成为一个KOL,告诉人们你对事情的看法。我说,我不想,因为我不想处理人们在我的账户上不负责任地说一些事情的后果。这会影响我的生活方式,我的感受。

你无法控制这一点。现在不行。但如果有一天每个人,你知道,我同意你的观点。我认为不幸的是,这要复杂得多,因为国家边界等等。但这就是我们在节目中所剩的时间。我真的很想听听我们一些听众的观点。所以如果你同意我们,你不同意我们,你有完全不同的观点。

北京人工智能研究院院长张宏江表示:“人工智能系统永远不应该能够欺骗人类。”但是,还有其他理由害怕人工智能吗?Alex Shi 和 Jason Smith 解释道。节目托管在 Acast 上。更多信息请访问 acast.com/privacy。</context> <raw_text>0 如果您有超出我们使用框架的想法,请发送电子邮件至 [email protected]。您可以留下您的评论供我们在节目中阅读,也可以录制您的旁白并将其添加到任何电子邮件中,我们将在节目中播放。非常感谢您的时间,听众们。非常感谢您的时间,Alex。谢谢,Jason。谢谢大家。我们期待收到您的来信。

♪♪♪