We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 2025-06-06 | Cursor 1.0 发布:全新 BugBot 自动代码审查、Jupyter 支持及“记忆”

2025-06-06 | Cursor 1.0 发布:全新 BugBot 自动代码审查、Jupyter 支持及“记忆”

2025/6/6
logo of podcast Hacker News

Hacker News

AI Deep Dive AI Chapters Transcript
Topics
主持人:OpenAI正面临一项法庭命令,要求其保存所有ChatGPT用户日志,包括已删除的聊天记录和API生成内容。OpenAI对此表示强烈反对,认为这将严重侵犯数亿用户的隐私权,包括个人用户和企业客户。企业在使用API时可能会涉及敏感数据,强制保留这些数据会带来合规风险。OpenAI强调用户选择ChatGPT的原因之一是可以控制自己的数据,但这一保护现在被法庭命令抹消。 网友:许多网友担心这个判决会成为隐私领域的极端先例,质疑新闻机构对版权的担忧竟然能影响上亿普通用户的私密数据。有人提出,如果所有云服务商都被这样要求,互联网世界的隐私将不复存在。技术从业者提醒企业谨慎上传敏感数据到ChatGPT,建议短期内使用本地化大模型以规避潜在风险。

Deep Dive

Chapters
A court order forces OpenAI to retain all ChatGPT user data, sparking a major privacy debate. OpenAI argues this violates user privacy and poses compliance risks. Public concern centers on the potential for this to set a dangerous precedent for user data privacy.
  • Court order forces OpenAI to retain all user data, including deleted conversations.
  • OpenAI argues this impacts user privacy and violates its data policies.
  • Public concern over potential privacy implications and the precedent this sets.

Shownotes Transcript

大家好 欢迎收听黑客新闻中文日报今天我们将聚焦于生成式 AI 行业掀起的隐私与合规风暴 OpenAI 正因版权诉讼面临强制保留全部用户聊天记录的沉重压力这一决定引发了全球隐私监管的巨大争议接下来我们还会关注 Google Cloud 人新增 NVIDIA GPU 支持如何影响 AI 工程师在云端部署大型模型的速度与成本

最后,有关 FMPEG 集成 WebRTC 的消息,为直播、推流和跨平台视频分发带来了哪些全新变革?精彩科技话题,一起继续深入探索。OpenAI 正在极力反对一项法庭要求,内容是强制公司保存所有 ChatGPT 的用户日志,包括用户主动删除的聊天记录和通过 API 生成的敏感内容。

这项法庭命令源自多家新闻机构对 OpenAI 发起的版权诉讼,他们指控 OpenAI 销毁了与案件有关的证据。法官在没有给 OpenAI 充分回应机会的情况下,直接下令公司从现在起不得删除任何用户输出数据,哪怕这些数据本来是允许彻底删除的。

OpenAI 表示,这样的决定严重影响了数亿用户的隐私权,不仅涉及使用 ChatGPT 免费版、Plus 和 Pro 的个人用户,还包括通过 API 连接的企业客户。企业在使用 API 时,可能会涉及到核心商业机密、客户信息等敏感数据,而现在所有这些聊天内容都必须被强制保留。

OpenAI 认为,这类命令过于宽泛,没有证据证明普通用户会为了违反版权特别去删除聊天内容,也没有证据表明公司曾经试图销毁数据。按照原有政策,用户不仅可以删除单条聊天记录,还可以注销账号并彻底清除历史对话,API 也有严格的数据保留和删除机制。

OpenAI 还表示,这项命令让他们必须投入大量工程资源去执行,还可能导致公司违反和用户的隐私承诺,甚至面临全球隐私法规的合规风险。OpenAI 强调,用户选择使用 ChatGPT 很大程度上是因为可以控制自己的数据,而现在这种保护被法庭命令抹消了。

舆论区很多网友担心这个判决会成为极端的隐私先例,有人质疑,为什么一家新闻机构对版权的担忧竟然能影响上亿普通用户的私密数据?还有网友提出,如果所有云服务商都被这样要求,那互联网世界的隐私就完全不存在了。也有技术从业者提醒相关企业谨慎上传任何敏感数据到 ChatGPT,建议短期内使用本地化大模型,规避潜在风险。

FMPEG 正式合并了对 WebRTC 的支持,这意味着视频和音频的低延迟直播传输会变得更加简单和统一。现在 GStreamer、OBS 和 FMPEG 都已经集成了 WIP 协议,也就是 WebHTTP Ingestion Protocol,这是一种常用的基于 HTTP 的低延迟传输协议,可以让各种平台之间更容易实现视频内容的直播分发。

不仅桌面端软件 移动端网页以及嵌入式设备等场景都因此能用上统一的推流方案一些开源开发者表示 这会极大促进跨平台直播工具的开发比如几年一直专注于 open source 和 webrtc 广播的团队就把这次更新称为重要里程碑

不过也有网友提出,目前实现的主要是基于 HTTP 网关转发到后端 WebRTC,而不是直接支持 WebRTC 的 PTP 连接,希望未来可以基于更高效的协议,比如 Quick 来提升点对点传输能力。此外有网友觉得,这样会让自建流媒体服务变得简单很多,也更容易接入现有的流程,大大提升了 FMPEG 的实用性,同时也有用户希望相关安全问题能持续受到关注。

美国国税局 IRS 最近把他们的 Direct File 系统的源代码在 GitHub 上开源了这个项目是美政府工作的成果所以它直接属于公共领域任何人都能去查看和使用 IRS 这么做其实是提前响应一项政府法规未来也有望让更多 IRS 用纳税人资金开发的代码对外开放 Direct File 这个平台本来就是按开源来规划设计的因为团队希望通过公开代码增强系统的透明度和大家的信任感

这样外界不仅能了解算法怎么保证纳税人利益还能独立评估它的合规性和准确性当然出于信息安全等原因涉及个人敏感信息或用于国家安全的一些代码并没有开源网友评论里有人觉得原代码本身不是最难的真正的挑战在于让系统和政府的其他收入系统对接还要严格符合现行税法也有人可惜这项计划因为种种原因暂停了认为团队的努力本来可以带来更大影响

还有人提到,这份开源项目里除了代码,还有很多架构设计文档和流程图,可以帮助开发者更好的理解整个系统的设计思路。作者回顾了自己十年来在 Karna 运为核心系统的经历,举了一个典型例子,Beam 虚拟机里短短 15 毫秒的卡顿都有可能让上百万笔支付陷入停滞,甚至引发圣诞夜凌晨 CEO 的紧急电话。

他写这本 The Bean Book 就是希望下一个工程师遇到类似问题时,能在咖啡凉掉之前就把问题解决掉。一开始这本书只是 2012 年的一个简单文件,后来在修改、重写、换编辑工具,甚至出版社多次取消出版的波折中继续推进。每一次项目重启或迁移,社区的反馈和帮忙都让他看到了继续下去的价值,尤其有人留言请继续保持优秀,成了很重要的动力。

这本书最终汇集了他在构建和运维大规模儿郎系统中希望早日掌握的要点包括并调度器进程和内存管理垃圾回收数据组织编译原理与虚拟机执行机制跟踪调试性能调优和系统架构等内容帮助开发者少走弯路作者总结说坚持比完美更重要把仓库公开让大家参与修订是很大的推动力

网友评论区里,有人说 Beam 技术一直被低估,Elixir 和 Erlang 在高并发场景下的应用其实非常强大。还有很多用户表达了对这本书的认可,说终于有了深入又实用的实战手册。Cursor 1.0 正式发布,这次更新带来了 BugBot 自动代码审查,背景 Agent 面向所有用户开放,一键安装 MCP 支持,以及对 Jupyter 笔记本的升级。

BugBot 可以自动帮你审查 PR,如果发现问题会在 GitHub 上留言,并能一键回到 Cursor 编辑器快速修复。不仅如此,背景 Agent 现在所有用户都能用了,只需要点聊天里的云朵图标或者按快捷键就能启动,后续还将支持更多全线设置。Jupyter 笔记本的集成也更进一步,Agent 能直接在笔记本里新建或编辑多个单元格,对做数据分析或者科研的用户帮助很大。

新上线的 Memories 功能还可以按项目记忆和引用对话内容,目前在测试阶段,需要到设置里手动开启。除此之外,MCP 服务器的一键安装和 OAuth 登录也大幅简化了复杂配置。新版还支持更丰富的聊天可视化,比如直接显示 Mermaid 流程图、Markdown 表格,并且控制面板、统计分析页面做了优化,方便团队和个人分别查看自己的用量和具体工具的表现。

评论区里有不少用户提到,目前 Cursor 跟 VS Code 的兼容性在逐渐拉开,一些插件支持不如以前,但也有用户觉得 Agent 和 BugBug 的体验不错,节省了很多排插 Bug 的时间。有用户建议希望后续能增加并行处理多个请求的能力,这样团队协作的时候会更高效一些。

美国华盛顿州正式通过了 Right to Repair 修理权法案未来消费者有权获得维修个人电子产品家电和轮椅所需的工具配件以及维修信息这项法案规定从 2026 年 1 月 1 日开始厂商不得再通过配件绑定等手段阻止用户自行维修设备比如换个新屏幕后设备上不再弹出不明配件的警告也不会因为自己修过手机导致相机或指纹识别功能被降级

新法规还特别把电动轮椅 手动轮椅 助力设备和代步车包含进来 厂商不光要提供硬件配件和工具还要提供固件和嵌入式软件 避免技术手段 阻止第三方维修此前国防部也已经表态 今后美军采购装备时要优先考虑可修理性 防止维修权被供应商垄断虽然华盛顿的修理权法比德州版本范围略窄 比如不包括电动工具等产品 但整体上是维护消费者权益的重要进展

有网友认为,这条法律让普通人有机会绕开封闭的维修体系,不过也有人讨论到,某些厂商可能还是会利用一些技术细节,比如配件打包销售,来规避规定。另外也有人提出法案在具体产品范围上的取舍和细节仍有改进空间。特斯拉最近向美国法院申请,希望阻止国家公路、交通安全管理局公开部分车辆碰撞数据。

特斯拉认为 如果这些数据对外披露 可能会给公司带来竞争方面的伤害 因为竞争对手有可能利用这些信息分析特斯拉的硬件和软件技术水平事情的起因是华盛顿邮报去年起诉监管机构 要求获得涉及自动驾驶系统发生事故时的详细数据 但特斯拉强调这类信息属于商业机密 不应公开

监管机构也表示 其中有些内容依法可以不做公开 比如涉及自动驾驶相关技术的硬件 软件版本以及与事故相关的详细环境描述特斯拉方面还指出 如果强行公布这些数据 不仅会暴露核心技术细节 还可能让外界统计出不同软件和硬件版本相关的事故数量与此同时 华盛顿邮报的律师则认为 这类信息其实车主本人都能在特斯拉车内查到 并不是公司专有机密

其实在去年美国监管部门刚刚对超过 200 万台特斯拉进行了调查要求升级 autopilot 的安全措施评论区有网友提到特斯拉曾经高调宣布要推动电动车行业发展开放专利如今却对可能挽救生命的数据选择保密也有人质疑特斯拉的自动驾驶功能直言骑行车表现不如人意对数据透明性提出质疑

当然 也有用户分享自己对更新后自驾系统的正面体验 认为新版本的 FSD 技术确实带来了安全感但大多数声音都在呼吁相关数据应该更加透明 以便公众和监管部门有更多信心了解自动驾驶系统的实际表现澳大利亚悉尼郊区的凤头鹦鹉最近学会了扭动人类饮水喷泉的把手 从出水口直接喝水

科学家发现,这种需要用脚踩,用力旋转把手,然后再用会接水的行为,之前从没在其他鸟类身上见过。研究团队通过安放摄像头,记录了鹦鹉们 500 多次喝水的尝试,每只鸟的操作方式略有不同,但整体流程都大同小异,有的甚至在喷泉上留下了牙印。

目前这个技能在西西尼的凤头鹦鹉群体中逐步扩散研究者认为这很可能已经成了一种小范围的文化传统鹦鹉之间很可能是通过模仿彼此学会的不过只有四成左右的尝试能喝到水主要难点在于取水时同伴扎堆抢水科学家也推测喷泉里流出来的水更干净或者高高的饮水才能让鹦鹉更好的观察周围警惕天敌是吸引它们专门来喝喷泉水的原因

有网友评论,这进一步证明了鸟类的聪明,有些鹦鹉甚至比我们想象中还善于解决问题,也有人提到鹦鹉实在太调皮,懂得恶作剧还能互相捣乱,真能让人重新评估动物的智力和学习能力。开发者现在越来越多地依赖 AI 编程助手来提高日常工作的效率,这些工具不仅能自动补全代码,给出 bug 修复建议,甚至可以生成完整的模块或最小可用产品。

不过,AI 输出的质量实际上很大程度上取决于你给它的提问方式,也就是所谓的提示工程,这已经成了程序员的一项重要技能。如果你的请求不够清楚或者信息太少,AI 给出的建议往往就会很泛泛而不靠谱,但如果你的提示足够详细有针对性,AI 的回答往往会比较精准,贴合你的需求。

实际操作中,有几个基础原则很值得注意,比如尽可能多地把与当前项目涉及的编程语言、框架、依赖库、具体功能以及遇到的问题写清楚,甚至把出错信息一并提供,这样 AI 才不会靠猜。其次,问题要具体,比如比起为什么我的代码不工作,更好的方式是我的这个 JavaScript 函数本来应该返回结果,但现在返回的是 undefined 代码如下,你能帮我查下是哪出错了吗?

另外,遇到复杂任务时,建议把需求拆解成一小步一小步,暗层逐步和 AI 交互,让每个部分的提示更清晰易懂。还有在你的提示里加上一些输入输出的事例,期望行为也能极大提升 AI 的理解力。

如果你希望 AI 以某个角色视角来帮助,比如充当高级开发者,代码审查员或者安全分析员,可以用你现在是资深 React 开发者,请帮我检查代码中的可能 bug 这样的话去引导,这通常能让 AI 给出更有针对性,更规范的建议。

此外,与 AI 互动时要保持对话的迭代性,一次不满意就加以补充和纠正,不必追求一次就完美,重点是持续改进。最后,写代码本身也要保持整洁,变量命名明确,使得 AI 更容易延续你的风格,总体上来说,把 AI 当作一个需要详细交代的新同事来使用,你给的信息越清楚,它的反馈越好。

有趣的是,不少网友补充说,写提示其实只有几个硬核技巧比如上下文示里,让模型逐步推理,限定输出格式其他玄学套路基本都可以归为这三招也有人觉得提示写得越复杂,模型反而越迷糊简单直接的描述反而效果更稳还有人调侃提示工程其实算不上什么工程以后简历上加个,提示工程师可能没啥说服力 Google 的 Cloud Run,现在正式支持 NVIDIA GPU 进一步简化了 AI 工作负载的部署和管理

用户可以按秒计费,只为实际用到的资源付费,还能享受到自动扩缩容的体验,比如服务不被调用的时候,GPU 实力会自动缩到 0,节省了不少闲置成本。据官方介绍,从 0 启动到加载模型,再到模型首次响应,仅需 19 秒,而且还内置了 HTTP 和 WebSocket 的流逝支持,对于搭建大语言模型类的交互应用非常友好。

目前 Cloud Run GPU 首批可以选择 NVIDIA L4,无需再申请配额,直接在控制台勾选就能用。同时服务已经覆盖美国、欧洲、亚洲多个数据中心,适合全球部署。除了实时推理,Cloud Run 也支持用 GPU 跑批量 AI 任务,比如模型微调、图片处理或者视频转码,这些都支持自动弹性伸缩。

评论区不少网友表示,Cloud Run 的自动扩缩容和操作简便是优点,但在价格上相较其他平台比如 Rampart IO 和 Vest AI 并没有太明显的优势,尤其是按小时计费相较于按秒计费的平台来说成本更高。另外也有开发者认为,一些小众的独立云服务提供商甚至有更便宜的 GPU 选择,但大厂背书的易用性和可靠性还是很有吸引力。

感谢您收听今天的黑客新闻中文日报这些前沿科技动态为我们的生活方式和工作模式带来持续变化如果您觉得节目有帮助欢迎订阅并分享给身边的朋友让我们共同关注科技行业的每一次演进明天同一时间再见