大家好 欢迎收听黑客新闻中文日报我是今天的主持人在 AI 充斥内容创作的当下连芝加哥太阳报等权威媒体都登载了一版完全由 AI 生成 无人把关的特刊揭示了现实与虚构日益模糊的边界与此同时 大型语言模型命令行工具迎来升级支持一键扩展各类外部工具从数据处理到代码执行让 AI 在开发和日常应用中变得更加强大
但正如有开发者所担忧,随着 AI 产能和便捷度提升,软件行业可能正在冒着低质量快速迭代与技术能力退化的风险。今天节目,我们就从算法革新到创作伦理,带你深挖背后的话题。
近日,一份由 AI 生成的特别增刊被 Chicago Sun Times 和 Philadelphia Inquirer 刊登,里面的事实、专家和书目都是 AI 聊天机器人编出来的,从写稿、编辑、销售、制作等各个环节,几乎没有人真正关心内容的真假,甚至直到印刷两天后才有人发现出错。这样的现象被作者称作谁在乎时代,也就是大量被匆匆生产出来,又很快被忽略的平庸内容充斥着我们的生活。
AI 的普及让还过得去成了大众的新标准大部分人用它来不断产出中庸的东西真正用心打磨内容的人反而变得稀少作者还提到自己与一家大型播客公司原本想做一档需要深度思考探索多元宇宙概念的系列节目但反复被要求修改得更简单更迎合大众最后变成了和其他节目毫无区别的话题闲聊项目也因此流产
在作者看来,只有那些坚持用心创作,哪怕内容粗糙但保有真实情感的人,才能在这样冷漠的环境里发光。总结社区评论,有网友感叹在现在社会,最难的大概就是去在乎,也有人说这其实背后是长期个人主义和效率至上价值观带来的必然趋势。还有评论指出无论环境多平庸,依旧有许多用心创作的人值得被关注和支持。
LLM 0.26 版本发布,最大的新特性是,现在可以直接在命令行工具里让各种大语言模型调用工具。无论是来自 OpenAI, Anthropic, Google Gemini,还是 Olema 的本地模型,只要你能把功能写成 Python 函数,都能通过 LLM 命令行工具让大模型使用。
用户可以通过插件安装更多工具,也可以直接传入自定义的 Python 函数实现新功能,比如数学计算,执行 JavaScript 代码,访问本地或远程 SQL 数据库等。比如用内置的工具就能让模型查询时间,做四则运算,或者自动处理数据库里的数据。支持插件意味着大家可以为 LLM 生态扩展无限多的能力。
LLM 同时兼容同步和异步用法开发者还能在 Python 里用欠方法让模型自动识别工具调用并执行整个过程非常直观社区对这个新版本评价很积极有评论者分享了为这个工具开发的流士 Markdown 渲染器和 TMUX 集成插件也有人指出开放调用外部工具需要注意权限和安全控制比如要防范模型操作敏感账户或执行危险指令
还有开发者已经把它和自己的桌面环境结合,方便日常工作,大家普遍认为 LLM 命令行工具极大,扩展了大模型的实际应用能力,但也提醒要做好风险隔离和身份授权机制。AutoThink 是一款可以提升本地大语言模型表现的新工具,它采用了一种自适应推理的方法,让 AI 能根据问题的复杂度灵活分配计算资源。
AutoThink 创作者表示,现有的推理模型无论是遇到简单的 2 加 2,还是需要复杂数学证明的问题,消耗的计算时间几乎没有差别,效率很低。AutoThink 的突破在于结合了自适应分类和微软 5 四论文中的 Pivotal Token Search 技术,并用动态分配 Token 的方式进行优化。
实际测试发现,这样不仅平均用到的 token 更少了,效率反而提升,而且针对简单问题可以更快得出答案,复杂问题则投入更多计算资源。项目作者还提到,Steer 向量体积很小,新增的延迟大约只有 10 毫秒,而选择模型中间层作为目标层效果最好。
评论区有开发者提出,区分问题的复杂度并不总是容易,比如有些看似简单的数学问题其实非常难解决。有网友看到这个项目很感兴趣,觉得让 AI 按问题难度合理分配计算资源和人类思考习惯类似,也希望能继续关注相关进展。还有用户认为,这种优化方式如果可以推广到更多场景,可能会帮助中小团队在本地模型上取得更好的效果。
有开发者分享了,他把自己在 Mac 上用 Electron 开发的桌面应用重写成 REST 的经历。这个应用叫 Desktop Docs,主打本地 AI 搜索与智能文件管理,能够直接在 Mac 本地分析图片和视频内容,实现基于内容的快速检索,无需云端上传。
新版采用 REST 和 Torai 等新技术后,应用体积大幅缩小,性能提升明显,搜索响应能做到 0.3 秒以内,所有数据处理都在本地完成,更加注重隐私。在社区讨论中,有人提到用 REST 开发桌面应用设计概念较复杂,上手难度大,还有用户分享了不同跨平台框架在兼容性和性能上的对比,比如 Torai,Electron,Flutter 等,各有优缺点。
也有网友建议在产品页面增加更多真实的性能测试和机器兼容性说明,帮助潜在用户更好地做出选择。两款全新的 Rust 语言开发的 Python 类型检查器 Pyrefly 和 Type 近期登场,都还处于早期 Alpha 测试阶段,但它们的表现已经让开发者社区眼前一亮。Pyrefly 是 Meta 推出的新一代 Python 类型检查器,目标是成为真正开源、速度更快、能力更强的工具,替代此前的 Pyre。
另一款 Ti 则由 Astro 团队开发,前身叫 RedNan,现在功能主打渐进式保障,认为只要代码本身没有类型注解,删掉类型标注也不会产生新类型错误,更适合动态代码库的渐进式类型检查。在性能测试上,Ti 在大型项目如 Piterage、Diango 等上整体跑分更快,PirateFlee 紧随其后,两者远超 MYPY 和 Pirate 等传统检查器。
PyRFee 的突出优点在于可以强力推断类型,并且在没有显示标注的情况下也能精准捕获类型错误。Py 的特点则是支持类型的交集和否定运算,还能输出更直观易懂的错误提示信息。社区评论区不少开发者表示,这两款工具虽然都还未完善,但已经能看出不同的设计思路和未来潜力。
有网友称赞 Parafli 的类型推断能力更强,也有人觉得 Ti 的渐进式策略对大型动态项目更实用,不过也有程序员提醒,这些工具还处于起步阶段,功能和行为可能会不断变化。一位工程师分享了自己认为最重要的开发工具,其实是一支笔和一个笔记本。他认为,虽然编写代码是软件开发最后一步必不可少的环节,但真正重要的是在动手之前理清思路,先想明白要写什么代码。
长期以来他发现只要坐在电脑前就很容易进入机械的功能模式这时候思路反而不那么活跃所以他喜欢在纸上写写画画不管是设计方案画流程图还是简单记录思考过程这个过程能把模糊的想法变成具体的问题和解决方案写下来还能帮助检查自己对某些内容的理解是否有漏洞之后再回看这些笔记无论是几周后还是几年后都还能找到当时的思路和决策依据
在评论区,很多开发者认同这个观点,但也有人强调,每个人适合的习惯都不一样,有的直接用白纸,有的用数字工具。也有网友提醒,笔记本虽然好用,但它并不能取代调试器或者版本控制这些核心开发工具,关键还是找到最适合自己的方式。
Movet 推出了 Lita 这个搜索服务,主打隐私保护,用户在使用 Lita 搜索时,搜索请求会由 LitaMovet.net 服务器代表用户向 Google 或 Brave 等搜索引擎发起,只会转发搜索关键词,不会传递任何个人信息。所有返回的搜索结果只包含直接的目标链接,去除了各种追踪元素和第三方内容,进一步避免用户被第三方追踪。
Lit 服务运行在完全没有硬盘的服务器上,这些服务器基于 Open2 LTS 系统,并使用 Movie 自己定制精简的 VPN 内核,所有缓存的搜索结果都存储在内存中的 READY 数据库里,缓存时间最长 30 天。如果服务器重启缓存会全部丢失,但 Movie 认为这样做可以平衡保护隐私和缓存加速之间的关系。
评论区里有网友质疑没有明确提及用户信息怎么处理,也有人不清楚 Lita 的盈利模式是否是为了进一步推广自家的 VPN 服务。还有用户反馈广告做的多弹产品介绍太简单,不太明白具体用途。一篇名为《AI Accelerated Incompetence》的帖子探讨了当前软件开发领域依赖 LLM 带来的潜在风险。
作者认为,虽然 LLM 能快速生成大量代码,提高开发速度,但同时带来了不少隐患,比如输出内容可能明显错误,也可能存在难以察觉的逻辑漏洞。输入端如果开发者自身对问题的理解不清,LLM 很难帮忙识别前提上的误区,容易把精力花在错误方向上。另一个问题是技术债务累积,因为 AI 生成的代码质量参差不齐,长远来看可能导致项目维护难度加大。
此外 帖子还提到 过度依赖 LLM 会让开发者的独立思考能力和解决问题的经验逐渐退化尤其是新人没有机会在实际工作中积累应对复杂问题的经验 这样的依赖可能让整个团队或者组织的技术能力变弱帖子引用了知名计算机科学家的观点 主张真正的软件开发不仅仅是代码实现 更是对问题的深入理解和架构设计 只有人类能够持续掌控和优化系统的复杂度
作者总结认为,LLM 应该被作为辅助工具,而不是替代品,扎实掌握工程基础仍然是未来最有价值的能力。从评论区来看,有人提到 AI 虽然会减少部分技能,但总体让更多人能参与开发,也有人觉得用 AI 写代码等于提前积累技术债,需要持续警惕。还有开发者认为,和以前 GPS 导航改变人们的生活一样,AI 工具也将重塑行业模式,但不会彻底取代人的深度思考和创造力。
Duck Lake 是由 DuckDB 团队推出的开源集成数据壶和目录的新格式,主打简洁易用。它利用 PARC-K 文件存储数据,并把所有原数据集中管理在一个支持 Asset 事务的 SQL 数据库,比如 PostgreSQL、MySQL、SQLite 或 DuckDB,实现高效查询和并发访问。
相比传统 Lakehurst 系统像 iceberg 或 delta lake 需要在对象存储中维护大量小型原数据文件 Duck Lake 通过一次 C-Quad 查询就能获取所需的全部原数据信息大大提升了操作效率特别是在快照时光回溯查询和多表事物等场景使用 Duck Lake 可以在本地或者云端快速搭建数据仓库支持多客户端同时读写而且 DuckDB 的扩展模块让部署变得非常清亮
主播补充一下,许多网友提到 Duck Lake 减少了原数据信息分散带来的性能开销,非常适合自己动手搭建数据湖也有人认为 Duck Lake 可能会推动业内从依赖原数据文件转向数据库管理原数据的趋势还有开发者点赞了 Duck Lake 在本地部署和横向扩展方面的易用性 XAI 宣布将投入 3 亿美元,包括现金和股份,用于和 Telegram 合作,把自家的 AI 聊天机器人 Grak 集成进 Telegram 平台
这项合作为期一年 Telegram 可以获得 XAI 订阅用户通过 App 内支付带来的 50%收入分成根据 Telegram CEO Pavel Durov 的介绍 Grok 未来不仅能固定在聊天顶部用户还能通过搜索栏直接向 Grok 提问以及用来撰写建议 聊天总结 文档梳理还可以自动生成贴纸和帮助商家自动回复留言内容审核等功能类似的 Meta 之前也已经把自家的 Meta AI 集成到了自有平台
评论区里有网友质疑,为何是 XAI 付钱而不是用户买单,也有人认为这笔钱换取 11 用户的规模,其实对 XAI 是值得的。还有用户担心 Telegram 的数据隐私和 AI 得到接入后的内容审核会变得更加复杂。感谢您收听今天的黑客新闻中文日报。
科技革新不断,我们更要保持思考与观察。如果本期内容对你有所启发,欢迎订阅和分享我们,让更多人了解最新的科技趋势。我们下期再见。