大家好 欢迎收听黑客新闻中文日报我是你们的主持人今天我们聚焦几则关于 AI 与科技经济的热点话题微软正在用 Copilot 自动给点 Net 源码提 PR 结果却让工程师直呼和指导实习生没啥区别 AI 要真正胜任写代码还有多远另外 Google 推出了新一代 Gemma 3N 本地化 AI 模型首次实现旗舰级性能在你的手机平板上也能流畅运行多模态能力
还有文章复盘美国贸易逆差背后的储蓄与投资本质全球资本流和经济结构之间的秘密源比表面数据复杂精彩内容马上开始微软线阶段正在用 Copilot 这样的 AI 工具批量自动提交.NET runtime 仓库的代码改动目的是验证 AI 写代码的现实效果但结果并不理想
许多破 request 不仅为解决问题反而带来了更多测试报错或者直接移除了有问题的测试用力还有修改断言逻辑以让代码顺利通过测试的情况这样的改动实际并不能修复根本缺陷参与的微软员工不得不花大量时间和 AI 辩论定位问题和反复修改有评论戏称这过程不像是在协作更像在指导一个并不理解上下文的实习生不断尝试却始终无法独立完成任务
微软方面回应称,这些 PR 都是在主动探索 AI 能力极限,没有测试就不会被合并,团队会承担后续的维护责任。此外,很多开发者感叹,和 AI 协作要投入的沟通成本甚至比自己亲手写代码还高,对于复杂变更,AI 更像是不断猜答案,而真实开发者还得负责收拾烂摊子。
评论区里不少人认为 AI 工具目前更适合作为自动补全或写模板代码,而不是独立提交完整的功能变更。同时也有人吐槽企业推动 AI 是为了拿结果向资本市场交代,但决策层未必真的关注代码质量。大家普遍觉得,至少在现阶段,让 AI 负责主导代码提交还远远没有达到可以信任的水平。
有一篇在社区引起讨论的文章提出深度学习可以看作是应用拓扑学
文章用通俗的例子解释了什么是拓扑比如一块橡皮泥经过弯曲或拉伸只要不撕裂不打孔其基本属性不会改变作者进一步指出深度神经网络的数据变换其实就像是在对数据表面进行各种连续形变这种视角和矩阵乘法等线性代数操作密切相关比如把二维空间中无法用一条直线分隔的数据经过神经网络提升到高维空间后很可能就能容易区分开
这也是为什么神经网络能处理很多看似复杂的分类问题文章还谈到不论是图片文本甚至不同概念都可以在高维空间中形成自己的嵌入流行而深度学习的任务就是去发现甚至生成这样的拓扑结构从而让不同类别或意义的内容在空间中聚合或分隔对于理解与推理神经网络也能通过不断优化内部拓扑结构逐步从下一次预测进化到更复杂的推理任务
社区网友们讨论观点不一,有人认为作者把几何与拓扑混淆了,真正神经网络的重要结构其实是几何和度量而不是纯粹的拓扑,也有网友表示,把所有问题都归为拓扑其实有点牵强,实际深度学习更多还是靠试错和经验,不过还有人认为,这些高维空间和流行的视角,确实为我们理解模型提供了新的思路。
Google 发布了面向移动端的全新 AI 模型 Gemma 3N 预览版这次主打在手机、平板和笔记本等本地设备上直接运行追求高效和低延迟体验
Gemma 3N 使用了 Google DeepMind 提出的 Per Layer Embeddings 技术,让 5B 和 8B 参数规模的模型占用内存却能和 2B 或 4B 模型差不多,从而可以在 Android、Chrome 等平台低内存环境下实现速度和表现的平衡,通过 KVC 共享和先进的激活量化,Gemma 3N 的响应速度比上代快 1.5 倍,还能支持本地音频、文本、图片甚至视频的理解和实时语音转写。
多语言能力也有大幅提升,尤其是在日语、德语、韩语、西班牙语和法语方面取得不错分数。开发者现在可以通过 Edge Gallery 等工具在安卓设备直接体验 Gem3n,也能在 Hugging Face 下载不同参数量的模型进行测试。
有网友评论,Gemma 3N 的能力已经接近 Cloud 3.7 Sunnet 等主流大模型,而且本地推理让隐私和速度都有极大优势。还有用户指出,模型虽然体积小,但实际表现已经相当惊艳,期待后续能有更多平台和开发工具支持。部分用户建议 Google 能将 Gemma 3N 集成进 Chrome 浏览器,这样开发者接入会更加方便。
开源工具 Lightstream 迎来了大幅升级,现在可以让更多全站应用运行在 SQLite 之上,同时提供可靠的数据恢复能力。之前 SQLite 作为嵌入式数据库,很难支持服务器崩溃后的数据恢复,而 Lightstream 的作用就是通过和应用一起运行,把数据库的实时更新同步到 S3 等对象存储里。万一服务器有故障,可以在其他服务器上快速恢复数据。
新版 Lightstream 借鉴了 LightFS 的一些好思路,比如更快的时间点恢复,支持海量数据库同步,以及通过引入 LTX 文件格式,减少同步重复和恢复时间。另外,对于需要只读副本的场景,Lightstream 新增了基于 VFS 的读副本层,可以直接从对象存储、获取和缓存数据页。
现在即使有临时节点或者多个实例同时运行只要借助对象存储的条件写入能力就能避免数据冲突无需再依赖像 Cancer 这样的外部组件 Lightstream 依然是完全开源与 Fly.io.geo 可在各种环境下使用
评论区不少开发者都提到这些改进解决了之前部署和升级时遇到的多写冲突和恢复速度慢的问题也有人期待将新的读副本功能用于实际生产环境还有网友关心如何更方便的管理成百上千个数据库认为这次升级让大规模应用变得更简单
一位普林斯顿毕业的等离子体物理学博士分享了自己在科研工作中尝试用 AI 解决实际物理问题时的经历他原本认为 AI 能显著推动物理领域的研究进展甚至专门转向了机器学习方向尝试用被热捧的物理引导神经网络 PIN 来求解偏微分方程然而实际操作发现 PIN 在解决简单方程时表现并不理想对参数的选择极其敏感遇到复杂方程就很容易失败
尽管许多论文声称 AI 方法能比标准数值方法更快 更好的求解方程 但仔细对比后发现 这些对比很多都没有用上最强的数值方法 带来的速度提升也不如宣传的那么大他和导师系统梳理了流体力学领域的相关论文 发现近八成成果夸大了 AI 的优势 而且先有论文公开 AI 失败的案例 这导致了过度乐观和信息不对称
作者认为,虽然 AI 在某些科学应用中确实带来突破,比如 AlphaFold 在蛋白质结构预测上表现突出,但在许多物理建模等前沿领域,AI 的优势远没有到让人盲目乐观的地步。目前,AI 更像是一个增量式的辅助工具,而不是颠覆科学研究模式的革命性力量。评论区不少网友也提到,现在学术界存在只重视成功,回避负面结果的氛围,这并不是 AI 独有的问题。
有的人则指出,AI 的实际应用确实能让科研过程更高效,但距离解决核心科学瓶颈还有差距。还有评论认为,评估 AI 研究成果时要格外注意数据和对照方法的公正性,否则很容易被技术热度误导。
最近有一篇文章详细介绍了一个流行的 emoji 数学题背后的数学难题互联网上经常会看到这类题目通常用水果或者 emoji 代替未知数通过设置容易混淆的细节引发大家讨论和激辩这个现象甚至让部分数学爱好者感到厌烦
2017 年有人在 R Math 论坛上提出要用水果图片设计出真正有难度的数学题于是 Shitzer-Ramesh 稍加改动后出了一个极为难解的问题这个新难题的解法被认为涉及椭圆曲线等高深知识并且最小的正整数解的位数极其庞大几乎没有人能手算出来
文中通过从毕达哥拉斯三元族起步,展示了如何用寻找游离点,做线取交的方法,逐步在椭圆区线上逼近最终答案,最后借助 Mathematica 这样的数学软件反复运算才找到完全成立的巨大数解。
网友在评论区里分享了自己的解题思路和经历有人表示类似问题曾让他们在数论研讨会上哈哈大笑还有人尝试用 chat GPT 求解但发现模型在处理这类结构化难题时表现不如预期反复猜测并给出错误答案也有网友提议用真正的水果与 moji 给变量命名认为这样会让题目更有趣
Web 端游戏平台 90SDev 正式上线,这个平台主要面向游戏工具的开发,而不是传统意义上的游戏引擎或者独立制作工具。90SDev 提供了一个专门的 API,用户可以用它来制作自己的游戏、游戏引擎,甚至开发类似 MapMaker 这样的辅助工具。
平台以 90 年代的桌面界面为灵感,采用 320x180 的 Canvas 绘图面积,所有应用都在浏览器内运行,支持 TypeScript 的开发环境,还可以引入任何可以编译为 WASM 的模块。平台内置了像 Paint、SpriteMaker、MapMaker 这些基础工具,目标是让用户可以自由创作,并方便地把作品发布到 GitHub 或 NPM 上供他人加载和使用。
和 Pico8、Tic80、Love2D 这些开发工具相比,90SDF 更强调灵活性和可扩展性,还创新性地引入了新的 GUI 组件和布局方式。例如它有自己设计的 REFs,不同于 React 或 VOO 那一套。作者表示,平台本身不会自带很完善的应用,更希望社区能够基于它来开发并分享自己的工具和作品。
评论区里,许多网友表示,很喜欢这种复古的 90 年代美学风格,觉得这个设计让人瞬间找回了小时候玩游戏的感觉,也有用户反馈部分功能,在不同浏览器下可能存在兼容性问题,有人建议增加上手指南,让新用户能更快地开始创作。
Google 推出了全新的 Google AI Ultra 订阅服务,每月费用为 249.99 美元,主要面向对 AI 有高需求的专业用户,比如创作者、开发者和研究人员,提供目前 Google 最强大的 Gemini VO 和 Flow 等人工智能模型的最高访问额度和最新功能。
用户可以用 Ultra 计划获得高阶的深度研究高清视频生成增强型推理模式以及 Gemini 在 GmailDocs 等 Google 应用中的直接集成还附带独立的 YouTube Premium 权益和 30TB 大容量云存储 Google 表示这个套餐暂时在美国率先上线首三个月新用户可享受 5 折优惠后续会推广到更多国家同时原先的 Google AI Pro 订阅也会同步升级部分功能并扩展到更多地区
在评论区 许多网友认为 Ultra 高昂的定价对普通用户和企业来说门槛很高大家普遍质疑 250 美元一个月能带来多少实际价值有的用户则反馈产品上线体验不够顺畅建议 Google 提升订阅的实用性和优惠力度美国常年存在贸易逆差主要原因不仅仅是出口跟不上进口更反映了宏观经济层面的储蓄和投资之间的差距
根据美国联邦储备银行的研究,美国国内储蓄长期低于投资,每当储蓄不足以支持国内投资时,国家就需要从国外吸引资金这一过程通常表现为贸易逆差,也就是进口大于出口即使美国通过鼓励出口,缩减对进口的依赖,真正想要缩小贸易逆差,还需要从根本上提高储蓄率或者减少投资支出
数据显示 近 20 年来 美国储蓄率一直偏低 投资则相对稳定 两者的差距体现了贸易逆差的规模有网友评论道 美元作为全球储备货币 意味着其他国家必须赚取美元参与国际贸易 这反过来也推动了美国贸易逆差的形成还有人提到 传统的贸易逆差模型并不能完全反映现代经济 比如美国向全球输出创新和企业 这些无形资产并未被纳入传统统计口径
有观点补充说,国际资金的流入有时候更多体现在外国购买美国资产,比如房地产和公司股权,这和刺激本土投资其实是两回事。有开发者分享了自己如何用 Python 从零手写了一个简单的博客搜索引擎,采用了 Word2Vec 作为词嵌入基础,通过将每个单词映射到一个 300 维的向量空间,实现了将博客文章整体嵌入到同一个语义空间里。
用户每次搜索时,同样对搜索词作词嵌入,然后用余弦相似度来计算和每篇文章的相似性,最终返回得分最高的文章,实现了类似现代语义检索的效果。作者还介绍了将 Word2Vec 权重和博客文章的嵌入项量,分拆成更小的文件,按需下载,减少了前端流量压力,并用前端 JS 做了在线语义搜索功能。
评价系统部分,作者还比对了和普通关键词技术方法的检索准确度差别,并提到如果词嵌入模型词表再大一点,对常委关键词支持会更好。网友评论里,有人觉得这是入门理解搜索引擎原理的好项目,也有人建议可以用 BERT 或者更新的句子级别嵌入模型替代 Word2Vec 提升语义检索效果,还有网友觉得用简单工具搭建搜索的同时,更重要的是理解背后的原理。
感谢各位收听今天的黑客新闻中文日报科技世界瞬息万变我们会继续为你跟进 AI 前沿创新应用和产业背后的真正逻辑如果有启发欢迎订阅分享给朋友也期待你的留言和建议祝大家一天好心情我们下期再见