作者用一张在加州 El Granada 家附近户外酒吧拍摄的照片进行测试。这张照片挑战性很强:没有明显地标,只有一些普通道路、房屋和背景山丘。模型的分析过程非常引人入胜:
作者确信模型没有通过查看照片的 EXIF 数据作弊,因为如果作弊就不会先猜错。作者也测试了 Claude 3.5、3.7 Sonnet 和 Gemini,它们也有类似能力,但没有 o3 那种夸张的"放大"功能。
作者认为这种技术既有趣又反乌托邦。观看模型思考过程非常娱乐,就像身处 CSI 剧集;但同时也意味着技术现在能从普通照片识别位置,这对个人安全带来潜在威胁。人们需要了解,即使是像作者示例那样普通的照片,也可能被用来确定位置。
后来作者发现 o3 确实能粗略获取用户位置信息,但这种照片位置猜测能力是独立工作的。他用在马达加斯加和布宜诺斯艾利斯拍摄的照片进行测试(已去除 EXIF 数据),模型仍然给出了令人信服的答案。
这篇文章生动展示了当代 AI 视觉分析能力的惊人进步,以及这种技术带来的伦理和隐私考量。
👉 原文地址)
👉 HN 讨论地址)