2025-07-08 Hacker News Top Stories #
- Bitchat:一个安全、去中心化的蓝牙消息应用,通过蓝牙网格网络实现点对点通信,无需互联网或电话号码,支持端到端加密和隐私保护。
- ChatGPT错误功能:Soundslice因ChatGPT错误信息而开发了ASCII吉他谱导入功能,反映了生成式AI可能引发的实际影响。
- 苹果模型安全过滤器:解密了苹果智能模型的安全过滤器,揭示了其内容审查机制和一些有趣的过滤组合。
- 个性与标签:现代社会中,个性被心理诊断标签取代,导致人们成为“医疗化的产品”。
- Apple Lisa网页OS:一个基于Apple Lisa UI的网页操作系统,完全用原生JavaScript编写,重新实现了经典界面。
- 非拟人化LLMs:探讨了大型语言模型的非拟人化视角,强调它们是复杂的数学工具而非人类化实体。
- Anthropic版权争议:Anthropic因大规模盗用版权书籍训练AI模型而受到诉讼,法官裁定合理使用版权书籍合法但盗版行为不被接受。
- Mercury扩散模型:Mercury是一种基于扩散的超快速语言模型,在编程任务上表现出色,速度远超前沿模型。
- AGI发展观点:作者认为人工通用智能(AGI)不会很快到来,主要因其缺乏人类般的持续学习能力。
- 英语无重音符号:英语不使用重音符号的原因可追溯到诺曼底征服后的语言演变,形成了独特的拼写系统。
Bitchat – A decentralized messaging app that works over Bluetooth mesh networks #
https://github.com/jackjackbits/bitchat
这个网页是关于一个名为“bitchat”的项目,它是一个安全、去中心化的点对点通信应用,通过蓝牙网格网络工作。不需要互联网连接、服务器或电话号码,仅提供纯粹的加密通信。
项目特点:
- 去中心化的网格网络:通过蓝牙 LE 自动发现对等设备并进行多跳消息中继。
- 端到端加密:使用 X25519 密钥交换和 AES-256-GCM 加密私有消息。
- 基于房间的聊天:基于主题的群组消息,可选密码保护。
- 存储与转发:为离线对等设备缓存消息,并在他们重新连接时传递。
- 隐私优先:无需账户、电话号码或持久标识符。
- IRC 风格的命令:熟悉的/join、/msg、/who 风格界面。
- 消息保留:由房间所有者控制的可选房间级消息保存。
- 通用应用:原生支持 iOS 和 macOS。
- 覆盖流量:时间混淆和虚拟消息以增强隐私。
- 紧急擦除:三击即可立即清除所有数据。
- 性能优化:LZ4 消息压缩、自适应电池模式和优化的网络。
设置:
- 使用 XcodeGen(推荐):安装 XcodeGen,生成 Xcode 项目,打开生成的项目。
- 使用 Swift Package Manager:在 Xcode 中打开项目,选择目标设备并运行。
- 手动 Xcode 项目:在 Xcode 中创建新的 iOS/macOS 应用,复制所有 Swift 文件,更新 Info.plist 以添加蓝牙权限,设置部署目标为 iOS 16.0/macOS 13.0。
使用:
- 基本命令:包括加入或创建房间、发送私有消息、列出在线用户、显示所有发现的房间、清除聊天消息、设置/更改房间密码(仅限所有者)、转移房间所有权、切换消息保留。
- 启动 bitchat,设置昵称,自动连接附近的对等设备,通过/j #general 加入房间或开始公共聊天,消息通过网格网络中继到达远距离对等设备。
房间功能:
- 密码保护:房间所有者可以设置密码。
- 消息保留:所有者可以启用强制消息保存。
- @ 提及:使用 @ 昵称提及用户(带自动补全)。
- 所有权转移:将控制权传递给可信用户。
安全与隐私:
- 加密:私有消息使用 X25519 密钥交换 +AES-256-GCM 加密,房间消息使用 Argon2id 密码派生 +AES-256-GCM,数字签名使用 Ed25519 确保消息真实性,每次会话生成新的密钥对以实现前向保密。
- 隐私功能:无需注册,消息仅存在于设备内存中,随机延迟和虚拟消息防止流量分析,三击 logo 即可立即清除所有数据,完全离线工作,无需服务器。
性能与效率:
- 消息压缩:LZ4 压缩自动压缩大于 100 字节的消息,节省 30-70% 的带宽。
- 电池优化:根据电池水平自动调整,包括性能模式、平衡模式、节能模式和超低功耗模式。
- 网络效率:优化的布隆过滤器快速检测重复消息,消息聚合减少传输,自适应连接限制根据电源模式调整对等连接。
技术架构:
- 二进制协议:bitchat 使用高效的二进制协议进行通信。
HN 热度 659 points | 评论 303 comments | 作者:ananddtyagi | 24 hours ago #
https://news.ycombinator.com/item?id=44485342
- 有人提出一个去中心化的延迟容忍消息系统概念,类似于苹果的“查找我的网络”,通过设备间跳转传递消息,如蓝牙、UWB、Wi-Fi Direct 等,无需传统互联网连接。
- 发送者需要支付小额费用发送消息,中继设备通过传递消息赚取微支付,整个系统端到端加密,完全去中心化,可选择匿名。
- 该系统在互联网覆盖不佳或受审查的地区特别有用,但面临延迟、可靠性、防止滥用/垃圾邮件、功耗和用户选择等问题。
- Helium Network 尝试过类似模式,但存在作弊、激励机制超过网络功能等问题,导致项目偏离初衷。
- 有人提出需要一种低开销的稳定币加密货币来支持这些用例,但目前很多项目都以发行新代币为主导,导致偏离初衷。
- 有人质疑加密货币相比美元和传统银行系统的优势,认为除了绕过监管外并无太大优势。
- 加密货币的不可逆性、公开可验证性和伪匿名性对于注重隐私的应用是优势,但也有人因此遭受损失。
- 有人认为现金和加密货币相比,现金更符合隐私需求,提出需要一种能将现金即时转换为账户资金的技术。
- 有人提到 Monero 是目前最接近私人(匿名)数字现金的选择。
- 有人提到 Paygo.wtf 项目正在开发类似概念,并提供了相关信息链接。
- 有人认为 Helium 网络和提出的方案是相同的模式,只是增加了发送支付。
- 有人指出,这种系统在互联网覆盖不佳的地区并不适用,而是需要大量参与设备的地区才能有效运作。
Adding a feature because ChatGPT incorrectly thinks it exists #
https://www.holovaty.com/writing/chatgpt-fake-feature/
Adrian Holovaty 在 2025 年 7 月 7 日发表了一篇关于 Soundslice 的文章。Soundslice 是一个将照片上的乐谱数字化的工具,用户可以听、编辑和练习音乐。作者提到,他们一直在改进这个系统,并关注错误日志,以查看哪些图片的扫描结果不佳。
在过去几个月里,作者注意到错误日志中出现了一种奇怪的上传类型。他们开始看到像这样的图片:
这些图片实际上是 ChatGPT 会话的截图,而不是音乐符号。这些是 ASCII 吉他谱,一种为吉他记谱的非常基础的方式。
Soundslice 的扫描系统原本并不支持这种类型的记谱。那么,为什么他们会被这么多 ASCII 吉他谱的 ChatGPT 截图轰炸呢?作者困惑了好几周,原来,ChatGPT 告诉人们去 Soundslice 创建账户并导入 ASCII 吉他谱,以便听到音频回放。这就是原因!
问题是,Soundslice 并没有这个功能。他们从未支持过 ASCII 吉他谱;ChatGPT 公然对人们撒谎。这还让 Soundslice 的服务产生了错误的预期,损害了他们的声誉。
这引发了一个有趣的产品问题。他们应该做什么?他们有一群新用户被告知了关于他们产品的错误信息。他们应该在产品上贴满免责声明,说“忽略 ChatGPT 关于 ASCII 吉他谱支持的说法”吗?
他们最终决定:为什么不满足市场需求呢。于是他们开发了一个定制的 ASCII 吉他谱导入器(这在我的“2025 年预期要写的软件”列表中几乎垫底)。他们还更改了扫描系统的 UI 文本,告诉人们这个新功能。
据作者所知,这是第一家因为 ChatGPT 错误地告诉人们它存在而开发功能的公司。(是的?)他分享这个故事,因为他认为这有点有趣。
作者对这件事的感觉是复杂的。他很高兴能增加一个帮助人们的工具。但他觉得他们以一种奇怪的方式被迫做出这个决定。他们真的应该根据错误信息来开发功能吗?
HN 热度 619 points | 评论 233 comments | 作者:adrianh | 9 hours ago #
https://news.ycombinator.com/item?id=44491071
- 人们误解了从技术幻觉中添加新功能的原因,技术错误地认为一个不存在的功能存在。
- 生成式 AI 告诉人们一个不存在的功能存在,这是问题所在,应该确保不再发生。
- 利用 GPT-4 进行编程时,通过让 AI 猜测 API 的工作方式,有时能发现比我原先更好的方法。
- 神经网络擅长的不是提供准确信息,而是制造高度可信的“幻觉”,即创造力而非逻辑。
- AI 可以帮助确保 API 易于猜测和理解,这是非常有价值的。
- 完全去除人类环节的 AI 应用几乎总是导致灾难性结果。
- 开发者/研究人员经常失去对他们开发的技术的控制,一旦项目完成。
- 可能需要写更严格的开源许可证来控制技术的滥用。
- 用眼药水滴灭森林大火是不够的,应该储备足够的食物和水,并努力说服 AI 你不构成威胁。
- 说服 AI 你无所不能,让它害怕并崇拜你可能是更可行的方法。
- 微软 Word 几十年前就有被动语态的风格检查器。
- 被动语态经常增加长度,阻碍流畅性,并减少有用信息。
- 有时我们确实需要强调行动而非行动者,特别是在技术写作中。
- 主动语态和被动语态都有其适用场景,但一般建议避免使用被动语态。
- 被动语态在某些情况下可能更好,如信息明显、无关紧要或故意不披露时。
I extracted the safety filters from Apple Intelligence models #
https://github.com/BlueFalconHD/apple_generative_model_safety_decrypted
这个网页是关于“apple_generative_model_safety_decrypted”项目的 GitHub 页面,该项目包含了解密的苹果智能生成模型安全文件,具体包含过滤器。
项目简介:
这个项目提供了解密的苹果智能生成模型安全文件,这些文件包含了各种模型的解密覆盖文件。项目结构包括 decrypted_overrides/
目录,其中包含各种模型的解密覆盖文件;com.apple.*/
目录,使用与安全信息相关的资源标识符命名;Info.plist
文件,包含覆盖的元数据;AssetData/
目录,包含解密的 JSON 文件;combined_metadata/
目录,包含合并和去重的元数据文件,方便审查;global_metadata.json
文件,包含所有模型的全局安全过滤器;region_*.json
和 locale_*.json
文件,分别包含区域特定和语言环境特定的安全过滤器。
使用说明:
项目需要 Python 依赖库 cryptography 来运行解密脚本,可以通过 pip 安装。获取加密密钥需要将 LLDB 附加到 GenerativeExperiencesSafetyInferenceProvider 上,推荐使用 Xcode 的 LLDB。通过在快捷方式应用中创建一个使用生成模型操作的虚拟快捷方式,并运行该快捷方式,可以让 LLDB 附加到 GenerativeExperiencesSafetyInferenceProvider。在项目的根目录下运行 LLDB 命令,导入 get_key_lldb.py
脚本,然后继续进程,LLDB 会将加密密钥打印到控制台并保存到 ./key.bin
文件中。
解密覆盖文件:
在项目根目录下运行 decrypt_overrides.py
脚本来解密覆盖文件,解密后的覆盖文件将被放置在 decrypted_overrides
目录中。如果覆盖文件已经更新,这一步是必要的,否则项目中已有的解密覆盖文件是最新的,截至 2025 年 6 月 28 日。
合并元数据文件:
解密覆盖文件后,可以运行 combine_metadata.py
脚本来生成合并和去重的元数据文件。该脚本将处理 decrypted_overrides
目录中的所有 metadata.json
文件,按区域/语言环境合并它们,并创建一个全局合并文件,去重所有条目,并将结果保存到 combined_metadata/
目录中。合并的元数据文件提供了最方便的方式来审查所有安全过滤器,因为它们消除了重复条目,并提供了清晰、整合的列表。
HN 热度 504 points | 评论 393 comments | 作者:BlueFalconHD | 1 day ago #
https://news.ycombinator.com/item?id=44483485
- 一些过滤组合很奇怪,避免死亡的内容与确保苹果品牌正确大写的内容放在一起。
- 没有包括“unalive”这个词,表明没有人真正关心人们实际上在说什么。
- 美国的清教徒主义是这种现象的一个明显例子,亚洲或欧洲的模型审查较少。
- 这可能更多与法律责任而非道德有关。
- 这也反映了某种道德。
- 可能不仅仅是法律责任,还有负面新闻的影响。
- 审查并不总是直接或明显的,它们都带有训练数据的偏见。
- 法国的模型在讨论阿尔及利亚战争、殖民主义和维希政权等敏感话题时没有回避。
- 法国模型对于讨论纳粹相关话题最有可能被审查。
- 审查特定事件不如审查政府所有错误行为的模式那么糟糕。
Nobody has a personality anymore: we are products with labels #
https://www.freyaindia.co.uk/p/nobody-has-a-personality-anymore
这篇文章探讨了现代社会中个性和人格特质被心理诊断标签所取代的现象。作者 Freya India 在 2022 年 6 月 26 日发表的文章中指出,我们的语言和对人际关系的讨论被治疗性话语所主导,导致我们失去了描述个性的词汇。在这种文化中,每个性格特征都被视为需要解决的问题,任何过于人性化的习惯、怪癖或强烈的情感都被标签化和解释。这种趋势不断扩大,最终导致没有人是正常的。
文章提到,根据 2024 年的一项调查,72% 的 Z 世代女孩表示“心理健康挑战是我身份的重要组成部分”,而只有 27% 的婴儿潮一代男性持相同观点。作者认为,这是现代生活中解释一切的深层本能的一部分,无论是心理学、科学还是进化论,我们的一切特征都被归因、分类并可以被纠正。我们用理论、框架、系统、结构、驱动力、动机和机制来交流,但在这个过程中,我们失去了神秘感、浪漫感,甚至失去了自我。
文章中提到,我们失去了描述人的感性方式。现在,如果你总是迟到,不是因为你可爱地健忘,也不是因为你分散注意力且有趣,而是因为 ADHD(注意力缺陷多动障碍)。你害羞且在与人交谈时低头,不是因为你是你母亲的孩子,不是因为你温柔甜美且像她一样容易脸红,而是因为自闭症。你之所以是你,不是因为你有灵魂,而是因为你的症状和诊断;你不是你祖先的混合体或一系列好奇的特征,而是童年事件时间线的临床结果。你家庭对你的描述,被医疗化了。曾经写在婚礼誓言中、在悼词中宣读、带着微笑回忆的部分,现在活在医生的笔记、心理健康评估和 BetterHelp 应用程序中。我们不再是人,我们已经成为产品很长时间了,这些是我们的标签。
文章还指出,我们也不能谈论性格。没有慷慨的人了,只有取悦他人的人。没有把心戴在袖子上的男人或女人,只有焦虑依附或依赖共生的人。没有勤奋工作的人,只有受创伤的、不安全的过度成就者、神经质的野心家。我们甚至在未经他们同意的情况下对人们进行分类。现在,我们笨拙的母亲总是有未诊断的 ADHD;我们安静的父亲没有意识到他们是自闭症患者;我们坚忍的祖父情感上受到抑制。我们甚至乐于对死者进行诊断。作者认为,这就是为什么人们对这些诊断如此防御,如此坚持它们解释一切。他们试图保持自我;他们个性的每一部分都包含在他们自己之中。
文章进一步指出,我们失去的不仅仅是性格特征。没有经历,没有生活阶段,没有奇迹或神秘,只有关于我们可能出了什么问题的线索。发生的一切都可以被解释掉;没有什么是豁免的。我们不能接受我们疯狂且不合逻辑地爱上某人;不,开明的方式是看穿那一点,深入到真正发生的事情,找到隐藏的动机。我们爱上的人不过是创伤反应。“你不是有迷恋;你有依恋问题”。也许他让你想起了一个早期的照顾者,他伤害了你。实际上,没有感情了;只有失调的神经系统。我们所有的人类经历都是证据,我们生活的目的都是完美地将它们拼凑在一起。这是健康的方式,前几代人被残酷地剥夺了。作者不再确定是否相信这一点。我们是否比过去更有洞察力,更有情感智慧。我的祖母是祖母、母亲、妻子;我们是依恋障碍。她无私且把事情放在心上;我们有拒绝敏感性烦躁和作为创伤反应的奉承。他们是灵魂;我们是症状。当然,过去也有需要真正帮助的人,从未得到任何理解,但那不是全部故事;许多人也更快乐、不那么自我意识、实际上能够忘记自己。我问我的祖父母,他们已经结婚六十年了,为什么选择彼此,得到了一个笨拙的答案。他们从未真正想过这个问题。也许我对过去过于怀旧,但在那一刻,我努力与之相关联的东西已经失去了,一种更简单的生活方式。现在的我们有一种傲慢,看待过去的人是不完整和未解决的,而我们自己却是如此焦虑和困惑。
作者认为,这就是为什么我们这一代人在关系和育儿等问题上陷入困境。我们绊倒的承诺,我们无休止辩论的决定,我们发现很难坚持的传统,通常是我们不容易解释的。我们试图解释不可解释的。很难捍卫浪漫爱情反对单身,因为它不安全、不可控或特别理性。同样,生孩子也是如此。把这些放在利弊列表中,它们就不再合乎逻辑。它们不能被计算或编码。问问老一辈人为什么他们开始家庭。他们通常没有真正考虑过。也许这并不像我们被引导相信的那样疯狂,也许这并不那么鲁莽,也许这有点人性。但当然,这一代人有一个以前没有的十亿美元产业。世界也变得更加复杂;我们想要控制和确定性。我们从事物的原因中得到安慰。是的,有些年轻人通过诊断得到帮助,他们不能正常运作,并且在被理解中找到解脱,但比我们想象的要少。更多的人被说服,认为生活的意义不是在外部世界,而是在他们自己的头脑中。我们低估了这一点,理解自己的悲惨事务。作者同情那些在童年时期就对童年进行法医分析的女孩,她们在其中塞满了希望和痛苦……
HN 热度 492 points | 评论 448 comments | 作者:drankl | 1 day ago #
https://news.ycombinator.com/item?id=44484595
- 人们倾向于给自己贴上标签以获得独特性或为问题命名。
- 许多心理障碍是程度问题,而非与典型体验有质的不同。
- 年轻人通过给自己贴标签来防御性地逃避批评和责任。
- 自我诊断为“时间盲”的人在获得标签后变得更加不守时。
- 将身份与标签混为一谈会导致个人将问题投射到外界,失去改变的责任感。
- 社会对个人的标签化限制了他们的潜能和自我形象。
- 即使在决定论的框架下,人们仍应对自己的行为负责。
- 哲学上的自由意志概念可能与日常责任和正义无关,应关注实际行为和社会历史。
Show HN: I wrote a “web OS” based on the Apple Lisa’s UI, with 1-bit graphics #
该项目是一个基于 Apple Lisa UI 的网页操作系统,完全用原生 JavaScript 编写,所有界面元素都在 DOM 之外使用 JS 对象定义。 该项目的 UI 元素,包括菜单、窗口、控件和字体,都是从头开始重新创建的,没有使用字体文件,而是编写了自己的排版系统。
主要是为了确保在每个浏览器中看起来都一样,因此尽可能将逻辑移到 JS 中,除了 Gulp 工具包外,没有使用其他非原生 JS 和标准 Web API。该项目基于 80 年代的 UI,可能在手机上表现不佳,建议安装为 PWA 以获得最佳效果,并注意 Android 设备上的一些触控键盘和光标问题。
HN 热度 469 points | 评论 133 comments | 作者:ayaros | 1 day ago #
https://news.ycombinator.com/item?id=44482965
- 作者提到了低分辨率显示器上像素显示可能会失真的问题,并提供了通过偏好设置调整显示比例的方法。
- 有评论询问如何处理动态窗口/字体缩放,作者解释了整数缩放的实现方式,包括动态调整画布的宽度、高度和样式属性。
- 有建议通过最近邻缩放器显著超调目标分辨率,然后通过双线性插值等方法缩小到视口,以处理加倍的行/列和莫尔条纹,同时保持视觉上清晰的像素。
- 有评论指出在进行颜色空间转换时,需要正确处理 sRGB 的伽马压缩特性,以避免颜色处理错误。
- 有评论提到 Web API 在像素完美渲染方面存在问题,包括设备像素比和缩放处理上的差异,以及像素对齐问题。
A non-anthropomorphized view of LLMs #
http://addxorrol.blogspot.com/2025/07/a-non-anthropomorphized-view-of-llms.html
这篇文章讨论了大型语言模型(LLMs)的非拟人化视角。作者对于在讨论“对齐”或“人工智能安全”时,人们赋予这些模型几乎具有魔法般的人类特质感到困惑。文章通过以下几个部分来阐述作者的观点:
- 词汇空间和路径:文章首先介绍了词汇空间的概念,即如何将单词或标记映射到 Rn 向量中。作者通过想象一个文本路径,将单词连接成一条可能复杂的线,来解释这个过程。在这个比喻中,每个单词都被标记一个数字,从最后一个单词开始,向前计数直到第一个单词或最大上下文长度 c。
- LLMs 的工作原理:LLMs 通过考虑之前的路径,计算下一个点的概率,并根据这些概率随机选择下一个点。作者将 LLMs 的实例化比作一个映射,它将输入的上下文映射到输出的上下文。
- 学习映射:通过训练 LLMs 模仿人类文本,我们可以获得这种映射。这包括使用所有可获得的人类写作、特定主题的专家文本以及在可以自动生成和验证的领域中的自动生成文本。
- 避免的路径:有些语言序列是我们希望避免的,因为这些模型生成的序列试图模仿人类语言的所有经验结构,但我们认为人类经验中写入的某些内容是不希望被生成的。我们尝试通过提供例子和反例来引导学习到的复杂分布远离这些路径。
- LLMs 的“对齐”和安全性:对齐和安全性意味着我们能够量化和限制生成某些不良序列的概率。然而,我们很难用数学方式严格描述哪些路径是不希望生成的,只能通过例子来说明。
- LLMs 的惊人效用:LLMs 解决了以前无法用算法解决的许多问题。作者提到,自然语言处理(NLP)领域的问题已经基本被解决,现代模型能够执行以前看起来像科幻小说的任务。
- 拟人化的误区:作者批评了将“意识”、“伦理”、“价值观”或“道德”等属性归因于这些学习映射的做法。他认为这些是大型递归方程,它们产生新单词,如果不再输入,就停止产生单词。
- 人类意识与 LLMs 的不可比性:文章最后,作者表达了他对人类意识与 LLMs 不可比的观点。他认为人类思想是一个涉及大量神经元、高带宽输入、复杂的激素混合物、能量水平的持续监控以及数百万年严酷选择压力的复杂过程,而我们对此知之甚少。与 LLMs 不同,给定一个人和一系列单词,我们无法开始计算这个人是否会生成这个序列的概率。
HN 热度 409 points | 评论 356 comments | 作者:zdw | 1 day ago #
https://news.ycombinator.com/item?id=44484682
- 有人认为,至少在一定程度上对 LLM 进行拟人化是有意义的,因为它们在输出上模仿人类。
- 有人反对拟人化,认为这是围绕 LLM 的叙述中的主要问题,因为它扭曲了对它们的使用和效用的看法。
- 有人同意,拟人化可能是一种必要的抽象,但它是有缺陷的。
- 有人认为我们需要一个新的词来描述 LLM 所做的工作,称之为“思考”过于牵强。
- 有人提出,LLM 不是“写”诗,而是“模拟”诗,这样可以减少它们被赋予的虚假人类特质。
- 有人指出,与 LLM 交谈时,需要将其视为模型,而不是人类,因为它们不理解“模拟一首诗”意味着写一首诗。
- 有人提出,潜艇是船,船航行,潜艇也航行,模型生成,所以称 LLM 生成一首诗是合理的。
- 有人认为,人类确实对输入进行建模,只是使用了尴尬的词汇,然后指出它感觉尴尬。
- 有人提出,潜艇由螺旋桨推进,由控制器(通常是人)操控,如果它由拖曳力推进,那它就是在游泳。
- 有人同意,LLM 不写作,它们模拟写作,我们习惯了“所有模型都是错误的,有些是有用的”,“地图不是领土”等说法。
- 有人认为,如果要保持距离,可以在预提示模型中结构所有对话以缺少代词,就像非有意识语言模型和非有意识 AGI 之间的对话一样。
- 有人指出,这些模型的用户体验非常可塑,回应误导性主要是因为提示已经误导。
- 有人认为,LLM 更像是肌肉记忆而不是认知,可能是程序性记忆,但不够吸引人。
Anthropic cut up millions of used books, and downloaded 7M pirated ones – judge #
Anthropic 公司为了训练其人工智能聊天机器人 Claude,采取了“破坏性扫描”数百万本版权书籍的做法。在一项备受关注的人工智能版权案件中,加利福尼亚北部地区法官 William Alsup 分析了 Anthropic 如何为模型训练目的获取数据,包括来自数字和实体书籍的数据。为了开发大型语言模型,公司需要大量的输入数据,因此它们从社交媒体帖子到视频再到书籍等各个来源获取数据。作者、艺术家、出版商和其他团体认为,未经许可将他们的作品用于训练等同于盗窃。
Alsup 详细描述了 Anthropic 使用书籍进行训练的过程:Anthropic 花费了“数百万美元”购买二手印刷书籍,然后公司或其供应商将书籍的装订剥离,切割页面,并将它们扫描成数字文件。Alsup 写道,数百万本原始书籍随后被丢弃,而数字版本则存储在一个内部的“研究图书馆”中。法官还写道,Anthropic 下载了超过 700 万本盗版书籍来训练 Claude。Alsup 写道,Anthropic 的联合创始人 Ben Mann 在 2021 年从 Library Genesis 下载了“至少 500 万本书籍副本”,完全知道这些材料是盗版的。一年后,公司“从 Pirate Library Mirror 下载了至少 200 万本书籍副本”,同样知道它们是盗版的。Alsup 写道,Anthropic 更倾向于“偷窃”书籍,以避免“法律/实践/业务上的麻烦”,正如联合创始人兼首席执行官 Dario Amodei 所说。
去年,三位作者对 Anthropic 提起集体诉讼,声称公司未经许可或补偿使用他们的书籍的盗版版本来训练其大型语言模型。Alsup 裁定,Anthropic 使用版权书籍训练其人工智能模型是“极其变革性的”,并符合合理使用的标准,合理使用是一种法律原则,允许在未经版权所有者许可的情况下使用受版权保护的作品。“像任何渴望成为作家的读者一样,Anthropic 的大型语言模型在作品上进行训练,不是为了赶超并复制或取代它们——而是为了转一个急弯,创造不同的东西,”他写道。
Alsup 认为,Anthropic 将其购买的数百万本印刷书籍数字化的行为属于合理使用。“Anthropic 所做的一切只是用它购买的打印副本替换了其中央图书馆的副本,用更方便的节省空间和可搜索的数字副本替换——没有增加新副本,创造新作品,或重新分配现有副本,”他写道。Anthropic 的发言人表示,公司对 Alsup 关于使用书籍训练大型语言模型的裁决感到满意。发言人在声明中表示,这种方法“符合版权的目的,即促进创造力和科学进步”。
但 Alsup 在涉及盗版问题时划出了明确的界限。“Anthropic 没有权利使用盗版副本作为其中央图书馆,”Alsup 写道。“创建一个永久性的、通用的图书馆本身并不是一个合理使用,不能为 Anthropic 的盗版行为辩护。”Alsup 法官的裁决,即在版权书籍上训练人工智能模型是合理使用,是同类裁决中的首次。他的决定是在艺术家、电影制作人、作者和新闻媒体对主要人工智能玩家如 OpenAI 提起诉讼的浪潮中做出的。虽然创作者表示,在未经许可的情况下在他们的版权作品上训练人工智能模型侵犯了他们的权利,但人工智能高管辩称他们没有违反版权法,因为训练属于合理使用。本月早些时候,迪士尼起诉了人工智能图像生成器 Midjourney,称这家科技公司抄袭了从“星球大战”到“辛普森一家”等作品中的著名角色。
HN 热度 374 points | 评论 508 comments | 作者:pyman | 14 hours ago #
https://news.ycombinator.com/item?id=44488331
- Anthropic 使用版权书籍训练 AI 模型属于“极其变革性”的用途,符合合理使用
- 将实体书籍数字化用于内部图书馆是合理的,用以训练模型也是合理使用
- 购买、物理切割、数字化书籍并用于训练属于合理使用,但使用盗版书籍不属于合理使用
- 私人公司使用人类音乐训练模型以替代人类音乐家和艺术家,可能不属于合理使用
- 法律不区分地下室和云端,可以出售服务而不直接出售歌曲给消费者
- 模型能够记忆和混音所有书籍和歌曲,可能会侵蚀所有权
- 如果训练模型不是变革性的,可能不被视为合理使用
- 训练模型时使用对手的法律文件并生成自己的文件,输入输出的合法性尚未确定
- 只要模型不输出侵权作品,就没有问题
- 购买实体专辑并为 AI 学习播放专辑是合法的,可以利用模拟漏洞进行 AI 训练
- 荷兰的版权法律与此类似
- 未来可能会有更多实体书籍以许可而非销售的形式出现,带有限制性协议
- 根据首次销售原则,购买并使用盗版书籍后购买正版不能免除责任
- 美国和英国的版权法律不同,英国下载非自有书籍是合法的,只有分发是犯罪行为
Mercury: Ultra-fast language models based on diffusion #
https://arxiv.org/abs/2506.17298
这篇网页是关于一篇名为“Mercury: Ultra-Fast Language Models Based on Diffusion”的研究论文的摘要。
标题:Mercury:基于扩散的超快速语言模型
作者:Inception Labs, Samar Khanna, Siddhant Kharbanda, Shufan Li, Harshit Varma, Eric Wang, Sawyer Birnbaum, Ziyang Luo, Yanis Miraoui, Akash Palrecha, Stefano Ermon, Aditya Grover, Volodymyr Kuleshov
摘要:我们介绍了 Mercury,这是一种基于扩散的新一代商业规模大型语言模型(LLMs)。这些模型通过 Transformer 架构进行参数化,并被训练以并行预测多个令牌。在这份报告中,我们详细描述了 Mercury Coder,这是我们为编程应用设计的首套扩散 LLMs。目前,Mercury Coder 有两种尺寸:Mini 和 Small。这些模型在速度-质量前沿上设定了新的行业标准。根据 Artificial Analysis 进行的独立评估,Mercury Coder Mini 和 Mercury Coder Small 在 NVIDIA H100 GPU 上分别实现了 1109 令牌/秒和 737 令牌/秒的行业领先吞吐量,平均速度比速度优化的前沿模型快 10 倍,同时保持了相当的质量。我们讨论了在涵盖多种语言和用例的各种代码基准测试上的额外结果,以及开发者在 Copilot Arena 上对模型进行的现实世界验证,该模型在质量上排名第二,并且是总体上最快的模型。我们还发布了一个公共 API 和免费的游乐场。
这篇论文由 Inception Labs 和 12 位其他作者共同撰写,提交日期为 2025 年 6 月 17 日。论文讨论了基于扩散的大型语言模型 Mercury Coder,特别强调了其在编程应用中的性能,包括在不同代码基准测试中的表现和开发者的实际使用反馈。论文还提供了公共 API 和免费链接,供有兴趣的人士进一步探索和使用。
HN 热度 360 points | 评论 146 comments | 作者:PaulHoule | 11 hours ago #
https://news.ycombinator.com/item?id=44489690
- 随着大型语言模型(LLM)的发展,测试性能的 CPU 瓶颈问题将更加严重,许多团队在 LLM 之前就已经受到持续集成(CI)速度的限制。
- 开发者在等待 PR 变绿上浪费了许多时间,而增加 CI 工作负载可能只是资源问题,但在大多数项目中,CI 预算是固定的,不能简单地增加机器数量。
- 在谷歌等资源丰富的公司,可以通过增加机器数量来解决问题,但在大多数公司,由于预算和资源限制,这种方法并不可行。
- 完全隔离的构建和缓存可以提高确定性,但在普通公司中,构建缓存并不总是可靠,有时为了确定性会牺牲缓存。
- 即使在谷歌这样的资源丰富的公司,预提交测试和人工审查的延迟也是瓶颈。
- 现代云服务可以提供解决方案,例如临时增加实例来应对需求波动。
- 开发者等待 PR 变绿可能只是在任务间隙休息,优化这一过程可能并不会带来太多价值。
- 一些公司因为担心知识产权问题而不愿使用云服务进行 CI。
- 云服务可能在一定程度上解决了成本问题,但云服务本身也很昂贵。
I don’t think AGI is right around the corner #
https://www.dwarkesh.com/p/timelines-june-2025
这篇文章是 Dwarkesh Patel 在 2025 年 6 月 3 日发表的,主题是“为什么我不认为人工通用智能(AGI)即将到来”。文章中,Patel 分享了他对 AGI 发展时间线的思考,并提出了他对当前大型语言模型(LLMs)的看法。
文章开始,Patel 引用了 Rudiger Dornbusch 的话:“事情比你想象的发生得慢,然后比你想象的发生得快。”他提到在播客中讨论 AGI 的时间线时,有嘉宾认为 AGI 可能在 20 年后到来,而有的认为仅需 2 年。Patel 表达了他对持续学习(continual learning)的看法,认为这是实现 AGI 的一个巨大瓶颈。
Patel 认为,尽管当前的 LLMs 在某些任务上的表现可能超过了普通人,但它们缺乏人类那样的持续学习能力。他通过自己的经验说明,尽管他花费了大量时间尝试构建 LLM 工具,但这些模型在实际应用中的表现并不如人意。LLMs 在完成任务时无法像人类那样随着时间的推移而进步,这是它们的一个根本问题。
文章中,Patel 用学习萨克斯管的例子来说明人类学习的过程,强调了人类通过实践、反馈和自我调整来学习的能力。他认为,LLMs 目前无法通过这种方式学习,因为它们无法在实践中积累经验并进行自我改进。
Patel 还提到,尽管存在强化学习(RL)微调,但这并不是一个像人类学习那样有意识、适应性的过程。他以自己的编辑工作为例,说明人类编辑通过自我观察和思考来提高工作效率,而 LLMs 则无法做到这一点。
文章最后,Patel 对 AGI 在未来几十年的前景持乐观态度。他认为,一旦解决了持续学习的问题,模型的价值将出现巨大的飞跃。即使没有软件唯一的奇点(即模型迅速构建更智能的继承系统),我们也可能会看到类似广泛部署的智能爆炸。AI 将通过经济广泛部署,执行不同的工作并在执行中像人类一样学习。与人类不同的是,这些模型可以在所有副本中整合它们的学习成果。因此,一个 AI 基本上在学习如何完成世界上的每一个工作。一个能够在线学习的 AI 可能实际上会变成一个超级智能。
HN 热度 339 points | 评论 395 comments | 作者:mooreds | 1 day ago #
https://news.ycombinator.com/item?id=44483897
- 有人认为声称通用人工智能(AGI)即将到来的人可能是在推销产品、过于自恋或受到药物影响。
- 有人认为大型语言模型(LLM)擅长语言处理,但逻辑和空间推理能力差,无法很好地连接概念。
- 有人认为 LLM 是训练数据集的压缩版本,具有基于文本的交互式搜索功能。
- 有人认为 LLM 在检索时能够进行数据集间的插值,这使得它们非常有用。
- 有人认为并非所有经济价值都与数据检索有关。
- 有人举例说农业并不是数据检索。
- 有人认为股市是全球经济价值的主要来源,自 2001 年以来几乎完全是数据检索。
- 有人认为股市不是价值的根源,而是价值(和创造更多价值的计划)的人气竞赛场所。
- 有人认为股市中 60% 的美国股权交易量是纯粹的高频交易,ETFs 增加了大约 20%,这些交易实际上只是对市场活动和基于公共(?)新闻稿的看跌看涨情绪分析的机器人响应。
- 有人认为高频交易(HFT)市场相对较小,利润有限,本质上是零和游戏。
- 有人认为高频交易占美国股票交易的 50-70%,期货市场约 50%,加拿大 40%,伦敦 35%。
- 有人认为高频交易公司 Jane Street 通过高频交易在 2024 年实现了 205 亿美元的交易收入。
- 有人认为股市并不创造土豆的价值,土豆在工业社会中的经济价值远不如农业社会。
- 有人认为股市也不制作电影。
- 有人认为高频交易的百分比无关紧要,除非了解它们如何运作以及它们赚了多少利润。
- 有人认为高频交易不是趋势制造者,而是趋势追随者。
- 有人认为 LLM 需要人类知识的总和才能模仿谷歌上可以找到的东西,而拉马努金仅凭小学教育和几本数学书就取得了数学上的杰出发现。
Why English doesn’t use accents #
https://www.deadlanguagesociety.com/p/why-english-doesnt-use-accents
这篇文章来自“Dead Language Society”,由 Colin Gorrie 撰写,探讨了为什么英语不使用重音符号(如法语中的 é, à, ç 等),而法语却使用这些符号。文章通过一个虚构的 11 世纪僧侣 Godwin 的故事,引出了英语和法语在历史发展中的联系。
文章首先描述了 Godwin 在抄写《编年史》时,为了迎合诺曼底修道院长 Robert 的口味,不得不改变一些英语单词的拼写,如将“scip”改为“ship”,“cwen”改为“queen”。这些改变反映了 1066 年诺曼底征服对英语语言的重大影响。在征服之后,法语取代了英语成为权力和政府的语言,尽管后来英语逐渐恢复了其地位,但法语的影响在词汇、发音和拼写上都留下了深刻的印记。
文章接着解释了为什么英语没有采用重音符号。这是因为诺曼底人带到英格兰的法语是一种古老的形式,那时的法语书写并不使用重音符号。当这些抄写员开始用英语书写时,他们保留了不使用重音符号的法国习惯。重音符号的使用是为了解决字母表与语言之间的不匹配问题,即字母表中的字母不足以表示语言中的所有声音。例如,法语中的“ç”表示“c”发“s”音而不是“k”音。但在 1066 年的法语中,这种不匹配是通过添加额外的字母来解决的,而不是使用重音符号。
文章最后提到,这些书写习惯是在手写时代发展起来的,那时的书写是一种工匠手艺,拼写习惯因地因人而异。随着时间的推移,英语逐渐形成了自己独特的拼写系统,其中包括了像“sh”、“th”、“ee”、“oo”、“ou”这样的字母组合,每个组合只发一个音。这些习惯一直延续至今,使得英语成为了一个没有重音符号的语言。
HN 热度 294 points | 评论 501 comments | 作者:sandbach | 1 day ago #
https://news.ycombinator.com/item?id=44484137
- 英语不使用变音符号是好事,因为它使书写更简洁。
- 英语发音难以正确,因为很多人在阅读时会误读单词。
- 西班牙语的发音比英语更直观,因为它使用了适量的变音符号。
- 英语的发音和拼写可能是全国性竞赛,因为它可能看起来是随机的。
- 英语从多种语言中借鉴词汇,因此很难统一其发音和拼写规则。
- 印刷机的历史也影响了英语字符的使用,例如 Thorn 字符被替换。
- 启蒙运动时期,希腊语词汇被重新引入科学领域,影响了英语的形态。
- 英语至今仍在积极借用邻近语言的词汇,如西班牙语和法语。
- 英语的非拼音字母系统并不是问题,因为上下文是语言的支柱。
- 对于非母语者来说,英语的发音比记住变音符号更难。
- 学习西班牙语和德语的变音符号只需要一个下午,学习起来并不困难。
- 作为英语作为第二语言的人,希望英语能像西班牙语那样使用变音符号。
- 英语使用多个字符组合来定义声音,这比变音符号更快地输入。
- 英语的发音不明确或不独特,例如“bird”、“word”、“hurt”、“heard”、“herd”等单词的元音听起来都一样。
- 其他语言(如法语、德语)的键盘上直接有变音符号,因此输入并不困难。
- 英语的“符号到声音”的联系并不像其他语言那样明确,这使得英语使用者在面对明确符号时会挣扎。
- 英语有一个庞大的音位索引,这使得它在跨越某些障碍后比许多其他语言更有优势。