2026-02-09 Hacker News Top Stories #
- 作者为 AI 正在重塑软件工程并使手工编程与资深程序员被边缘化而哀悼,讨论技能、价值与劳动关系的转变。
- Vouch 提出通过显式推荐/否决名单管理社区跨项目信任以减少低质量或 AI 生成的贡献,但存在被滥用和封闭化风险。
- 作者描述“AI 疲劳”:AI 提高单项产出但增加审查与协调成本,使工程师变成不断评估 AI 输出的评审者,建议通过确定性输入与将输出视为初稿来缓解。
- SectorC 是一个仅 512 字节的极简 C 编译器,采用极端压缩与巧妙实现展示编程与工程的极限并能在真实硬件上运行示例。
- DoNotNotify 已开源,旨在提升通知隐私与控制的透明度,便于社区审查、修复漏洞并贡献更细粒度的通知管理功能。
- 作者放弃让 LLM 整体生成代码,回归手写以保持深入理解与成就感,仅把 AI 用作补全与有限辅助。
- 报道称 2026 年 1 月美国裁员激增、受合同流失和公司重组等影响,AI 涉及数千职位且新增岗位创纪录低,可能延长失业周期。
- 作者担忧生成式 AI 助长“差不多就行”的心态,导致大量平庸低质产品泛滥并侵蚀工匠精神。
- LocalGPT 是用 Rust 开发的本地优先 AI 助手,提供持久化记忆与多模型后端支持,但实际上仍常依赖远程推理接口,未完全本地化。
- 作者坚持用纯 C 写游戏,认为 C 的简洁、可预测性和跨平台特性更利于长期可维护性与性能控制。
我们哀悼我们的技艺 (We mourn our craft) #
https://nolanlawson.com/2026/02/07/we-mourn-our-craft/
本文是 Nolan Lawson 于 2026 年 2 月 7 日发表的一篇关于人工智能对软件工程行业冲击的沉思性博客文章,标题为《读茶叶中的玄机:其他黑暗艺术》。
作者以一种悲悯而清醒的笔调,表达了对程序员这一职业正在被 AI 彻底重塑的深切忧虑。他指出,如今的 AI 已能写出远超普通开发者水平的代码,且这种能力正在迅速普及。尽管有人可能出于道德原则拒绝使用,但现实压力——如房贷、车贷、家庭责任——迫使许多中年程序员不得不屈服于技术洪流。
文章特别关注“40 多岁”的资深开发者群体:他们曾是代码世界的工匠,如今却面临被年轻一代用“火箭背包”般的工具超越的困境。若不适应,便可能被边缘化,甚至失去工作价值。
作者承认,这些工具确实有效,无法抗拒。他不庆祝新世界,也不盲目抵抗,而是选择在内心哀悼自己所代表的“手工编程时代”的终结。他怀念那种亲手打磨代码、彻夜调试 bug、最终留下个人印记的创作满足感。
他将这一代人比作最后一批手写代码的人,未来的孩子们只会把他们的作品当作考古遗迹般看待。这并非失败,而是一种自然的更替——如同太阳升起落下,不可阻挡。
文中也回应了读者关于“资本与劳动关系”的讨论。有评论者担忧自动化将导致经济崩溃,但作者认为,即便系统重构,其本质不会改变:我们仍需面对如何重新定义“人的价值”这一根本问题。
结尾,作者邀请读者一同哀悼——不是为技术进步,而是为一种即将逝去的技艺与尊严。
HN 热度 669 points | 评论 765 comments | 作者:ColinWright | 1 day ago #
https://news.ycombinator.com/item?id=46926245
- 计算机依然充满魔力,如今的科技发展让人仿佛置身于 1980 年代的科幻幻想中,这是计算领域的黄金时代。
- 当前的计算环境被大型公司控制,设备高度封闭,用户失去对设备和数据的掌控,隐私和自主性受到严重威胁。
- 尽管存在诸多问题,但大多数人并不关心技术背后的复杂性,更倾向于享受便捷的服务,因此这种趋势是可接受的。
- 人们对于计算机的依赖日益加深,但对底层原理的理解却在退化,这使得技术变得更加不透明和不可控。
- 大型语言模型虽然基于简单的数学运算,但其行为难以预测和解释,与传统可编程系统有本质区别,更像是不可控的“黑箱”。
- 将大模型比作人类同事是合理的,因为它们的行为同样具有不可预测性,但这恰恰违背了程序员追求逻辑清晰和可控性的初衷。
- 程序员之所以喜欢计算机,正是因为它们可以被理解、被推理、被精确控制,而大模型的“魔法”恰恰破坏了这种可理解性。
- 与其将大模型视为进步,不如将其看作一种新的、更难驾驭的工具,它带来的便利不应掩盖其对开发者自主权的侵蚀。
Vouch:基于显式推荐的社区信任管理系统 (Vouch) #
https://github.com/mitchellh/vouch
Vouch 是一个基于显式推荐机制的社区信任管理系统,旨在通过明确的推荐和否决机制来管理项目参与者的信任等级。该系统适用于任何代码托管平台,目前提供对 GitHub 的原生集成。
核心功能包括:
- 用户必须获得他人推荐才能参与特定项目活动,项目可自定义哪些行为需要信任。
- 支持对用户进行明确否决,阻止其参与项目。
- 信任状态通过一个简单的平面文本文件维护,格式兼容 POSIX 工具,无需额外依赖即可解析。
- 支持构建“信任网络”,项目可读取其他项目的推荐/否决名单,实现跨项目信任共享。
系统采用实验性设计,目前在 Ghostty 项目中实际使用,持续根据反馈优化。
使用方式:
- GitHub 集成:通过 GitHub Actions 实现自动化信任管理,支持以下动作:
- check-pr:检查 PR 提交者是否被推荐,可配置自动关闭未被推荐用户的 PR。
- manage-by-discussion:通过讨论评论进行推荐、否决或取消推荐。
- manage-by-issue:通过问题评论进行相同操作。
- CLI 工具:基于 Nushell 实现,支持本地操作:
- vouch check:检查用户信任状态(返回 0=已推荐,1=被否决,2=未知)。
- vouch add:将用户加入推荐列表,支持预览或直接写入文件。
- vouch denounce:将用户列入否决名单。
系统强调信任的显式化,应对 AI 生成低质量贡献带来的信任挑战,同时保留开放协作的精神。项目采用 MIT 许可证,鼓励社区参与和贡献。
HN 热度 567 points | 评论 250 comments | 作者:chwtutha | 22 hours ago #
https://news.ycombinator.com/item?id=46930961
- 信任的跨项目自动传递可能被恶意利用,成为供应链攻击的可 exploited 路径,攻击者可通过在多个项目中表现良好来积累信任,最终渗透目标项目。
- 该系统本质上是防止低质量 AI 生成贡献的垃圾信息过滤器,而非高安全级别的信任验证机制。
- 项目通过“vouch”机制限制无信任用户提交 PR,以减少维护者因低质量贡献而产生的无效工作,但可能使新贡献者难以加入,导致项目封闭化。
- 该机制仅用于降低噪音,不赋予直接提交代码的权限,仍需经过正常代码审查流程。
- 系统设计初衷是应对 AI 生成的看似合理但实际质量极低的贡献,而非防范国家级长期供应链攻击。
- 信任体系的建立本就是渐进过程,长期积累良好声誉的攻击者本就存在,该机制只是对现有问题的应对而非新问题。
- 该机制并非强制性全球标准,仅是项目间可选的信任共享方式,是否采用取决于具体项目。
- 该方案可能被游戏化,存在被滥用的风险,但其设计目标是权衡利弊后更优的折中方案。
- 批评者认为该方案并未真正解决 AI 贡献问题,反而引入新问题,且缺乏对社区多样性的考量。
- 有人提出用经济激励(如提交 PR 收费,优质则退款)来提升贡献质量,但可能带来新的不公平和门槛。
- 有人建议引入区块链和质押机制,但认为这会引入金钱驱动的腐败问题,不值得尝试。
AI 疲劳真实存在,却无人提及 (AI fatigue is real and nobody talks about it) #
https://siddhantkhare.com/writing/ai-fatigue-is-real
文章探讨了 AI 技术在工程实践中带来的“AI 疲劳”现象,指出尽管 AI 提升了单个任务的执行效率,但整体工作负担反而加重,导致工程师普遍感到精神疲惫。
作者作为 AI 代理基础设施的核心开发者,亲身经历了这种矛盾:虽然代码产出量创历史新高,但身心耗竭感也前所未有。其根本原因在于,AI 降低了任务的执行成本,却大幅提高了协调、审查和决策的成本,这些压力全部由人类承担。
过去工程师以“创造者”身份工作,专注解决一个深度问题。如今却变成了“评审者”,不断评估 AI 生成的代码,进行大量微小但频繁的判断,导致决策疲劳。AI 生成的代码看似完整,实则充满不确定性,必须逐行审查,增加了认知负荷。
此外,AI 的非确定性特征打破了工程师对系统可预测性的信任。相同提示在不同时间可能产生完全不同结果,缺乏可追溯性,造成持续的心理焦虑。作者因此开发了 Distill 工具,旨在通过确定性算法净化输入上下文,以在不可控的 AI 输出中建立可控的一环。
最后,文章指出,面对 AI 快速迭代带来的“FOMO(错失恐惧)”压力,最有效的应对方式是调整心态:将 AI 输出视为“初稿”,接受其不完美,主动预留修改时间,避免陷入无休止的优化循环。
这不仅是一场技术挑战,更是一场关于人类可持续性的挑战。
HN 热度 386 points | 评论 276 comments | 作者:sidk24 | 10 hours ago #
https://news.ycombinator.com/item?id=46934404
- 使用 LLM 编程时频繁等待生成结果,导致无法进入专注状态,产生持续的焦虑感和疲惫感。
- 为了应对等待,有人选择短暂放松,比如玩可以随时暂停的游戏或使用其他娱乐方式来打发时间。
- 有人调侃用“吸大麻”来缓解等待压力,虽然自认不靠谱,但确实让编程变得有趣起来。
- 编程的乐趣在 AI 辅助下重新被激发,即使代码质量可能不高,但过程更轻松愉快。
- 有人指出,AI 编程不应被误解为适用于所有场景,比如安全关键系统,而更多用于日常开发任务。
- 有人认为,AI 编程的兴起反映出当前软件开发环境的异化,开发者被迫追求快速交付而非代码质量。
- 有人认为,AI 工具帮助节省了处理重复性代码的时间,提升了效率,是应对当前工作压力的必要手段。
- 有人指出,重启工作时需要额外的心理准备,这种“启动成本”本身就很耗能,而 AI 辅助能降低这种负担。
- 有人认为,AI 编程减少了在不同语言和系统间切换的认知负荷,使思路更连贯,更容易恢复工作状态。
- 有人对“用 AI 辅助编程就等于放纵自己”的观点表示反对,认为这是对技术工具的误解。
- 有人建议使用 Steam Deck 等便携设备进行短暂娱乐,以避免干扰主工作机的专注环境。
- 有人批评将健康和道德置于 AI 效率之下是不可取的,认为这种做法不可持续且有害。
SectorC:512 字节的 C 编译器(2023) (SectorC: A C Compiler in 512 bytes (2023)) #
https://xorvoid.com/sectorc.html
SectorC 是一个用 x86-16 汇编编写、仅 512 字节大小的 C 编译器,可运行于 x86 机器的引导扇区。它是目前已知最小的 C 编译器之一,支持一个足够编写实际程序的子集 C 语言。
该编译器的核心创新在于“极简语言设计”:它采用一种名为“Barely C”(几乎就是个 C)的变体语言,通过空格分隔来定义“大令牌”(mega-tokens),例如 int(main)(){ 被视为一个整体符号。这种设计极大简化了词法分析过程,避免了传统编译器中复杂的解析逻辑。
关键突破在于利用 atoi 函數作为哈希函数:将关键字、标识符和数字统一通过字符串转整数的方式处理,从而实现快速词法分类。虽然存在哈希冲突风险,但作者选择忽略此问题,以换取代码体积的极致压缩。
在实现上,编译器使用递归下降解析器,无符号表,变量直接通过哈希值访问 64 千字节内存段。代码生成基于寄存器(如 ax 为结果寄存器),并大量使用 stosw、lodsw 等高效指令优化空间。
尽管尝试引入“字节线程代码”(byte-threaded code)模仿 Forth 的执行模型,但由于额外开销过大,最终版本仍回归直白结构,并成功将体积压缩至 303 字节,留下超过 200 字节的余量用于扩展功能。
示例程序展示了其强大能力——可在真实硬件上绘制动态正弦波动画,结合 VGA 显卡操作与延迟控制,验证了其功能性与实用性。
整个项目融合了极客精神、反向工程灵感与编程幽默,是技术极限探索与创意表达的完美结合。
HN 热度 370 points | 评论 79 comments | 作者:valyala | 1 day ago #
https://news.ycombinator.com/item?id=46925741
- 该 512 字节 C 编译器展示了 C 语言最核心的简洁性,体现了编程的纯粹乐趣与技术挑战。
- 若该编译器在 1980 年代存在,C 标准可能规定哈希冲突的标识符行为未定义,现代编译器会直接优化掉此类代码。
- 项目虽名为“C 编译器”,实为一个极简的 C 子集编译器,与传统 C 编译器在功能和目标上有本质区别。
- 有人认为 AI 时代降低了对底层编程技能的尊重,使类似“写启动扇区”这类项目显得“不值钱”。
- 虽然 AI 能快速生成大型 C 编译器,但其功能远超此项目,而此项目更侧重于极简与教育意义。
- 该编译器可用于构建可信的软件栈,从极小的可信二进制开始逐步构建复杂系统,具有“自举”潜力。
- 该编译器的极简设计启发了对“最小 C 语言”的探索,可用于教学或实现特定嵌入式场景。
- 有人调侃“Hello World”是否能被该编译器编译,以讽刺 AI 生成编译器的实用性与真实场景适配性。
- 该项目让人反思现代开发中过度依赖抽象与庞大依赖库,提醒人们回归对机器本质的理解。
- 评论指出,AI 生成代码虽快,但缺乏对底层逻辑的深度理解,导致“读代码”能力下降。
- 有人认为,这类极简项目是“机械同情心”的体现,是对计算机底层运行机制的致敬。
- 该编译器的实现方式启发了对“token 哈希冲突”和“无符号整数”等底层机制的思考。
- 该编译器虽小,但其设计思想可应用于嵌入式系统、教学或安全可信的编译链构建。
- 项目虽小,但其精神价值远超功能本身,是编程艺术与工程极限的结合。
DoNotNotify 已正式开源 (DoNotNotify is now Open Source) #
https://donotnotify.com/opensource.html
DoNotNotify 已正式开源,其完整源代码现已公开,可供任何人查看、学习和贡献。项目托管在 GitHub 上,地址为 github.com/anujja/DoNotNotify。
开源旨在强化应用对用户隐私的承诺。通过开放源代码,用户可以自行验证应用的行为,确保其仅执行声明的功能,不包含任何隐藏或可疑操作,实现真正的透明。
社区成员可积极参与项目,包括报告漏洞、提出功能建议或提交代码修改,共同推动 DoNotNotify 的持续优化与完善。
项目由 Anuj Jain 开发,版权归属 2025 年,所有权利保留。开发者也欢迎通过“买杯咖啡”等方式给予支持。
HN 热度 364 points | 评论 46 comments | 作者:awaaz | 17 hours ago #
https://news.ycombinator.com/item?id=46932192
- 开源软件的价值不在于代码完美,而在于解决问题,即使代码质量一般,只要能帮助他人,就是有价值的贡献。
- 编程者普遍会有对自己早期代码的羞耻感,这种情绪在开源社区中非常常见,不应成为阻碍开源的障碍。
- AI 辅助编程并不罕见,许多代码即使由人类编写也经不起严格审查,关键在于是否解决了实际问题。
- 代码质量的担忧是正常的,但真正的价值在于功能实现和用户反馈,而不是代码是否“完美”。
- 开源的本质是分享与协作,不是为了个人品牌或简历加分,而应以学习和共同进步为目标。
- 通过开源,代码可以接受同行评审,这种审查有助于发现自动化工具无法捕捉的潜在问题。
- 一些 AI 生成的代码虽然存在模式化缺陷,但只要经过充分测试和思考,其质量可能优于大量未经审查的人工代码。
- 该应用的开源是积极的一步,尤其对于关注隐私和通知控制的用户群体,增强了信任感。
- Android 系统虽然支持部分通知控制,但许多应用通过捆绑通知类别或滥用分类机制,导致用户无法精细管理。
- 一些应用将重要通知与广告通知混在同一类别,用户无法单独屏蔽广告,这种设计是故意的,属于“反用户”行为。
- 即使 Android 15/16 支持按类别控制通知,但许多应用未正确使用该功能,导致控制能力受限。
- 厂商如三星默认关闭高级通知设置,进一步限制了用户对通知的自主控制。
- 该应用提供了比系统原生更细粒度的控制能力,允许用户区分并屏蔽特定类型的通知,而无需完全禁用整个应用。
- 与 FilterBox、Buzzkill 等工具相比,该应用在规则灵活性和控制粒度上具有优势,尤其适合需要精细化管理通知的用户。
我更喜欢亲手编写代码 (I am happier writing code by hand) #
https://www.abhinavomprakash.com/posts/i-am-happier-writing-code-by-hand/
作者在本文中分享了自己对使用大语言模型(LLM)辅助编程的反思与转变。他坦言,尽管多次尝试使用 Claude-Code 等工具自动生成代码,但每次都会陷入抑郁和懒惰的情绪,最终选择删除工具,重新回归手写代码。
他认为,真正的编程不仅是写代码,更是一种深度思考的过程。通过亲手编写代码,开发者才能真正理解问题的本质,体验使用接口的真实痛点,从而提升对系统的认知。而依赖 LLM 生成代码(即“vibe coding”)虽然快速带来即时满足感,却会削弱深度思考的能力,让大脑变得被动,形成思维惰性。
作者指出,当代码由他人或 AI 生成时,难以验证其正确性,也无法内化上下文,导致审查和理解成本反而更高。此外,过度依赖工具会使自己成为交付的瓶颈——即便生成大量代码,仍需亲自消化和修改。
尽管不完全排斥 LLM,但他已调整使用方式:仅将代码片段和上下文手动复制给 AI,用于微调、补全测试等具体任务,而非整体生成。这种方式增加了操作摩擦,但也促使自己主动理解代码,保持思维活跃,更容易进入专注状态。
最后,作者强调,工作幸福感至关重要。即使某些自动化手段短期提高效率,若长期引发焦虑与倦怠,便不是真正的高效。他倡导知识工作者应警惕工具对思维的侵蚀,选择能维护深度思考与内在愉悦的方式工作。
HN 热度 348 points | 评论 283 comments | 作者:lazyfolder | 11 hours ago #
https://news.ycombinator.com/item?id=46934344
- 使用手写代码就像手工木工,虽然效率较低,但能带来满足感,不应被否定,但专业领域可能难以长期维持。
- 功率工具是“半人马”技术,人类主导,工具辅助;而生成式 AI 是“反向半人马”,算法主导,人类辅助,本质不同。
- 传统工具如 sed、awk、git 等是真正的“多用途工具”,而生成式 AI 更像是外包他人完成工作,人类只是提出需求,类似 CEO 指挥团队。
- 无论是否使用生成式 AI,最终目标是获得报酬以维持生活,不应忽视现实需求。
- 生成式 AI 的使用不应被简单类比为传统工具,其影响更深远,可能改变工作本质。
- 人类在软件开发中仍可能参与最终组装与质量保证,但整体趋势是自动化主导。
- 编程的满足感源于从零设计并实现一个完整系统,而非使用工具本身。
- 生成式 AI 改变了开发流程,使个人在更短时间内完成更多工作,但核心职责如需求分析、架构设计仍不可替代。
- 过度关注比喻细节会掩盖生成式 AI 对工作方式的根本性影响。
- 生成式 AI 的出现让开发者更像管理者,而非实际执行者,但并非所有 AI 辅助都必然导致此结果。
美国 1 月失业人数以大萧条以来最快速度下降 (U.S. jobs disappear at fastest January pace since great recession) #
在 2026 年 1 月,美国的就业市场迎来了自 2009 年大萧条以来最糟糕的开年表现。根据咨询公司 Challenger, Gray & Christmas 的最新报告,1 月份美国的裁员人数达到了 108,000 人,相较于去年同期增加了 118%。这标志着自 2009 年大萧条以来,1 月份的裁员人数创下新高。
这一现象的与高调裁员的公司密切相关,例如 UPS 和亚马逊。UPS 宣布将在今年裁员 30,000 人,此前在 2025 年已裁掉 62,000 个职位。这一决策主要源于 UPS 与亚马逊的合作关系结束。与此同时,亚马逊也在 1 月底宣布将裁员约 16,000 名公司员工,以继续重组其商业模式。
报告指出,1 月份的裁员主要是由于合同损失(30,784 人)、市场和经济状况不佳(28,392 人)以及公司重组(20,444 人)等因素造成的。虽然在 2025 年 12 月的裁员数量较少,显示出劳动力市场似乎在稳定,但 1 月份的裁员激增则表明,雇主对 2026 年的经济前景并不乐观。
当前的劳动力市场呈现出 “低雇佣、低裁员” 的状态,很多有工作的人更加珍惜自己的职位。Indeed Hiring Lab 的经济研究主任 Laura Ullrich 表示,人们对失业的担忧使得他们不愿轻易离开工作。
同时,虽然失业率在历史上仍然较低,但高利率、消费需求减弱以及经济增长的不确定性使得许多公司开始削减开支。报告还提到,人工智能被引用为 1 月份裁员的原因之一,涉及 7,624 个职位,许多公司正在转向人工智能和自动化,以简化运营,减少对某些角色的需求。
此外,1 月份美国雇主计划招聘的新职位数量仅为 5,306 个,是自 2009 年 Challenger 开始跟踪数据以来的最低水平。这种招聘减少使得被裁员工迅速找到新工作的难度加大,可能会延长失业时间,即使整个经济避免衰退。
HN 热度 333 points | 评论 271 comments | 作者:alephnerd | 1 day ago #
https://news.ycombinator.com/item?id=46925669
- 自二战结束以来,民主党执政时期的就业增长显著高于共和党执政时期。
- 从冷战结束(1989 年)至今,民主党创造的就业岗位与共和党相比达到 50:1 的比例。
- 新自由主义政策导致财富集中、环境破坏、社会 alienation 和收入不平等加剧,堪比镀金时代。
- 资本通过经济危机低价收购资产的现象被称为“剥夺性积累”,是新自由主义的核心特征。
- 政府出售公共住房等国有资产的行为如同将国家核心资产贱卖,严重损害公共利益。
- 美国国债规模巨大且持续增长,其利息负担由全体公民承担,实质上是少数富裕阶层获取利益的机制。
- 国家债务本质上是货币创造为债务的形式,私人财富的膨胀与债务增长成正比,但普通民众并未同步获益。
- 民主党执政期间整体经济表现优于共和党,这一趋势跨越多年,非单纯意识形态差异所致。
- 共和党常被批评为“快乐的父亲”政党,推动经济过热后由民主党接手收拾烂摊子,形成周期性循环。
- 民主党在经济政策上长期支持自由贸易,而传统保守派才是自由贸易的支持者。
- 历史数据显示,1953 至 2020 年间 10 次经济衰退中有 10 次始于共和党总统任期,暗示共和党执政与经济衰退关联性强。
- 将经济衰退完全归咎于总统并不合理,尤其近年两次衰退与总统直接政策关联度较低。
- 共和党长期推行减税与债务融资的军事扩张政策,导致财政赤字持续扩大,未承担应有责任。
烂货让我害怕 (Slop Terrifies Me) #
https://ezhik.jp/ai-slop-terrifies-me/
作者表达了对当前人工智能发展现状的深切忧虑,认为 AI 可能已达到一个“足够好”的临界点,而这个状态或许就是技术进步的终点。尽管 AI 已能几乎完成复杂任务,如编写浏览器、编译器,或生成有吸引力的故事和模拟世界,但这些成果往往只是“差不多”而已——接近完美,却始终差那么一点。
作者担心的是,社会对这“90% 的完成度”已经习以为常,不再追求那剩下的 10%。人们不再关心软件的质量,也不再在意技术的精良与创新。这种“够用就行”的心态,正在让软件行业陷入“劣质化”陷阱,即“软件的庸俗化”远比“软件的普及”更令人不安。
他将这种现象比作走进一家 IKEA——虽然家具质量平庸,但至少还能用。而如今的软件生态,却更像是“Dropshipping 式”的低质产品泛滥,开发者不再追求匠心,而是追求快速复制、快速上线。AI 代理的出现,让这种趋势更加失控:有人只需几行指令,就能批量生产出功能相似、设计平庸的应用。
作者反思,这是否是技术发展中的一个宿命?过去程序员曾为 IDE 的普及而焦虑,如今,AI 的普及正让“创造”变得轻而易举,却也让“创造”变得毫无意义。AI 虽能辅助学习与编程,但更倾向于引导人们走向“标准路径”——Next.js + React + Tailwind,千篇一律,缺乏个性。
他举出 Paper 这类真正有设计感的产品为例,指出用 AI 工具去复刻它,最终只会得到一个“看起来正常但毫无灵魂”的平庸版本。AI 无法真正理解美与独特,而人类开发者也因市场压力,不再愿意投入时间去打磨细节。
更令人担忧的是用户端。许多人以为 AI 会带来“人人都是开发者”的民主化时代,但作者怀疑这可能只是幻觉。大多数人并不关心技术本身,他们只想要一个“能用的手机”,不在乎隐私、系统臃肿、功能失效。他们对技术问题麻木,甚至享受这种“技术无助感”。
最终,作者发出灵魂之问:如果未来的技术不再需要“工匠”,而只需要“流水线工人”来快速生产,那真正的软件艺术是否将彻底消亡?而当所有人都不再关心“好软件”时,谁来为它哀悼?
HN 热度 320 points | 评论 287 comments | 作者:Ezhik | 14 hours ago #
https://news.ycombinator.com/item?id=46933067
- 生成式 AI 的兴起并未改变世界运行的基本逻辑,人们对于质量与成本的权衡早已存在,类似现象在历史上反复出现。
- 大多数用户并不关心安全、隐私、可维护性等高级属性,除非问题严重到直接影响自身,此时才会强烈反应。
- 人类行为往往不符合“经济人”假设,难以全面理解长期风险与成本,因此更倾向于选择价格更低的短期选项。
- 企业层面通常比个人消费者更具理性,例如车队维护比个人车主更注重车辆保养,体现出组织行为的差异。
- 高端专业工具的普及会逐渐降低价格,使原本昂贵的功能变为大众可及,从而推动整体产品质量提升。
- 快时尚等低价竞争挤压了高品质品牌的生存空间,导致像 Eddie Bauer 这样的品牌因无法维持竞争力而破产。
- 低价产品虽然短期内节省开支,但长期来看可能增加用户的时间与金钱成本,且对环境和社会造成外部性负担。
- 产品生命周期短带来的资源浪费和环境污染问题日益严重,且生产过程中的污染与远距离运输加剧生态压力。
- 数据泄露和系统宕机频繁发生,但公众已逐渐麻木,即使重大事件也难以引发实质性改变或问责。
- 服务强制要求手机号注册,表面上是为防欺诈,实则加剧了个人隐私的暴露与滥用。
- 一些严重违规的企业(如 Equifax)在经历重大数据泄露后仍能维持运营并实现股价回升,反映出监管与市场机制的失效。
- 低价与高质量之间并非必然对立,现实中存在大量廉价耐用的产品,也存在昂贵却低效低质的项目,不能简单归因于成本与质量的反比关系。
LocalGPT – 用 Rust 编写的本地优先 AI 助手,支持持久化记忆 (Show HN: LocalGPT – A local-first AI assistant in Rust with persistent memory) #
https://github.com/localgpt-app/localgpt
LocalGPT 是一个用 Rust 编写的本地化 AI 助手,专注于在设备本地运行,确保用户数据隐私。它以单个二进制文件形式提供,无需 Node.js、Docker 或 Python,支持多种接口:命令行、Web 界面和桌面 GUI。
核心功能包括持久化记忆、自主任务循环(Heartbeat)和多模型支持。记忆系统基于 Markdown 文件,使用 SQLite FTS5 进行关键词搜索,结合 sqlite-vec 实现本地语义搜索,支持 fastembed 和 GGUF 格式的嵌入模型。
支持的 LLM 提供商包括 Anthropic(Claude)、OpenAI 和 Ollama。兼容 OpenClaw 标准,可读取 SOUL、MEMORY、HEARTBEAT 等 Markdown 文件,实现个性设定、知识存储与任务调度。
安装方式简单,可通过 cargo install localgpt 完成,支持完整版(含桌面 GUI)或无 GUI 的头节点模式。提供丰富的 CLI 命令,如 chat、ask、daemon、memory search 等,也支持通过 HTTP API 与服务交互。
项目采用 Apache-2.0 许可证,基于 Rust、Tokio、Axum、SQLite 等技术构建,适合本地部署、自动化任务和私有知识管理。项目已获得 649 个星标,持续活跃开发。
HN 热度 312 points | 评论 146 comments | 作者:yi_wang | 23 hours ago #
https://news.ycombinator.com/item?id=46930391
- 项目名称“LocalGPT”具有误导性,尽管代码本地运行,但依赖外部 API(如 Anthropic)进行推理,不符合真正“本地优先”的定义。
- 真正的本地优先应指模型和数据完全在本地运行,而非依赖云端 API,当前项目并未实现这一点。
- 项目虽名为“LocalGPT”,但其核心功能仍依赖外部服务,用户在无网络时无法使用,削弱了“本地”意义。
- 尽管项目使用本地文件存储(如 MEMORY.md),但推理过程仍通过远程 API 完成,无法保证数据完全本地化。
- 项目架构设计合理,支持多模型提供商(如 Ollama、OpenAI),但这种灵活性掩盖了其非本地运行的本质。
- 本地运行模型虽性能受限,但能提供更强的数据控制和隐私保护,是未来发展的方向。
- 项目使用 Markdown 文件管理记忆、任务和人格,结构清晰,与 OpenClaw 兼容,便于知识积累和长期使用。
- 项目具备 CLI、Web 界面和桌面 GUI,多端支持,用户体验良好,适合日常使用。
- 项目采用 Rust 编写,编译为单个 27MB 二进制文件,无需 Node.js、Docker 或 Python,部署轻量便捷。
- 项目支持全文搜索和语义搜索,使用本地嵌入模型,无需 API 密钥,提升隐私性。
- 项目具备自主心跳任务机制,可定时执行任务,适合自动化工作流。
- 项目支持多模型提供商,用户可灵活选择本地或远程推理服务,适应不同使用场景。
- 项目虽未内置本地模型运行能力,但通过接口兼容性支持本地推理服务(如 Ollama),具备扩展性。
- 项目名称应更准确反映其“本地数据 + 远程推理”的混合模式,避免误导用户。
- 项目虽未完全本地化,但相比 SaaS 服务,其数据本地存储降低了锁定风险,提升了数据可移植性。
- 项目在隐私保护方面优于纯云端服务,用户对自己的数据拥有更高控制权。
- 项目虽不强制本地运行模型,但通过模块化设计,允许用户自行集成本地推理引擎。
- 项目适合技术用户,但对普通用户而言,配置 API 密钥或本地服务仍存在使用门槛。
- 项目虽未内置模型运行能力,但通过标准接口支持多种推理后端,避免重复造轮子。
- 项目体现了“本地数据 + 云推理”的混合范式,是当前 AI 应用的现实路径之一。
- 项目在架构设计上借鉴 OpenClaw,但通过 Rust 实现更高性能和更小体积,具有创新性。
- 项目虽未完全本地化,但其开源和可扩展性为未来实现本地运行提供了基础。
我用 C 语言写游戏(是的,就是纯正的 C 语言)(2016) (I write games in C (yes, C) (2016)) #
https://jonathanwhiting.com/writing/blog/games_in_c/
作者是一位偏好使用“纯 C 语言”开发独立游戏的开发者,尽管这在当今游戏开发中极为罕见。他解释了选择 C 语言的深层原因,既出于实际需求,也源于个人编程哲学。
他首先强调对语言的三大核心要求:可靠性、长期可维护性以及跨平台兼容性。他不希望因技术栈过时而被迫频繁迁移旧项目,因此需要一种能长期稳定存在的语言。C 语言在这一点上表现优异,其编译器和工具链成熟,且几乎可在任何平台上运行。
在理想语言的期待上,作者追求的是“简洁”与“可预测性”。他反感复杂、晦涩的语法和 API 设计,希望语言能被完全掌握,无需频繁查阅文档。他重视静态类型、强编译警告和高效的调试工具,以减少调试时间,保持创作流畅。此外,他强调编译速度的重要性——慢的编译过程会打断创作节奏,导致注意力分散。
他明确排斥 OOP(面向对象编程)范式,认为将数据与代码强行绑定是一种不必要的束缚。他更倾向将数据视为纯粹的数据,代码则根据具体场景灵活设计。
在对比其他语言时,他指出 C++ 虽然强大但过于复杂,编译慢,容易引入难以察觉的 bug;C#和 Java 过于冗长,强制 OOP 风格;Go 虽简洁,但其“停止世界”的垃圾回收机制对游戏开发不可接受,且游戏相关库支持薄弱;JavaScript 过于松散,难以保证大型项目稳定;Haxe 虽有潜力,但尚不成熟。
最终,作者认为 C 语言虽然危险(如指针操作易出错),但其简单、高效、可预测的特性使其成为最契合自己需求的选择。它像一把锋利的刀,使用得当可成就精巧作品。尽管他不建议他人盲目模仿,但 C 语言仍是他在当前阶段的最优解。
HN 热度 253 points | 评论 265 comments | 作者:valyala | 1 day ago #
https://news.ycombinator.com/item?id=46925808
- 使用 C++ 时,即使不滥用模板,其标准库仍可能导致编译时间显著增加,且引入大量代码,使得在项目中完全避免标准库变得困难。
- 在团队协作中,语言特性的使用往往难以控制,一旦引入就难以移除,长期积累会形成技术债。
- 有些语言特性看似可选,但一旦被广泛使用,就会成为强制要求,不遵循者可能被视为落后或不合群。
- C++ 的某些特性(如析构函数、运算符重载)可能带来不可见的隐式调用,对低层编程不友好,但若依赖的库使用了这些特性,开发者也必须接受。
- 与 C++ 相比,C 语言社区更少陷入编码风格的争论,整体氛围更友好,且 C 语言本身更易于控制和预测。
- 用 C 语言开发游戏时,可以避免 C++ 中因动态分派带来的性能开销,如虚函数表的内存占用和缓存未命中问题。
- C++ 倾向于让开发者关注单个对象,而游戏开发更关注数据批量处理,C 语言更符合这种思维方式。
- C++ 虽然功能强大,但并非必须使用所有特性,开发者完全可以只使用自己需要的部分,避免过度复杂化。
- 一些开发者对 C++ 的误解源于对语言的不熟悉,实际上 C++ 提供了多种编程范式,可以像 C 一样使用。
- 通过手动实现动态分派等机制,C 语言开发者可以精确控制性能和内存使用,但需要付出更多开发成本。
- C++ 的模板系统在某些情况下可以实现与 C 语言手动实现相同的效果,且性能更优,无需依赖虚函数表。
Hacker News 精彩评论及翻译 #
Microsoft account bugs locked me out of Notepad – … #
https://news.ycombinator.com/item?id=46927434
I’m still a Windows guy, and I always will be.
And this is exactly why Microsoft can get away with a buggy mess of a user hostile operating system.
They only have an incentive to make a good OS if people are willing to leave when it’s a bad one.
wlesieutre
我始终是个 Windows 用户,并且永远都会是。
而这正是微软能够推出一个充满漏洞、用户体验极差的操作系统却还能安然无恙的原因。
只有当人们愿意在系统糟糕时选择离开,他们才有动力去打造一个更好的操作系统。
OpenClaw is changing my life #
https://news.ycombinator.com/item?id=46932150
it completely transformed my workflow, whether it’s personal or commercial projects
This has truly freed up my productivity, letting me pursue so many ideas I couldn’t move forward on before
If you’re writing in a blog post that AI has changed your life and let you build so many amazing projects, you should link to the projects. Somehow 90% of these posts don’t actually link to the amazing projects that their author is supposedly building with AI.
gyomu
它彻底改变了我的工作流程,无论是个人项目还是商业项目。
它真正解放了我的生产力,让我得以推进许多以前无法着手构思的想法。
如果你在一篇博客文章中写道,人工智能改变了你的生活,让你构建了那么多令人惊叹的项目,那你应该附上这些项目的链接。不知为何,这类文章中高达90%的,其实并没有附上其作者声称用人工智能所构建的那些惊人项目。
OpenClaw is changing my life #
https://news.ycombinator.com/item?id=46936321
This was incredibly vague and a waste of time.
What type of code? What types of tools? What sort of configuration? What messaging app? What projects?
It answers none of these questions.
spoaceman7777
这简直含糊其辞,浪费了时间。
是哪种代码?用什么工具?何种配置?哪个聊天软件?什么项目?
这些问题它一个都没回答。
LLMs as the new high level language #
https://news.ycombinator.com/item?id=46931786
Are these kinds of articles a new breed of rage bait? They keep ending up on the front page with thriving comment sections, but in terms of content they’re pretty low in nutritional value.
So I’m guessing they just rise because they spark a debate?
abcde666777
这类文章算是新型引战内容吗?它们总能登上首页,评论区也一片火热,但内容本身其实没什么营养。
所以我的猜测是,它们能火起来,纯粹是因为能挑起争论?
AI fatigue is real and nobody talks about it #
https://news.ycombinator.com/item?id=46934714
For me the fatigue is a little different— it’s the constant switching between doing a little bit of work/coding/reviewing and then stopping to wait for the llm to generate something.
The waits are unpredictable length, so you never know if you should wait or switch to a new task. So you just do something to kill a little time while the machine thinks.
You never get into a flow state and you feel worn down from this constant vigilance of waiting for background jobs to finish.
I dont feel more productive, I feel like a lazy babysitter that’s just doing enough to keep the kids from hurting themselves
parpfish
对我而言,疲劳感有些不同——它源于在完成一点工作/编码/审阅和停下来等待大语言模型生成内容之间不断地切换。
等待的时间不可预测,所以你永远不知道是该继续等待,还是该切换到新任务。因此,你只能在机器“思考”时做点别的事来打发时间。
你永远无法进入心流状态,并且会因为持续警惕等待后台任务完成而感到筋疲力尽。
我感觉自己效率并未提高,反而像个只够盯着孩子们、防止他们伤到自己的懒散保姆。
OpenClaw is changing my life #
https://news.ycombinator.com/item?id=46938720
There’s an odd trend with these sorts of posts where the author claims to have had some transformative change in their workflow brought upon by LLM coding tools, but also seemingly has nothing to show for it. To me, using the most recent ChatGPT Codex (5.3 on “Extra High” reasoning), it’s incredibly obvious that while these tools are surprisingly good at doing repetitive or locally-scoped tasks, they immediately fall apart when faced with the types of things that are actually difficult in software development and require non-trivial amounts of guidance and hand-holding to get things right. This can still be useful, but is a far cry from what seems to be the online discourse right now.
As a real world example, I was told to evaluate Claude Code and ChatGPT codex at my current job since my boss had heard about them and wanted to know what it would mean for our operations. Our main environment is a C# and Typescript monorepo with 2 products being developed, and even with a pretty extensive test suite and a nearly 100 line “AGENTS.md” file, all models I tried basically fail or try to shortcut nearly every task I give it, even when using “plan mode” to give it time to come up with a plan before starting. To be fair, I was able to get it to work pretty well after giving it extremely detailed instructions and monitoring the “thinking” output and stopping it when I see something wrong there to correct it, but at that point I felt silly for spending all that effort just driving the bot instead of doing it myself.
It almost feels like this is some “open secret” which we’re all pretending isn’t the case too, since if it were really as good as a lot of people are saying there should be a massive increase in the number of high quality projects/products being developed. I don’t mean to sound dismissive, but I really do feel like I’m going crazy here.
aeldidi
这类帖子有一种奇怪的趋势,作者声称工作流程因大型语言模型(LLM)编程工具而发生了根本性改变,但看起来又似乎什么成果都没有。对我来说,在使用最新的 ChatGPT Codex(5.3 版,开启“超高”推理模式)时,情况非常明显:虽然这些工具在处理重复性或局部范围的任务时出奇地好,但一旦遇到软件开发中真正困难的部分,它们就会立刻崩溃,并且需要大量的引导和手把手帮助才能把事情做对。这仍然有其用处,但与目前网络上的讨论氛围相去甚远。
举个现实中的例子,我老板听说了 Claude Code 和 ChatGPT Codex,想知道它们对我们的运营意味着什么,于是让我在目前的工作中评估它们。我们的主要环境是一个包含两个正在开发产品的 C# 和 TypeScript 单体仓库,即便拥有一个非常全面的测试套件和一份近100行的 “AGENTS.md” 文件,我尝试过的所有模型基本上在处理我给它的每个任务时都会失败或试图走捷径,即使使用“规划模式”让它先花时间制定计划再开始。公平地说,在我给它提供了极其详细的指令,并监控其“思考”输出,在看到错误时立即中断并纠正后,我确实能让它运行得相当不错。但到了那个地步,我觉得花那么多精力去驱动这个机器人,而不是自己动手,实在有些可笑。
这几乎感觉像一个公开的秘密,而我们都在假装这不是真的。因为如果这些工具真的像很多人说的那么好,那么高质量项目/产品的数量就应该出现大幅增长。我不想听起来像是在贬低,但我真的感觉自己快要疯了。
Software factories and the agentic moment #
https://news.ycombinator.com/item?id=46928149
If you haven’t spent at least $1,000 on tokens today per human engineer, your software factory has room for improvement
…What am I even reading? Am I crazy to think this is a crazy thing to say, or it’s actually crazy?
Alex_L_Wood
如果你的软件工厂里,每位工程师今天在代币上花的钱还不到1000美元,那你的软件工厂就还有提升空间。
……我到底在看些什么?难道只有我觉得这话说得离谱,还是这本来就离谱?
Coding agents have replaced every framework I used #
https://news.ycombinator.com/item?id=46925568
I would argue that it’s going to be the opposite. At re:Invent, one of the popular sessions was in creating a trio of SRE agents, one of which did nothing but read logs and report errors, one of which did analysis of the errors and triaged and proposed fixes, and one to do the work and submit PRs to your repo.
Then, as part of the session, you would artificially introduce a bug into the system, then run into the bug in your browser. You’d see the failure happen in browser, and looking at Cloudwatch logs you’d see the error get logged.
Two minutes later, the SRE agents had the bug fixed and ready to be merged.
“understand how these systems actually function” isn’t incompatible with “I didn’t write most of this code”. Unless you are only ever a single engineer, your career is filled with “I need to debug code I didn’t write”. What we have seen over the past few months is a gigantic leap in output quality, such that re-prompting happens less and less. Additionally, “after you’ve written this, document the logic within this markdown file” is extremely useful for your own reference and for future LLM sessions.
AWS is making a huge, huge bet on this being the future of software engineering, and even though they have their weird AWS-ish lock-in for some of the LLM-adjacent practices, it is an extremely compelling vision, and as these nondeterministic tools get more deterministic supporting functions to help their work, the quality is going to approach and probably exceed human coding quality.
mark242
我认为情况恰恰相反。在 re:Invent 大会上,一个热门的议题是创建一个由三名 SRE(站点可靠性工程)智能体组成的团队:其中一个智能体只负责读取日志和报告错误,另一个负责分析错误、分类并提出修复方案,还有一个负责执行工作并向你的代码库提交 PR。
然后,作为该环节的一部分,你会人为地在系统中引入一个 bug,然后在浏览器中触发这个 bug。你会在浏览器中看到故障发生,同时查看 Cloudwatch 日志时,会发现该错误已被记录。
两分钟后,SRE 智能体已经修复了这个 bug,并准备合并。
“理解这些系统实际如何运作”与“我没有编写大部分代码”这两者并不矛盾。除非你永远是单个工程师,否则你的职业生涯中充满了“我需要调试我没有编写的代码”这种情况。过去几个月我们看到的是输出质量的巨大飞跃,以至于重新提示的次数越来越少。此外,“在你写完代码后,将逻辑记录到这个 markdown 文件中”对于你自己的参考以及未来的 LLM(大型语言模型)会话来说非常有用。
AWS 正在将巨大的赌注压在这是软件工程的未来这一愿景上,尽管他们在一些与 LLM 相关的实践上存在其特有的 AWS 锁定,但这仍然是一个极具说服力的愿景。随着这些非确定性工具获得更多确定性的辅助功能来辅助其工作,其质量将有望接近甚至可能超越人类的编码质量。
Where did all the starships go? #
https://news.ycombinator.com/item?id=46923207
The starships left with the optimism. In the 50s there was a greater demand for stories with an unconstrained vision of the future where growth and expansion amount to flourishing. Later generations that lived in the excesses of growth saw it as the source of an intensifying dystopia. They stood athwart history and demanded decelleration. Star Trek lost ground to Terminator, Foundation to Neuromancer. Escaping sideways into fantasy gained the popularity lost by escapes into the future.
I predict a correlation between space-based scifi sales and polls on whether the country is heading in the right direction.
delichon
星舰带着乐观主义精神离去。在50年代,人们更渴求那些不受束缚的未来愿景的故事,在那里,增长与扩张等同于繁荣。然而,在增长过剩中成长的后代们却视其为反乌托邦日益加剧的根源。他们站在历史的对立面,呼吁减速。《星际迷航》的阵地被《终结者》侵蚀,《基地》系列也让位于《神经漫游者》。人们从对未来的逃离转向了对侧翼——即幻想的逃逸,并从中获得了流失的流行度。
我预测,以太空为背景的科幻作品销量与“国家是否走在正确道路上”的民意调查结果之间存在相关性。
The AI boom is causing shortages everywhere else #
https://news.ycombinator.com/item?id=46926883
It’s caused a massive shortage of interesting content that isn’t related to AI.
mixologic
这导致了大量与人工智能无关的有趣内容的短缺。
OpenClaw is changing my life #
https://news.ycombinator.com/item?id=46934325
These are the same people who a few years ago made blogposts about their elaborate Notion (or Roam “Research”) setups, and how it catalyzed them to… checks notes create blogposts about their elaborate Notion setups!
meindnoch
这就是几年前大肆撰写关于其复杂 Notion(或 Roam Research)配置文章的那群人,他们说这些东西如何催化了他们…… 看了看笔记 去创作更多关于他们复杂 Notion 配置的文章!
We mourn our craft #
https://news.ycombinator.com/item?id=46927656
The golden age for me is any period where you have the fully documented systems.
Hardware that ships with documentation about what instructions it supports. With example code. Like my 8-bit micros did.
And software that’s open and can be modified.
Instead what we have is:
-
AI which are little black boxes and beyond our ability to fully reason.
-
perpetual subscription services for the same software we used to “own”.
-
hardware that is completely undocumented to all but a small few who are granted an NDA before hand
-
operating systems that are trying harder and harder to prevent us from running any software they haven’t approved because “security”
-
and distributed systems become centralised, such as GitHub, CloudFlare, AWS, and so on and so forth.
The only thing special about right now is that we have added yet another abstraction on top of an already overly complex software stack to allow us to use natural language as pseudocode. And that is a version special breakthrough, but it’s not enough by itself to overlook all the other problems with modern computing.
hnlmorg
对我来说,黄金时代就是那些拥有完整文档记录的时期。
硬件附带了关于其支持指令的文档,还有示例代码,就像我的8位微控制器那样。
以及开源且可修改的软件。
而我们现在拥有的却是:
- 人工智能,它们就像一个个黑盒,超出了我们完全理解其原理的能力。
- 对我们曾经“拥有”的同款软件收取永久订阅费。
- 硬件完全没有任何文档,只有少数事先签署了保密协议(NDA)的人才能接触。
- 操作系统越来越努力地阻止我们运行未经其批准的软件,理由是“安全”。
- 分布式系统变得中心化,比如GitHub、CloudFlare、AWS等等。
当下唯一特别之处在于,我们已经在本就过于复杂的软件堆栈之上,又增加了一层新的抽象,以便我们能用自然语言作为伪代码来使用。这确实是一次突破性的进展,但仅凭这一点,还不足以让我们忽视现代计算存在的所有其他问题。
OpenClaw is changing my life #
https://news.ycombinator.com/item?id=46932099
The same author had good things to say about the R1, a device you generally won’t see many glowing reviews about. ( https://reorx.com/blog/rabbit-r1-the-upgraded-replacement-for-smart-phones/ )
Maybe it’s unfair to judge an author’s current opinion by their past opinion - but since the piece is ultimately an opinion based on their own experience I’m going to take it along a giant pile of salt that the author’s standards for the output of AI tools are vastly different than mine.
necklesspen
同一位作者对 R1 评价颇高,而这款设备通常很少能见到如此热情洋溢的评论。( https://reorx.com/blog/rabbit-r1-the-upgraded-replacement-for-smart-phones/ )
或许用作者过去的观点来评判其现在的观点有失公允——但由于这篇文章终究是基于其个人体验的主观看法,因此我倾向于认为,作者对 AI 工具产出的评判标准与我的标准可能大相径庭,对此我会保持审慎的态度。
The AI boom is causing shortages everywhere else #
https://news.ycombinator.com/item?id=46926468
I have been having this conversation more and more with friends. As a research topic, modern AI is a miracle, and I absolutely love learning about it. As an economic endeavor, it just feels insane. How many hospitals, roads, houses, machine shops, biomanufacturing facilities, parks, forests, laboratories, etc. could we build with the money we’re spending on pretraining models that we throw away next quarter?
peterlk
我和朋友最近越来越频繁地讨论这个问题。作为一个研究课题,现代AI是个奇迹,我非常喜欢学习相关知识。但作为一种经济行为,它却显得疯狂无比。我们花在那些下个季度就会被抛弃的预训练模型上的钱,本来可以用来建造多少医院、道路、房屋、机械加工厂、生物制造设施、公园、森林、实验室等等呢?
OpenClaw is changing my life #
https://news.ycombinator.com/item?id=46932108
This is quite a low quality post. There is nothing of substance here. Just hot air.
The only software I’ve seen designed and implemented by OpenClaw is moltbook. And I think it is hard to come up with a bigger pile of crap than Moltbook.
If somebody can build something decent with OpenClaw, that would help add some credibility to the OpenClaw story.
perbu
这帖子质量真是差劲,内容空洞,全是空话。
我只见过 OpenClaw 设计和实现的一款软件,叫 Moltbook。我觉得很难想象有比 Moltbook 更糟糕的垃圾了。
如果有人能用 OpenClaw 做出点像样的东西,那或许能给 OpenClaw 的故事增加点可信度。
Vouch #
https://news.ycombinator.com/item?id=46931648
IMO: trust-based systems only work if they carry risk. Your own score should be linked to the people you “vouch for” or “denounce”.
This is similar to real life: if you vouch for someone (in business for example), and they scam them, your own reputation suffers. So vouching carries risk. Similarly, if you going around someone is unreliable, but people find out they actually aren’t, your reputation also suffers. If vouching or denouncing become free, it will become too easy to weaponize.
Then again, if this is the case, why would you risk your own reputation to vouch for anyone anyway.
stephantul
在我看来,基于信任的系统只有在包含风险时才能奏效。你自己的评分应该与你所“担保”或“谴责”的人挂钩。
这和现实生活很相似:比如在商业中,你为某人作担保,而他们却骗了别人,你自己的声誉也会受损。所以担保是有风险的。同样地,如果你到处宣扬某人不可靠,但事后发现他们其实并非如此,你的声誉也会受损。如果担保或谴责变得没有成本,就太容易被武器化了。
话又说回来,既然如此,你又何必冒着损害自己声誉的风险去为任何人担保呢?