2026 03 01 HackerNews

2026-03-01 Hacker News Top Stories #

  1. 谷歌与 OpenAI 在职员工联合公开反对国防部利用政策分化与强迫 AI 公司为军事项目服务,呼吁团结拒绝将 AI 用于大规模监控或致命自动化系统。
  2. OpenAI 说明了永久删除账户的两种方法、不可逆性、数据保留期及订阅与验证等注意事项。
  3. OpenAI 宣布与国防部达成协议将在其机密网络部署模型,强调禁止大规模国内监控并要求人类对使用武力负最终责任,同时倡导统一合作条款。
  4. 国防部长在社交媒体上将 Anthropic 列为“供应链网络安全风险”企业,禁止与军方相关承包商合作并给出过渡期。
  5. Anthropic 回应称其反对两类用途(大规模国内监控与完全自主武器),支持合法国家安全用途并将通过法律挑战相关认定。
  6. 美以于 2026-02-28 对伊朗发动大规模联合打击并称造成哈梅内伊死亡,随后地区冲突升级、反击和伤亡增加,战争风险上升。
  7. 讨论认为通过量化与合适硬件在本地运行大模型(如 Qwen3.5)可满足大多数使用需求,云端可作为低成本试验方案。
  8. 作者指控整件事为预谋骗局,称奥特曼暗中促成交易并指政府以供应链风险排挤 Anthropic,警示政治与金钱干预竞争公平。
  9. 克罗地亚宣布按《渥太华公约》清除所有已知雷区,历经 31 年移除大量地雷与未爆弹药并付出人员伤亡和高额成本。
  10. 科幻作家丹尼尔·西蒙斯(《希波里昂》作者)于 2026 年逝世,享年 77 岁,留下多部重要作品与改编遗产。

我们不会被分裂 (We Will Not Be Divided) #

https://notdivided.org

这是一封由谷歌和 OpenAI 员工联合签署的公开信,题为《我们不会被分裂》。信中指出,美国国防部正试图依据《国防生产法》强制要求人工智能公司 Anthropic 为其军事项目服务,并要求其调整模型以满足军事需求,同时将该公司列为“供应链风险”。此举是对 Anthropic 拒绝参与国内大规模监控以及允许无人干预的自主杀伤系统的回应。

信中强调,国防部正在试图通过施压和分化策略,迫使谷歌和 OpenAI 屈服,以获取类似服务。这种策略依赖于各公司之间的信息隔阂。因此,这封信旨在建立透明与团结,表明谷歌与 OpenAI 的员工一致反对将 AI 技术用于国内监控或无需人类监督的致命自动化系统。

目前,谷歌有 618 名在职员工、OpenAI 有 96 名在职员工联署此信。签名者包括来自研究、工程、产品、设计、项目管理等多个岗位的资深技术人员和管理人员,涵盖研究科学家、软件工程师、产品经理、系统工程师等。他们共同呼吁两家公司的领导层搁置分歧,团结一致,继续坚守伦理底线,拒绝军事部门的不当要求。

这封信不仅是一次内部发声,也是一次对外的公开表态,彰显了 AI 从业者对技术伦理的重视与集体责任感。


HN 热度 2530 points | 评论 798 comments | 作者:BloondAndDoom | 1 day ago #

https://news.ycombinator.com/item?id=47188473

  • 政府若能以国家安全为由滥用采购规则惩罚不忠企业,将对美国经济和法治造成广泛负面影响,可能波及苹果、亚马逊等任何让政府不满的公司。
  • Anthropic 明确表示其产品不适合用于美国国防部的自动化杀戮目标,这是对大规模杀戮技术的负责任态度,而非政治抵制。
  • 技术服务提供商不应被强制用于战争目的,政府应自行开发或寻找其他合作方,而非强行征用。
  • 任何技术的发明者或提供者都无权单方面拒绝政府使用,因为政府拥有合法权力动员民用资源用于国防。
  • 政府征用民用资源的合法性基于公民的道德义务,而非单纯依靠武力威胁。
  • 公民是否承担道德义务参与战争存在争议,当前社会对征兵制度的支持已显著减弱,且征兵制度允许良心拒服兵役。
  • 企业是否参与战争相关项目应由其自主决定,如同个人可选择自愿参军或拒绝服役,这种选择权在历史上具有实际意义。
  • 企业无法像个人一样通过良心拒服兵役机制来证明其道德立场,因此难以主张拒绝合作的权利。
  • 若政府认为某项技术可用于战争,应由政府评估并决定是否使用,而非由企业单方面否决。
  • 在民主制度下,谁来定义“道德”是关键问题,不应由个人或企业自行裁定政府行为的正当性。
  • 世界上大多数政府本质上是类似黑帮的保护性勒索组织,其合法性建立在对暴力的垄断之上,因此对政府的忠诚不应被无条件接受。
  • 当前社会对国家主义和民族主义的认同正在上升,而非衰落,因此对政府的道德义务仍具现实基础。
  • 企业不应享有比个人更广泛的拒绝参与战争的权利,这种观点在逻辑上存在矛盾。
  • 政府若因企业拒绝合作而施加软性制裁,实质上是滥用权力,构成对商业自由的威胁。
  • 企业作为法人实体,不应被赋予与个人相同的道德权利,尤其在涉及国家安全时。

如何删除你的 OpenAI 账户 (OpenAI – How to delete your account) #

https://help.openai.com/en/articles/6378407-how-to-delete-your-account

如何删除你的 OpenAI 账户

删除账户是永久性的操作,无法恢复。账户删除后,你将无法再使用该账户访问 OpenAI 的任何服务,包括 ChatGPT 和 API。

账户删除后,OpenAI 将在 30 天内删除你的数据,但根据法律要求,部分数据可能保留更长时间。

如果你通过 Apple App Store 或 Google Play Store 订阅了 ChatGPT,删除 OpenAI 账户不会自动取消移动应用内的订阅。你必须在对应的应用商店中手动取消订阅,以避免继续扣费。

删除账户的两种方式:

  1. 通过隐私门户提交请求 访问 https://privacy.openai.com/,点击右上角“提交隐私请求”,选择“我有一个消费者 ChatGPT 账户”,然后选择“删除我的 ChatGPT 账户”并按提示操作。若无法登录,可参考相关指引。
  2. 在 ChatGPT 内直接删除 登录 ChatGPT 网页端,在右上角点击个人头像,进入“设置” → “账户” → “删除账户”。你必须在最近 10 分钟内登录过,才能进行操作。确认时需输入邮箱地址并输入“DELETE”以解锁删除按钮,点击后即可永久删除账户。

移动端(iOS 和 Android)用户请参考对应帮助文章完成删除操作。

关于删除账户的常见问题:

  • 已删除的聊天记录将在 30 天内彻底清除,无法恢复。如需隐藏聊天记录但保留,可使用“归档”功能。
  • 你可以删除单个记忆或全部记忆,但无法恢复。
  • 使用 ChatGPT 时,你的内容可能用于模型优化。你可选择是否允许使用。
  • 企业服务(如 API 和 ChatGPT Enterprise)不会使用业务数据进行训练。
  • Sora 的数据可随时在设置中删除。

账户删除后:

  • 30 天后可使用相同邮箱创建新账户。
  • 无法重新激活已删除的账户,但可创建新账户。
  • 电话号码最多可用于 3 次账户验证(包括新账户和首次 API 密钥生成)。删除账户不会释放号码名额。
  • 电话验证仅在首次生成 API 密钥时需要,注册账户时无需验证。
  • 若邮箱曾关联企业组织或因违规被禁用,则无法重新使用。

无法登录时提示“账户已被删除或停用”表示该邮箱对应的账户已删除或停用。

如需帮助,可联系 OpenAI 支持。


HN 热度 1808 points | 评论 343 comments | 作者:carlosrg | 14 hours ago #

https://news.ycombinator.com/item?id=47193478

  • OpenAI 因 CEO 山姆·阿尔特曼在参议院听证会上的言论与其后续行为背道而驰,从最初以科学为导向的 AI 实验室转变为追求商业利益的公司,导致所有创始科学家离职,因此被认为是最不可信的大型语言模型提供商。
  • 应抵制 OpenAI,因其与国防部合作,可能涉及大规模监控和自主武器系统,尽管其声称不支持此类用途,但实际合作条款可能与 Anthropic 类似,存在道德风险。
  • 与 OpenAI 相比,DeepMind 和 Anthropic 由真正的科学家领导,更具可信度,而 OpenAI 更像一个营销导向的公司。
  • 一些用户认为,应尽可能抵制所有大型科技公司,即使这意味着牺牲个人便利,因为妥协并非合理的道德立场。
  • 有用户指出,中国境内的模型(如 GLM-5)在不依赖网络搜索的情况下也能回答问题
  • OpenAI 与国防部的合作可能并非出于技术考量,而是为了在政治上“显得强硬”,符合特朗普政府一贯的舆论操控风格,而非基于事实或道德。
  • 有人推测 OpenAI 与 Anthropic 之间的竞争背后存在政治和资金因素,例如布罗克曼的大额捐款可能影响了 OpenAI 的决策方向。
  • OpenAI 在公开支持 Anthropic 的同时,却签署协议抢夺其客户,这种行为体现了阿尔特曼一贯的策略性双重标准。

OpenAI 与美国国防部达成协议,将在其机密网络中部署模型 (OpenAI agrees with Dept. of War to deploy models in their classified network) #

https://twitter.com/sama/status/2027578652477821175

Sam Altman 在 X 平台上发布一条动态,宣布其团队已与美国国防部(DoW)达成协议,将在国防部的机密网络中部署其人工智能模型。

他强调,国防部在所有合作中展现出对安全的高度重视,并愿意与 AI 公司共同实现最佳成果。

该协议体现了双方对 AI 安全的共同承诺,明确遵守两项核心安全原则:禁止在国内进行大规模监控,以及确保人类对使用武力(包括自主武器系统)负有最终责任。

美国国防部已将这些原则纳入法律与政策框架,双方在协议中予以确认。

为保障模型安全,将部署技术防护措施,包括使用联邦数据环境(FDEs)进行模型运行,并仅在云网络中部署,以确保可控性和安全性。

Sam Altman 呼吁国防部向所有 AI 公司提供相同的合作条款,认为这是实现行业共识的合理路径。

他同时表达希望避免法律与政府对抗,推动通过理性协商解决问题。

最后,他重申公司致力于服务全人类,承认世界复杂且充满挑战,但坚信 AI 应以负责任的方式推动积极变革。


HN 热度 1330 points | 评论 613 comments | 作者:eoskx | 22 hours ago #

https://news.ycombinator.com/item?id=47189650

  • OpenAI 与五角大楼达成协议部署模型于其机密网络,引发员工伦理争议,部分人质疑其与 Anthropic 的差异对待是否出于利益考量。
  • 有员工指出,OpenAI 的协议明确禁止国内大规模监控和自主武器,且公司正推动其他 AI 企业采纳类似条款,因此目前无辞职必要。
  • 批评者认为,OpenAI 与 Anthropic 的待遇差异暗示协议条款宽松或执行不力,可能构成对伦理承诺的妥协。
  • 有人质疑 OpenAI 高层动机,尽管其无公司股份,但高额薪酬和权力集中使其行为受利益驱动。
  • 评论认为,AI 工程师在高薪诱惑下可能愿意参与军事应用开发,暗示技术人才的道德底线可被金钱突破。
  • 有人指出,当前影视作品中仍展示手动操作武器的场景,与现实中的 AI 自动化趋势不符,反映叙事与技术现实的脱节。
  • 有观点认为,影视作品中保留手动操作是出于戏剧效果,而非真实反映未来战争形态,类似设定在科幻作品中常见。
  • 评论讽刺地指出,若 AI 技术成熟,未来战争将高度自动化,而当前影视表现仍停留在过时模式,令人不适。
  • 有人以历史事件类比,指出早期预警系统曾误判月球为核打击,强调全自动系统可能带来灾难性误判风险。

美国国防部将 Anthropic 列为供应链安全风险企业 (I am directing the Department of War to designate Anthropic a supply-chain risk) #

https://twitter.com/secwar/status/2027507717469049070

美国国防部秘书长皮特·赫格塞思在 X 平台发布声明,严厉批评人工智能公司 Anthropic 及其 CEO 达里奥·阿莫迪,指责其在与美国政府合作中表现出傲慢与背叛行为。

赫格塞思强调,国防部必须对 Anthropic 的 AI 模型拥有完全、不受限制的访问权限,以保障国家安全和军事行动的合法性。他批评 Anthropic 以“有效利他主义”为名,实则试图通过意识形态施压,干涉美军的作战决策权,此举被视为将硅谷价值观置于美国军人生命之上。

他指出,Anthropic 的立场与美国核心原则根本冲突,已严重损害其与美国军方及联邦政府的合作关系。根据总统特朗普的指示,联邦政府将立即停止使用 Anthropic 的技术。

赫格塞思宣布,国防部已将 Anthropic 列为“国家网络安全供应链风险”企业。即日起,所有与美军相关的承包商、供应商及合作伙伴不得与 Anthropic 开展任何商业活动。

为确保平稳过渡,Anthropic 将被允许继续向国防部提供服务最多六个月,之后必须全面退出军事合作。他重申,美国军人的作战能力绝不能被科技巨头的意识形态所绑架,此决定不可更改。


HN 热度 1325 points | 评论 1060 comments | 作者:jacobedawson | 1 day ago #

https://news.ycombinator.com/item?id=47186677

  • 美国国防部在与 Anthropic 签订合同时已同意相关条款,现单方面要求更改合同内容,属于违背契约精神的行为。
  • 国防部试图通过社交媒体施压,将 Anthropic 列为供应链风险,属于以权谋私的报复性行为。
  • 当前政府高层倾向于扮演虚构中的反派角色,其行为模式反映出对权力和控制的迷恋,而非真正政策制定能力。
  • 一些政治人物对帝国形象的推崇并非戏谑,而是源于其真实的政治理念,即推崇强权、军事化和非人道的治理方式。
  • 即便支持“反抗者”形象的政治人物,其实际政策也支持战争罪行和种族灭绝,与理想化形象背道而驰。
  • 马克·汉米尔对以色列的立场并非极端支持,而是主张巴以双方人民的和平共处,其立场相对中立。
  • Anthropic 的立场合理,关键在于原始合同是否明确排除了特定使用场景,若合同中已包含条款,则国防部无权单方面更改。
  • 合同中是否引用了 Anthropic 的使用条款(ToS)是关键,若 ToS 在签约后更新,国防部可能有微弱理由质疑,但全面封禁仍属过度。
  • 尽管缺乏公开合同文本,但 Anthropic 高层明确表示相关使用场景从未被纳入原始合同,支持其立场的可信度较高。

Anthropic 就美国国防部长皮特·赫格塞斯有关将其列为供应链风险的表态发布声明 (Statement on the comments from Secretary of War Pete Hegseth) #

https://www.anthropic.com/news/statement-comments-secretary-war

Anthropic 发布声明,回应美国国防部长皮特·赫格塞斯关于将该公司列为供应链风险的表态。声明指出,此举源于双方在两项特定使用场景上的分歧:对美国公民的大规模国内监控,以及完全自主武器系统的应用。Anthropic 强调,其始终支持 AI 在国家安全领域的合法使用,但坚持反对上述两项例外,理由是当前前沿 AI 模型尚不可靠,用于自主武器可能危及作战人员与平民安全,而大规模监控则侵犯基本人权。

该认定若正式实施,将是前所未有的举措——历史上此类认定仅针对美国敌对国家,从未公开应用于美国本土企业。Anthropic 表示深感遗憾,强调自 2024 年 6 月起,公司已率先将 AI 模型部署于美国政府机密网络,持续支持美军作战需求,并有意愿继续合作。

声明明确指出,此类认定在法律上站不住脚,且将开创危险先例,影响所有与政府谈判的美国企业。公司坚称不会因压力改变立场,并将通过法律途径挑战该认定。

对客户的影响方面,声明澄清:该认定仅限于国防部合同中的使用,不会影响个人用户或持有商业合同的客户对 Claude 的访问。国防部承包商仅在其政府项目中受限,其他用途不受影响。Anthropic 团队已准备就绪,随时解答客户疑问。

最后,公司感谢用户、行业同仁、政策制定者、退伍军人及公众的支持,并重申首要任务是保障客户不受干扰,同时与国防部协作,确保军事运作平稳过渡。


HN 热度 1122 points | 评论 348 comments | 作者:surprisetalk | 24 hours ago #

https://news.ycombinator.com/item?id=47188697

  • Anthropic 的决策基于真实的价值观和原则,而非纯粹的商业算计,尽管公司规模扩大后可能面临回归平均的挑战。
  • 原则在无成本时容易坚持,但真正考验在于面对压力时是否仍能坚守,因此对企业的道德承诺需保持审慎怀疑。
  • 在当前政治环境下,即使只是象征性地拒绝与特定政府合作,也应被肯定,因为这代表了对滥用 AI 的抵制。
  • 与其追求完美无瑕的道德公司,不如珍惜现实中做出正确选择的机会,尤其是在对抗专制力量时。
  • 公司宣称坚持原则时可能夹杂营销成分,但当前行动本身值得肯定,应先认可其立场再审视动机。
  • 企业价值观可能随时间改变,但早期的真诚努力不应被全盘否定,历史上的积极贡献仍具意义。
  • 企业支持开放网络等价值观曾与自身商业模式一致,因此其可信度更高,但后期转向也说明不可过度依赖。
  • 个人价值观在巨大经济利益面前容易被削弱,AI 领域的快速进展使得谨慎者难以获得影响力。
  • 企业若因坚持原则而失去政府合同,可能面临短期损失,但长期来看,用户支持和员工忠诚度可带来更大回报。
  • 消费者对 Anthropic 的抵制行为表示强烈支持,甚至有用户立即订阅高价服务以表达支持,显示情感共鸣。
  • 企业若妥协于政府不合理要求,将导致员工流失,因此坚持原则也是维护组织稳定的重要手段。
  • 以“Lawful Evil”(守序邪恶)类比,某些企业表面遵守规则,实则服务于不道德目的,需警惕此类伪装。

美国与以色列对伊朗发动大规模联合打击 (The United States and Israel have launched a major attack on Iran) #

https://www.cnn.com/2026/02/28/middleeast/israel-attack-iran-intl-hnk

美国与以色列于 2026 年 2 月 28 日对伊朗发动了大规模联合军事打击,美国总统唐纳德·特朗普称此次行动旨在摧毁伊朗的军事能力、瓦解其导弹项目,并最终实现政权更迭。据特朗普及两名以色列消息人士透露,伊朗最高领袖阿里·哈梅内伊在袭击中身亡,其中一名消息人士称已获得哈梅内伊尸体的照片。

此次打击与 2025 年 6 月的袭击不同,首次在伊朗当地时间周六上午(工作日首日)展开,且持续时间预计将长达数日,显示目标更为深远。袭击开始时,数百万伊朗民众正在上班或上学,造成广泛影响。

作为回应,伊朗发动了前所未有的区域反击,向多个美国军事基地所在国发动袭击,范围从迪拜海岸到多哈街道,标志着中东局势急剧升级,可能引发全面战争。

此前,伊朗国内局势已持续恶化。自去年夏季与以色列战争以来,伊朗经济陷入严重危机,引发 1 月全国性抗议。政府镇压导致数千人死亡,特朗普随即宣布“已准备就绪”,并大规模向中东增派军事物资。尽管如此,美国仍继续推动与伊朗的核协议谈判,最新一轮谈判在瑞士结束,伊朗承诺“永不囤积浓缩铀”,阿曼外交部长作为中间人表示谈判取得进展。

目前,伊朗及中东多地的伤亡与破坏情况仍在统计中,局势高度紧张,区域冲突风险急剧上升。


HN 热度 1019 points | 评论 2253 comments | 作者:lavp | 18 hours ago #

https://news.ycombinator.com/item?id=47191232

  • 世界大战的定义应包含全球主要经济体全力投入战争,而当前战争形态已改变,不再需要全面动员经济资源。
  • 当前冲突可能以精准打击和点对点消灭为主,而非大规模全面战争,核武器的使用也趋向于精确化。
  • 未来战争可能由技术进步导致,如生物武器或基因编辑技术,普通人可在地下室制造足以毁灭人类的病原体。
  • 世界格局可能因战争而重新洗牌,尤其是涉及伊朗、以色列、乌克兰、印巴、台湾等热点地区。
  • 战争的传播方式将发生根本变化,信息传播将实时直播,但真相难以辨明,公众认知将被严重扭曲。
  • 核武器的威慑力已改变国际行为,如朝鲜拥核后未被入侵,其他国家可能效仿,形成新的战略平衡。
  • 战争对平民的影响将空前广泛,即使无直接参与,也会因供应链断裂、资源短缺、社会动荡而生活崩溃。
  • 当前战争模式下,经济资源高度集中于军事生产,导致民用经济萎缩,战后将面临严重经济衰退。
  • 历史经验表明,战争结束后经济可能迅速复苏,但前提是社会结构未被彻底摧毁。
  • 人类的不安与冲动是战争根源,正如帕斯卡所言,无法静坐于一室,终将引发灾难。
  • 战争的真正威胁可能来自非国家行为体,如个人或小团体利用生物技术制造全球性灾难。
  • 现代战争的“世界性”体现在全球信息与经济网络的联动,而非地理上的全面战场。

如何取消 ChatGPT 订阅 (How do I cancel my ChatGPT subscription?) #

https://help.openai.com/en/articles/7232927-how-do-i-cancel-my-chatgpt-subscription

本文介绍了如何取消 ChatGPT 的个人订阅、Business 订阅以及在不同设备上取消订阅的具体操作方法。

对于通过 chatgpt.com 网站注册的个人用户,需登录后进入“设置”页面,选择“账户”标签,点击“管理”下拉菜单中的“取消订阅”。

若通过 iOS App Store 或 Android Google Play 商店订阅,需在对应设备的应用商店中取消订阅,操作路径分别为“iOS 取消订阅”或“Android 取消订阅”。

ChatGPT Business 订阅用户需登录后进入“工作区设置” → “账单” → “管理计划” → “取消订阅”。

取消订阅后,服务将在下一个账单周期结束后停止,用户可继续使用至该日期。为避免被扣费,请至少在下次账单日前 24 小时取消订阅。订阅费用一旦支付,不予退款。

如无法访问注册邮箱(如离职后无法使用公司邮箱),可选择两种方式处理:一是联系客服,提供邮箱、卡号后四位及最近一次付款日期,由 OpenAI 协助取消订阅;二是通过隐私请求门户删除账户,此操作不可逆。

若无法登录账户且需取消订阅,建议联系支持团队获取帮助。


HN 热度 1012 points | 评论 238 comments | 作者:tobr | 19 hours ago #

https://news.ycombinator.com/item?id=47190997

  • 运行本地大模型可以满足 85%-95% 的使用需求,且当前模型性能已非常出色,推荐使用 Qwen3.5 的 27B 和 35B 版本,采用 Q8 量化格式。
  • Mac 设备是运行本地模型的便捷选择,64GB 内存的 Mac 可良好运行模型,128GB 或 256GB 更佳,32GB 版本需使用更低精度量化。
  • 非 Mac 用户可选择配备 iGPU 和大容量系统内存的笔记本,利用系统内存辅助加载模型,提升性能,推荐使用 Radeon 890M 或 Intel Arc 显卡。
  • 配备独立显卡的笔记本虽无法直接加载大模型,但通过层卸载和量化 MoE 模型,仍可实现良好性能。
  • 建议至少配备 32GB 内存,并最大化系统内存,同时使用大容量 NVMe 固态硬盘,以应对模型下载和容器化运行的存储需求。
  • 在购买高性能设备前,应先评估云服务方案,目前已有十余家提供非 OpenAI/Anthropic 的开源模型云服务,成本低廉且性能优秀。
  • 云服务是低成本试用本地模型的绝佳方式,可避免前期投入风险,尤其适合尚未确定本地模型是否值得投入的用户。
  • 即使不为成本考虑,部分用户仍追求本地部署的掌控感和兴趣,将其视为一种技术爱好。
  • 大模型推理成本与输入长度的平方成正比,但与批量处理数量线性相关,因此批量处理远比单次长输入更高效。
  • 通过分批处理(如逐词处理)可大幅降低计算开销,实现接近递归神经网络的高效推理,尤其适合自动化任务。
  • 云服务提供商众多,包括 Groq、Mistral、Together AI、Fireworks AI、Hugging Face、AWS Bedrock、Google、Microsoft 等,均提供开源或闭源模型服务。
  • 部分云服务如 Ollama Cloud 和 Fireworks AI 在隐私保护方面表现良好,不记录用户数据,适合注重隐私的用户。
  • OpenRouter 等平台支持多模型路由,可灵活选择不同提供商的模型,实现高效推理。
  • 80GB NVIDIA GPU 价格高达 1 万美元,相当于 30 年 ChatGPT Plus 订阅费用,且可能在 5-7 年内过时,性价比极低。
  • 旧款服务器(如双路 Xeon)虽性能有限,但通过大内存(如 256GB)仍可运行大型量化模型,适合非实时交互场景。

整个事情都是一场骗局 (The whole thing was a scam) #

https://garymarcus.substack.com/p/the-whole-thing-was-scam

整件事从头到尾就是一场骗局和内定操作,Dario(Amodei)从一开始就没有胜算。奥特曼表面公开支持 Amodei,背地里却早已偷偷签下协议,抢走了 Anthropic 的业务,一切都是演戏

更关键的是:

  • 奥特曼早在公开表态支持 Dario 之前、特朗普指责 Anthropic 之前,就已经在秘密运作这笔交易;
  • 这发生在 Brockman 向特朗普政治行动委员会捐款 2500 万美元之后。

政府不仅拒绝了 Anthropic 的条款,还荒谬地将其定性为供应链风险进行永久排挤,却把机会给了条件相近、但政治献金更多的一方。

作者虽然并不喜欢 Amodei,也批评过 Anthropic 剽窃内容、放弃安全承诺,但认为公平竞争才是底线。这已经不是市场决定一切的资本主义,而是靠关系和献金说了算的寡头政治,美国正在从前者滑向后者。


HN 热度 570 points | 评论 158 comments | 作者:guilamu | 8 hours ago #

https://news.ycombinator.com/item?id=47197505

  • HN 社区对美国政府腐败问题的关注被长期压制,如今才开始引起注意,反映出平台对批评性言论的审查倾向。
  • 一些人认为,对美国体制的批评者长期存在,但其声音常被系统性地边缘化,导致合理观点被忽视。
  • 批评者常被贴上“激进”“情绪化”标签,即使理性表达也因挑战资本主义和精英阶层而遭贬低。
  • 有人指出,对体制的普遍抱怨缺乏实际行动,如投票、组织或提出建设性方案,仅停留在网络攻击层面。
  • 体制本身存在结构性问题,如债务驱动的财富积累模式,迫使富人不断冒险以维持地位,导致极端化行为。
  • 部分人认为,当前政治局势的恶化并非偶然,而是长期积累的结果,且部分选民对后果缺乏清醒认知。
  • OpenAI 等科技巨头的权力集中与政治献金行为,暴露了资本与权力的深度勾结,加剧了系统性腐败。
  • 有人用历史类比(如安德鲁·杰克逊)指出当前政治人物的民粹主义与腐败倾向,暗示其与历史上的权力滥用一脉相承。
  • 对“道德可交易”的讨论揭示了人性在极端利益面前的脆弱性,但也有观点认为这种假设忽略了现实中的威慑机制。
  • 有人质疑“所有人都可被收买”的说法,认为这忽视了人类道德的复杂性与情境差异,过度简化了人性。
  • 资本主义体系下,部分人愿意牺牲道德换取利益,反映出系统性激励机制的扭曲。

克罗地亚宣布成为无地雷国家,距独立战争结束 31 年 (Croatia declared free of landmines after 31 years) #

https://glashrvatske.hrt.hr/en/domestic/croatia-declared-free-of-landmines-after-31-years-12593533

克罗地亚正式宣布摆脱地雷威胁,成为无地雷国家。这一里程碑事件发生在 2026 年 2 月 26 日,距克罗地亚独立战争结束已过去 31 年。内政部长达沃尔·博日诺维奇在萨格勒布举行的国际民防日纪念活动上宣布,全国所有已知雷区均已清除,完全符合《渥太华公约》要求。

历时三十年的排雷工作代价沉重,共有 208 人遇难,其中包括 41 名排雷人员。清除行动共移除约 10.7 万枚地雷和 40.7 万件未爆炸弹药,总成本约为 12 亿欧元。

博日诺维奇强调,这一成就不仅是技术上的成功,更是对地雷受害者及其家庭的道德承诺。无地雷的克罗地亚意味着更安全的家庭生活、农村地区更好的发展、更多可耕种土地以及更强的旅游吸引力。

该新闻由克罗地亚广播电视台(HRT)发布,可通过其 iOS 和 Android 应用程序,以及 Facebook、Twitter、Instagram、TikTok 和 YouTube 等社交平台获取最新资讯。


HN 热度 478 points | 评论 119 comments | 作者:toomuchtodo | 22 hours ago #

https://news.ycombinator.com/item?id=47189535

  • 克罗地亚宣布解除地雷威胁,但实际可能仍有未被发现的地雷,完全清除几乎不可能。
  • 波斯尼亚计划在 2030 年实现无地雷目标,每年需持续清除约 70 平方公里的区域。
  • 2014 年访问萨拉热窝时,当地人警告不要进入城外森林,因为存在地雷,令人难以置信。
  • 欧洲现代战争如同 19 世纪的旧式冲突,以“你站在这片土地上我们就杀你”为特征,已不合时宜。
  • 南斯拉夫战争结束于 1995 年,因此地雷问题仍属近期遗留问题。
  • 法国仍存在一战遗留的雷区,称为“红区”,至今仍限制人类活动。
  • 二战遗留未爆弹药在比利时、香港等地仍被频繁发现,说明战争遗留问题长期存在。
  • 荷兰铁路系统常因发现二战遗留炸弹而中断,说明欧洲多地仍受战争影响。
  • 德国曾有玻璃地雷,虽可自然降解,但仍有安全隐患,且曾发生爆炸事件。
  • 一些地雷设计有自毁机制,但并非所有地雷都具备,且仍需依赖传统排雷方式。
  • 为何不研发使用一段时间后自动失效的地雷?技术上可行,但战术和战略考量可能优先于长期安全。
  • 战争带来的不仅是物理破坏,还有长期心理创伤和城市建筑残破,影响持续数十年。
  • 乌克兰未来可能遍布光纤线缆和无人机残骸,部分无人机可能被儿童误认为玩具。

丹尼尔·西蒙斯,《希波里昂》作者,逝世 (Dan Simmons, author of Hyperion, has died) #

https://www.dignitymemorial.com/obituaries/longmont-co/daniel-simmons-12758871

丹尼尔·约瑟夫·西蒙斯(Daniel Joseph Simmons)于 2026 年 2 月 21 日在科罗拉多州朗蒙特市去世,享年 77 岁。他的妻子凯伦和女儿简陪伴在他身边。他出生于 1948 年 4 月 4 日,出生地为伊利诺伊州皮奥里亚,父母是罗伯特·A·西蒙斯和凯瑟琳·H·(卡顿)西蒙斯。

童年时期,他在伊利诺伊州布里姆菲尔德和印第安纳州皮茨伯勒的乡间小路上骑自行车,度过了充满欢乐的时光。他毕业于印第安纳州克劳夫兹维尔的瓦巴什学院,获得英语学士学位,并在密苏里州圣路易斯的华盛顿大学获得教育学研究生学位。

丹的职业生涯始于密苏里州的小学教师,后在纽约州水牛城和科罗拉多州朗蒙特任教,长期担任六年级教师。在 18 年的教学生涯中,他与同事共同创立了首个地区性天才学生项目,曾入围科罗拉多州年度教师决赛。他以创新、充满活力和富有创造力的教学风格深受学生喜爱。他通过卡尔·萨根的《宇宙》系列将科学生动呈现,组织关于古巴导弹危机和歧视危害的互动模拟,并将希腊神话、电影与艺术融入课堂。

每天午餐后,他都会为学生们讲述一个贯穿全学年的史诗故事,学生们边听边为他绘制插图。当故事在学年末结束时,许多学生感动落泪。这一故事后来发展为他 1989 年出版的四部曲科幻经典《希波里昂颂歌》(Hyperion Cantos),广受好评。

退休后,他仍持续分享热爱,向孙辈讲述他钟爱的 1950 年代怪兽电影,并与妻子凯伦在后院举办夏日电影放映会,为朋友带来欢乐。

阅读与写作是丹一生的挚爱。他从小热爱阅读,从漫画到文学经典和非虚构作品无所不包,尤其关注太空、科学与历史。他自幼便展现出非凡的叙事天赋,其首部发表作品恰逢女儿简出生之日,这让他确认了家庭是他真正的归宿。

1987 年,他毅然辞去教职,全身心投入写作。他的首部小说《卡利之歌》(Song of Kali,1985)灵感来自在印度加尔各答的三天经历,荣获 1986 年世界奇幻奖。此后他创作了 31 部小说与短篇故事集,作品屡获布莱姆·斯托克奖、洛厄斯奖、雪莉·杰克逊奖及雨果奖等殊荣。他最引以为傲的荣誉是瓦巴什学院授予的荣誉博士学位。

他的作品被翻译成至少 20 种语言,在 28 个国家出版,曾多次举办全球书展、讲座与写作工作坊。他打破文学类型界限,作品涵盖历史小说、恐怖、硬汉派犯罪小说与科幻,题材广泛,从海明威的二战古巴间谍网到喜马拉雅山登山探险均有涉猎。2018 年,其 2007 年小说《恐怖》(The Terror)被改编为 AMC 迷你剧集。

丹是一位终身好奇的求知者,乐于与志同道合者交流,他用无数故事联结了无数人。

他生前已故父母及兄弟泰德,身后留下妻子凯伦、女儿简、孙辈米洛与露西娅·格伦,以及兄弟韦恩。

他的遗体已交由科罗拉多州朗蒙特市的阿尔伯格殡仪馆进行火化,骨灰将择期撒放。纪念活动日期待定。

纪念捐赠可汇至瓦巴什学院官网( www.wabash.edu/give)或邮寄至:瓦巴什学院发展办公室,301 W. Wabash Ave., Crawfordsville, IN 47933。

更多信息及追思留言,请访问 www.ahlbergfuneralchapel.com


HN 热度 464 points | 评论 209 comments | 作者:throw0101a | 1 day ago #

https://news.ycombinator.com/item?id=47183578

  • 《Hyperion》系列是科幻迷必读的杰作,尽管阅读门槛较高,但其丰富的象征意义和哲学内涵值得反复品味。
  • 《Drood》是丹·西蒙斯较少为人知的佳作,成功模仿了狄更斯和威尔基·柯林斯的维多利亚时代文风,读来仿佛出自 19 世纪。
  • 对于不想投入整本书的读者,推荐短篇小说《The River Styx Runs Upstream》,风格类似斯特鲁加茨基兄弟的《路边野餐》。
  • 即使对狄更斯作品不感兴趣,也建议尝试《Drood》,因为其叙事魅力足以打动非传统读者。
  • 《Hyperion》虽被推崇为杰作,但节奏缓慢、结构复杂,部分读者难以进入,需耐心坚持才能领略其深意。
  • 该系列宗教主题浓厚,尤其以基督教象征为核心,若对宗教文化缺乏兴趣,可能难以产生共鸣。
  • 尽管宗教元素突出,但作品内涵远超宗教范畴,非信徒也能从中获得深刻体验。
  • 《Hyperion》第一卷涵盖多种世界宗教,后续才聚焦基督教,因此不必因宗教主题而完全排斥。
  • 该系列的结构借鉴《坎特伯雷故事集》,部分读者因叙事方式或情节反转未能产生共鸣而中途放弃。
  • 若觉得《Hyperion》过于沉重,可尝试《Flashback》,其风格更黑暗但同样具有思想深度。
  • 《Olympus》和《Ilium》相比《Hyperion》更具动作性,可能更适合偏好快节奏的读者。
  • 《Hyperion》的复杂性与象征体系需要多次阅读才能真正理解,初次阅读难以把握全貌。
  • 有人认为《Hyperion》虽有深度,但整体表现平平,评价被过度拔高,不值得投入大量时间。
  • 该系列的成功建立在对西方文化传统,尤其是宗教象征体系的深刻运用之上,非传统读者可能难以共鸣。
  • 乌托邦式的文化“白板”设想不可行,社会运行需要复杂文化根基,不应盲目抛弃传统。
  • 人类社会的运作系统至关重要,纯粹理性构建的“无文化”乌托邦难以维系,应重视历史与传统的复杂性。
  • 《The Culture》系列中人类并未被纳入“文明”体系,因此“我们”并未被抛弃,而是被刻意排除在外。

Hacker News 精彩评论及翻译 #

OpenAI agrees with Dept. of War to deploy models i… #

https://news.ycombinator.com/item?id=47189970

I don’t see how OpenAI employees who have signed the We Will Not Be Divided letter can continue their employment there in light of this. Surely if OpenAI had insisted upon the same things that Anthropic had, the government would not have signed this agreement. The only plausible explanation is that there is an understanding that OpenAI will not, in practice, enforce the red lines.

Imnimo

我不明白,在眼下这种情况下,签署了《我们绝不分裂》信的OpenAI员工怎能还能继续在那里工作。当然,如果OpenAI当时坚持了Anthropic所主张的那些原则,政府就不会签署这份协议。唯一合理的解释是,双方之间达成了某种默契,即OpenAI实际上并不会去执行那些红线。


OpenAI agrees with Dept. of War to deploy models i… #

https://news.ycombinator.com/item?id=47191302

Respectfully, it’s very hard to see how anyone could look at what just happened and come to the conclusion that one company ends up classed a “supply chain risk” while another agrees the the same terms that led to that. Either the terms are looser, they’re not going to be enforced, or there’s another reason for the loud attempt to blacklist Anthropic. It’s very difficult to see how you could take this at face value in any case. If it is loose terms or a wink agreement to not check in on enforcement you’re never going to be told that. We can imagine other scenerios where the terms stated were not the real reason for the blacklisting, but it’s a real struggle (at least for me) to find an explanation for this deal that doesn’t paint OpenAI in a very ethically questionable light.

baconner

恕我直言,我实在难以理解,看到眼前发生的一切,任何人怎么会得出这样的结论:一家公司被归类为“供应链风险”,而另一家却同意了导致该结果的相同条款。要么这些条款更宽松,要么不会被严格执行,要么,对Anthropic进行公开排挤的背后另有隐情。无论如何,都很难令人信以为真。如果条款更宽松,或者有一种“心照不宣”的默契(不去检查执行情况),那你绝对是永远不会被告知的。我们可以想象出其他情景,即声明的条款并非黑名单的真正原因,但(至少对我来说),要为这笔交易找到一个不会让OpenAI显得道德存疑的解释,真是相当困难。


I am directing the Department of War to designate … #

https://news.ycombinator.com/item?id=47187819

Wow, and the only restrictions Anthropic asked for are (1) no mass domestic surveillance and (2) require human-in-the-loop for killing 1. Those seem exceptionally reasonable, and even rather weak, lol :|

1 https://www.anthropic.com/news/statement-department-of-war

pinkmuffinere

哇,而Anthropic提出的唯一限制是(1)禁止大规模国内监控,以及(2)要求在杀人过程中必须有人介入 1。这些条件看起来相当合理,甚至可以说是相当宽松,哈哈:|


OpenAI – How to delete your account #

https://news.ycombinator.com/item?id=47193916

Posting it here as a top-level comment as many people asked why boycott just openAi:


openAI is the least trustworthy of the Big LLM providers. See S(c)am Altman’s track record, especially his early comments in senate hearings where:

  • he warned of engagement-optimisation strategies, like social media, being used for chatbots / LLMs.

  • also, he warned that “ads would be the last resort” for LLM companies.

Both of his own warnings he casually ignored as ChatGPT / openAI has now fully converted to Facebook’s tactics of “move fast and break things” - even if it is society itself. A complete turn away from the original AI for science lab it was founded as, which explains why every real (founding) ML scientist has left the company years ago.

While still being for-profit outfits, at least DeepMind and Anthrophic are headed by actual scientists - not marketing guys. At least for me, that brings me some confidence in their intentions as, as scientists we often seek knowledge, not power for power’s sake.

mentalgear

我把它作为顶级评论发在这里,因为很多人问为什么要抵制OpenAI:

OpenAI是大型语言模型提供商中最不值得信赖的。看看山姆·奥特曼 (Sam Altman) 的过往行为,尤其是在他早期的国会听证会上的发言,他曾警告说:

  • 他警告说,像社交媒体那样的互动优化策略会被用于聊天机器人/大型语言模型中。
  • 他还警告说,广告会是大型语言模型公司的“最后手段”。

然而,他自己发出的这两项警告都被他置之脑后了。如今,ChatGPT / OpenAI已经完全采纳了Facebook的“快速行动,打破常规”的策略——即便这意味着会破坏社会本身。这与公司最初成立时的“以科学为目标的AI实验室”的宗旨背道而驰,这也解释了为什么每一位真正的(创始)机器学习科学家都在几年前离开了这家公司。

尽管DeepMind和Anthropic同样是营利性公司,但它们至少是由真正的科学家领导的,而不是营销人员。至少对我来说,这让我对他们的意图多了一些信心,因为作为科学家,我们通常追求的是知识,而非权力本身。


Addressing Antigravity Bans and Reinstating Access #

https://news.ycombinator.com/item?id=47195943

Way too risky to use Google services like this tied to your primary account. There’s too much risk of cross damage. Imagine losing access to your Gmail because some Gemini request flags you as an undesirable. The digital death sentence of losing access to your email with a company that notoriously has no way for the average human to contact a human is not worth the risk.

koolba

将谷歌服务与你的主账户绑定起来使用,风险实在太大了。牵连的风险太高了。试想一下,因为某个Gemini的请求,你被标记为不受欢迎的用户,从而失去了Gmail的访问权限。而与一家臭名昭著、让普通人根本联系不上真人的公司失去电子邮件的访问权,这简直就是数字死刑,这个风险不值得冒。


The United States and Israel have launched a major… #

https://news.ycombinator.com/item?id=47193871

The president of peace btw.

I’m baffled at the lack of calls to boycott the Fifa world cup in US.

And at the double standards applied to Russians and Israelis in their wars of aggression.

I guess Israel can play the “October 7th” card at least which was an insane horror.

epolanski

顺便说一下,这位是和平总统。

我对美国竟然没有出现抵制FIFA世界杯的呼声感到困惑。

以及在对待俄罗斯和以色列这两场侵略战争时所采取的双重标准。

我猜以色列至少可以打出“10月7日”这张牌,毕竟那是一场疯狂的恐怖事件。


Statement on the comments from Secretary of War Pe… #

https://news.ycombinator.com/item?id=47189489

I used to work at Anthropic, and I wrote a comment on a thread earlier this week about Anthropic’s first response and the RSP update 1.

I think many people on HN have a cynical reaction to Anthropic’s actions due to of their own lived experiences with tech companies. Sometimes, that holds: my part of the company looked like Meta or Stripe, and it’s hard not to regress to the mean as you scale. But not every pattern repeats, and the Anthropic of today is still driven by people who will risk losing a seat at the table to make principled decisions.

I do not think this is a calculated ploy that’s driven by making money. I think the decision was made because the people making this decision at Anthropic are well-intentioned, driven by values, and motivated by trying to make the transition to powerful AI to go well.

lebovic

我曾经在 Anthropic 工作,并且在本早些时候的一个讨论线程上,就 Anthropic 的首次回应和 RSP 更新发表过评论 1

我认为,许多 HN 用户对 Anthropic 行为的愤世嫉俗,源于他们自己与科技公司的亲身经历。有时候,这种看法是成立的:我所在的公司部门看起来就像是 Meta 或 Stripe,并且在公司规模扩张时,很难不回归平庸。但并非所有模式都会重演,如今的 Anthropic 依然是由那些愿意为了坚守原则而放弃自身席位的人所驱动的。

我不认为这是一个受利益驱动、精心策划的阴谋。我认为做出这个决定,是因为 Anthropic 的决策者们心怀善意,被价值观所驱动,并致力于推动人工智能的平稳过渡。


We Will Not Be Divided #

https://news.ycombinator.com/item?id=47192078

This has much broader implications for the US economy and rule of law in the US.

If government procurement rules intended for national security risks can be abused as a way to punish Anthropic for perceived lack of loyalty, why not any other company that displeases the administration like Apple or Amazon?

This marks an important turning point for the US.

grey-area

这对美国经济和法治有着更为深远的影响。

如果旨在防范国家安全风险的政府采购规则,可以被滥用为一种手段,来惩罚Anthropic公司所谓的“不忠”,那为何不能以同样的方式对付任何其他让政府不悦的公司,比如苹果或亚马逊?

这标志着美国的一个重要转折点。


OpenAI raises $110B on $730B pre-money valuation #

https://news.ycombinator.com/item?id=47181631

IMO this looks largely like another circular investment. Amazon’s investment is tied to OpenAI using AWS for their Frontier product and I assume Nvidia’s conditions are that OpenAI continue buying hardware from them. Then there’s SoftBank though given that those are the same guys that invested heavily in WeWork, I assume this is just very brash bullishness on their part.

From my perspective, I hope that OpenAI survives and can pull of their IPO but I just have that nagging feeling in my gut that their IPO will be rejected in much the same way that the WeWork IPO was rejected.

On the one hand you can look at these companies investing and take it as a signal that there is something there (in OpenAI) that’s worth investing in. On the other hand all these companies that are investing are basically getting that investment back through spending commitments and such and are just using OpenAI as a proxy for what is essentially buying more revenue for themselves.

When their IPO hits later this year I hope that it’s the former case and there’s actually some good underlying fundamentals to invest in. But based on everything I’ve read, my gut is telling me they will eventually implode under the weight of their business model and spending commitments.

_fat_santa

我认为这很大程度上又像是一次循环投资。亚马逊的投资与OpenAI使用其AWS服务用于Frontier产品挂钩,而我猜测英伟达的条件是OpenAI继续向其购买硬件。然后是软银,考虑到他们就是那些曾对WeWork进行重投的人,我猜测这不过是他们相当大胆的看涨行为。

从我的角度来看,我希望OpenAI能够生存下来并成功完成IPO,但我内心总有一种挥之不去的感觉,他们的IPO会被拒绝,其方式与WeWork的IPO被拒绝如出一辙。

一方面,你可以看看这些公司的投资,并将其视为一个信号,表明OpenAI有一些值得投资的东西。另一方面,所有这些投资的公司基本上都是通过支出承诺等方式收回其投资的,他们只是在利用OpenAI作为代理,本质上是变相为自己增加营收。

当他们的IPO在今年晚些时候上市时,我希望是前者的情况,并且确实有一些良好的基本面值得投资。但基于我所读到的所有信息,我的直觉告诉我,他们最终会因其商业模式和支出承诺的重压而崩溃。


We Will Not Be Divided #

https://news.ycombinator.com/item?id=47189966

1.5 hours after this was posted, Sam Altman stated openai will work with the DoW.

So much for this waste of a domain name. https://x.com/sama/status/2027578652477821175

“Tonight, we reached an agreement with the Department of War to deploy our models in their classified network. "

hakrgrl

这条帖子发布后1.5小时,山姆·奥特曼表示OpenAI将与国防部合作。

这个域名算是白费了。https://x.com/sama/status/2027578652477821175

“今晚,我们与国防部达成协议,将在其保密网络中部署我们的模型。”


The United States and Israel have launched a major… #

https://news.ycombinator.com/item?id=47193951

The take home message from this is that the only way for any country to be secure is to have nuclear weapons.

sega_sai

从中得出的核心结论是,任何国家要确保自身安全的唯一途径就是拥有核武器。


A new California law says all operating systems ne… #

https://news.ycombinator.com/item?id=47187802

Reaction 1: how would this even work with embedded systems that have no UI to input this data?

Reaction 2: it’s open source, make the lawmakers do submit the changes.

Reaction 3: how would this ever be enforced? Would they outlaw downloading distributions, or even older versions of distributions? When there’s no exchange of money, a law like this is seems like it would be suppression of free speech.

Reaction 4: Someone needs to maliciously comply, in advance, on all California government systems. Shutdown the phones, the Wi-Fi, the building access systems, their Web servers, data centers, alarm systems, payroll, stop lights, everything running any operating system. Get everyone to do it on the same day as an OS boycott. And don’t turn things back on until the law is repealed.

bmitch3020

在没有用户界面来输入这些数据的嵌入式系统上,这要怎么实现呢? 这是开源的,应该让立法者们来提交修改。 这法规要如何落实?他们会禁止下载发行版,甚至是旧版本的发行版吗?在没有金钱交易的情况下,这样的法律看起来似乎就是在压制言论自由。 需要有人提前恶意遵守规定,针对所有加州政府系统。关闭电话、Wi-Fi、楼宇门禁系统、他们的网络服务器、数据中心、报警系统、工资系统、交通信号灯,所有运行任何操作系统的东西。在操作系统抵制活动的同一天,让所有人都这么做。并且在法律被废除之前不要恢复。


OpenAI agrees with Dept. of War to deploy models i… #

https://news.ycombinator.com/item?id=47192735

it’s very hard to see how anyone could look at what just happened

I think what you are missing is their annual comp with two commas in it.

Rebuff5007

很难想象任何人怎么会看到刚发生的事情 我觉得你忽略的是他们年薪里有两个逗号


The United States and Israel have launched a major… #

https://news.ycombinator.com/item?id=47193819

Well hopefully this is short, minimally lethal, and leads to regime change for all those involved.

adverbly

但愿这次冲突能迅速结束,伤亡最小,并让所有相关政权更迭。


The United States and Israel have launched a major… #

https://news.ycombinator.com/item?id=47194162

Pretty sure he chose his words carefully.

Revanche1367

他应该是字斟句酌。


Statement on the comments from Secretary of War Pe… #

https://news.ycombinator.com/item?id=47188933

Anthropic’s stance here is admirable. If nothing else, their acknowledgement of not being able to predict how these powerful technologies can be abused is a bold and intelligent position to take.

parl_match

Anthropic 的立场令人钦佩。至少,他们承认无法预测这些强大技术可能被滥用,这是一个大胆而明智的立场。


The United States and Israel have launched a major… #

https://news.ycombinator.com/item?id=47193874

leads to regime change for all those involved

Including for the U.S. and Israel?

Zealotux

会导致所有参与方的政权更迭。包括美国和以色列在内吗?


I am directing the Department of War to designate … #

https://news.ycombinator.com/item?id=47187647

The writeup here 1 was pretty clear to me.

Isn’t it unreasonable for Anthropic to suddenly set terms in their contract? The terms were in the original contract, which the Pentagon agreed to. It’s the Pentagon who’s trying to break the original contract and unilaterally change the terms, not Anthropic.

Doesn’t the Pentagon have a right to sign or not sign any contract they choose? Yes. Anthropic is the one saying that the Pentagon shouldn’t work with them if it doesn’t want to. The Pentagon is the one trying to force Anthropic to sign the new contract.

johnfn

这里的文章 1对我来说相当清晰。

Anthropic突然在合同中设定条款难道不合理吗? 条款原本就在合同里,五角大楼也同意了。试图打破原合同、单方面改变条款的是五角大楼,不是Anthropic。

五角大楼难道没有权利签或不签任何它选择的合同吗? 是的。是Anthropic说如果五角大楼不想合作,就不该和他们合作。试图强迫Anthropic签署新合同的是五角大楼。


The happiest I’ve ever been #

https://news.ycombinator.com/item?id=47199926

In the nicest possible way, this is basically the oldest lesson there is.

You weren’t happy because you optimized your feelings or had the right opinions. You were happy because you stopped focusing on yourself and became responsible for other people. Six kids needed you, in the real world, every week. That kind of outward focus kills emptiness fast.

Chasing happiness, moral righteousness, or political engagement just loops you back into your own head, helping people doesn’t. Feeling good is a side-effect of being useful, not the goal.

bengale

说得再客气点,这其实是世间最古老的道理了。

你之所以快乐,并不是因为你优化了情绪或有了正确的观念,而是因为你停止了自我关注,开始为他人负责。在现实世界里,每周都有六个孩子需要你。这种向外聚焦的方式能迅速驱空虚感。

追逐幸福、道德正确或政治参与只会让你陷入自己的思维怪圈,而帮助他人则不会。感觉良好,只是因为你变得有用,这只是一个副产品,而非目标。