2025-02-08 Hacker News Top Stories #
- Meta公司被指控通过非法手段下载大量盗版书籍数据用于训练AI模型,引发版权纠纷和法律复杂化问题。
- 英国政府要求苹果公司为iCloud创建加密后门,苹果可能会停止在英国提供加密服务以维护用户安全承诺。
- 本文探讨了如何通过多种方法改进大型语言模型的推理能力,并介绍了DeepSeek R1的训练流程和模型变体。
- Hector Martin辞去Linux内核开发职位,反映了Linux社区在Rust使用和管理方式上的内部分歧与争议。
- 斯坦福大学的圣诞讲座由Donald Knuth主讲,讨论了计算强连通分量和弱连通分量的算法及其应用。
- 哈佛大学法学院团队发布了Data.gov的存档版本,旨在保存和验证重要公共数据集,供研究和政策制定使用。
- 加利福尼亚州提出法案要求机器人在与居民互动时披露其自动化身份,引发了关于言论自由和隐私的广泛讨论。
- SQLite Page Explorer是一个GUI工具,允许用户以页面为单位探索SQLite数据库,帮助理解其底层存储结构。
- Transformer电子表格工具旨在帮助用户理解机器学习原理,通过Google Sheets创建自定义练习题。
- GitHub Copilot在代码中遇到特定禁用词时停止工作,引发开发者对其行为的不满和技术解决方案的讨论。
Meta torrented & seeded 81.7 TB dataset containing copyrighted data #
Meta 公司涉嫌侵犯版权的案件近日有了新的进展。书籍作者们指控 Meta 公司非法训练其 AI 模型使用了大量盗版书籍。最近解密的电子邮件显示,Meta 公司通过 torrent 方式下载了大量的盗版书籍,包括来自 LibGen 和 Z-Library 的数据。这些邮件还显示,Meta 公司的员工对这种行为的合法性表示了担忧,认为“使用公司的 IP 地址下载盗版内容并不合适”。
书籍作者们一直在寻求更多关于 Meta 公司 torrent 行为的信息,因为这涉及到版权问题。然而,Meta 公司一直抵制这些要求,甚至曾经试图隐瞒其 torrent 行为。解密的电子邮件显示,Meta 公司的员工曾经讨论过如何避免被发现,包括使用“stealth mode”和修改设置以最小化种子传播。
Meta 公司的行为可能会导致严重的后果,因为书籍作者们指控该公司直接侵犯了版权。Meta 公司一直坚持其行为是“合理使用”,但新出现的证据可能会使其案件更加复杂。书籍作者们要求重新审查 Meta 公司员工的证词,因为新的证据可能会与之前的证词相矛盾。
Meta 公司的 CEO 马克·扎克伯格曾经声称自己与使用 LibGen 训练 AI 模型的决定无关,但解密的电子邮件显示,使用 LibGen 的决定是在“MZ”(可能指马克·扎克伯格)之前的升级之后做出的。Meta 公司没有立即回应对这些指控的评论,但该公司可能会在未来面临更大的压力。
HN 热度 1051 points | 评论 761 comments | 作者:gameshot911 | 13 hours ago #
https://news.ycombinator.com/item?id=42971446
- 大公司保护自己的知识产权,但无视他人的知识产权
- 企业可以通过游说和律师团队来规避法律
- 企业违法行为往往不被追究,而个人违法则会受到严厉惩罚
- 企业可以通过提供低价服务来打破传统行业的垄断,但也可能通过不法手段来维持自己的垄断地位
- 现行法律可能存在缺陷,需要改革和完善
- 企业和个人在法律面前应该享有同等的权利和受到同等的惩罚
- 社交媒体和舆论可以影响公众对企业和法律的看法和态度
- 企业的违法行为可能会对社会和个人造成负面影响,需要加强监管和制裁
Apple Ordered by UK to Create Global iCloud Encryption Backdoor #
https://www.macrumors.com/2025/02/07/uk-government-orders-access-icloud/
英国政府秘密要求苹果公司为其提供对所有加密用户内容的访问权限,包括上传到 iCloud 的数据。英国政府通过一份名为“技术能力通知”的文件向苹果公司发出这一要求,要求苹果公司创建一个后门,以便英国安全官员可以无障碍地访问全球加密用户数据。
这一要求被认为是前所未有的,苹果公司被要求在不通知用户的情况下提供访问权限。苹果公司拒绝对这一要求进行评论,理由是相关法律禁止公司披露此类要求。英国政府也拒绝对这一要求进行评论,理由是他们不对具体的操作事项进行评论。
有消息人士称,苹果公司可能会停止在英国提供加密存储服务,以免违反其对用户的安全承诺。苹果公司此前曾表示,如果被要求提供后门访问权限,他们将考虑停止在英国提供诸如 FaceTime 和 iMessage 等服务。
这一要求将损害苹果公司的高级数据保护功能,该功能允许用户对 iCloud 数据进行端到端加密,使得数据对包括苹果公司在内的任何人都不可访问。谷歌也实施了类似的加密措施,称其无法访问安卓手机的端到端加密备份数据,即使在收到法律命令的情况下也是如此。
苹果公司的 CEO 蒂姆·库克一直坚持认为,提供后门访问权限将会让“坏人”获得用户数据的访问权限。网络安全专家也同意这一观点,认为创建后门将会给黑客带来可乘之机。苹果公司在 2016 年成功抵制了美国政府要求其解锁一名枪手的 iPhone 的要求。
近期,美国执法部门对加密的反对态度有所缓和,转而关注大规模的网络攻击。美国政府建议公民在可能的情况下使用加密通信,以保护其隐私。英国政府的这一要求被批评为“错误的尝试”,将损害整个人口的基本权利和公民自由。
HN 热度 1014 points | 评论 533 comments | 作者:throw0101d | 12 hours ago #
https://news.ycombinator.com/item?id=42971761
- 英国政府要求苹果公司创建全球 iCloud 加密后门,这可能会导致数据泄露和国家安全问题
- 苹果公司可能会停止在英国提供高级数据保护服务,而不是创建后门
- 英国政府的要求可能会产生恶劣的先例,允许其他国家也要求获取用户数据
- 五眼联盟国家可能会通过相互间谍来规避国内监视法
- 政府机构可能会使用法律漏洞和拖延战术来避免受到法律制约
- Snowden 泄露事件显示,政府机构可能会通过各种手段来规避法律和监视规定
- 英国政府的要求可能会损害英国公民的数据安全和隐私权
- 政府机构可能会使用秘密法律解释和法院裁决来为其监视行为辩护
- 法院可能会通过发放禁令和加速审理来应对政府机构的拖延战术
- 政府机构可能会通过各种手段来维持其监视行为的合法性和公众形象
Understanding Reasoning LLMs #
https://magazine.sebastianraschka.com/p/understanding-reasoning-llms
本文讨论了如何构建和改进大型语言模型(LLM)的推理能力。推理模型是指能够进行复杂的多步骤生成和中间步骤的语言模型。作者首先定义了推理模型的概念,并解释了为什么需要推理模型。推理模型适用于需要复杂思考和中间步骤的任务,如解谜、数学证明和编码挑战。
作者指出,推理模型有其优缺点。优点包括能够处理复杂任务和提供中间步骤,而缺点包括使用成本较高、输出可能过于冗长和容易出错。因此,作者建议根据任务的复杂性选择合适的语言模型。
本文还介绍了 DeepSeek R1 的训练流程,DeepSeek R1 是一种推理模型。DeepSeek R1 的训练流程包括三个阶段:预训练、强化学习和监督微调。作者还提到了 DeepSeek R1 的三个变体:DeepSeek-R1-Zero、DeepSeek-R1 和 DeepSeek-R1-Distill。
最后,作者概述了四种构建和改进推理模型的方法:推理时缩放、强化学习、监督微调和知识蒸馏。这些方法可以用于提高语言模型的推理能力和处理复杂任务的能力。作者还指出,选择合适的方法取决于具体的任务和语言模型的特点。
总的来说,本文提供了对推理模型和构建推理模型的方法的详细介绍。作者强调了选择合适的语言模型和方法的重要性,并提供了多种构建和改进推理模型的方法。这些信息对于希望提高语言模型推理能力和处理复杂任务的读者来说是有用的。
HN 热度 428 points | 评论 160 comments | 作者:sebg | 1 day ago #
https://news.ycombinator.com/item?id=42966720
- 认为当前的 LLM 模型过度优化了编码问题和数学问题,忽略了其他领域的推理能力。
- 认为使用强化学习训练 LLM 模型时,数学和编码问题提供了一个容易评估答案正确性的方式,但其他类型的推理问题则需要更多的主观努力。
- 指出编码问题的正确性难以通过测试来验证,需要正式的验证方法。
- 认为使用游戏作为数据来源可以提供一个清晰的成功或失败状态,适合强化学习。
- 指出即使在游戏中,正式验证程序的正确性也存在困难。
- 认为 LLM 模型在解决某些问题时会过度思考和过度拟合,特别是在编码问题上。
- 认为需要更好的训练方法来解决 LLM 模型的过度拟合问题。
- 指出正式验证的重要性和其在实际应用中的困难。
Asahi Linux lead developer Hector Martin resigns from Linux kernel #
https://lkml.org/lkml/2025/2/7/9
本网页内容是一份邮件列表的记录,具体来说是 Linux 内核邮件列表(lkml)的存档。邮件的标题是“[PATCH] MAINTAINERS:移除自己”,发送者是 Hector Martin,日期是 2025 年 2 月 7 日。
邮件的内容是 Hector Martin 宣布他将不再参与 Linux 内核的开发和维护工作,他表示自己已经对内核开发过程和社区管理方式失去了信心。尽管如此,他仍将继续在 Apple/ARM 平台上进行开发工作,但这些工作将在下游进行,而不是直接提交到上游的 Linux 内核中。如果他觉得有必要,他可能会在未来提交一些补丁到上游,但这取决于他的个人意愿。
邮件中还包括了一份补丁文件,这份补丁文件是对 Linux 内核的 MAINTAINERS 文件进行的修改,具体来说是移除了 Hector Martin 的维护者信息。补丁文件中还包括了一些其他的信息,如提交者、日期和修改的文件路径等。
总的来说,这份邮件记录了 Hector Martin 对 Linux 内核开发和维护工作的退出声明,以及他对未来工作的计划和安排。同时,也反映了 Linux 内核社区中的一些内部动态和管理方式的问题。
HN 热度 400 points | 评论 353 comments | 作者:Mond_ | 11 hours ago #
https://news.ycombinator.com/item?id=42972062
- Linus Torvalds 没有明确表态是否支持在 Linux 内核中使用 Rust,导致社区内部产生了分歧和争议。
- Hector Martin 的行为被认为是有毒的,威胁要在社交媒体上曝光他人,这种行为是不可接受的。
- Rust 在 Linux 内核中的使用应该有明确的界限和标准,不能任由个人随意添加 Rust 代码。
- 社区中有一些人反对在 Linux 内核中使用 Rust,认为这会降低内核的可维护性和稳定性。
- Linus Torvalds 应该明确表态并制定明确的政策来解决 Rust 在 Linux 内核中的使用问题。
- 社交媒体不应该被用作个人情绪发泄的工具,社区成员应该保持理性和尊重的讨论氛围。
- Rust 驱动程序需要使用 DMA 基础设施,但有些人反对在内核中添加 Rust 代码,导致了技术上的困难和争议。
Donald Knuth’s 2024 Christmas Lecture: Strong and Weak Components [video] #
https://www.youtube.com/watch?v=Hi8r_63LGyg
本网页内容是关于斯坦福大学在线课程的一段视频讲座,题目为"Stanford Lecture - Strong Components and Weak Components, Dr. Donald Knuth I 2024"。该讲座是斯坦福大学第 28 届年度圣诞讲座,于 2024 年 12 月 5 日举行。
讲座的主要内容是关于有向图的强连通分量和弱连通分量的计算。有向图可以通过将其顶点分成不同的组来更好地理解和使用。最重要的组是强连通分量,也称为"强组件",而强组件又可以进一步分成"弱组件"。
在图论中,弱组件有两种定义,一种定义较弱且不太有趣,而另一种定义则越来越相关和被重视。强组件是指可以收缩到一个点并得到一个有向无环图(DAG)的最小顶点集,而弱组件则是指可以收缩到一个点并得到一个有向路径的最小顶点集。
讲座中,Donald Knuth 博士将讨论 Robert Tarjan 的算法,该算法用于计算给定有向图的强连通分量和弱连通分量。Knuth 博士表示,这个算法是他个人最喜欢的算法之一,因为它在探索图的过程中可以发现强组件。
此外,如果时间允许,Knuth 博士还将揭晓一个谜题的答案:在哪个主要世界城市,XL 号衬衫比 L 号衬衫小?
该讲座由斯坦福大学在线课程提供,观众可以在斯坦福大学在线课程网站上观看完整的讲座视频。
HN 热度 357 points | 评论 57 comments | 作者:esbudylin | 17 hours ago #
https://news.ycombinator.com/item?id=42970240
- Donald Knuth 的办公室出乎意料地小,但这反映了他的谦逊性格
- 有人认为在未经同意的情况下发布别人的办公室照片是不恰当的
- Knuth 的书对程序员来说可能并不实用,但他的算法设计和写作风格是独特的
- 有人使用 Dancing Links 算法来生成横向和纵向的填字游戏
- Volume 4B 中的 Dancing Links 算法更新是值得一看的
- Amazon Route 53 的开发者使用了 Knuth 的算法来解决 DDOS 攻击问题
- Shuffle Sharding 方法可以提供可证明的网络 IP 级别的客户域隔离,而无需大量的基础设施成本
- Knuth 的书对程序员来说是实用和有价值的,可以拓宽思维和加深理解
Announcing the data.gov archive #
https://lil.law.harvard.edu/blog/2025/02/06/announcing-data-gov-archive/
哈佛大学法学院创新实验室团队宣布发布了 Data.gov 的存档版本,该存档包含 2024 年和 2025 年采集的超过 311,000 个数据集,总大小约为 16TB。这个存档将每天更新,以反映 Data.gov 上新增的数据集。该项目是实验室数据保管库项目的一部分,旨在保存和验证重要的公共数据集,以便学术研究、政策制定和公众使用。
实验室长期致力于保存政府记录和提供公共信息,这个项目是这一使命的延续。通过保存详细的元数据和建立数字签名以确保真实性和来源,实验室使研究人员和公众更容易引用和访问所需的信息。除了数据集之外,实验室还将发布开源软件和文档,以便其他人可以复制这一工作并创建类似的仓库。
这个项目建立在实验室之前的工作基础上,包括 Perma.cc 网页存档工具、Caselaw Access Project(分享美国所有具有先例的案件)以及关于世纪级存储的研究。实验室的工作得到了 Filecoin Foundation for the Decentralized Web 和 Rockefeller Brothers Fund 的支持。实验室欢迎建议和合作,相关事宜可以通过邮箱 lil@law.harvard.edu 联系。
HN 热度 356 points | 评论 112 comments | 作者:govideo | 18 hours ago #
https://news.ycombinator.com/item?id=42970039
- 哈佛大学创建的数据存档库可能无法抵御当前政府的干预和审查
- 数据存档库的安全性取决于其分布式存储系统和去中心化的设计
- 美国的言论自由保护可能不足以保障数据存档库的安全
- 数据存档库的镜像和备份是确保其安全的关键
- 去中心化的存储系统,如 IPFS,可能是确保数据安全的解决方案
- 政府可能会通过各种手段干预和审查数据存档库,包括施压和法律诉讼
- 数据存档库的创建和维护需要考虑政治因素和潜在风险
- 数据存档库的安全性也取决于其所在服务器和网络环境的安全性
- 哈佛大学和其他大学可能面临政府的压力和审查,需要采取措施保护数据存档库的安全
- 数据存档库的去中心化和分布式存储可以帮助确保其安全和完整性
California bill would require bots to disclose that they are bots #
https://www.veeto.app/bill/1955756
该网页介绍了加利福尼亚州的一项新法案,即 AB-410,该法案要求所有在线机器人和人工智能驱动的账户在与加利福尼亚州居民进行在线交互时披露其自动化性质。该法案扩大了当前对机器人的定义,包括使用生成式人工智能的账户,例如创建合成图像、视频、音频和文本的系统。
该法案要求任何使用机器人的人在在线交互中明确披露其自动化性质,并在被其他用户询问时提供此信息。披露要求适用于所有公共网站、网络应用程序和数字平台,尤其是那些每月美国访客超过 1000 万的平台。该法案旨在提高在线通信的透明度,要求所有机器人在所有情况下进行识别,而不仅仅是在涉及潜在欺骗的情况下。
该法案由加利福尼亚州众议员 Lori Wilson 提出,目前已在加利福尼亚州议会中正式提出并首次朗读。社区对该法案的反应褒贬不一,45.5% 的人支持该法案,而 54.5% 的人反对。目前尚无该法案的投票记录,但人们可以通过电子邮件联系法案作者表达自己的意见。该法案的通过可能会对在线通信和人工智能技术的发展产生重大影响。
HN 热度 276 points | 评论 165 comments | 作者:alexd127 | 22 hours ago #
https://news.ycombinator.com/item?id=42968347
- 认为要求公众面向的机器人披露其身份没有坏处
- 认为应该双向披露,机器人要确认自己是机器人,人类也要确认自己是人类
- 人类伪装成机器人可能会导致隐私问题和信任问题
- 有些人认为这种规定可能是违宪的,限制了言论自由
- 有些人认为这种规定可能会导致滥用,人类可能会伪装成机器人来达到某些目的
- 有些人认为机器人和人类的区别并不重要,重要的是内容和服务的质量
- 有些人认为这种规定可能会导致过度监管,限制了技术的发展
- 有些人认为透明度是重要的,机器人应该披露其身份以便人们做出明智的选择
Show HN: SQLite disk page explorer #
https://github.com/QuadrupleA/sqlite-page-explorer
这个网页是一个关于 SQLite Page Explorer 的项目介绍页面。SQLite Page Explorer 是一个小型的 GUI 应用程序,允许用户以页面为单位来探索 SQLite 数据库。它可以让用户看到数据库在磁盘上的存储方式,以及 SQLite 如何组织数据。
SQLite Page Explorer 的主要功能是让用户可以以页面为单位来查看数据库的内容。通常,开发人员与数据库的交互是通过 SQL 语句来进行的,但是这个工具可以让用户看到数据库的底层存储结构。通过使用这个工具,用户可以更好地理解数据库的组织方式,包括索引、表和行的存储方式。
这个项目使用了 redbean 框架来构建,redbean 是一个可以让 Lua 代码运行在多个平台上的框架。SQLite Page Explorer 的代码使用 Lua 编写,使用 redbean 框架可以让它在 Windows、Linux、MacOS 等多个平台上运行。该项目的代码开源,使用 MIT 许可证。
要使用 SQLite Page Explorer,用户可以从项目的发布页面下载可执行文件,然后运行它。用户可以将数据库文件拖拽到应用程序中,或者在命令行中运行应用程序并指定数据库文件。应用程序会在浏览器中打开一个新标签页,显示数据库的内容。
这个项目的作者表示,这个项目是为了尝试 redbean 框架和 Lua 语言而创建的。代码可能不是非常完美,欢迎其他开发人员提交 pull request 来改进它。作者还提到,应用程序可能会对非常大的数据库文件运行缓慢,未来可能会添加一些功能来改进性能。
HN 热度 269 points | 评论 36 comments | 作者:QuadrupleA | 1 day ago #
https://news.ycombinator.com/item?id=42965198
- SQLite 的磁盘页面浏览器是一个非常有用的工具,可以帮助人们更好地理解 SQLite 的内部工作原理
- 该工具可以帮助开发人员更有效地优化数据库性能和结构
- SQLite 的文件格式相对简单,容易解析和理解
- 使用 WITHOUT ROWID 可以提高 SQLite 的性能,但需要手动管理行 ID
- 该工具对于学习和理解 SQLite 的内部工作原理非常有帮助
- 读写分离和并发控制是使用 SQLite 的重要考虑因素
- 使用 S3 对象存储作为 SQLite 的后端可以提供灵活性和可扩展性,但需要考虑性能和成本问题
Transformer – Spreadsheet #
https://www.byhand.ai/p/transformer-spreadsheet
这个网页似乎是一个博客文章,主要内容是关于作者 Tom Yeh 创建的一个名为"AI by Hand"的项目。作者表示,他已经与多位 AI 教育者合作,定制了他的"AI by Hand"练习题,并且这些材料被世界各地的许多课堂使用。然而,由于定制过程完全是手动进行的,作者的解决方案有时会包含错误,但他对学生们能够发现这些错误感到高兴。
作者最近一直在思考开发一个工具,让人们能够创建自己的"AI by Hand"练习题,具有自定义的数字和解决方案。经过考虑了多种技术之后,他决定使用 Google Sheets 作为开发工具。作者的目标是最大限度地扩大工具的使用范围和访问权限。由于这个工具仍然处于早期阶段,作者希望能够得到读者的反馈。
此外,网页中还提到了作者的其他一些项目和文章,例如"DeepSeek Lecture"和"Full-Stack Transformer"。这些项目似乎与人工智能和深度学习相关,作者使用 Excel 和 Google Sheets 等工具来创建和分享他的项目。作者还提到了他的 Substack 订阅服务,读者可以通过订阅来支持他的工作并获取更多的内容。总的来说,这个网页是一个关于人工智能和教育的博客,作者分享了他的项目和想法,并希望能够得到读者的反馈和支持。
HN 热度 243 points | 评论 20 comments | 作者:next_xibalba | 22 hours ago #
https://news.ycombinator.com/item?id=42968547
- 通过将 Transformer 实现为电子表格,可以帮助人们更好地理解机器学习的基本原理和工作机制。
- 机器学习模型的复杂行为可以通过简单的数学原理和大量的训练数据来实现。
- 将机器学习模型比喻为“生命游戏”,可以帮助人们更好地理解其工作原理和行为模式。
- 通过使用简单的例子和可视化工具,可以帮助人们更好地理解机器学习模型的内部工作机制。
- 机器学习模型的实现细节对于理解其工作原理和行为模式是非常重要的。
- 通过手动计算和可视化,可以帮助人们更好地理解机器学习模型的数学原理和内部工作机制。
- 电子表格可以成为一个有用的工具,用于理解和实现机器学习模型。
- 机器学习模型的工作原理和行为模式可以通过简单的数学原理和大量的训练数据来理解和解释。
Copilot stops working on code that contains hardcoded banned words from GitHub (2023) #
https://github.com/orgs/community/discussions/72603
这个网页讨论的是 GitHub Copilot 的一个问题。Copilot 是一个人工智能代码助手,但它在遇到某些特定词汇时会停止工作,例如“gender”或“sex”。这个问题被认为是一个 bug,因为这种行为是不可预期的,并且没有在文档中说明。
用户 jebarjonet 提出了这个问题,指出 Copilot 在遇到这些词汇时会停止工作,这对某些领域的开发者来说是一个问题,例如医疗、行政或人口统计领域。另一个用户 marc-pingtt 也遇到了同样的问题,他表示即使在同一个文件中明确写出所有的性别选项,Copilot 仍然会停止工作。
一些用户建议可以通过添加前缀或创建编码词来绕过这个问题,但其他用户认为这是一个根本性的问题,应该由 GitHub 的开发者来解决。用户 wsficke 指出,这个问题是由于 GitHub 的“禁用词汇”列表引起的,这个列表可能是基于美国的文化和政治环境创建的,但这可能并不适用于其他文化和环境。
另一个用户 davidcarvalho83 认为,技术不应该与意识形态混淆,开发者应该能够使用任何词汇来命名变量或函数,而不应该受到限制。用户 nhophucrious 表示,这个问题仍然存在,并且没有任何解决方案。
此外,一些用户也遇到了类似的问题,例如 YamiOdymel,他指出 Copilot 在遇到“trans”这个词时也会停止工作,而他实际上是想使用“transactions”这个词。用户 jmiller-jumptrading 也遇到了同样的问题,他表示 Copilot 拒绝讨论“trans_time”这个词。
总的来说,这个网页讨论的是 GitHub Copilot 的一个问题,即它在遇到某些特定词汇时会停止工作,这对某些领域的开发者来说是一个问题。用户们认为这个问题应该由 GitHub 的开发者来解决,而不是通过绕过或创建编码词来解决。
HN 热度 219 points | 评论 98 comments | 作者:lknik | 13 hours ago #
https://news.ycombinator.com/item?id=42971279
- Copilot 停止在代码中工作的原因是代码中包含了 GitHub 禁止的硬编码单词
- 有人认为代码中的脏话可能与代码质量有关,使用 AI 会导致代码质量下降
- 有人呼吁使用本地模型来避免大公司控制 AI
- 有人认为 AI 模型应该由社区共同训练和推动创新
- 有人对 Copilot 停止工作的原因感到奇怪,认为这不是一个好的解决方案
- 有人认为大公司的决定可能是出于对社会问题的担忧,但这种担忧可能是脱离实际的
- 有人认为 AI 行业担心会被认为是在支持 AI 生成的所有内容,因此采取了过度的预防措施
- 有人认为使用电动汽车在陌生城市会带来范围焦虑和不便
- 有人认为 AI 模型的训练应该更加开放和去中心化,以避免被大公司控制。