ainews-not-much-happened-today-5498
今天没发生什么特别的事。
以下是为您翻译的中文内容:
Meta 宣布 LLaMA 3.1 获得了广泛采用,在 Hugging Face 上的下载量已接近 3.5 亿次。Magic AI Labs 推出了 LTM-2-Mini,这是一款拥有 1 亿 token 上下文窗口的长文本模型,并引入了名为 HashHop 的新评估方法。LMSys 在其 Chatbot Arena 排行榜中加入了风格控制(style control),提升了 Claude 3.5 Sonnet 和 LLaMA 3.1 405B 等模型的排名。阿里巴巴发布了 Qwen2-VL,这是一款采用 Apache 2.0 协议的多模态大语言模型,性能可与 GPT-4o mini 媲美。OpenAI 首席执行官 Sam Altman 宣布与美国 AI 安全研究所(US AI Safety Institute)合作,开展模型发布前的测试。Ajeya Cotra 重点讨论了 AI 安全及潜在的 AI 接管风险。文中还提到了用于网页爬取的 firecrawl 等工具以及 PDF 处理中的挑战。François Chollet 探讨了 AI 炒作周期和市场趋势,Rohan Paul 则分享了 AI 对呼叫中心可能带来的颠覆。
3天周末就是你所需要的一切。
2024年8月29日至8月30日的 AI 新闻。我们为你检查了 7 个 subreddits、433 个 Twitter 账号 和 30 个 Discord 社区(包含 213 个频道和 3131 条消息)。预计节省阅读时间(以 200wpm 计算):340 分钟。你现在可以标记 @smol_ai 来进行 AINews 讨论!
我们考虑的一些零散内容:
- 重点关注本周的 Google Gemini 和 Cohere Command R(博客文章,但排行榜尚未更新)模型更新。
- Lmsys 通过引入风格控制(style control)排行榜来回应批评,尽管 ChatGPT-4o-latest 依然碾压其他所有人。
- Meta 的 AI 助手宣布其 MAU(月活跃用户)达 4 亿,WAU(周活跃用户)为 1.85 亿,DAU(日活跃用户)为 4000 万。
但似乎没有什么是“必须了解”的。
AI Twitter 回顾
所有总结均由 Claude 3.5 Sonnet 完成,取 4 次运行中的最佳结果。
AI 模型开发与基准测试
-
LLaMA 3.1 的采用:Meta 宣布 LLaMA 模型被大量采用,在 Hugging Face 上的下载量接近 3.5 亿次,并在各行各业得到广泛应用。@AIatMeta 强调了开源 AI 在将利益扩展到每个人方面的重要性。
-
长上下文模型:Magic AI Labs 推出了 LTM-2-Mini,该模型具有 1 亿 token 的上下文窗口。@magicailabs 声称这相当于 1000 万行代码或 750 本小说。他们还引入了 HashHop,一种用于长上下文模型的新评估方法。
-
AI 评估中的风格控制:LMSys 在其 Chatbot Arena 的回归模型中引入了风格控制,旨在将排名中的风格影响与实质内容分开。@lmsysorg 报告称,当风格受到控制时,Claude 3.5 Sonnet 和 Llama-3.1-405B 等模型的排名显著上升。
-
Qwen2-VL 发布:阿里巴巴发布了 Qwen2-VL,这是一款新的多模态 LLM,提供 2B 和 7B 尺寸,采用 Apache 2.0 许可证。@_philschmid 指出其在各种基准测试中与 GPT-4o mini 相比具有竞争力。
AI 安全与监管
-
美国 AI 安全研究所测试:OpenAI CEO @sama 宣布与美国 AI 安全研究所达成协议,对未来模型进行发布前测试,强调了国家级测试的重要性。
-
关于 AI 接管的担忧:@ajeya_cotra 讨论了针对潜在 AI 接管的预防措施,质疑如何在灾难性伤害发生之前建立共识和行动意愿。
AI 应用与工具
-
网页爬取工具:@rohanpaul_ai 分享了关于 firecrawl 的信息,这是一个开源工具,用于爬取整个网站并将其转换为适用于 LLM 的 Markdown 或结构化数据。
-
PDF 处理挑战:@svpino 强调了使用当前 AI 模型处理 PDF 文档的困难,并建议将文档预处理为文本格式以获得更好的效果。
AI 行业与市场趋势
-
AI 炒作周期:@fchollet 观察到,科技界的 AI 炒作高峰在 2023 年 Q1-Q2,而公开市场的 AI 贪婪高峰在 2024 年 Q1-Q2,并指出无论如何,AI 研究和应用都在继续取得进展。
-
呼叫中心行业颠覆:一篇热门的 Reddit 帖子讨论了 AI 对呼叫中心行业的潜在影响,认为 AI Agent 可能会在两年内取代人类员工。@rohanpaul_ai 分享了这一点,并指出了其对客户服务和就业的影响。
AI Reddit 回顾
/r/LocalLlama 摘要
主题 1:长上下文 AI 推理的进展
- 本地 1M 上下文推理,速度达 15 tokens/s 且“大海捞针”准确率约 100%:InternLM2.5-1M 在 KTransformers 上运行,仅需 24GB VRAM 和 130GB DRAM。支持 Windows/Pip/多 GPU 等。 (Score: 114, Comments: 28):KTransformers 项目为 InternLM2-1M 模型引入了本地 1M 上下文推理,在仅使用 24GB VRAM 和 130GB DRAM 的情况下,实现了 15 tokens/s 的推理速度,并在“大海捞针”(Needle In a Haystack)挑战中达到约 100% 的准确率。该项目基于 H2O、InfLLM、Quest 和 SnapKV 等研究,实现了一个高效的 CPU 稀疏注意力算子(sparse attention operator),使 1M 挑战的推理速度提升了 6 倍,成功率达到 92.88%,同时在 128K 测试中保持 100% 准确率。
- RULER 基准测试显示 InternLM2.5 的“有效”上下文长度仅为 4K tokens,超过此长度后表现逊于 Llama2-7b。项目开发者表示稍后将测试 RULER,并强调他们的演示展示了稀疏注意力算子的有效性。
- 用户表示有兴趣将 Mistral Large 2 添加到项目的模型列表中,目前该列表已包含 Mixtral-8x22B。一些评论者认为该项目的进展“令人兴奋”。
- 部分用户报告了安装问题,有人在 cmake 过程中遇到了 pip 的 404 错误。这表明某些用户在设置该项目时可能面临技术挑战。
主题 2:加州 SB 1047 法案:对 AI 开发的影响
- [SB 1047 法案通过。你认为这会影响 LLAMA 吗?] (Score: 52, Comments: 68):SB 1047 是一项针对 AI 生成内容的法案,已在加利福尼亚州通过。该立法要求在某些情况下披露 AI 生成的内容,这可能会对 LLAMA 和其他 AI 语言模型产生影响。虽然对 LLAMA 的具体影响尚不确定,但该法案的通过可能需要改变 AI 生成内容的呈现和使用方式,特别是在商业和政治应用中。
- 该法案 1 亿美元的训练成本阈值引发了关于其对开源 AI 影响的辩论。一些人认为它不会影响本地模型,而另一些人则认为它可能会影响像 LLAMA 405B 及其蒸馏版本这样的大型模型。
- 批评者担心该法案可能会扼杀创新并有利于大公司。一些用户致电 Newsom 州长办公室反对 SB 1047,理由是担心不必要的监管和 AI 公司成本的增加。
- 该立法要求对大型 AI 模型采取安全措施,包括关停能力(shutdown capabilities)、第三方审计和举报人保护。一些人认为这些是合理的预防措施,而另一些人则认为它们是对开源开发和言论自由的潜在威胁。
- 加州议会通过 SB 1047 (Score: 165, Comments: 73):加州议会通过了 SB 1047 法案,该法案可能对开源 AI 模型产生重大影响。据报道,该立法包含要求模型作者具备关停其模型能力的条款,这可能导致最先进的 AI 模型难以开源,并可能使 AI 开发集中在少数几家公司手中。
- 由于 Meta 总部位于加利福尼亚州,该公司可能面临重大挑战。用户推测该公司可能会搬迁到西雅图或剥离子公司以规避法律,而另一些人则认为他们可能会直接停止发布开源模型。
- 据一段 YouTube 视频(20:15 处)称,受监管模型的 1 亿美元训练成本阈值是由 Eric Schmidt 及其同事任意确定的。一些用户认为,这项立法可能会将创新赶出加州,并有利于中国的 AI 发展。
- 法律学者建议,由于加州经济地位重要,在加州开展业务的公司无论所在地在哪里,都需要遵守该法案。一些用户认为这是加州在阻碍整个行业的发展,而另一些人则认为这是大型科技公司希望通过监管来限制竞争。
其他 AI Subreddit 回顾
r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence, /r/LLMDevs, /r/Singularity
AI 视频生成与视觉效果
-
AI 生成的怪兽电影片段:一段展示 AI 生成的海怪场景的视频引发了关于 AI 视频生成现状的讨论。虽然令人印象深刻,但许多评论者指出它仍未达到好莱坞水准,并提到了物理规律、几何形状和人类反应方面的问题。
-
AI 电影即将来临:一篇关于即将上映的 AI 生成电影的帖子受到了广泛关注,表明人们对 AI 对电影行业潜在影响的兴趣日益浓厚。
AI 模型进展
- Magic 的 1 亿 token 上下文窗口:Magic 训练了一个拥有 1 亿 token 上下文窗口的模型,相当于 1000 万行代码或 750 本小说,代表了模型上下文容量的重大进步。
AI 安全与监管
- Anthropic 与美国 AI 安全研究所达成协议:Anthropic 已与美国 AI 安全研究所达成协议,对其未来模型进行发布前测试,这标志着向更受监管的 AI 开发迈出了一步。
AI 在游戏和交互式环境中的应用
- AI 玩 Minecraft:一段演示 AI 像人类一样玩 Minecraft 的视频展示了 AI 在复杂的开放世界游戏环境中交互能力的提升。
AI Discord 回顾
由 Claude 3.5 Sonnet 提供的总结之总结
1. LLM 进展与基准测试
- Llama 3 登顶排行榜:来自 Meta 的 Llama 3 在 ChatbotArena 等排行榜上迅速攀升至榜首,在超过 50,000 场对决中表现优于 GPT-4-Turbo 和 Claude 3 Opus 等模型。
- 社区对 Llama 3 的表现感到兴奋,讨论了它对 AI 格局的潜在影响,以及它与专有模型的对比。
- Grok 2 在代码生成方面表现出色:讨论强调了 Grok 2、Gemini 和 ChatGPT 之间的性能对比,其中 Grok 2 在代码生成任务中被认为特别强大。
- 用户推测了即将推出的模型(如 Grok 3),并对在强大硬件支持下可能实现的性能优势提出了疑问。
- Word Game Bench 挑战 LLM:新开发的 Word Game Bench 作为一个基准测试,用于评估语言模型在 Wordle 等文字拼图游戏中的表现,目前没有模型能达到超过 50% 的胜率。
- 该基准测试侧重于模型交互和推理,强调了 LLM 在动态、游戏化环境中所面临的挑战。
2. 开源 AI 发展
- Re-LAION-5B 数据集发布:Re-LAION-5B(LAION-5B 数据集的清理版本)的发布受到了社区的欢迎,因为它解决了之前的安全顾虑。
- 这个与关键机构合作创建的更新版数据集,标志着在确保大规模 AI 训练数据的安全性和合规性方面迈出了重要一步。
- RunwayML 删除 Stable Diffusion 仓库:RunwayML 删除了他们在 HuggingFace 和 GitHub 上的所有 Stable Diffusion 1.5 仓库,引起了用户的不满,并导致 Diffusers 1.5 中的功能失效。
- 社区推测删除行为背后可能存在法律问题,强调了此类行为对开源 AI 生态系统的影响。
- GameNGen:神经游戏引擎突破:GameNGen 是第一个完全由神经模型驱动的游戏引擎,可以在单个 TPU 上以每秒超过 20 帧的速度模拟 DOOM,PSNR 达到 29.4。
- 这一突破展示了神经模型在实时游戏模拟中的潜力,人类评分者很难区分真实游戏画面和模拟画面。
3. 模型优化技术
- 动态专家路由增强适应性:讨论了允许模型在训练期间定义自己的专家,而不是使用固定配置的概念,作为提高适应性的一种方式。
- 这一想法与正在进行的研究相关,例如 LayerSkip 论文 中提出的方法,旨在提高模型性能和效率。
- 大型模型的量化技术:讨论重点介绍了 AQLM 和 QuaRot 等量化技术,旨在在保持性能的同时,在单个 GPU 上运行大型语言模型 (LLMs)。
- 成员们分享了实现细节和基准测试,例如在 RTX3090 上运行 Llama-3-70b,展示了这些优化方法的潜力。
- 有限标量量化 (FSQ) 作为 VQ-VAE 的替代方案:讨论了引入 有限标量量化 (FSQ) 作为 VQ-VAEs 中传统矢量量化技术的一种潜在有效且更简单的替代方案。
- 正如 相关论文 中所述,FSQ 方法有望在各种任务中提高性能,并对语言模型中的 token 利用产生影响。
4. AI 部署与基础设施
- Tinygrad 推出实惠的云服务:Tinygrad 宣布了一项新的云服务,仅需 $60/月 即可提供 4090 GPU 和 500 GB 存储空间,比 Vast AI 等竞争对手便宜 3 倍。
- 该服务引入了 ‘CLOUD=1’ 功能,允许用户在本地运行 Tinygrad,同时利用云端速度通过 10 步处理来增强性能。
- OpenRouter 秘密发布并上线:OpenRouter 成功上线,以 $2.5/百万 tokens 的竞争性价格提供支持 128k 上下文和 function calling 的 Llama 3.1-405B-instruct。
- 团队强调建立可靠的基础设施而非基于推荐的补偿,突显了他们对服务质量和可访问性的关注。
- Cohere 的 Command R 系列更新:Cohere 宣布了更新后的 Command R 和 R+ 模型,在推理、编程和多语言 RAG 方面的性能有所提升,现在以新的别名提供。
- 更新后的模型具有更低的每 token 价格,其中 R 的输入 token 价格显著降低至 $0.15,展示了在性能和成本效益方面的进步。
第一部分:Discord 高层摘要
Unsloth AI (Daniel Han) Discord
- 微调与 RAG 的辩论:讨论表明,虽然 RAG 可能会减少幻觉,但在微调过程中,受控的过拟合至关重要。其有效性在很大程度上取决于数据集大小以及 rank 和 alpha 等超参数。
- 参与者强调,这两种方法都没有明显的优劣之分,必须根据具体的项目需求定制这两种策略。
- LLMs 的多样化用例:LLMs 目前被应用于各个行业,如 AT&T 等公司将其用于客户支持,其他公司则用于专有研究应用。类似于 GPT 的指令型模型在部署领域占据主导地位。
- 这些应用中展示的多功能性表明,将 LLMs 整合到实际日常运营中已成为一种强劲趋势。
- OpenRouter 发布并立即投入运行:OpenRouter 成功上线了 Llama 3.1-405B-instruct,具有 128k 上下文和 function calling 能力,价格极具吸引力,为 $2.5/百万 tokens。
- 澄清说明开发者的报酬不受推荐链接使用的影响,而是专注于构建可靠的基础设施。
- 即将推出的模型和新的定价趋势:围绕 Meta 即将发布的 Llama 模型的猜测引起了热议,尽管关于 Llama 4 的细节尚不清楚。与此同时, OpenAI 披露了其 GPT-4o 模型的降价信息,现在每 100 万 tokens 的成本为 $4。
- 这些调整为开发者提供了一条优化成本的途径,同时可以访问更新的模型和功能,例如严格符合 JSON Schemas 的结构化输出。
- 关于微调目标的社区协作:一位社区成员表达了在没有特定目标的情况下微调 LLM 的渴望,纯粹是为了乐趣。这种开放性突显了社区内的探索精神。
- 这种心态可能会激励其他开发者在固定项目框架之外进行实验和创新。
aider (Paul Gauthier) Discord
- Gemini 模型引发褒贬不一的反应:新的 Gemini 模型 因其声称的性能提升而引起轰动,但用户对其与 Sonnet 等现有模型相比的有效性仍持谨慎态度。
- 怀疑主要集中在该模型在 Aider 场景中的实际效用,导致用户纷纷分享使用体验以进行验证。
- Sonnet 表现持续稳定:最近的基准测试确认 Sonnet 的性能保持一致,反驳了此前关于性能下降的猜测。
- 基于其稳定的基准测试分数,用户对该模型的能力和可靠性表现出持续的兴趣。
- Aider 的投资讨论升温:社区内围绕 Aider 的潜在投资展开了热烈讨论,特别是需要一个更精细的 GUI 来扩大其可用性。
- 建议包括使用用户生成的数据来增强排行榜功能,以更好地反映性能指标。
- 长上下文模型受到关注:围绕能够处理 1 亿 token 的模型的讨论可能会显著影响编码工作流,Magic dev 等工具被提及为行业颠覆者。
- 用户对这些模型在 AI 辅助开发中实际应用的兴趣持续增长。
- Aider 缺乏 Swift 支持:由于 tree-sitter 包的限制,目前 Aider 缺乏对 Swift 的支持,这让开发者感到沮丧。
- 用户承认,为 Swift 添加后端支持可能需要额外的自定义开发工作。
OpenAI Discord
- LLM 个性化受到关注:成员们对语言模型的个性化表现出浓厚兴趣,提倡可定制的个性和长期记忆,以增强用户交互。
- 出现了对高昂实现成本和维护复杂性的担忧,RAG (Retrieval-Augmented Generation) 等想法被视为潜在的解决方案。
- 利用 OpenAI API 构建聊天机器人:社区讨论了利用 OpenAI API 进行自定义聊天机器人开发,涉及对编程技能的要求和适用场景。
- 虽然出现了像 Zendesk 这样的无代码解决方案建议,但人们也承认了在自动化以及与 Jira 等系统集成方面的局限性。
- Grok 2 在性能测试中脱颖而出:讨论强调了 Grok 2、Gemini 和 ChatGPT 之间的性能比较,指出 Grok 2 在代码生成任务中表现尤为强劲。
- 对即将推出的 Grok 3 等模型的猜测引发了兴奋,人们对其在强大硬件支持下可能具备的性能优势提出了疑问。
- AGI 发展引发全球担忧:参与者表达了对哪个国家可能率先实现 AGI 及其随之而来的权力转移影响的担忧。
- 强调了美国保持技术领先地位以减轻全球稳定风险的必要性。
- 简历匹配评分的挑战:一位用户报告了通过 API 提示词根据职位描述对简历进行评分的困难,并指出一个不相关的商务总监职位竟然得到了令人费解的 65 分。
- 调整评分参数没有带来改善,不同工程角色之间依然存在严重的错位问题。
HuggingFace Discord
- Inference Endpoints 宕机:成员们报告了 Inference Endpoints 的问题,可能由于一个与支付方式相关的 bug 引起,由于生产环境网站依赖这些端点,修复工作迫在眉睫。
- 已提交一个 Pull Request,团队表示正在处理该问题。
- 关于模型训练与性能的讨论:用户探讨了使用各种模型训练对话数据的细微差别,讨论了结合 system prompts 与从上下文学习的效果。
- 针对本地模型的 VRAM 限制问题,有人建议使用 Colab 以获得更强大的资源。
- 人类反馈对模型评估至关重要:一篇论文强调 human feedback 对于训练 Large Language Models 至关重要,尽管会受到偏见的影响。
- 研究人员指出,虽然偏好评分有助于评估,但它们往往无法代表 factuality 等关键方面 (查看 PDF)。
- LLM 中的高效层剪枝:一项研究审查了 LLM 的层剪枝策略,发现直到移除 多达一半 的层时,性能退化才非常微小。
- 该技术涉及 parameter-efficient finetuning (PEFT) 和 quantization 以在剪枝后恢复模型性能。
- FLUX LoRA 训练简化:一篇名为 FLUX LoRA Training Simplified 的指南指导用户如何使用 Kohya SS GUI 在 8GB GPU 上进行训练。
- 该教程使初学者能够顺利开启他们的训练之旅。
CUDA MODE Discord
- Flash Attention 面临内存挑战:用户正面临 flash attention kernel 中共享内存大小的挑战,特别是 Q 的大小需求达到了 131,072 bytes,这引发了对非 Hopper GPU 效率的担忧。
- 在使用 NVIDIA GeForce RTX 3090 进行测试时,用户在使用 Hugging Face 示例时遇到了
OutOfMemoryError,这表明当前软件包版本的内存管理存在挑战。
- 在使用 NVIDIA GeForce RTX 3090 进行测试时,用户在使用 Hugging Face 示例时遇到了
- LayerNorm Kernel 更新提升性能:随着 Liger Kernel 仓库中 PR #169 的合并,LayerNorm 自定义 kernel 的集成已得到确认,并在 RTX 3090 上通过了正确性测试。
- 进一步的讨论集中在原子操作的动态分派上,以优化多 GPU 设置中的性能。
- 回归 FP8 进行开发:一位成员正回归到 FP8 代码开发,以巩固他们的理解并推进正在进行的项目,对早期的进展感到满意。
- 这表明在预期进一步优化的当前环境下,重点是增强性能和兼容性。
- L2 Side Aware 优化实现速度提升:L2 Side Aware 代码在 GELU forward 中实现了 1823GB/s 的稳定速度,比早期 x128 配置的性能提升了 2%。
- 尽管有所改进,但讨论指出需要进一步简化以维持优化并降低功耗。
- 社区质疑量化技术:在讨论量化注意力层时,成员们对 QKV projections 的准确性表示担忧,建议需要改进策略以维持系统性能的延迟。
- 值得注意的是,在使用浮点整数时发现 AWQ 性能下降的问题,引发了对高性能最佳实现的询问。
Stability.ai (Stable Diffusion) Discord
- Flux 的 IP Adapter 引发褒贬不一的反应:成员们讨论了近期推出的 Flux IP Adapter,并指出用户之间的性能反馈结果不一。
- 尽管对其效果意见不一,许多人仍对工具箱中增加这一新功能感到兴奋。
- 在有限 VRAM 下训练模型面临挑战:分享了在 RTX 3060 上利用有限 VRAM 进行训练的经验,揭示了更高分辨率(如 1024)会消耗巨大的内存。
- 有建议称降低分辨率会有所帮助,尤其是考虑到 12GB RAM 可能不足以处理复杂任务。
- 图像处理中的分割(Segmentation)引发疑问:讨论强调了图像处理工作流中 SEG (Segmentation) 的概念,特别是它在 ComfyUI 等系统中的作用。
- 成员们对其实现方式表示困惑,并质疑其相对于更简单替代方案的必要性。
- RunwayML SD 1.5 仓库从平台消失:RunwayML 已删除了 HuggingFace 和 GitHub 上所有的 Stable Diffusion 1.5 仓库,引发了关于此举影响的讨论。
- 用户推测这是否标志着 1.5 模型 的终结,因为这些模型的使用率似乎已经下降。
- SDXL 与 SD 1.5 引发辩论:一位用户考虑从 SD 1.5 迁移到 SDXL,权衡其 GPU 的生成时间和存储需求。
- 建议集中在利用命令行参数优化性能,以适配性能较弱的 GPU。
Nous Research AI Discord
- Hermes 3 的失忆模式(Amnesia Mode)展现了专业性:用户报告称 Hermes 3 中的“失忆模式”更倾向于专业性而非日常语言,限制了其对话的灵活性。
- 一位用户表示沮丧,称该模型保持着“家庭友好”的风度,引发了对其预定义行为的猜测。
- 训练技术产生更好的 AI 输出:讨论强调,与在指令微调期间加入用户输入相比,仅针对输出进行模型训练能获得更好的 Benchmark 结果。
- 成员们一致认为,这种特定的训练方法增强了连贯性,并减少了不必要的“AI 味”回复。
- 梯度策略可降低通信成本:一位用户提议在分布式训练中利用低秩近似(low-rank approximations)进行梯度同步,以最小化通信开销。
- 这引发了关于有效结合各种优化技术以增强模型训练性能的讨论。
- 引入 Word Game Bench 用于 AI 评估:新的“Word Game Bench”基准测试通过 Wordle 等文字拼图游戏捕捉语言模型性能,允许基于先前动作进行独特的交互。
- 社区成员对其引人入胜的方法论以及评估模型行为的潜力表现出好奇。
- GameNGen 变革游戏开发格局:GameNGen 作为首个神经模型游戏引擎,能够在不使用传统工具的情况下实现实时 DOOM 模拟,帧率超过 20 fps。
- 人类评分者难以区分模拟画面与真实画面,展示了其先进的现实主义潜力。
LM Studio Discord
- API 推理速度限制讨论:一位用户提出了关于限制 API 推理速度的问题;另一位成员指出,使用不同模型处理多个请求是可行的。
- 该用户更倾向于使用同一模型以节省 VRAM,但也意识到了其中的局限性。
- 用户对 LM Studio 0.3 版本的反馈:针对最新的 LM Studio 更新出现了一些担忧,认为其导致 AI 响应能力下降以及出现异常的重复输出。
- 成员们建议这可能与 Prompt 设置或模板解析有关,并建议进行微调以改进。
- M2 Ultra Mac 已准备好进行开发:一位成员配置了拥有 192 GB 统一内存的 M2 Ultra Mac 用于探索 LLM,并配备了 2 TB 硬盘进行存储。
- 他们还使用一台单独的 PC 作为服务器来增强其开发环境。
- 在 RTX 4090 上探索 LLM 性能:讨论重点是在 6 张 RTX 4090 上运行 405b 模型,受 offload 设置影响,产出速度约为 每秒 1 个 token。
- 一位成员尝试了各种 GPU 配置,发现当模型分布良好时,内存链路可以提升速度。
- PCIe 通道设置对性能的影响:成员们讨论了在 gen4 x8 与 x16 设置下运行 RTX 4090 的情况,研究其对多 GPU 环境速度的潜在影响。
- 虽然 gen4 x8 对于单 GPU 可能无关紧要,但在模型更密集的设置中可能会阻碍性能。
OpenRouter (Alex Atallah) Discord
- Gemini Flash 模型现在免费!:Gemini Flash 8B (EXP) 模型现在可以通过此链接使用,同时 Gemini Flash Experiment 也已确认免费,直到 AI Studio 的定价最终确定。
- 用户庆祝 Gemini Experimental 模型的上线,这标志着迈向更广泛访问的重要一步。
- 为 Daun.ai 的发布欢呼!:社区成员对 Daun.ai 的发布表示兴奋,认为它是 AI 工具领域一个值得关注的新成员。
- 这种热情反映了开发者社区对创新 AI 解决方案日益增长的需求。
- Cohere 模型更新引发关注:Cohere 的 Command R 模型最近的更新引入了新功能和定价变化,在渴望探索这些增强功能的用户中引起了热议。
- 提出了关于 OpenRouter 处理安全模式方式的担忧,突显了社区对安全实现的关注。
- 实验性模型遇到速率限制:用户在尝试实验性模型时报告了 rate limit 错误,表明在高峰使用期间访问新功能存在挑战。
- 随后引发了关于通过 API 管理安全设置的讨论,指出需要更清晰的文档。
- 对基础设施稳定性的担忧:最近一系列归因于数据库容量的停机问题引起了社区的担忧,正在进行的升级被提议作为解决方案。
- 开发者承认了这些停机的持续影响,并确保已制定计划以增强未来的稳定性。
Eleuther Discord
- 嵌入权重过早出现 NaN:一位用户报告称,在训练开始几步后,Embedding Weights 就变成了 NaN,这可能是由于损失函数分母四舍五入为零造成的,并受到数据依赖衰减项的加剧。
- 成员们追踪了梯度以更好地理解这种情况的复杂性,提供了关于损失函数优化的见解。
- 寻求关于压缩技术的见解:Jeremy Vonderfecht 正在征求关于他使用 Stable Diffusion 等扩散模型压缩图像研究的反馈,并认识到协作的必要性。
- 成员建议使用特定频道进行持续讨论,以促进建设性对话。
- 动态专家路由提升适应性:讨论强调了动态专家路由 (Dynamic Expert Routing) 的潜力,允许模型在训练期间定义自己的专家,以增强适应性。
- 这与正在进行的研究相关,例如 LayerSkip 论文中的方法。
- 推出 Word Game Bench 以挑战模型:Word Game Bench 是一个新的基准测试,用于评估语言模型在 Wordle 等文字游戏上的表现,目前没有模型的胜率超过 50%;它专注于动态交互。
- 更多信息可以在 Word Game Bench 和推文公告中找到。
- 应对 Tokenization 挑战:参与者讨论了 Tokenization 的重大局限性,特别是在非拉丁语言方面,以及它对模型训练效率的影响。
- 提出了关于 Tokenization 如何掩盖关键数据特征,从而导致优化变慢的担忧。
Perplexity AI Discord
- Discord 服务器庆祝成员突破 10 万!:Discord 服务器正式达到 100K members,标志着社区的一个重要里程碑,并衷心感谢所有成员的支持。
- 团队对持续增长表示兴奋,强调了每位成员的贡献丰富了小组的氛围。
- 用户反映 Pro API 额度缺失:用户报告在购买 Pro 后未收到 $5 PPLX API credits,导致呼吁紧急支持以解决这些问题。
- 成员们正在分享账户详情以便更快解决,强调了对 API 额度使用和可访问性的关注。
- 对 Pro Searches 功能的担忧:关于通过 API 进行 Pro Searches 的功能存在不确定性,特别是对于运行 llama-3.1-sonar-huge-128k-online 的用户。
- API 中缺少 Pro 选项让用户质疑该功能何时可用。
- 用户遇到 API Rate Limit 错误:几位用户报告在访问 API 时遇到 429 Client Error: Too Many Requests,引起了对潜在使用上限的关注。
- 这种情况预示着可能影响依赖稳定性能的工程师整体 API 功能的潜在问题。
- 关于 AI 模型行为和性能的反馈:用户仔细检查了他们的 AI 模型,注意到即使在切换模型后输出仍不一致,这表明可能存在影响用户体验的 bugs。
- 关于模型行为的疑问引发了围绕近期更新的讨论,表明需要明确输出和模型标识。
Cohere Discord
- MMLU 缺乏实际相关性:成员指出 MMLU 与构建 LLMs 的实际效用相关性不强,强调了像弗洛伊德理论这样过时的例子,并评论了最近的模型刷新提高了来自互联网的数据相关性。
- 这引发了关于评估 LLM 在现实场景中适用性的基准指标(benchmark metrics)未来的讨论。
- Command R+ 的更新令人印象深刻:Cohere 宣布了刷新的 Command R 和 R+ 模型的显著性能提升,具有更好的多语言 RAG 和极具成本效益的每 input token $0.15。
- 成员确认更新已在 Hugging Face 上可用,并指出在其他平台部署前需要进行 quantization。
- Cohere 聊天界面保持不变:用户对 Cohere chat interface 提出担忧,质疑更新是否与新模型功能同步,特别是缺少暗黑模式选项。
- 对用户界面选项增强的呼吁表明,用户对改进模型交互体验的愿望日益增长。
- API 试用密钥限制引发挫败感:一名用户在使用试用 API key 时遇到 rate limit error (429),抱怨 1,000 API calls/month 的限制,同行确认了生产 key 的必要性。
- 讨论强调了优化 API 使用以增强性能和进行更广泛实验的重要性。
- Maya LLaVA-Pretrain 数据集发布:新发布的 Maya LLaVA-Pretrain 数据集包含跨 8 languages 的 4,404,776 条条目,专为预训练大模型开发,并通过机器翻译进行了扩展。
- 成员们对解决与该数据集相关的 batch processing 和 API 能力的疑问表示感谢。
Latent Space Discord
- Codeium C 轮融资 1.5 亿美元:Codeium 成功完成了由 General Catalyst 领投的 1.5 亿美元融资,目前估值达到 12.5 亿美元,自成立以来总融资额已达 2.43 亿美元。联合创始人 Varun Mohan 提到,他们尚未动用 6500 万美元的 B 轮资金。
- 这一战略储备可能表明他们在应对市场需求时采取了谨慎的态度。
- Meta AI Assistant 月活用户 (MAU) 突破 4 亿:Meta 的 AI Assistant 月活跃用户数 (MAU) 飙升至 4 亿,日活跃用户数 (DAU) 达到 4000 万,展示了其不断扩大的用户群和参与度。讨论强调,随着用户数量持续增长,许可授权可能变得必要。
- 这些指标反映了极高的采用率,引发了关于未来扩展需求的讨论。
- Google DeepMind 推出可定制的 Gems:Google DeepMind 推出了 可定制的 Gems,这是针对特定领域(如 Learning Coach 和 Coding Partner)量身定制的 Gemini 模型专用版本。该计划旨在通过针对性的功能增强用户体验。
- 反馈集中在这些 Gems 的有效性及其在现实场景中的可用性上。
- Tome 转型专注于企业级 AI:Tome 宣布转型为一款旨在帮助用户渗透新企业客户的 AI 助手,标志着其业务重心的重大转变。公司代表确认了这一消息,并概述了这一战略历程。
- 成员们对这次转型将如何重新定义 Tome 的市场定位和目标表示了兴趣。
- Nicholas Carlini 的新播客:最新一期的 Latent Space 播客 展示了来自 Google DeepMind 的 Nicholas Carlini 对 LLM 基准测试和训练数据提取方法论的见解。关键亮点包括对停止提供 OpenAI logprobs 的批判性观点。
- Carlini 的思考引发了社区关于 AI 基准测试实践的对话。
Modular (Mojo 🔥) Discord
- Mojo 在区块链协议中的潜力:关于将 Mojo 用于区块链协议的讨论正在进行中,开发者指出与 Go, Rust 和 C++ 相比,它目前尚不成熟。
- 一位开发者评论说,Mojo 和 Go 是最胜任的语言,但 Go 的 20% 性能损失 对某些项目来说可能至关重要。
- 关于 Mojo 开源前景的疑问:有人询问 Mojo 编译器源码 的可用性,目前该源码仍为闭源。
- Modular 团队表示,在平衡开发速度与社区参与的过程中,他们可能还不知道何时或是否会将其开源。
- 性能对比见解:成员们辩论了 Go 与 C 的性能,强调了 Go 在各种任务中的局限性。
- Darkmatter 指出 Go 的性能可能会显著下降,引用其每秒 30 个请求 的处理能力,而 C 为 100 个。
- 架构师在内存管理中的角色:一位成员认为,如果程序员不确定内存管理,这标志着系统设计存在缺陷。
- 他们强调需要坚实的架构设计,以尽量减少应用程序员的顾虑。
- Fastai 令人兴奋的导出想法:一项提议的增强功能涉及在 fastai 中重写 Learner.export,以便将 Mojo 代码与 PyTorch 模型 一起导出。
- 这种策略可以改善输入流水线与模型之间的集成,从而简化生产环境的使用。
LangChain AI Discord
- LangChain 拥抱 Function Calling 与 Streaming:一位成员在使用 LangChain v2.0 进行 Function Calling 和 Streaming 时遇到困难,并指出文档存在空白。另一位成员澄清说 Function Calling 是受支持的,但在 JavaScript 中需要仔细配置 Streaming 输出。
- 探索 AgentExecutor 文档 等资源可能有助于理清配置。
- Docker 轶事:Ollama 连接困扰:一位用户在 Docker 中运行 LangChain 应用并尝试使用 Ollama API 时遇到了连接拒绝错误。随后他们通过将基础 URL 修正为直接的 Ollama host URL 解决了该问题。
- 这一问题凸显了在容器化环境中正确设置 URL 的重要性,尤其是在利用 Docker 等工具时。
- 为 HR 打造自定义 GPT 激发创意:一位用户表示希望为他们的 HR 团队创建一个专门的 GPT,目标是减少幻觉(hallucination)并建立反馈机制。讨论转向通过 Fine-tuning 和 RAG 技术增强 LLM 交互。
- 实施反馈循环可以显著提高性能,尤其是在适配现有的手册内容时。
- LangChain Streaming 输出的挑战:一位用户报告了 LangChain Agent executors 的问题,即它们在交付最终响应之前会收集所有输出,而不是实时进行 Streaming。有建议提出利用
streamRunnable选项来实现实时输出交付。- 利用此功能可以缩短响应时间,提升实时应用中的用户体验。
- GraphRAG 对比传统 RAG:一场偏好之争:围绕混合 RAG 方法的有效性展开了讨论,一位成员在流程中更倾向于传统 RAG 技术。他们指出,探索 Self-query 和 Large Context RAG 等新方法可能值得一试。
- 这场对话可能为在 RAG 方法论中进行更高级的探索以增强响应能力打开了大门。
LlamaIndex Discord
- GymNation 与 LlamaIndex 合作取得成功:GymNation 与 LlamaIndex 合作,实现了数字化线索到销售转化率 20% 的增长,以及数字化线索 87% 的对话率。欲了解更多详情,请查看其完整成功案例。
- 显著的成果展示了 LlamaIndex 如何有效增强用户参与度。
- LLMs in Production 见解分享:即将在 9 月 9 日举行的讨论将分享关于有效部署 LLM 的见解。详情请见此处。
- 与会者可以期待关于现实世界 LLM 应用的实用技巧。
- MLFlow 播客介绍 LlamaIndex:联合创始人在播客中讨论了 MLFlow 与 LlamaIndex 的集成,重点关注简化的日志记录和应用评估。在此处观看演示和见解:此处。
- 会议展示了在管理 AI 应用方面的强大增强功能。
- LLM x Law 黑客松宣布举办:将于 9 月 8 日举行的 LLM x Law Hackathon 邀请参与者探索 AI 在法律实践中的应用。更多信息请见此处。
- 本次活动将设有多个赛道,强调 AI 与法律集成中的创新。
- 利用 MoW 进行财务数据分析:讨论了采用 Mixture of Workflows (MoW) 和 Corrective RAG 的创新财务数据分析,利用了 Phi-3、Qwen-2 等模型。更多详情请见此处。
- 该方法提供了对财务报表的上下文感知分析,有望带来更好的洞察。
OpenInterpreter Discord
- 下周 House Party:欢迎参加下周提前举行的 House Party,以提升社区参与度!加入 Discord 活动。
- 该活动旨在营造有趣的氛围,并鼓励关于 潜在应用 的讨论。
- 寻求终端应用建议:由于屏幕溢出/显示异常问题,一名成员正在寻找 KDE 上 Konsole 终端应用的替代方案。用户报告在标准终端设置中使用 GPT-4o-mini 时也遇到了类似问题。
- 这凸显了在高需求环境下对终端性能的持续关注。
- 需要 Obsidian OI 插件安装帮助:一位用户称赞了 Obsidian OI 插件 的资源,但正面临全局安装问题。他们被建议在指定频道分享安装细节以获取进一步支持。
- 这反映了社区在解决技术挑战方面的协作努力。
- GameNGen:游戏模拟的飞跃:GameNGen 现在使用神经模型以超过 每秒 20 帧 的速度模拟 DOOM,在单块 TPU 上展示了卓越的性能,PSNR 达到 29.4。
- 这种体验让真人评分者难以区分真实游戏画面与其模拟画面,标志着游戏技术的重大进步。
- 对 AgentOps 进展的期待:成员们对 Adam 和 AgentOps 团队即将推出的计划充满热情。这种兴奋体现了社区对下一代 Agent 技术突破的兴趣。
- 这种期待预示着关于智能 Agent 系统未来前景的良性对话。
LAION Discord
- Google 采购 GPU 引发好奇:成员们质疑为什么 Google 在拥有自家 TPU 的情况下仍从 NVIDIA 购买 GPU,这暗示了对 NVIDIA 技术的潜在缺口或兴趣。
- TPU 还不够吗? 一位成员对 Google 在硬件方面的战略选择表示思考。
- RunwayML 删除所有 Stable Diffusion 仓库:关于 RunwayML 删除了他们在 HuggingFace 和 GitHub 上所有 Stable Diffusion 1.5 仓库的讨论爆发,令许多用户感到沮丧。
- 一位成员指出,此举破坏了 Diffusers 1.5 中的许多功能,特别是影响了单文件加载。
- 仓库删除带来的混乱:成员们对 RunwayML 这种看似草率的删除行为表示恼火,有人称这感觉就像他们想要制造 混乱。
- 虽然出现了关于潜在法律问题的猜测,但尚未确认删除的具体原因。
- 为书封生成写实图像:一位成员寻求关于为其小说封面生成 漫画风格 或卡通图像的建议,因为他们正苦于 DALL·E 输出的图像过于写实。
- 尽管进行了尝试,他们发现 DALL·E 无法满足他们想要的特定风格。
- Re-LAION-5B 发布:成员们庆祝 Re-LAION-5B 的发布,这是 LAION-5B 数据集的清理版本,解决了之前 安全修订程序 后的担忧。
- 该数据集是与关键组织合作更新的,以确保安全性和合规性,标志着一个重要的里程碑。
Interconnects (Nathan Lambert) Discord
- 科技巨头看好 OpenAI:Nvidia、Apple 和 Microsoft 正在讨论投资 OpenAI,作为新一轮 $100 billion 融资的一部分 来源。此举表明各大巨头对推动 AI 资金投入和创新的浓厚兴趣。
- Chatbot 战争正在升温,这些公司正竞相在 AI 发展的关键领域占据一席之地。
- Chatbot 战争白热化:ChatGPT 的周活跃用户已突破 2 亿,对 Meta AI 等竞争对手构成了挑战,而后者也在不断提升市场吸引力 来源。这种竞争格局引发了关于不同平台的用户参与度和有效性的讨论。
- 针对 Meta AI 的真实利用率存在疑虑,因为仅有 40 million DAU 可能暗示用户是无意中接触到了其产品。
- Tinygrad 推出高性价比云解决方案:Tinygrad 推出了一项新的云服务,配备 4090 GPU 和 500 GB 存储,每月仅需 $60,价格远低于 Vast AI 等竞争对手 来源。这种新模式为寻求利用先进硬件的开发者提供了一个极具成本效益的解决方案。
- 即将推出:CLOUD=1 允许用户在本地运行 Tinygrad,同时利用云端处理速度进行高效处理。
- 关于 System Prompts 影响的探究:成员们正在深入研究 System Prompts 对评估分数的影响,引发了关于不同 Prompting 技术是否能显著调整结果的兴趣。目前正征集相关研究论文以支持这一探索。
- 这一探究突显了通过精心设计的 Prompt 来优化 AI 性能指标的持续需求。
Torchtune Discord
- QLoRA 面临显存难题:一名成员在拥有 4 张 48GB GPU 卡的情况下遇到了提示非法内存访问的 CUDA error,随后对 QLoRA 的内存充足性提出了质疑。
- 这突显了在配置内存资源时,硬件设置中需要仔细考虑的潜在陷阱。
- A6000 GPU 引起困惑:澄清确认 A6000 GPU 已升级至 48GB,因此四张此类显卡应能满足所需容量。
- 成员建议 CPU offloading 和序列长度调整可能会额外影响训练期间的内存分配。
- 训练序列长度受到关注:一名成员尝试了不同的训练序列长度(8K 和 4K),展示了这些变化如何影响 vRAM 的使用。
- 对这些细节的探究展示了在序列配置与内存需求之间进行平衡的重要性。
- 对多 GPU 评估的兴趣:关于 TorchTune 是否支持 multi-GPU evaluation 的咨询表明了用户对优化性能的浓厚兴趣。
- 这反映了一个更广泛的趋势,即 AI 工程师在处理高要求的训练设置时,不断追求可扩展性和效率。
- 调试 CUDA 错误以确保数据完整性:一名成员收到了调试建议,例如设置 CUDA_LAUNCH_BLOCKING=1,以解决训练过程中出现的非法内存访问错误。
- 这指向了在使用 PyTorch 执行分布式训练并有效管理内存限制时所面临的持续复杂性。
DSPy Discord
- 对仓库关联的困惑:一位成员对他们的陈述与 GitHub 仓库 之间的联系表示困惑,并澄清该仓库是独立的,展示它是为了激发社区参与。
- 它每天获得超过 2000 个点赞,表明人们对 LinkedIn Auto Jobs Applier 工具表现出浓厚兴趣。
- 对 LinkedIn 工具性能的担忧:另一位成员对 LinkedIn Auto Jobs Applier 的性能表示担忧,并指出 GitHub Issues 显示该工具仍有改进空间。
- 这突显了持续的反馈,表明该工具的能力仍有待加强。
- 可靠 AI Agent 研讨会:一位成员分享了关于 有用且可靠的 AI Agents 研讨会的 YouTube 视频 链接,该研讨会重点讨论了准确性、可靠性和成本效益。
- 该研讨会探讨了关于 AI Agent 的活跃研究及其在现实应用中的有效利用。
- 用于 AI 开发的 AgentOps 工具:AgentOps 提供构建 Agent 的资源,其工具通过消除 Prompt 过程中的猜测来简化开发流程。
- 这种透明度旨在改进开发者构建 AI 解决方案的方式。
- 湾区 AI 见面会上的 DSPy 研讨会:即将举行的湾区 AI 见面会将由 Michael Ryan 讨论 DSPy: Prompt Optimization for LM Programs,展示他在 MIPROv2 算法上的工作。
- 该见面会由 Neo4j 赞助,有望提供宝贵的见解。
OpenAccess AI Collective (axolotl) Discord
- Axolotl GitHub 文档需要深色模式:一位成员请求 Axolotl GitHub 文档 提供 深色模式,理由是频繁访问时当前的浅色模式令人不适。
- 他们强调了在当前主题下检查配置参数的困难。
- 训练 LLaMA 70B 的硬件:讨论围绕训练 LLaMA 70B 模型的 硬件需求 展开,推测可能只需要几个 NVIDIA A6000 GPU。
- 一位成员确认 3x A6000 GPU 应该足以训练完整模型,突显了 GPU 能力的潜在进步。
- Llama 3.1 仍受特殊 Token 困扰:有人担心 Llama 3.1 base 仍存在未初始化的特殊 Token 和分布外 Embedding 的问题。
- 成员们表示管理特殊 Token 仍面临挑战,这可能会影响模型性能。
- 未训练 Token 的潜在修复方案:引入了一个新选项
fix_untrained_tokens: true来解决 Llama 3.1 中未初始化的特殊 Token 问题,标志着改进迈出了一步。- 这一修复反映了在优化模型交互和性能方面的持续努力。
- 新的 Assistant Prefill 功能发布:Hugging Face 最近的 Pull Request #33198 添加了长期以来被要求的 assistant prefill 功能,该功能可自动启动模型响应。
- 此次更新旨在提升 TextGenerationPipeline 的用户体验,采用了一种创造性的方式来生成响应。
Gorilla LLM (Berkeley Function Calling) Discord
- Groq 等待排行榜 PR:Groq 尚未被添加到排行榜中,因为团队仍在等待其 PR,预计下周左右完成。
- 这一延迟引发了关于其集成和预期性能影响的讨论。
- 模型步骤文档至关重要:一位成员确认,记录模型步骤对于可复现性至关重要,能增强模型的可理解性。
- 完善的文档确保了可用性,并最大限度地减少了模型实现过程中的困惑。
- Java 测试用例揭示 GIS 问题:一位用户报告了与 GIS 几何初始化相关的 Java 测试用例性能问题。
- 他们得出结论,鉴于用户查询的情况,简单的直接示例可能比复杂的函数调用效果更好。
- 关于评估温度设置的查询:成员们询问评估是否使用 greedy decode 且温度为 0,以确保指标公平。
- 讨论引用了最近关于排行榜评估标准的 GitHub 链接,并思考了输出中的随机性。
- 讨论 OSSHandler 默认参数:OSSHandler 的默认温度设置为 0.001,曾简要考虑过调整但最终被否决。
- 这一选择旨在保持一致的函数输出和整体模型性能优化。
tinygrad (George Hotz) Discord
- 探索 tinygrad 的局限性:codeman3786 询问 tinygrad 是否对 statically scheduled operations 有效,但在 semi-structured sparsity 选项上表现不佳。George Hotz 邀请提供 tinygrad 缺点的具体示例,这突显了社区对其运行极限的好奇。
- 随后的讨论表明,大家共同关注剖析 tinygrad 在现实世界中的适用性,特别是在复杂数据处理的背景下。
- Tensor.cat 在处理 sharded tensors 时的困扰:一位用户在使用 Tensor.cat 处理 sharded tensors 时遇到问题,收到关于 padding not supported 的错误。他们设计了一个利用
unsqueeze的变通方法,但额外的 reshape 错误不断出现。- 这表明需要明确该限制是源于核心功能还是仅仅是不支持的行为,因为用户正在考虑调整代码以支持 batch 维度。
Alignment Lab AI Discord 没有新消息。如果该公会沉寂时间过长,请告知我们,我们将将其移除。
LLM Finetuning (Hamel + Dan) Discord 没有新消息。如果该公会沉寂时间过长,请告知我们,我们将将其移除。
MLOps @Chipro Discord 没有新消息。如果该公会沉寂时间过长,请告知我们,我们将将其移除。
Mozilla AI Discord 没有新消息。如果该公会沉寂时间过长,请告知我们,我们将将其移除。
DiscoResearch Discord 没有新消息。如果该公会沉寂时间过长,请告知我们,我们将将其移除。
AI21 Labs (Jamba) Discord 没有新消息。如果该公会沉寂时间过长,请告知我们,我们将将其移除。
第 2 部分:频道详细摘要与链接
完整的频道详情已为邮件格式进行截断。
如果您喜欢 AInews,请分享给朋友!预谢!