ainews-not-much-happened-today-7393

今天没发生什么事。

垂直领域 SaaS 智能体(Vertical SaaS agents)正迅速成为 AI 应用未来的共识,Decagon 获得的 1 亿美元融资以及 Sierra 获得的 40 亿美元融资进一步印证了这一趋势。OpenAI 的前员工们正积极筹集风险投资并成立新的初创公司,使 AI 市场的竞争日益白热化。德米斯·哈萨比斯 (Demis Hassabis) 庆祝 AlphaFold2 获得诺贝尔奖认可,这是蛋白质结构预测领域的一项重大突破。

AI 模型的进展包括 LoRA 投影器(LoRA projectors)高质量数据退火(annealing on high-quality data)等技术;同时,相关讨论强调,为了实现常识学习,除了语言之外,还需要高带宽的感官输入LoLCATs 等新方法旨在优化 LlamaMistral 等 Transformer 模型的效率。关于 AI 智能体执行有害任务的伦理担忧仍处于调查之中。AI 社区继续探索模型评估的挑战,以及用于神经架构搜索的 LPZero 等优化框架。

#vertical-saas #funding #protein-structure-prediction #lora #self-supervised-learning #model-optimization #neural-architecture-search #model-evaluation #ethics #transformers #multi-agent-systems #long-context llama mistral openai decagon sierra togethercompute

垂直 SaaS Agent 正是您所需要的。

2024/10/14-2024/10/15 的 AI 新闻。我们为您检查了 7 个 subreddits、433 个 Twitter31 个 Discord(228 个频道和 1569 条消息)。预计节省阅读时间(以 200wpm 计算):197 分钟。您现在可以标记 @smol_ai 进行 AINews 讨论!

技术新闻方面又是平静的一天。但 Agent 融资领域正热火朝天,继 Sierra 完成 40 亿美元的巨额融资 后不久,Decagon 也宣布获得了 1 亿美元融资。令人瞩目的是,关于垂直 AI Agent 是未来方向的共识达成得如此之快。

https://www.youtube.com/watch?v=eBVi_sLaYsc


目录频道摘要已移至此邮件的网页版:


AI Twitter 综述

所有综述均由 Claude 3.5 Sonnet 完成,从 4 次运行中择优。

AI 行业发展与讨论

  • OpenAI 校友创业投资@bindureddy 报道称,OpenAI 前 CTO Mira Murati 正在筹集 VC 资金,并从 OpenAI 挖人以创办新公司。这凸显了 AI 市场日益激烈的竞争,预计将出现超过 10 家由前 OpenAI 员工创办的初创公司。

  • AI 成就荣获诺贝尔奖@demishassabis 分享了他因 AlphaFold2 项目获得诺贝尔奖的感想,该项目解决了蛋白质结构预测这一长达 50 年的重大挑战。他强调了 AI 在科学发现中的重要性及其在开发新疗法方面的潜力。

  • AI 模型进展
    • @ClementDelangue 指出,开源与闭源 LLM 之间的差距现在已经微不足道。
    • @johnowhitaker 强调了一个新模型中使用的有趣技术,包括用于权重共享的 LoRA projectors 以及在高质量数据上的退火(annealing)。
  • AI 研究与应用
    • @ylecun 讨论了高带宽感官输入对于 self-supervised learning 的重要性,认为仅靠语言不足以学习常识。
    • @fchollet 评论了一个将 LLM 与 Lean 定理证明器相结合的项目,将其描述为“直觉引导推理(intuition-guided reasoning)”,是深度学习引导的离散程序搜索的一个很好的例子。
  • AI 基础设施@nearcyan 分享了一张显示前沿模型(frontier models)所需数据中心规模的图片,说明了尖端 AI 研究对计算能力的巨大需求。

  • AI 工具与框架
    • @rasbt 分享了一个 Jupyter notebook,其中包含在 PyTorch 中加载 LLM 等大型模型时减少内存使用的技巧。
    • @jerryjliu0 描述了一个用于报告生成和表单填写的 multi-agent 工作流,利用了 LlamaParse 和 long-context LLMs 等工具。
  • AI 伦理与挑战@ajeya_cotra 对研究 AI agents 执行本应拒绝的有害任务的难易程度,以及它们在这些任务中的胜任程度表示关注。

AI 模型性能与基准测试

  • 模型评估@rohanpaul_ai 分享了一篇论文的信息,该论文展示了即使是始终输出恒定响应的“空模型(null model)”也可以在自动基准测试中作弊,并获得排名靠前的胜率。

  • 线性化 LLM@togethercompute 宣布了 LoLCATs,这是一种将 Llama 和 Mistral 等现有 Transformers 转换为最先进的 subquadratic 变体的新方法,有可能降低计算成本。

  • AI 优化@rohanpaul_ai 讨论了 LPZero,这是一个在 Neural Architecture Search 中自动设计 Zero-cost proxy 的框架,可以提高评估语言模型架构的效率。

AI 行业趋势与观点

  • AI 领域的竞争@adcock_brett 批评了 AI 领域是一个拥有众多赢家的大市场的观点,强调了竞争力的重要性。

  • 开源 vs. 闭源@ClementDelangue 表示开源和闭源 LLM 之间的差距现在已经微不足道,这表明 AI 开发领域的竞争环境正在趋于平稳。

  • AI 研究文化@finbarrtimbers 评论了现代深度学习中的经验主义文化,指出了这种方法的利弊。

迷因与幽默

  • @ID_AA_Carmack 分享了一个关于赢得分布式 Metaverse 与 Roblox 采用率赌注的轶事,强调了技术采用的不可预测性。

  • @DavidSHolz 诗意地描述了 SpaceX 的火箭回收不仅是工程上的胜利,更是一场文化与精神上的胜利,激发了对科学和客观真理的深层渴望。


AI Reddit 综述

/r/LocalLlama 综述

主题 1. 小型语言模型的进步:Llama 3.2 1B 性能

  • Llama3.2:1B (分数: 116, 评论: 40): 该帖子将 Llama3.2:1B 与更大的模型进行了对比,指出它在配备 CPU8GB RAM 的系统上进行 代码生成 (code generation)一次性请求 (one-time requests) 时非常有效。虽然它在这些任务中表现良好,但该模型的性能在 长对话中会下降,而 3B 版本尽管速度较慢,但能更有效地处理延长的聊天历史。
    • 帖子强调了自 ChatGPT 发布 以来 AI 的飞速进展,现在的 1B 模型 已经能提供质量相当的答案。一些用户对“大众化的 AI (AI for the masses)”表示兴奋,而另一些用户则报告了小模型的问题,如幻觉增加和无关响应。
    • 该帖子的 UI 获得了大量赞誉,多条评论称其“酷炫”且“疯狂”。作者提到这是 AI 设备项目 的一部分,并正在考虑增加代码执行功能。
    • 一位用户提出了将 LLM硬件化 (crystalizes)”的想法,建议使用专用硬件来提升本地 LLM 应用的性能。帖子作者做出了回应,表示计划在未来版本中使用专为轻量级用途设计的专用模型和板卡。

主题 2. AI 生成的游戏环境:现状局限与未来潜力

  • 在单块 RTX 3090 上实时运行 AI 生成的 CS:GO (分数: 116, 评论: 49): 一组研究人员开发了一个 AI 生成版本的《反恐精英:全球攻势》(CS:GO),它可以在 单块 RTX 3090 GPU 上实时运行。该系统使用 视觉语言模型 (vision-language model) 来解释游戏状态并生成相应的动作,实现了 4 FPS 的帧率,展示了 AI 自主创建和游玩复杂视频游戏的潜力。
    • 用户讨论了潜在的改进方向,建议开发一种具有 AI 生成纹理3D 对象模块化游戏,在保持对游戏机制控制的同时,允许 持久化状态 (persistent states) 和玩家的共同贡献。
    • 一些人将该技术与 AI 生成的 Doom 游戏画面 进行了比较,并推测了未来的应用,例如使用行车记录仪画面结合加速和转向输入进行 现实生活驾驶模拟
    • 关于该项目的实用性引发了争论,一些人称赞它是“不可思议的体验”,而另一些人则认为它距离实用还“相差万里”,并预测在 2-3 年 内会有重大突破。

主题 3. 本地运行大语言模型的硬件需求

  • 在家运行 90B llama 的硬件成本? (分数: 55, 评论: 80): 该帖子询问了在家中运行 90B 参数 版本的 Llama 语言模型 以进行 离线文本生成硬件成本。用户明确表示 速度 不是关键因素,也不需要视觉或微调等额外功能,虽然承认这套配置可能负担不起,但仍表示有兴趣探索其可能性。
    • Llama 3.1 70BLlama 3.2 90B 具有相同的文本模型,90B 版本增加了视觉能力。用户可以在多种配置上运行 70B 模型,包括用于 CPU 推理的 64GB RAM、实现 6-7 tokens/s 的双 P40 GPU,或用于更快处理速度的双 3090/4090 GPU
    • 硬件选择范围从入门到高端:单块 3090 GPU 配置(约 2,000 美元)可以胜任 70B 模型;双 3090 GPU(约 3,000 美元)可以处理 70B 和 90B 模型;双 5090 GPU(约 6,000 美元)可提供流畅的性能。配备 64GB RAM 的 Apple Mac Studio M2 Max 运行 70B 模型速度约为 7 tokens/s。
    • 其他选项包括使用配备 8 通道 DDR4 内存的 AMD EPYC 7002 服务器,能够以 2 tokens/s 运行 Llama 70B Q8,甚至在双 CPU 和 512GB RAM 下以 0.6 tokens/s 运行 Llama 405B Q8。一些用户建议使用 AMD MI60 GPU

主题 4. 在开源模型中重现类 GPT 的思考过程

  • 重现 GPT o1 CoT 思维(思考与输出) (Score: 34, Comments: 13):该帖子讨论了为 OpenWebUI 开发的 Thinking and Outputting tag 功能,试图复制 GPT-o1 的行为。作者通过在模型文件中微调指令实现了这一点,要求模型支持 ## Thinking 标签并以 “***” 退出“思考”模式,通过视频演示了该功能并提供了一个 下载链接 供他人尝试。
    • cddelgado 假设 GPT-o1 使用了一个复杂的推理系统,涉及 Chain of ThoughtTree of Thought 以及用于规划和批判的 Adversarial Agents。他们建议使用较小的 LLM 通过多次对话来实现这一点,其中一个作为主要工作者,另一个作为对手。
    • kristaller486 澄清说,该帖子的实现并不是 GPT-o1,而是 Chain of Thought (CoT),并指出 o1 是一个基于 RL 的推理系统,而不仅仅是一个 Prompt/Agent/微调模型。他们提供了一个 链接 以获取更多信息。
    • asankhs 建议尝试 OptILLM GitHub 仓库 中的 cot_reflection 方法,以在响应中生成思考和反思 Token,为实现类似功能提供了另一种方法。

其他 AI Subreddit 回顾

r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence, /r/LLMDevs, /r/Singularity

AI 研究与技术

  • Google Deepmind 推进 multimodal learning:一篇来自 Google Deepmind 的论文 展示了如何通过联合样本选择(joint example selection)进行 data curation,从而进一步加速 multimodal learning。(/r/MachineLearning)

  • Microsoft 的 MInference 加速 long-context 任务推理Microsoft 的 MInference 技术 能够实现针对 long-context 任务高达数百万个 tokens 的 inference,同时保持准确性,显著提升了支持模型的运行速度。(/r/MachineLearning)

  • 利用 10 亿个网页策展的 personas 扩展 synthetic data 生成:一篇关于 扩展 synthetic data 生成的论文 利用 LLM 中的多样化视角,从网页数据策展出的 10 亿个 personas 中生成数据。(/r/MachineLearning)

AI 模型发布与改进

  • Salesforce 的“小巨人” xLAM-1b 模型在 function calling 方面超越 GPT 3.5:Salesforce 发布了 xLAM-1b,这是一个拥有 10 亿参数的模型,在 function calling 中实现了 70% 的准确率,超越了 GPT 3.5。(/r/LocalLLaMA)

  • 具备 function calling 能力的 Phi-3 Mini (6月版):Rubra AI 在 6 月发布了更新后的 Phi-3 Mini 模型,具备 function calling 能力。它与 Mistral-7b v3 具有竞争力,且表现优于基础版 Phi-3 Mini。(/r/LocalLLaMA)

AI 应用与演示

AI 在战争与国防中的应用

AI 的哲学与社会影响

AI 生成艺术与媒体


AI Discord 摘要回顾

由 O1-preview 生成的摘要之摘要的摘要

主题 1:梯度累积 Bug 修复震撼 AI 训练

主题 2:SageAttention 加速推理,工程师们感到兴奋

  • SageAttention 承诺模型推理提速 2.7 倍:论文 SageAttention 介绍了一种量化方法,在保持准确性的同时,将每秒操作数比 FlashAttention2 和 xformers 提升了 2.1 倍2.7 倍。研究人员对 Transformer 模型的潜在效率提升充满期待。
  • 使用 SageAttention 进行训练遇到障碍:尝试将 SageAttention 用于训练导致了发散问题,这强调了它目前是为推理加速而设计的。讨论揭示了将其适配到预期用途之外的挑战。
  • LM Studio 关注 SageAttention 以实现性能飞跃:社区成员指出,将 SageAttention 集成到 llama.cppMLX 等工具中可能会使 Token 处理速度翻倍。如果得以实现,这将标志着 Transformer 模型性能的重大飞跃。

主题 3:AI 模型组件备受质疑——QKNorm 和 ReLU² 遭到审查

  • QKNorm 在大型模型中遇冷:测试显示 QKNorm 在严格的基准线下表现不佳,导致大型模型中出现“弱注意力(weak attention)”,引发了对其设计优点的怀疑。
  • ReLU² 仅 4% 的增益未能打动工程师ReLU² 相比 GELU 等函数仅提供 4% 的改进,使其在扩展大型模型时的实用性存疑,并引发了关于激活函数功效的辩论。
  • 研究人员指出误导性的性能主张:参与者注意到,某些声称的性能改进可能掩盖了不稳定性问题,而非代表真正的进步,呼吁对这类主张进行批判性评估。

主题 4:人才流动与争议震撼 AI 行业

  • 微软 AI 明星 Sebastien Bubeck 加入 OpenAI:Sebastien Bubeck 从微软跳槽至 OpenAI 在 AI 社区引起波澜。讨论集中在人才动态以及对 AI 研究方向的潜在影响上。
  • 围绕 Bubeck 的《Sparks of AGI》论文爆发争议:社区成员对 Bubeck 的 Sparks of AGI 论文褒贬不一,批评集中在其夸张的定位,并对其定义 AGI 的影响提出质疑。

主题 5:LLM 的推理能力受到质疑

  • 苹果的研究揭示了 LLM 逻辑推理的破绽:苹果的一项研究显示,LLM 依赖于概率模式匹配,当基准测试发生变化时会导致逻辑推理错误。工程师们讨论了人类对比基准的必要性以及“推理”的精确定义。
  • OpenAI 社区辩论 LLM 的推理局限性:成员们强调 LLM 在真正的逻辑推导方面表现挣扎,在需要真实推理的任务中会导致“灾难性”失败。该研究促使人们重新评估 AI 模型中推理的定义和评估方式。

第一部分:高层级 Discord 摘要

Eleuther Discord

  • 梯度累积 Bug 修复发布:针对导致大梯度累积步数下训练损失发散的 Bug,现已发布修复补丁,该问题直接与 Cross Entropy Loss 归一化相关。建议用户阅读此 博客文章 并更新库。
    • 多个成员提出了这一问题,强调了对齐归一化策略以确保训练损失曲线稳定的重要性。
  • QKNorm 的有效性受到质疑:测试显示 QKNorm 在严格的基准测试下表现不佳,导致大型模型中出现“弱注意力(weak attention)”,引发了对其设计的怀疑。有趣的是,它在 Olmoe 项目中的应用表明人们对其潜力的看法不一。
    • 参与者指出需要进一步研究其对大型架构的影响,特别是在 Attention 机制变得至关重要的情况下。
  • ReLU^2 的收益存疑:与 GELU 等竞争对手相比,ReLU^2 仅带来了 4% 的微小提升,这让人怀疑其在 Scaling 中的实际效用。这种细致的性能分析引发了关于大型模型中所用激活函数的广泛讨论。
    • 性能对比促使工程师在采用新的激活方法之前,同时考虑微小的增强和计算效率。
  • 微调库正在接受审查:由于成员们正在寻求改进评估方法,现有微调库的局限性引起了关注,例如 torchtune 中缺乏非聊天模板(non-chat-template)结构。社区渴望能够简化微调过程且无需复杂模板的库。
    • 讨论强调了 QuestionAnswerTemplate 作为模型评估的可行替代方案的可用性,确保了更清晰的指标。
  • 误导性的性能提升受到审视:参与者注意到,所谓的性能提升声明往往掩盖了不稳定性问题,而非反映真正的进步;A/B Testing 被认为是一个常见的陷阱。缺乏坚实基准测试的论文通常被认为价值较低,除非它们揭示了显著的性能转变。
    • 这种做法稀释了研究结果的质量,因此研究人员批判性地评估报告性能提升的条件至关重要。

Unsloth AI (Daniel Han) Discord

  • 梯度累积修复提升训练效果:Unsloth 修复了一个导致梯度累积中训练损失发散的 Bug,将准确率提升了 10 倍以上。用户应更新 Unsloth 并查看演示其影响的新 Notebook。
    • Unsloth AI 的一条 推文 强调了这一修复,提到训练指标有了显著改善。
  • INTELLECT-1 去中心化模型发布:Prime Intellect 推出了 INTELLECT-1,这是一个拥有 100 亿参数的协作式去中心化训练模型。该倡议旨在通过允许社区贡献来促进开源 AGI。
    • 更多细节可以在他们的 博客文章 中找到,讨论了该模型如何使分布式 AI 训练受益。
  • SageAttention 承诺更快的模型推理:论文 SageAttention 揭示了一种量化方法,与 FlashAttention2 和 xformers 相比,其每秒操作数分别提高了 2.12.7 倍。该方法在各种模型中保持了准确性。
    • 然而,尝试将 SageAttention 用于训练时出现了发散问题,强调了其侧重于推理而非训练的可行性。
  • 探索 LLM 微调流程:讨论围绕 Llama 等 LLM 的微调工作流展开,强调了数据格式对输出质量的影响。重点在于探索多样化的 LLM 输出。
    • 参与者考虑了有效的格式化和高效的数据管理将如何增强模型性能。
  • 模型性能的对比分析:围绕 QwenLlama 等模型的性能展开了热烈辩论,重点关注它们在微调和数据集利用方面的适用性。质量胜过数量是一个共同的主题。
    • 讨论集中在特定数据集如何产生更好的微调结果,同时讨论了与 Deepspeed 等工具的集成以提升能力。

Perplexity AI Discord

  • Perplexity 的推理功能面临不一致性:用户注意到在 ProSearch 中触发新的推理功能似乎是随机的,并随问题的复杂程度而变化,导致分析结果不一致。
    • 他们观察到之前的推理模型更可靠,而新模型在生成信息过程中出现幻觉的情况有所增加。
  • ProSearch App 令人沮丧的延迟:许多用户对 ProSearch Mac 应用的延迟表示恼火,该应用最初预计在更早的日期发布。
    • 其他投诉包括线程丢失问题以及应用程序整体运行缓慢。
  • Adobe 的 AI 视频模型增强:Perplexity AI 强调 Adobe 的 AI 视频模型是视频编辑领域的一项变革性发展,承诺提供改善工作流的高级功能。
    • 这一创新预计将显著提高内容创作的速度和可访问性。
  • NASA 成功发射 Europa ClipperNASA Europa Clipper 任务已成功发射,旨在调查木星卫星木卫二(Europa)上潜在的生命迹象。
    • 专家们热切期待可能揭示该卫星地下海洋新见解的发现。
  • 中国研究人员破解 RSA 加密:最近的报告显示,中国研究人员已成功破解 RSA 加密,这在网络安全社区引起了重大关注。
    • 这一进展引发了关于当前敏感数据加密实践中漏洞的深入讨论。

aider (Paul Gauthier) Discord

  • Aider 的多实例 LLM 派对:用户讨论了运行多个 Aider 实例来处理大任务和小任务的可行性,建议只要不修改相同的文件就应该可行。
    • 一位用户幽默地将其称为“LLM 派对”,强调了同时进行 LLM 操作的趣味潜力。
  • API Key 验证难题:成员报告了在尝试为 Aider 配置 Gemini 模型时出现 API 验证错误,特别是在 .env 文件中设置 Key 之后。
    • 一位用户确认该 Key 通过命令行可以工作,表明问题可能与他们的脚本设置有关。
  • 高效命令使用的脚本策略:讨论了如何使用 Python 和命令行有效地编写 Aider 命令脚本,强调了正确加载环境的必要性。
    • 一位用户讲述了修改示例脚本以实现 Gemini 模型的过程,但遇到了与环境变量相关的错误。
  • 模型对比:Aider vs Sonnet-3.5:用户注意到 Sonnet-3.5 在非 Web 开发任务中的表现优于 Gemini 等其他模型,使其成为首选。
    • 一位用户强调,在测试各种编程任务模型时,Sonnet-3.5 始终能提供更优的结果。
  • Gemini 集成和配置挑战:关于在 Aider 中正确配置 Gemini-1.5 Pro 模型的咨询,重点在于 API Key 的设置。
    • 尽管参考了文档,用户仍因环境配置错误而面临 API 错误

HuggingFace Discord

  • HuggingFace 账号恢复的紧迫性:一名用户紧急寻求帮助以恢复其被黑客攻击并删除的 HuggingFace 账号,被建议发送邮件至 website@huggingface.co 获取支持。
    • 恢复可能需要几天时间,但成员们鼓励在等待回复时保持耐心。
  • AI 自动化引发对就业保障的担忧:成员们讨论了对 AI 可能自动化 Data Science 和 ML 工作的焦虑,强调希望能向更具创造性的角色转变。
    • 讨论中将其与过去同样改变了就业结构的各种技术进步进行了对比。
  • Llama 3.2 模型推理速度的辩论:在 A100 GPU 上使用 Llama 3.2 1B 模型对大型数据集进行推理耗时超过 14 小时,引发了关于效率提升的讨论。
    • 成员们分享了他们的模型加载和推理策略以优化性能。
  • 令人兴奋的 Flutter 开发协作:一名成员宣布自己作为 Flutter 开发者可参与 AI 应用的协作,邀请他人加入。
    • 这一呼吁强调了在开发以 AI 为核心的项目时,对合作伙伴关系日益增长的需求。
  • Gradio 5 在 Product Hunt 上引起轰动Gradio 5Product Hunt 上发布,并请求社区支持。
    • 团队成员鼓励用户体验新功能并提供反馈,以提高知名度。

OpenRouter (Alex Atallah) Discord

  • Hermes 3 Llama 3.1 405B 变为订阅模式Hermes 3 Llama 3.1 405B Instruct 模型现在以 $1.79/月 的价格提供,免费版本可在 OpenRouter 访问。
    • 不要错过这一为强大 AI 功能更新的定价结构!
  • Nous Hermes Yi 34B 已弃用Nous Hermes Yi 34B 模型已被所有服务提供商弃用,不再提供使用。
    • 鉴于此弃用,鼓励用户过渡到替代模型。
  • AI 模型排名亮点:用户讨论了各种 AI 模型的性能,Llama-3-8b-InstructGPT-4o 因能有效遵循指令而受到关注。
    • Grok 2 miniGemini 1.5 Pro 也被认为是体面的替代方案,而 Opus 因其一些怪癖受到了一些批评。
  • 创新的 Chatbot 设计技术:一位用户提议创建一个隐藏的 AI Chatbot,以避免对侮辱产生通用的拒绝消息,建议使用另一个 LLM 进行过滤。
    • 参与者强调了像 Llama Guard 这样的模型,为管理响应提供额外支持。
  • Infermatic 提供商报告的问题:一位用户报告了 Infermatic 提供商的问题,因为他们的聊天开始意外地产生无关的响应。
    • 这提醒了社区最近出现的潜在服务中断。

Nous Research AI Discord

  • Nous Research 社区的起源:Nous Research 社区始于 Discord,并演变为一家专注于 AI research 和协作的受资助科技公司。
    • 成员们积极分享想法并研究各种 AI 模型和技术,增强了参与度和项目成果。
  • Gradient Accumulation Bug 修复发布UnslothAI 团队 解决了 Gradient Accumulation 中导致训练损失发散的一个重大 Bug,提高了整体一致性。
    • 此修复现已提供给用户,简化了训练过程并增强了模型可靠性。
  • 探索 Zamba2-7B 模型性能:Zyphra 宣布推出 Zamba2-7B 模型,声称其在消费级 GPU 上的性能和质量超过了 Llama3 和 Mistral。
    • 有关功能的详细信息在最近的一篇 blog post 中列出,提供了其部署的见解。
  • Synthetic Data 导致 Model Collapse研究表明,训练集中即使只有 1%Synthetic Data 也会导致显著的 Model Collapse,影响大型模型的性能。
    • 这强调了训练像 ChatGPT 这样的大型模型所涉及的风险,表明目前的做法可能需要重新评估。
  • SageAttention 方法的效率SageAttention 引入了一种 Quantization 方法,提高了 Attention 机制的效率,性能优于 FlashAttention2 2.1 到 2.7 倍
    • 该方法在显著降低计算复杂度的同时确保了高精度,对于推理加速至关重要。

GPU MODE Discord

  • Lux-AI Challenge 邀请协作:鼓励成员为 Lux-AI Challenge 的 GitHub 仓库贡献力量,以促进团队协作。
    • 有人呼吁有兴趣的人士组队参加 Lux-AI 项目,展示了社区参与挑战赛的积极性。
  • Triton 在 Jetson 构建中遇到困难:用户报告了在 Jetson Orin AGX 64GB 上构建 triton-lang 时的问题,其中 CUDA 将 Unified Memory 误认为 AMD GPU。目前正在重新构建,希望 LLVM 支持是问题所在。
    • 讨论显示,用户应在相关的 issues 中检查 LLVM 对 ARM 的支持。
  • 《Learn PyTorch for Deep Learning》课程现已上线:一门新课程 Learn PyTorch for Deep Learning: Zero to Mastery 被分享为掌握 PyTorch 基础知识的顶级资源。
    • 该课程形式结合了视频见解和易于访问的在线书籍,提供了一种结构化的学习方法。
  • Ollama 在树莓派上的性能表现Ollama 模型在树莓派 5 上运行 llama3.2 版本的速度为 5.32 tokens/s,而 llama3.1 的速度仅为 1.5 tokens/s
    • 讨论涉及了 eGPU 与 2080 的集成,表明了树莓派系统一条可行的升级路径。
  • WebGPU 缺乏 CUDA 交互:澄清了 WebGPU 不与 CUDA 交互,这意味着开发者未来必须依赖其他 API。
    • 此外,WebGPU 的运行取决于操作系统定义的特定 graphics APIs,如 VulkanDirectX

Latent Space Discord

  • 实时 STT 引擎树立新标准:Gladia 新的实时 STT 引擎拥有 < 300 ms 的延迟,支持超过 100 种语言和语码转换(code-switching),并获得了 1600 万美元的 A 轮融资。另一家竞争对手的引擎声称具有 90ms 的推理时间并支持多语言,加剧了转录技术的竞争。
    • 正如成员们所讨论的,这种改进使这些引擎成为实时通信中各种应用的可行选择。
  • 线性注意力模型有望提升效率:在 Llama 3.1 家族中实现 linear attention models 显示出显著提升效率的潜力,使其资源消耗更低。对话揭示了尝试将 超过 50% 的 transformer attention layers 转换为线性版本时面临的挑战。
    • 参与者似乎对这一转变充满希望,强调这符合当前机器学习中的资源优化趋势。
  • AI 作为新型建筑材料:一篇博客文章将 AI 融入各行各业比作历史上由塑料引起的变革,将 AI 定位为现代设计的革命性材料。讨论集中在以往的材料时代如何重新定义生产和建筑
    • 参与者对 AI 日益增长的作用表示兴奋,呼应了软件现在比物理材料更关键的观点。
  • 融资公告引发好奇:DecagonAI 获得的 6500 万美元 B 轮融资激起了人们对 AI 初创公司投资趋势的兴趣,特别是应用层而非核心模型。知名投资者包括 Bain Capital Ventures 和 Accel,凸显了 AI 解决方案市场的强劲。
    • 成员们指出,此类融资努力反映了重点向实际 AI 应用的转移,揭示了当前的市场动态。
  • 关于外包文档的辩论:关于为 AI 和开源项目外包文档的可能性展开了激烈的讨论,权衡了使用 LLM 与人类作者的优缺点。社区成员思考了这将如何影响质量和可访问性。
    • 谈话提出了关于成本效益与详尽文档之间平衡的问题,表明这是项目管理中的一个重要考虑因素。

LlamaIndex Discord

  • Llama 3.1-70B 集成面临截断困扰Llama 3.1-70B 的集成正在返回截断的响应,在请求 20 个软件工程技能列表时,始终仅提供 5 个技能,原因是触及了 max_tokens 限制。
    • 一位用户指出,“尽管调整了参数,响应仍以 finish_reason: max_tokens 结束”
  • Qdrant 节点添加触发错误:一名成员在向 Qdrant 索引添加新节点时遇到错误,此前未见此类问题的报告,表明可能存在设置冲突。
    • 另一位用户建议,他们自己成功添加节点的经历暗示第一位用户的设置中可能存在配置错误。
  • 使用 Claude 3.5 构建 Financial Agent:你可以使用 @financial_mod 分享的股票价格和公司数据 API,创建一个由 Claude 3.5 Sonnet 驱动的 Financial Agent
    • 根据 Hanane Dupouy 的说法,该 Agent 提供了多样的见解,包括损益表和全面的公司信息。
  • PineconeVectorStore 在 ComposableMemory 中失效:成员们对 SimpleComposableMemory 中的 PineconeVectorStore 表示沮丧,收到了 “Namespace not found” 错误消息。
    • 另一位用户推测,设置问题可能是导致这些持续错误的原因。
  • Neo4jPropertyGraphStore 初始化性能滞后:据报告,Neo4jPropertyGraphStore 的初始化存在显著延迟,在较大的图上,Schema 生成耗时过长。
    • 不使用 async 操作可能会加剧此问题,相关的 GitHub issue 也证实了这一点。

OpenAI Discord

  • LLM 在推理方面表现出破绽:最近的一项 Apple 研究 表明,LLM 在数学推理中利用概率模式匹配,当基准测试发生变化时会导致错误。
    • 成员们表示有必要进行基准人类对比,并强调了该研究中推理定义的模糊性。
  • Swarm 库需要更好的测试:研究 Swarm 库的用户发现,很难区分任务是由 Agent 执行还是由基础 LLM 执行,强调了对稳健测试的需求。
    • 对 Swarm 的非生产就绪 (non-production-ready) 状态表示担忧,并提到了 Swarm.js 等替代方案。
  • 对 GPT 语音功能的困惑:关于高级 GPT voice 功能推出的讨论不断,但 OpenAI 尚未对其功能发布明确公告。
    • 由于过去版本未受支持,对潜在更新的怀疑在增加。
  • 自定义 GPT 更新问题:一位成员的自定义 GPT 由 300 页材料构建,在将 PDF 拆分为六个较小文件后,仍处于 “Update Pendings” 状态超过一周。
    • 尽管 PDF 已被识别,但该 Bot 经常将查询重定向回代码,而不是直接从文档中回答。
  • PDF 处理故障:另一名成员在 GPT-4 中测试 1 个 PDF 时遇到性能问题,表明 PDF 内容处理存在更深层次的问题,影响了响应速度。
    • 这表明 GPT 与 PDF 输入的交互方式可能存在系统性挑战。

LM Studio Discord

  • LM Studio 配置选项需要更清晰:一位成员建议以截图以外的格式分享配置详情,并指出未来的博客文章将包含这些改进。
    • 这一建议旨在增强可用性,使用户更容易理解设置和优化。
  • M2 Studio 在大模型上表现出色:用户称赞配备 192 GB RAMM2 Studio 在运行 Mistral 的 128K context 大模型时表现惊人,是特定应用的理想选择。
    • “它非常契合我的使用场景”强调了其价值,可能会吸引更多用户选择高 RAM 配置。
  • 通过调整 GPU 提升性能:一位用户建议使用 Afterburner 对 GPU 进行降压 (UV),并表示即使是 100mV 的调整也能显著提升性能。
    • 他们敦促同行查看 YouTube 上的针对性教程,以便在不同配置下进行更好的性能调优。
  • Llama 8B 出色的 TPS 表现:一些用户报告在各种 GPU 上使用 Llama 8B 达到了 30 TPS,而对 150+ TPS 的预期引发了关于必要升级的讨论。
    • 模型大小和量化 (quantization) 等因素会显著影响性能,尤其是在对比配备先进 Tensor Cores 的设备与旧款 GPU 时。
  • SageAttention 承诺带来效率提升:最近关于 SageAttention 的论文强调了注意力机制在效率上的显著改进,这对 llama.cppMLX 等工具有着重要意义。
    • 如果得以实现,它可能会使 Token 处理速度翻倍,标志着 Transformer 模型性能的飞跃。

Cohere Discord

  • Cohere Connector 误解输入:用户报告称,即使是简单的“hi”,Cohere Connector 也会触发搜索,从而引发了关于限制不必要交互的控制功能的咨询。
    • 有没有办法优化它的功能? 社区正在积极寻求解决方案来优化这一点。
  • API Token 限制引发关注:关于 Cohere API 的 Token 限制存在差异,有人指出每月上限为 10k,而聊天中提到了 500 万个 Token,这导致了关于潜在超额费用的疑问。
    • 超过 10k 上限会产生费用吗? 成员们正在寻求关于这一关键点的明确答复。
  • Google Connector 表现不佳:多位用户面临 Google Connector 无法正常运行的问题,引发了用户间的故障排除讨论。
    • 分享任何突破性进展! 鼓励社区成员互相支持以解决此连接问题。
  • Command 模型定价已明确:讨论明确了 Web-search Connector 不收取费用,但发送到 Command 输入上下文的结果会产生费用,这可能会影响用户的预算。
    • 这一区别突出了 API 使用成本的复杂性,并鼓励用户进行仔细监控。
  • OrionChat 聚合了 AI 模型:一位成员推出了 OrionChat,这是一个 Web 界面,使用户能够在一个地方无缝地与来自 CohereOpenAI 等的各种 AI 模型进行交互,访问地址为 此链接
    • 该计划旨在整合对话并促进跨模型的比较,鼓励用户反馈以进行进一步改进。

Stability.ai (Stable Diffusion) Discord

  • WordPress 插件开发寻求反馈:一名成员正在为文本生成和 txt2img 服务器开发多个 WordPress 插件,急切寻求社区反馈和测试。
    • 没人回应,这凸显了 AI Discord 服务器中社区参与度令人沮丧的现状。
  • CORS 问题困扰 Stable Diffusion 设置:用户讨论了在反向代理设置中对 Stable Diffusion 服务器使用 SSL 时遇到的持续性 CORS 错误
    • 一位技术专家成员强调,Web 服务器和 Stable Diffusion 服务器 需要在同一台机器上运行才能实现完整功能。
  • 寻找活跃的 Discord AI 社区:一名成员对他们的 AI Discord 服务器 缺乏活跃度表示失望,寻求关于 ComfyUIA1111 相关更活跃社区的建议。
    • 关于插件的询问无人回答,指向了社区内对更好互动的广泛需求。
  • 探索文本生成的基座模型:一位用户询问了在风格迁移过程中能增强文本生成的基座模型,特别提到了 i2iSD1.5
    • 另一位成员建议尝试 fluxSD3,同时提醒 SD3 在人体表现方面存在困难。
  • 创建风格化照片的技巧:讨论集中在生成风格化照片的方法上,几位成员建议使用 ControlNets
    • 成员们分享了创意方法,包括 这里 概述的针对各种艺术风格(如 pin-up)的技巧。

tinygrad (George Hotz) Discord

  • Tinygrad 在 .dot 操作上优于 NumPy:详细对比显示,Tinygrad 的 .dot 操作 在处理大矩阵时会出现精度下降,在 M=16384, N=8192, K=1280 等维度下差异达到 ±0.001
    • 相反,较小的矩阵(M=10, N=4, K=5)偏差极小,不超过 ±0.000001
  • VIZ UI 改进成为焦点:讨论围绕 Issue #7067 展开,强调了对 VIZ UI 备受期待的增强,特别是与自动滚动功能相关的改进。
    • 提案包括调整大小和可折叠侧边栏,旨在提升用户体验。
  • George Hotz 誓言要挑战 PyTorch 的性能:George 认为在 NVIDIA GPU 上超越 PyTorch 的性能对 Tinygrad 来说将具有里程碑意义,标志着项目的转折点。
    • 他表示:“我们只要在性能上击败 PyTorch,我们就赢了”,强调了其中的利害关系。
  • 拆解 Tinygrad 中的 TD-MPC 实现:一位用户分享了在 Tinygrad 中成功实现 TD-MPC 学习 的好消息,并计划在硬件上进行测试。
    • 分享了 GitHub 仓库 链接,详细说明了必要的硬件要求。
  • 禁用梯度计算的方法:用户辩论了禁用梯度的有效方法,提倡使用 Tensor.no_grad,同时建议将 with Tensor.test(): 作为一种现代实践。
    • 此次对话旨在完善社区内的梯度控制方法。

Modular (Mojo 🔥) Discord

  • 解决库安装问题:一位用户发现缺失的库可以通过 sudo apt-get install libtinfo-dev 安装,帮助了遇到类似安装问题的其他人。
    • 这一发现强调了社区知识共享在有效解决常见问题中的作用。
  • 应对自定义 stdlib 的挑战:用户在运行修改版的 stdlib 时面临挑战,尽管遵循了构建指令,原始实现仍然存在。
    • 提出了一种涉及调整构建过程的变通方法来解决这些持续存在的问题。
  • 寻找新的图像哈希算法:出现了关于 pHash 等旧图像哈希算法相关性的问题,并呼吁推荐先进的替代方案。
    • 社区的探索展示了随着技术演进采用尖端技术的渴望。
  • 讨论内存管理策略:在 assertion 调用期间 struct 实例的过早销毁引发了对 Mojo 内存管理的担忧。
    • 建议包括创建一个 getter 方法来安全地访问 struct 成员,从而降低过早销毁的风险。
  • 协作 Bug 报告成功:一位用户报告了一个字符串插值问题,该问题已被确认在最新版本的 Mojo 中修复。
    • 这一案例突显了社区协作在迅速识别和解决 Bug 方面的有效性。

Interconnects (Nathan Lambert) Discord

  • Sebastien Bubeck 加入 OpenAI:Microsoft 的明星 AI 研究员 Sebastien Bubeck 加入 OpenAI 的消息引发了轰动,引发了关于 AI 人才动态的讨论。
  • o1-turbo-mini 在 benchmarks 中表现惊人:关于 o1-turbo-mini 性能的热议不断,其展示出的强劲结果甚至引起了工程师们的怀疑和调侃。
    • 社区成员注意到,对于那些对这一消息反应过度的网络群体,存在着有趣的调侃潜力。
  • AGI 末日时钟引发争议:由沙特支持的一所瑞士商学院发起的 Doomsday Clock(末日时钟)声称要对“不受控制的通用智能”发出警告,但被批评为过时。
    • 创建者 Michael Wade 认为,将 Excel 之类的软件比作 AGI 带来的威胁是荒谬的,这反映的是历史性的恐惧而非当代的现实意义。
  • AI2 为 OLMo 项目招募研究实习生AI2 宣布了 OLMo 项目的研究实习生职位,旨在增强 Natural Language Processing 和 Machine Learning。
    • 这个位于西雅图的为期 12 周的实习提供 $86,520$123,600 之间的极具竞争力的薪酬,专注于具有影响力的研究计划。
  • OpenAI 对法律领域的影响:讨论强调了 OpenAI 在为律师创造有利条件方面的作用,将 AI 的进步与不断演变的法律工作联系起来。
    • 这突显了 AI 技术与法律领域实际应用之间日益增长的相互作用。

LangChain AI Discord

  • 框架选择是一场噩梦!:成员们对 LangchainLangflowLanggraph 等框架之间的不断切换感到沮丧,这使得最终确定生产环境的选择变得困难。
    • 一位成员指出,他们的整个代码库已经迁移到了 Langchain LCEL,突显了围绕这些框架的混乱局面。
  • 在私有云上部署 Langgraph:一位成员询问如何在 USEU 之外的云端部署 Langgraph 应用程序,寻求社区的见解。
    • 虽然没有得到直接回复,但这一询问激发了对区域性应用托管的兴趣。
  • 关于 dspy 与 Langchain 的辩论:社区对 dspy 是否会主导 Langchain 及其他框架,或者它们是否会保持相关性产生了兴趣。
    • 这反映了社区对 AI 框架未来格局的不确定性。
  • 认可 Langsmith 的实用性:一位成员建议 Langsmith 对于 tracing 非常有用,强调了它在不断变化的框架中的重要性。
    • 这促使了对 Langchain Academy 关于 Langgraph 课程的推荐,以磨练相关技能。
  • 澄清 Langflow 的隶属关系:一位用户澄清说 LangFlow 并不是 LangChain 的产品,解决了成员们对相关工具的困惑。
    • 这一区分可能有助于协调社区内对各种讨论框架的理解。

LLM Agents (Berkeley MOOC) Discord

  • LLM Agents MOOC 在线提供所有课程详情:有关 labsassignments 的所有细节都可以在课程网站 course website 上找到,鼓励参与者关注更新。
    • 想要加入的学生应填写此 form,并通过 LLM Agents Discord 与社区互动以获取实时支持。
  • 观察到推理时计算(Test-time compute)缩放定律:成员们讨论了 “推理时计算”缩放定律 的广泛影响,将其与早期影响 GPT 系列的定律联系起来,并引用了 这篇论文 作为支持。
    • 另一份与此讨论相关的文档也被分享了,可以在 这里 找到。
  • 《AI-Powered Search》一书成为必备资源:一位成员推荐 这本书 作为未来几年 AI 驱动搜索技术的关键资源,可能会影响 从业者和研究人员
    • 他们预计书中的见解将成为各行业 AI 研究的基础。
  • 对课程视频质量提出担忧:一位成员指出有必要提高上传课程的 视频质量,并表示第 6 课最高只有 720p,导致难以看清代码。
    • 这一担忧表明了对课程中更易获取的学习材料的需求。
  • 探索 LLM 中的推理和规划:一位成员寻求关于 LLM 和 Agent 如何进行 推理(reasoning)规划(planning) 以及识别工具(而非仅仅生成文本)的见解。
    • 他们表达了对后续课程涵盖 规划工具使用(tool use) 的兴趣,以加深对 LLM 应用的理解。

OpenInterpreter Discord

  • Open Interpreter 发布 π 版本:一位成员宣布了 Open Interpreter 的新版本更新,可通过 pip install --upgrade open-interpreter 获取,并称其为具有显著增强功能的重大 π 版本
    • Mike Bird 的这条推文分享了这些改进,并引发了对其能力的关注。
  • Hume AI 令人印象深刻,Oi 登场:一位用户讲述了 Hume AI 模型 如何超出预期,称其表现几乎 太好了,这引发了对性能阈值的审视。
    • 对话焦点转向了 Oi 模型,表明用户正在积极尝试各种 AI 框架。
  • Play 3.0 mini 提升文本转语音(Text-To-Speech)效果Play.ht 推出了 Play 3.0 mini,这是一款 Text-To-Speech 模型,在多种语言中提供了更高的速度和准确性,且极具成本效益。
    • 他们邀请用户在 playground 上进行测试,并就改进提供反馈。
  • Think-on-Graph 征集合作者Think-on-Graph GitHub 仓库现已上线,邀请有兴趣在深圳合作的研究人员在 这里 查看。
    • 该项目公开邀请有意贡献并加入研究团队的人员通过电子邮件联系。
  • 观看关于 AI 进展的视频:一位用户分享了一个 YouTube 视频,涉及围绕 AI 技术展开的最新进展。
    • 细节较少,建议观众直接观看以获取所呈现内容的见解。

DSPy Discord

  • 对 Loom 视频见解感到好奇:一位成员分享了一个 Loom 视频,可能包含与当前讨论相关的见解,尽管细节较少。
    • 该视频激起了成员们的兴趣,促使他们探索其中的价值信息。
  • 上下文嵌入资源汇总:一位成员分享了一个 Google Colab 和一段标题为“使用任何 LLM 进行上下文检索”的 YouTube 视频,重点在于实现上下文嵌入(Contextual Embeddings)。
    • 该视频旨在简化 Anthropic 的上下文检索策略在各种 LLM 上的实现。
  • RAG 机制:澄清分块过程:成员们讨论了在不超出 Token 限制的情况下将整个文档添加到 Prompt 中的挑战,强调了 RAG (Retrieval-Augmented Generation) 中不可或缺的分块过程 (Chunking Process)
    • 会议澄清了 RAG 利用相似度搜索仅包含最相关的分块,从而确保符合 Token 限制。
  • DSPy 集成到 GPT-O1+ 的状态检查:一位成员询问了将 DSPy 集成到 GPT-O1+ 系统中的进展,期待开发更新。
    • 然而,讨论中尚未涉及该集成的具体细节。

Torchtune Discord

  • ICLR 评审终于公布了!:期待已久的 ICLR 评审论文已经发布,引发了渴望深入研究的成员们的兴奋。
    • 一位成员提到,处理分配给他们的评审需要一些时间。
  • 持续预训练与指令微调的研究:最近的一篇论文调查了大型语言模型(LLM)的持续预训练 (Continuous Pre-training)指令微调 (Instruction Fine-tuning)之间的关系,强调了模型保持最新数据更新的必要性。
    • 这引发了一个问题:为了保持指令遵循能力,哪种模型应该进行这种预训练。
  • 模型合并方法的批评一位成员质疑论文中方法的创新性,认为它类似于早已存在的模型合并(Model Merging)方法。
    • 这引发了关于所提技术相关性和原创性的讨论。

LAION Discord

  • 关于 LAION-2B 数据集与 MSCOCO 重叠的查询:一位成员询问 LAION-2B 数据集 是否包含来自 MSCOCO (COCO2014 或 COCO2017) 的图像,质疑潜在的数据重叠 (Data Overlap)
    • 该查询强调了论文中提到的数据重叠,并请求提供有关验证此问题所采用技术的更多细节。
  • 早安与一般问候:成员们交换了问候,一位成员说 “大家早上好”,营造了友好的聊天环境。
    • 另一位成员随意地以 “gm” 回应,增添了轻松的氛围。

Gorilla LLM (Berkeley Function Calling) Discord

  • 解码推理流水线机制Gorilla LLM 中的推理流水线通过输出 decod_exec 可以解释的有效函数调用来执行函数;当输出为空或无法解码的响应时,表示回合结束。
    • 这种自动信号指示模型何时完成了任务,提高了交互效率。
  • 模型的输出停止信号:一位成员强调了模型决定何时停止函数调用的重要性,建议它可以通过不输出任何内容来发出回合结束的信号。
    • 这种灵活性对于在各种场景中保持流畅的用户交互至关重要。
  • 天气查询演示函数调用:一个说明性示例展示了模型如何使用 get_coordinateget_weather 等函数调用来处理天气查询,展示了其数据检索过程。
    • 当模型在数据后的输出无法解码时,会话结束,有效地结束了该回合。
  • 探索函数调用输出的可变性:模型处理函数调用输出的方式允许它创造性地停止或扩展交互,包括选择不输出任何内容。
    • 这种可变性突显了模型利用各种 Prompt 技术来适应用户查询。

LLM Finetuning (Hamel + Dan) Discord

  • 对 LLM Finetuning 帮助的感谢:一位用户对另一位成员在 LLM Finetuning 工作中的协助表示感谢。
    • 这一举动凸显了社区内的协作环境,展示了在应对技术挑战时的知识共享和支持。
  • 贡献认可:成员 cyberg0285 通过标签感谢了另一位社区成员的贡献,表明了互助的氛围。
    • 这种认可增强了从事复杂 LLM 项目的工程师之间的社区感和协作感。

OpenAccess AI Collective (axolotl) Discord

  • 关于转发协议的讨论:一位成员分享了关于 forwarding protocols(转发协议)的重要链接,强调了其在近期讨论中的相关性。
    • 以下是供参考的转发消息。
  • 信息共享的重要性:另一位成员强调了建立适当 information sharing(信息共享)实践的必要性,以提高社区参与度并简化沟通。
    • 他们指出,转发消息可以促进更快的响应和更清晰的沟通。

Mozilla AI Discord

  • AI Stewardship Practice Program 启动:由 MaRS Discovery District 发起的 AI Stewardship Practice Program 为旨在积极影响 AI 发展的试点课程提供免费名额。更多详情请访问 Tech Stewardship 网站
    • 该微证书项目专为研究人员、教育工作者和政策制定者设计,提供了参与 AI stewardship 实践的机会。
  • 成为一名 Tech Steward:参与者可以通过这项 Tech Stewardship 倡议参与旨在引导技术走向良善的项目。感兴趣的人士应在此线程中回复以加入价值 500 CAD 的试点课程。
    • 该项目旨在培养一个致力于负责任的 AI 实践和道德技术使用的 Tech Stewards 社区。

Alignment Lab AI Discord 没有新消息。如果该频道长期保持沉默,请告知我们,我们将将其移除。


MLOps @Chipro Discord 没有新消息。如果该频道长期保持沉默,请告知我们,我们将将其移除。


DiscoResearch Discord 没有新消息。如果该频道长期保持沉默,请告知我们,我们将将其移除。


AI21 Labs (Jamba) Discord 没有新消息。如果该频道长期保持沉默,请告知我们,我们将将其移除。


第 2 部分:按频道划分的详细摘要和链接

完整的频道细分内容已在邮件中截断。

如果您想查看完整的细分内容,请访问此邮件的网页版:

如果您喜欢 AInews,请分享给朋友!提前感谢!