ainews-not-much-happened-today-8168

今天没发生什么。

以下是该文本的中文翻译:

ChatGPT Search 正式发布,山姆·奥特曼 (Sam Altman) 称其为自 ChatGPT 最初发布以来他最喜欢的功能,并表示该功能使他的使用量翻了一番。舆论将 ChatGPT Search 与 Perplexity 进行了对比,并指出 Perplexity 在网页导航方面有所改进。谷歌 (Google)Gemini API 和 AI Studio 中引入了“Grounding”功能,使 Gemini 模型能够访问实时网络信息。尽管 Gemini 在排行榜上表现出色,但开发者的采用率仍落后于 OpenAIAnthropicSmolLM2 作为一款新型、强大且适用于设备的端侧小型语言模型,其性能超越了 Meta 的 Llama 3.2 1BClaude 发布了适用于 Mac 和 Windows 的桌面端应用。Meta AI 宣布了机器人技术的进展,包括 Meta Sparsh、Meta Digit 360 和 Meta Digit Plexus。Stable Diffusion 3.5 Medium 正式发布,这是一个拥有 20 亿参数且许可协议宽松的模型。关于通用人工智能 (AGI) 发展的见解表明,AGI 在初期可能表现平平,但随后会迅速提升。Anthropic 提倡进行早期的针对性 AI 监管。关于机器学习 (ML) 专业化的讨论预测,模型训练将集中在少数几家公司手中,而推理将变得商品化(普及化)。新的 AI 工具包括用于音乐创作的 Suno AI Personas、用于数据自然语言查询的 PromptQL,以及用于桌面任务自动化的 Agent S。此外,网络上还流传着关于 Python 环境升级的幽默段子。

#on-device-ai #model-performance #robotics #multimodality #ai-regulation #model-releases #natural-language-processing #prompt-engineering #agentic-ai #ai-application #model-optimization smollm2 llama-3-2 stable-diffusion-3.5 claude-3.5-sonnet gemini openai anthropic google meta-ai-fair suno-ai perplexity-ai

一个幽静得有些诡异的周末正是你所需要的。

AI News 2024/10/31-2024/11/01。我们为你检查了 7 个 subreddits、433 个 Twitters32 个 Discords(231 个频道和 2436 条消息)。预计节省阅读时间(以 200wpm 计算):254 分钟。你现在可以标记 @smol_ai 进行 AINews 讨论!

今天没发生太多事,但在过去两天内发布的内容相当于一个月的量,你可能想要关注一下。

或者,你可能想收听关于 LMSys/Chatbot Arena 的最新 LS pod!

https://www.youtube.com/watch?v=vBlhoAIb0iE


目录频道摘要已移至此邮件的网页版:


AI Twitter 摘要

所有摘要均由 Claude 3.5 Sonnet 完成,取 4 次运行中的最佳结果。

ChatGPT Search 与 AI 驱动的搜索

  • ChatGPT Search 发布@sama 宣布推出 ChatGPT Search,并提到朋友们的早期评价非常正面。他还表示 Search 是自 ChatGPT 最初发布以来他最喜欢的发布功能,在过去几周里他的使用量翻了一番。

  • 与其他搜索工具的对比@_akhaliq 分享了 ChatGPT Search 与 Perplexity 的对比。@AravSrinivas 强调了 Perplexity 在导航查询方面的改进,使网页导航变得更加容易。

  • Google 的 Grounding 功能:Google 在 Gemini API 和 AI Studio 中推出了与 Google Search 结合的 “Grounding” 功能,允许 Gemini 模型在运行时访问来自网页搜索的最新信息,正如 @labenz 所指出的。

  • 开发者采用情况:尽管 Gemini 在排行榜上表现优异,@labenz 质疑为什么它似乎是大多数开发者的第三选择,排在 OpenAI 和 Anthropic 之后。

AI 模型发布与更新

  • SmolLM2@LoubnaBenAllal1 宣布发布 SmolLM2,这是一套针对端侧使用优化的新型小型强力语言模型,性能超越了 Meta 的 Llama 3.2 1B。

  • Claude 桌面应用@alexalbert__ 宣布发布适用于 Mac 和 Windows 的 Claude 桌面应用。

  • Meta 的机器人技术进展@AIatMeta 宣布了在机器人和触觉感知方面的三项新进展:Meta Sparsh、Meta Digit 360 和 Meta Digit Plexus。

  • Stable Diffusion 3.5 Medium@mervenoyann 提到了 Stable Diffusion 3.5 Medium 的发布,这是一个拥有 2B 参数且具有商业许可的模型。

AI 研究与见解

  • AGI 发展@fchollet 分享了对 AGI 发展的看法,认为它在大多数任务上最初会比之前的 AI 系统表现更差,但会迅速改进。

  • AI 监管@AnthropicAI 发表了一篇文章,主张尽早实施有针对性的 AI 监管。

  • ML 专业化的未来@StasBekman 讨论了 ML 专业化的未来,认为训练 LLM 将成为少数几家公司的领域,而推理方面的专业知识可能会变得商品化。

AI 工具与应用

  • Suno AI Personas@suno_ai_ 推出了 Personas 功能,允许用户保存歌曲的精髓并在不同的创作中重新构思。

  • PromptQL@svpino 介绍了 PromptQL,这是一个自然语言 API,可以在结构化、非结构化和 API 数据之上执行 Python 和类 SQL 查询。

  • Agent S@rohanpaul_ai 分享了关于 Agent-S 的信息,这是一个像人类一样使用计算机在不同系统上解决各种桌面任务的 AI 系统。

梗与幽默

  • @HamelHusain 开玩笑说要在基础 conda 环境中升级 Python 版本,并祈求好运。

  • @HamelHusain 随后更新说他们正在买一台新笔记本电脑。

  • @jxnlco 幽默地问道,为什么 Cafe Lyria 的每个人都长得这么好看。


AI Reddit 摘要

/r/LocalLlama 摘要

主题 1. AI 实时游戏生成突破

主题 2. Ollama 框架安全:发现多个 CVE

  • More Models, More ProbLLMs: New Vulnerabilities in Ollama (Score: 71, Comments: 6): 在 Ollama framework 中发现了 6 个严重漏洞,包括 remote code execution (远程代码执行) 和 container escape (容器逃逸) 缺陷,可能允许攻击者控制运行 AI 模型的宿主系统。这些安全问题被追踪为 CVE-2024-21626CVE-2024-21631,影响 0.1.27 之前的 Ollama 版本,使攻击者能够通过 path traversal (路径遍历) 和 command injection (命令注入) 技术访问敏感文件、执行任意命令并逃逸容器化环境。
    • 讨论了 Ollama endpoint 暴露的担忧,并澄清 OpenWebUI 实现了自己的 OpenAI-compatible endpoint,需要 API key 身份验证,而不是直接代理 Ollama API。
    • TL;DROligo 的研究显示,在 6 个漏洞 中,4 个 获得了 CVE,而 2 个 被维护者争议为影子漏洞。这些缺陷可能通过单个 HTTP 请求实现 DoS attacksmodel poisoning (模型投毒) 和 model theft (模型窃取)。
    • 社区成员强调了 open source security (开源安全) 的优势,指出透明度的提高有助于更快地发现和修复漏洞,最终提升软件质量。

Theme 3. Meta’s MobileLLM: 125M Model Matches 500M Performance

  • Minimum viable LLM (Score: 47, Comments: 19): Meta 的 125M MobileLLM 展示了出人意料的连贯文本生成能力,挑战了以往关于基础语言任务所需最小模型尺寸的假设(相比 1.5B 参数的 GPT-2)。该帖子探讨了 LLM 生成 语法正确上下文相关 的响应理论上所需的最小参数量,建议潜在的参数范围从 50M100K
    • RAGmasking 方法可以训练专注于知识检索和逻辑而非记忆的小型模型,像 optillm 这样的实现展示了无限的上下文能力。类似的概念也出现在 Google 的 REALMRETRO models 中。
    • 讨论探索了最小参数要求,有人建议 100K 参数 可以在有限的 40-70 个单词词汇量 下处理连贯文本,而其他人则提出了使用基础编程结构的更简单方案。
    • Qwen2.5 0.5B 被强调为一个有效的小规模移动端 LLM 实现。该模型证明了紧凑架构在本地部署中的实际可行性。
  • MobileLLM (Meta - 125M, 350M, 600M, 1B models) (Score: 160, Comments: 29): Meta 发布了全新的 MobileLLM 模型系列,参数量从 125M1B 不等,专为移动设备部署而设计,并针对低延迟推理进行了优化。这些模型在保持效率的同时,实现了与更大模型竞争的性能,其中 1B 变体在标准基准测试中达到了 7B 模型 90% 的性能,而使用的计算资源显著减少。
    • 针对 benchmark comparisons (基准测试对比) 未包含 Qwen 2.5Gemma 2 的初步担忧,解释称该论文发表于 2024 年 2 月,早于这些模型。基准测试数据显示 MobileLLM 125MHellaswag 上的表现优于 Qwen 2.5 0.5B (65.352.1)。
    • 讨论集中在模型架构和实现上,建议训练两个子模型:一个基于 Knowledge Graph (知识图谱) 进行逻辑和推理,另一个用于 prompt-to-graph 转换。由于采用自定义架构,它不太可能作为 speculative decoding (投机采样) 的草稿模型工作。
    • 用户对移动端部署能力表示关注,指出 llama.cpp 尚未支持新的 MobileLLMForCausalLM 架构。125M 模型在重写和摘要等基础任务中展现出潜力。

Theme 4. QTIP: Next-Gen 2-bit Quantization for 405B Models

  • 新量化方法 – QTIP: Quantization with Trellises and Incoherence Processing (Score: 124, Comments: 29): QTIP 是一种使用 trellis coded quantizationincoherence processing 的新 LLM 量化算法。它在包括 405B Instruct 在内的模型上实现了 2-bit 精度 的业界领先性能,在保持相似速度的同时,质量超越了 QuIP#。该方法发表于 NeurIPS 2024 Spotlight 论文,运行速度比 PV-Tuning2-3 倍,且质量相当或更好。目前可通过其 GitHub 仓库HuggingFace 上的预量化模型 获取。
    • QTIP 集成到 llama.cpp 似乎非常直接,只需将基于 QuIP# 的 E8P 向量量化器 替换为 QTIP 的 trellis 量化器即可。开发者确认了兼容性,并表示为未来改进 GGUF 模型 进行实现非常容易。
    • 405B 模型 的运行成本为 $1.6/小时,并配有专为 8 路张量并行 (tensor parallelism) 设置设计的 TP8 模型。这些模型在每个 GPU 上执行随机 Hadamard 变换,而不是跨所有激活执行,以优化数据传输。
    • 量化模型的内存需求可以通过模型大小乘以压缩率来估算(2-bit 精度 将体积缩小约 2/3),这使得一个 70B 模型 在量化后大约需要 17.5GB VRAM

其他 AI Subreddit 回顾

r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence, /r/LLMDevs, /r/Singularity

AI 开发与研究

  • Meta FAIR 宣布了三项新的机器人技术进展,包括 Meta Sparsh(一种在 46 万多张触觉图像上训练的通用视觉触觉感知编码器)以及 Meta Digit 360(一种具有 18 种以上感知功能的人造指尖传感器)。

  • 一个 3B 参数预训练通用模型 在 8 个以上的机器人平台上进行了训练,展示了机器人 AI 的进步。

  • Google 悄悄发布了 “Learn about”,这是一款用于对任何主题进行交互式学习的新 AI 工具。

AI 游戏与图形

  • 完全由 AI 生成的游戏画面 展示了实时 AI 视频游戏生成,尽管目前还缺乏物体恒存性 (object permanence)。
    • 技术细节:使用 Oasis 模型 (500M 参数)
    • 演示地址:oasis.decart.ai
  • 使用 SDXL 创建了一个 LucasArts 风格的游戏,展示了 AI 在生成复古游戏资产方面的能力。
    • 工作流包括在 1408×704 分辨率下使用带有 SDXL 的 Fooocus
    • 使用 img2img 进行精灵图动画 (sprite animations) 处理

产品更新与公告

  • OpenAI 为 ChatGPT 发布了 新的网页搜索工具,能够获取最新信息。

  • Sam Altman 讨论了 AI Agent,它们可以像资深同事一样工作,在较长时间内协作完成任务。

梗图与幽默


AI Discord 回顾

由 O1-mini 生成的摘要之摘要的摘要

主题 1. AI 模型性能与优化

  • 在本地硬件上优化 AI 模型速度:在配备 4090/7800x3D 和双 2080Ti 配置的工作站上运行 70B 模型,可达到 6-12 tokens/秒。关于 CPU offloading 造成的性能瓶颈问题,凸显了对优化硬件配置的需求。
  • FlashAttention-2 提升 GPU 显存效率FlashAttention-2 通过改进 I/O 操作并集成硬件感知特性,增强了 Attention 机制Kernel fusiontiling 等技术优化了内存访问,在不牺牲准确性的情况下实现了更高性能。
  • SmolLM2 模型提供轻量级性能SmolLM2 系列提供了 135M360M1.7B 参数的模型,专为端侧应用优化。SmolLM2-1.7B 增强了指令遵循和推理能力,尽管偶尔会生成无意义的输出。

主题 2. AI 部署、API 与成本效益

  • 探索 Hermes 3 的 Serverless 部署:由于 together.ai 平台仅支持专用硬件,一名成员正在寻求部署 Hermes 3 serverless 的替代方案。搜索重点在于提供针对特定部署需求定制的 Serverless 解决方案的平台。
  • Pplxity API 缺乏原生引用支持:与其他 API 不同,Pplxity API 不支持获取引用(citations)。用户正在探索在没有原生支持的情况下有效整合引用功能的方法,以平衡功能与成本效益。
  • Pplxity API 提供比 OpenAI 更具性价比的替代方案:成员们强调 Pplxity API 比 OpenAI 的产品更便宜,引发了关于在成本敏感型项目中使用 Pplxity 的讨论。这使得 Pplxity API 成为开发者在平衡成本和功能可用性时的诱人选择。

主题 3. AI 框架、微调与工具开发

  • Unsloth 微调框架增强自定义模型Unsloth 微调框架在特定领域数据集的 Tokenizer 微调方面表现出色,提高了模型的适应性。社区成员渴望分享他们的可重用工作,促进协作改进。
  • Aider v0.61.0 添加文件命令功能:最新的 Aider v0.61.0 允许用户使用 /save <fname>/load <fname> 加载保存斜杠命令,方便进行复杂的命令管理。Aider 还引入了匿名的、选择性加入的分析,在尊重用户隐私的同时收集使用洞察。
  • DSPy 集成类型化输出以简化实现:带有类型的 DSPy signatures 允许直接获取类型化输出,从而简化了实现过程。即将在 10 月底推出的 streaming DSPy completions 将进一步增强功能,并鼓励用户就所需的使用场景提供反馈。

主题 4. AI 研究创新

  • 介绍用于长上下文任务的 Forgetting Transformer:一位成员展示了 Forgetting Transformer,它将遗忘门(forget gate)集成到传统的 Transformer 架构中,以提高在长上下文任务上的性能。该模型优于标准 Transformer,并且在不依赖位置嵌入(position embeddings)的情况下管理信息保留。
  • TokenFormer 通过 Token 化参数重塑 LLM 可扩展性TokenFormer 利用 Attention 机制处理 Token 与模型参数之间的交互,减少了对大规模重新训练的需求。该架构解决了与扩展大型 Transformer 模型相关的不可持续的计算成本问题。
  • SAEs 分解文本生成图像模型以实现更好的控制稀疏自编码器 (SAEs) 可以将文本生成图像模型的生成过程分解为可解释的组件。这增强了对图像构图局部细节色彩管理等方面的控制,对未来的发展至关重要。

主题 5. 社区活动、公告与赠送

  • 参加 Llama Impact Hackathon 赢取奖金:11 月 8-10 日在旧金山举行的为期 3 天的 Llama Impact Hackathon 提供 $15,000 的奖金池。参与者若能最佳地利用 LlamaIndex,可赢取 $1,000 奖金,旨在鼓励使用 Llama 3.2 模型开发创新的 AI 解决方案。
  • Meta FAIR 发布创新机器人工具:在 Meta FAIR,推出了机器人和触觉感知领域的三项新进展,包括 Meta Sparsh。这些工具旨在赋能 open source community(开源社区)在医疗研究和制造等领域的发展,促进协作进步。
  • 面向 Alignment Lab AI 成员的 Steam 礼品卡抽奖:用户 tpojd 正向 Alignment Lab AI 社区提供一张 $50 Steam 礼品卡。成员们通过 ai-and-ml-discussiongeneral 频道收到了通知,吸引了社区参与抽奖。

PART 1: 高层级 Discord 摘要

Nous Research AI Discord

  • 在本地硬件上优化 AI 模型性能:一位成员详细介绍了使用配备 4090/7800x3D 的工作站和朋友的双 2080Ti 设置运行 70B model 的情况,通过有效的 pipeline parallelism 实现了每秒 6-12 tokens

    • 成员们对 CPU offloading 可能造成的性能瓶颈表示担忧,强调了优化硬件配置的必要性。
  • Gemma2B 庞大的 Tokenizer 词汇量增加了复杂性Gemma2B 因其庞大的 tokenizer 词汇量而被评为 2.6B 参数,使其能够更有效地处理多样化的输入。

    • 这种复杂性凸显了该模型处理各种数据的能力,使其成为处理复杂 AI 工程任务的多功能工具。
  • SmolLM2 模型为设备提供轻量级性能SmolLM2 系列提供 135M360M1.7B 参数的模型,针对设备端应用进行了优化。

    • SmolLM2-1.7B 展示了改进的指令遵循和推理能力,尽管偶尔会生成无意义的输出。
  • Meta 推出用于高效设备端应用的 Tiny LLMs:Meta 的 Tiny LLMs 是参数量低于十亿的模型,专为有效的设备端使用而设计,以适应硬件限制。

  • 探索 Hermes 3 的 Serverless 部署选项:一位成员正在寻找 together.ai 的替代方案来部署 Hermes 3 serverless,因为该平台仅支持专用硬件。

    • 此次搜索旨在确定提供 serverless 解决方案的平台,以满足特定的部署需求。

Unsloth AI (Daniel Han) Discord

  • Unsloth Finetuning Framework 在定制化方面表现出色:参与者赞扬了 Unsloth Finetuning Framework 在特定领域数据集上进行 tokenizer finetuning 的能力,增强了模型的适应性。

    • 许多成员渴望与社区分享他们的可重用工作和见解,促进协作改进。
  • 对于聊天机器人,RAG 优于 Fine-Tuning:社区倾向于为编程语言聊天机器人使用 RAG 而非 fine-tuning,因为其具有更准确的查询能力。

    • 讨论强调,尽管最初偏好 fine-tuning,但 RAG 在处理复杂查询方面的有效性使其成为更优的选择。
  • 确定了用于 Pretraining 的最佳 CUDA 版本CUDA 12.111.8 被确定为支持持续 pretraining 和实现 RAG 所需库的最佳版本。

    • 成员们提出了对向后兼容性的担忧,特别是缺乏与 CUDA 12.6 兼容的 PyTorch 版本。
  • 解决 Tokenizer 弃用警告:一位成员询问了弃用警告:Trainer.tokenizer is now deprecated. You should use Trainer.processing_class instead

    • 另一位成员澄清说,可以安全地忽略此警告,减少了对立即采取行动的担忧。
  • 解决 Llama 3.1 Notebook 的 ImportError:在使用 Llama 3.1 notebook 时,报告了一个错误 ImportError: cannot import name ‘EntryNotFoundError’

    • 另一位成员承认了该问题并承诺调查解决方案,以确保 notebook 的顺利运行。

Perplexity AI Discord

  • Perplexity Pro 订阅取消:一位用户对他们的 Perplexity Pro 订阅被取消表示沮丧,并质疑其背后的原因。这引发了关于订阅价值以及 Perplexity 最近更新的产品服务的讨论。

    • 此次取消引发了用户对 Perplexity 付费服务稳定性的担忧,并促使大家权衡维持订阅的收益成本
  • 与 ChatGPT 的对比:在 GPT Search 发布后,关于 Perplexity 的模型切换 (model switching) 能力与 ChatGPT 提供的功能之优劣展开了辩论。用户欣赏 Perplexity 的美学设计和功能,但也注意到随着竞争加剧可能面临的挑战。

    • 一些用户强调了 Perplexity 中模型切换的灵活性,而另一些人则指出 ChatGPT 功能的进步可能会掩盖 Perplexity 目前的产品优势。
  • Pplxity API 功能:一位成员注意到,与其他 API 提供的功能不同,Pplxity API 目前不支持获取引用 (citations)。这引发了关于在缺乏该支持的情况下如何有效实现引用功能的疑问。

    • 鉴于 Pplxity API 缺乏原生引用功能,用户正在探索在他们的应用程序中整合引用能力的替代方法。
  • 在 Pplxity API 中实现 RAG 功能:一位成员询问是否可以使用 Pplxity API 实现 RAG (Retrieval-Augmented Generation) 功能。他们了解到 OpenAI 支持 RAG,但尚未在 Pplxity 上进行尝试。

    • 这引发了关于在 Pplxity 框架内复制 OpenAI RAG 功能的可行性和潜在方法的讨论,一些成员表示有兴趣进行进一步实验。
  • Pplxity 与 OpenAI API 的成本对比:一位成员幽默地指出 Pplxity API 比 OpenAI 的 API 产品更便宜。这引发了开发者关于高性价比 API 实现的讨论。

    • 用户正在考虑将 Pplxity API 作为其项目更经济的替代方案,在节省成本与功能可用性之间进行权衡(相比 OpenAI 的解决方案)。

OpenAI Discord

  • ChatGPT Search 随订阅发布:成员们讨论了新的 ChatGPT Search 功能,该功能包含在 ChatGPT 订阅中,无需额外费用,并将其与需要额外付费的 Perplexity 进行了对比。

    • Perplexity 因提供更丰富的结果而受到称赞,引发了关于每种工具在不同用例下优势的辩论。
  • AI 生成可玩游戏的进展:AI 开发能够生成像 Minecraft 这样可玩游戏的迭代版本引起了广泛关注,突显了其在生成式游戏领域的潜力。

    • Oasis 公司已经创建了一个基础版本的 Minecraft,向玩家展示了基础功能。
  • 配置 D&D GPT 用户动作的挑战:成员们报告了在设置其 D&D GPT 时遇到的困难,即难以将其响应严格限制在用户驱动的动作上(例如战斗中的施法)。

    • 建议包括告知模型预期的游戏响应,以保持对游戏叙事的控制。
  • 理解 LLM 中的上下文窗口 (Context Windows) 和分词 (Tokenization):讨论明确了上下文窗口定义了模型对 Token 的内存限制,而分词是指将文本分解为处理单元的过程。

    • 成员们强调,Prompt Token 和上下文 Token 在 LLM 处理时被同等对待,都会影响响应的生成。
  • Token 权重对模型响应的影响:讨论中强调了响应中 Token 权重 (weighted tokens) 的概念,指出由于时效性,来自 Python 工具的输出权重为 1,与系统提示词 (system prompt) 相等。

    • 成员们讨论了使用浏览器检查器工具来验证模型交互过程中的 Token 权重,以确保实现预期的响应优先级。

LM Studio Discord

  • LM Studio 在容量满载时丢失上下文:用户指出,一旦达到 100% 容量LM Studio 就会开始丢失上下文信息,从而影响会话的连续性。
    • 一位用户建议使用 system prompt summary(系统提示词摘要),以便在长时间交互中保留更多相关的上下文。
  • Open WebUI 在配合 LM Studio 使用时面临 API 障碍:有用户报告成功将 Open WebUILM Studio 集成,但由于 API endpoint 配置问题,在获取模型列表时遇到困难。
    • 另一位成员指出,将 Docker 容器暴露给本地网络对于实现无缝访问至关重要。
  • LM Studio 模型中的 HTML 渲染故障:有报告称 LM Studio 内部存在间歇性的 HTML 渲染问题,导致用户对其可靠性产生困惑。
    • 用户提出了对安全性的担忧,建议在执行前验证 htmlspecialchars,这暗示了模型迭代中可能存在的 Bug。
  • IBM Granite 1b-A400m 设置需要 Flash Attention:一位用户在 LM Studio 中使用 IBM 的 granite 1b-A400m q4_0 模型生成响应时遇到挑战,怀疑与模型量化有关。
    • 另一位用户澄清说,必须启用 Flash Attention 才能使该模型正常运行,并强调了关键的设置步骤。
  • LM Studio 的多 GPU 支持表现各异:关于 LM Studio 是否有效支持多 GPU 的讨论不断出现,一些用户利用两个 GPU 来加载 code-straits 22b
    • 虽然支持多 GPU,但用户注意到了性能的不一致性,尤其是在不同的硬件厂商组合之间。

OpenRouter (Alex Atallah) Discord

  • Hermes 3 合并 405B 版本:正如 OpenRouter 所宣布的,Hermes 3 405B 扩展版已被移除并合并到标准变体中。此举旨在为用户精简模型选项。
    • 这一合并反映了通过提供统一模型来增强用户体验、降低模型选择复杂性的战略转变。
  • API v1 模型迁移提升速度/api/v1/models API 今日正在迁移到新的云服务商,预计将改进缓存并显著提升响应速度。
    • 迁移后,per_request_limits 将始终设置为 null,这尤其会影响未登录或未提供 API Key 的用户;目前正在专用频道征求反馈。
  • Rubik’s AI 搜索界面重构:更新后的 Rubik’s AI 搜索界面已发布,显著增强了高级研究助手的能力。目前正通过提供的 Beta 测试机会征求反馈。
    • Beta 测试参与者在结账时使用促销代码 NEW24,即可获得 Mistral LargeGemini-1.5 Pro 等模型的 1 个月免费高级访问权限
  • Hermes 3 免费版停机:用户报告称,免费版的 hermes-3-llama-3.1-405b 目前在 OpenRouter 聊天中无响应,而标准版仍可正常运行。
    • 由于模型仍列在 OpenRouter 上,该问题被认为是暂时的,相关解决方案正在讨论中。
  • ChatGPT 模型更新缺乏搜索 API:用户正在讨论最新 chatgpt-4o 模型的性能变化,并注意到在最近发布后,通过 API 无法使用搜索功能。
    • OpenAI 承认模型经常在不通知用户的情况下进行更新,这引发了用户对一致性的担忧。

Notebook LM Discord Discord

  • 播客源错误引起困惑:用户分享了对“Add Source”功能的挫败感,以及在播客创建后难以定位生成的音频文件的问题。

    • 一位地理老师详细说明了在教育内容中实施新工具的挑战,并寻求有关该流程的指导。
  • Python 音频处理的增强:一位参与者讨论了对用于音频处理的 Python 工具的改进,包括循环遍历时间戳以创建片段以及与 Avatar 集成。

    • 强调了正在开发的播放“Pause”和“Resume”功能,以便更好地管理音频剪辑。
  • 分析 Google TTS 语音质量:Google TTS 的语音质量因语言而异,建议使用 Google Cloud’s Text-to-Speech 以获得更自然的英语声音。

    • 用户讨论了创建多发言人对话,并指出了使用 Google Cloud 的 TTS 功能时在音频长度上的限制。
  • 对 NotebookLM 播客功能的热情:用户对 NotebookLM 的播客功能充满热情,讨论了创建多个剧集并请求对特定源进行深入探讨。

    • 一位新用户询问了播客功能的能力以及制作剧集的流程。
  • 用户对 NotebookLM 性能的反馈:成员们对 NotebookLM 网页搜索的自动引用格式提供了褒贬不一的反馈,并对其音频提取和转录能力提出疑问。

    • 用户对无法导入某些视频表示担忧,并寻求有关音频处理功能的澄清。

aider (Paul Gauthier) Discord

  • Aider v0.61.0 增强文件命令功能:最新版本 Aider v0.61.0 允许用户使用 /save <fname>/load <fname> 将斜杠命令加载保存到文件中,方便在聊天期间管理复杂的命令。

    • 新的启动选项如 --load <fname> 允许在启动时执行命令,提升了工程师的交互体验。
  • Aider 通过代码贡献树立编码里程碑:在 v0.61.0 中,Aider 贡献了 860 行新代码,占该版本新代码库的 68%,展示了显著的自我改进能力。

    • 这一大量的代码添加突显了 Aider 在其自身开发过程中不断演进的角色。
  • 集成匿名分析以尊重隐私:Aider 引入了匿名、选择性加入(opt-in)的分析,排除了个人数据,旨在收集使用洞察而不损害用户隐私。

    • 该功能鼓励用户参与以增强 Aider 的性能,同时保持用户信任。
  • Patched.codes 增强自定义 AI 工作流Patched.codes 被介绍为一种可定制 AI 工作流的工具,提供自动文档生成和总结 PR 审查等功能,以优化代码后期任务。

    • 用户表示有兴趣利用此工具自动化常规琐事并简化其开发流程。
  • 新增 Anthropic API 的 Token 计数功能:来自 Anthropic API 的新 Token 计数端点(可在此处访问 here)允许用户发送请求并接收 Token 计数,辅助管理 Token 使用情况。

    • 这一新增功能有助于用户防止因快速自动化请求而导致的 Token 超支,解决了使用管理方面的担忧。

Stability.ai (Stable Diffusion) Discord

  • 寻求 ComfyUI 优化:一位使用 Mac Studio M2 Max 的用户正在寻求 ComfyUI 的最佳设置,并请求社区提供建议和经验。

  • 关于 FP16 模型可用性的疑问:一位社区成员询问了 Stable Diffusion 3.5 模型的 FP16 版本 的可能性;他们报告称 FP16 在其硬件上的性能是原来的 8倍

    • 另一位成员确认 Stable Diffusion 3.5 large 模型已有 FP16 版本,并提供了 Hugging Face 的访问链接。
  • 获取 Lora 触发词:一位用户询问如何在 ComfyUI 中查看所使用的 Lora 的触发词,寻求高效的获取方法。

    • 社区建议他们前往 Lora 的原始下载地址,以查找有关触发词的详细信息。
  • 视频生成模型推荐:讨论重点介绍了用于视频生成的 Mochi-1CogVideoX,并根据 VRAM 限制给出了建议。

    • 成员指出,像 5b2b 变体这样的小型模型可以适配资源有限的系统,同时强调 CogVideoX 最适合低 VRAM 环境。
  • 基于 Lora 的图像风格化模板需求:一位用户表示需要一个用于 ComfyUI基于 Lora 的图像风格化 模板,特别是能根据选定的 Lora 生成图像的模板。

    • 他们提到,很难找到一个不仅仅是为了同时使用多个 Lora 的模板。

Eleuther Discord

  • DEQ 模型深陷不稳定性困扰:训练 DEQ 模型 面临重大挑战,包括需要频繁重启的训练损失爆炸(exploding train losses)。成员们讨论了“无限深”网络动态是如何导致这些问题的。

    • 一位成员幽默地提到通过 向 rnjesus 祈祷 来避免模型失败,突显了社区对这种不稳定性的沮丧。
  • Hypernetworks:仅仅是输入变换吗?Hypernetworks 引发了辩论,一位成员将其仅归类为依赖输入的变换。讨论内容包括一些实际挑战,例如生成的模型参数量比基础模型还多。

    • 其他人分享了他们的实现经验,强调了部署 Hypernetworks 相关的复杂性和资源需求。
  • 介绍 Forgetting Transformer:一位成员揭晓了 Forgetting Transformer,它将 forget gate 集成到传统的 Transformer 架构中,以提升 long-context 任务的性能。据报道,该模型在不依赖 position embeddings 的情况下优于标准 Transformer。

    • 社区认可了这一创新,指出 forget gate 使模型能够更好地在扩展上下文中管理和保留相关信息。
  • 探索 Flow Matching 与 Speculative Decoding:成员们探索了 flow matchingspeculative decoding 作为 DEQ 和 UT 的替代方案,旨在优化准确度与延迟之间的权衡。这些方法因其高效的计算利用率而受到推崇。

    • 虽然不是直接的竞争对手,但小组一致认为 flow matching 和 speculative decoding 为增强模型推理的计算效率提供了有前景的途径。

Latent Space Discord

  • SmolLM2 成为新的 SOTA:SmolLM2 是一款全新的开源 1B 参数语言模型,在来自各种精选数据集的高达 11 万亿 (trillion) tokens 上进行了训练,并在 Apache 2.0 协议下完全开源。

    • 成员们讨论了它的性能,其中 SmolLM2 1.7B 的表现优于其他模型,引发了对即将发布的 Demo 和社区测试的热切期待。
  • Anthropic 推动 AI 监管Anthropic 发布了一篇博客文章,主张进行针对性的 AI 监管,强调了尽早建立准则的紧迫性。

    • 这一发布的时间点选在选举前夕,引发了关于其对初创公司竞争影响的讨论。
  • Claude 3.5 Sonnet 基准测试打破纪录:由 Claude 3.5 Sonnet 驱动的框架在 SWE-bench Verified 上达到了惊人的 49%,超越了之前 45% 的 SOTA 纪录。

    • 这一里程碑激发了人们对进一步提升以及与 Aider 等其他系统进行对比的兴趣。
  • 令人兴奋的新 AI 工具涌现Blockade Labs 推出了 Blendbox,通过对视觉效果的直接控制简化了 AI 艺术创作;而 Runway ML 宣布了 Advanced Camera Control(高级摄像机控制),以实现更有意图的场景导航。

    • 这些创新标志着一种趋势,即通过用户友好的界面来增强 AI 生成内容中的创意表达。
  • OpenAI 的 AMA 揭示算力挑战:在 Reddit 的 AMA 环节中,OpenAI CEO Sam Altman 承认 算力限制 (compute limitations) 正在推迟产品发布,使部署复杂 AI 模型的路径变得复杂。

    • 这次讨论揭示了 AI 技术重大进步所面临的基础设施挑战。

GPU MODE Discord

  • FlashAttention-2 增强 GPU 内存优化FlashAttention-2 (2023) 通过改进 I/O 操作并集成硬件感知特性,引入了 attention mechanism(注意力机制)的进步,在不牺牲准确性的情况下优化了性能。

    • 这些增强功能解决了 GPU HBM 和 SRAM 之间冗余的内存访问问题,利用 kernel fusion(算子融合)和 tiling(分块)等技术确保在现代 GPU 架构中高效运行。
  • 海量 Triton Kernels 数据集发布:一个包含超过 250 万 tokens3000 个 Triton kernels 的新 Triton Kernels Dataset 已发布,其来源包括 GitHub 仓库抓取以及在各种模型上执行 Torch Inductor。

    • 未来计划包括通过分析 200 个 GitHub 仓库来扩展数据集,添加明确的 docstrings,执行去重,并确保所有 kernel 均可运行,以促进监督微调 (supervised finetuning)。
  • Triton 与 vLLM 输出之间的差异:成员们发现了 TritonvLLM 输出之间的不一致,特别是第一个条目的预期值,如 vLLM 仓库所示,Triton 四舍五入为 18,而 vLLM 为 20

    • 这些差异表明可能存在数值错误或实现上的不同,促使进一步调查以确保两个框架之间的计算一致性。
  • Composable Kernel 性能策略Composable Kernel (CK GEMM) 的目标是达到约 135TFlops,尽管性能可能会根据具体的 kernel 设置而有所不同。

    • 为了减轻 bank conflicts,成员们正在实施一种基于 XOR 的置换策略,如 Composable Kernel GitHub 所示,旨在优化张量操作并减少寄存器溢出 (register spills)。

Interconnects (Nathan Lambert) Discord

  • SmolLM2 的发布整合了开源的灵活性:推出了 SmolLM2,这是一个拥有 1B 参数的模型,在高达 11T tokens 的精选数据集上训练而成,采用 Apache 2.0 许可证发布,并公开了所有数据集和脚本。

    • 该模型旨在通过在 NLP 中引入令人兴奋的新特性,建立一个强大的语言模型评估基准,从而促进更深入的开发和基准测试。
  • OpenAI o1-preview 亮相:OpenAI 宣布于 2024 年 9 月 12 日发布 o1-preview 模型,该模型此前被称为 Q*,后被 Project Strawberry 取代。

    • 此次发布旨在通过一系列实验和讨论,阐明 OpenAI o1 的功能并提高用户的理解。
  • 解码语言模型中的推理:一篇博客文章探讨了 Daniel Kahneman 的系统 1(System 1)和系统 2(System 2)思维,并将其与语言模型的推理过程联系起来,其中传统的推理对应 System 1,而推理过程涉及分析性的 System 2 过程。

    • 社区成员讨论了引入“推理 tokens”(reasoning tokens)的影响,质疑在实践中并行 MCTS 的可行性,因为这可能会增加 token 消耗
  • 传统 NLP 评估方式的转变:讨论中提出了对传统 NLP 评估衰落的担忧,特别是在自然语言生成(NLG)领域,因为人们期望模型在没有标准化基准的情况下也能表现出色。

    • 参与者注意到评估环境正在发生变化,特别是影响到摘要生成(summarization)和机器翻译(machine translation)等领域,这表明需要更新基准测试。
  • 探索机器人领域中的 Diffusion 技术:一位参与者发起了关于 diffusion 方法机器人技术交叉点的讨论,强调了潜在的应用并寻求合作者的兴趣。

    • 这一询问引发了关于应用 diffusion-based 方法来增强机器人功能的各种可行性及现有研究的进一步辩论。

Torchtune Discord

  • Llama 4 在 100k H100 上进行训练Llama 4 目前正在使用 100k H100 单元进行训练,展示了 AI 发展的重大进步。

    • 一位成员感叹这种飞速的进展,说道:“我们生活在一个多么疯狂的世界。”
  • Meta 潜在的核能投资:有人幽默地推测 Meta 将宣布建设核电站的计划。

    • 另一位成员建议此类公告最早可能在 2025 年发布。
  • Activation Offloading 过程中的 Graph Breaks:在使用 PPO 时,存在关于 graph breaksactivation offloading 的担忧,有报告称性能下降且内存占用未改变。

    • 确定的一个潜在原因是激活值增加导致了处理瓶颈。
  • PPO 配置问题影响性能:必须启用 activation checkpoints 才能使 activation offloading 正常工作,但某些配置可能会遗漏必要的检查,从而影响 PPO 性能。

    • 一位成员建议检查模型的输出头(output heads),认为这可能是 offloading 过程中出现这些问题的根源。
  • 用于 GPU 时间分析的 Profiling 技术:成员们正在讨论使用 tlparse 来识别 graph breaks,以及 profiling GPU 时间对于深入了解性能问题的重要性。

    • 一位成员表示愿意在配置完成后协助进行 profiling 和分析。

DSPy Discord

  • DSPy Signatures 简化实现:一位成员强调,使用带有类型的 DSPy signatures 可以直接获得类型化输出,从而简化了实现过程。

    • 这种方法通过利用 dspy.LMdspy.JsonAdapter 来确保 Schema 合规性,从而降低了编码复杂度。
  • vLLM 增强服务器生成:另一位成员建议利用支持 Outlines 约束生成 的服务器(如 vLLM)来请求特定类型(如 bool)。

    • 他们通过实现 dspy.Predict(“text -> is_factual: bool”) 演示了这一点,确保了与现有框架的无缝集成。
  • Streaming DSPy Completions 发布:在 Async PR 准备就绪后,Streaming DSPy completions 预计将在 10 月底 提供原生支持。

    • 讨论正在进行中,一个 GitHub issue 正在征集用户对于 dspy.Predict() 功能所需用例的反馈。
  • 合成数据生成挑战:一位成员询问如何在没有大量 ICL 示例的情况下,在 DSPy 中使用预训练基础模型进行合成数据生成

    • 另一位成员解释说,由于缺乏指令微调(instruction-tuning),基础模型很难进行有效的 Prompt 引导,这使得实际的 ICL 示例变得至关重要。
  • Textgrad 集成时间表:用户对 Textgrad 集成到 DSPy 的时间表表示关注,但目前尚未提供具体细节。

    • 一条 GitHub 评论 讨论了当前的设置以及集成后潜在的 Streaming 能力。

OpenInterpreter Discord

  • Anthropic API 支持问题:在引入 Anthropic API Support 的最新更新后,一位成员报告称脚本无法像以前的版本那样正常运行,感到非常沮丧。

    • 他们建议将 API 集成设为可选,并重新启用之前可以无障碍运行的本地模型选项。
  • Meta FAIR 机器人技术进展:今天在 Meta FAIR,发布了三项机器人和触觉感知领域的创新进展,旨在赋能社区。

    • Meta Sparsh 被强调为一种用于触觉感知的多功能编码器,增强了机器人系统的能力。
  • Meta Sparsh 创新Meta Sparsh 作为首个通用编码器推出,它在 460K+ 触觉图像上通过自监督学习进行了训练,适用于多种应用。

    • 该技术与各种触觉传感器和任务兼容,为更先进的机器人集成铺平了道路。
  • 开源社区影响:来自 Meta 的新机器人工具将对开源社区产生重大影响,使医疗研究和制造等领域受益。

    • 鼓励社区参与探索和应用这些技术,以促进协作进步。

LAION Discord

  • Patch Artifacts 困扰生成器:一名成员表达了在自回归图像生成中处理 patch artifacts 的挫败感,并指出尽管不喜欢 VAE,但可能不得不使用它。

    • “仍在处理这些 patch artifacts。我讨厌 VAE,但似乎我可能被迫使用一个。”
  • TokenFormer 重新构想模型可扩展性:一种名为 TokenFormer 的新架构通过利用 tokens 与模型参数 之间交互的 attention 机制来增强灵活性,从而减轻了因架构修改而需要重新训练整个模型的需求。

  • SAEs 揭示文本到图像模型的内部运作机制:一项研究表明,Sparse Autoencoders (SAEs) 可以将 text-to-image models 的生成过程分解为可解释的组件,从而实现更好的控制和分析。

    • 这些特征涉及 image composition(图像构图)、local detail enhancement(局部细节增强)和 color management(色彩管理)等方面,使其成为未来模型发展的关键。更多信息请参阅 Unboxing SDXL Turbo with SAEs
  • 扩散步骤中缺乏 Attention:讨论指出,diffusion step 仅由单个 MLP 组成,不具备对相邻 patch 的 attention 或感知,导致了连续性问题。

    • “……对 masked tokens 的预测提供了用于去噪的连续向量。”
  • Meta 的新视频模型:一名成员提到 Meta 已经推出了一款用于生成视频的新模型,暗示了该领域的创新。

    • 他们鼓励其他人查阅链接的论文以获取更多信息:Kaiming He et al.

LlamaIndex Discord

  • 使用 Open Telemetry 记录 Trace:现在,BrainTrustData 允许你使用 Open Telemetry 直接从 LlamaIndex 记录 trace,增强了你的可观测性能力。

    • 这种集成确保了在复杂的生产级应用中,遥测数据是清晰且有效的。
  • 为 Llama Impact Hackathon 做好准备:为期 3 天的 Llama Impact Hackathon 将于 11 月 8-10 日在旧金山举行,提供 $15,000 的奖金池。

    • 参与者将使用 Meta 的 Llama 3.2 模型构建 AI 解决方案,其中最佳 LlamaIndex 使用奖将获得 $1,000 的专项奖金。
  • LlamaParse 推出令人兴奋的新功能LlamaParse 现在拥有两项新功能:用于拼接多页表格的 Continuous mode(测试版)和用于轻松提取数据的 Excel spreadsheet output 选项。

    • Continuous Mode 确保长表格能够无缝呈现,提升了整体用户体验。
  • 将 Workflow 转换为 Tool 是可行的:成员们讨论了任何 workflow 都可以使用 FunctionTool 转换为 tool 的想法,并展示了相关代码片段。

    • 这使得 workflow 可以无缝地应用在各种查询引擎中。
  • 关于 Workflow 的疑问:一名成员询问 workflow 是否必须是 async,以及高级引擎最终是否会完全使用 workflow 重新实现。

    • 回复确认了 workflow 本质上是 async 的,而未来的重新实现可能不是重点,目前的重点是完善文档和提供预构建的 workflow。

Cohere Discord

  • 框架狂潮:LLM 组件构建器:一名成员正在开发一个 LLM 框架,该框架能够根据用户提示构建组件,旨在增强各种应用程序的组件生成。

    • 目前,该框架仅支持 Tailwind CSS,并计划扩展到其他样式选项。正在解决随机文本输出的问题,以优化框架性能。
  • 论文冲刺:寻求导师:一名成员正在为其 硕士论文 (master thesis) 寻求合作者或导师,并寻找 加速 这一过程的方法。

    • 有人担心 Cohere for AI Discord 中的申请量过大,可能会导致延迟。该成员询问 “是否有办法加快这一进程?” 并鼓励分享电子邮件以更好地协调。
  • Command R 成本削减与性能提升:有人询问在哪里查看 Command R可靠性评分 (reliability scores),随后指向了 Cohere 关于 Command R 微调的博客

    • Command R 微调 在企业用例中提供 卓越性能,且与最大模型相比,成本降低了高达 15 倍,突显了显著的经济效益。
  • Agent 申请评估:团队正在对 Agent 构建 的准入申请进行彻底审查,重点关注候选人的相关经验。

    • 候选人可以期待反馈,因为团队正在仔细评估每份申请,以确保在 Agent 构建方面拥有合格的经验。

Modular (Mojo 🔥) Discord

  • Mojmelo 项目邀请贡献:一名成员正积极 开发 Mojmelo,重点关注原生 Matrix 类型ML 算法

    • 此处 提供了一个使用 逻辑回归 (Logistic Regression) 的示例。
  • Mojo 的参数化能力探索极限:一场关于 Mojo 参数化能力 (parametric capability) 的讨论展开,质疑 “它不能做什么”

    • 这反映了 Mojo 在其强大功能集中的潜在边界。
  • Mojo 测试在 macOS GitHub Actions 上挂起:一名成员报告了在执行 macOS GitHub Actions 期间 mojo test 挂起的问题。

    • 这指出了开发者面临的特定环境挑战。
  • 句法宏 (Syntactic Macros) 失去吸引力:一名成员对 句法宏 的热情有所下降,原因是某些库创建了文档有限的小型 DSLs。

    • 这突显了与 Mojo 追求简洁目标之间的冲突。
  • Malloc 错误干扰 Mojo 输入:一名成员报告了当 Mojo 的输入方法处理多个用户输入时出现 malloc 错误 (malloc faults)


OpenAccess AI Collective (axolotl) Discord

  • Axolotl Docker 标签混淆:用户对 Axolotl 的动态标签(如 main-latest)和稳定标签(如 main-20241031-py3.10-cu121-2.3.1)表示担忧,质疑它们是否适用于生产环境。

  • 稳定版发布时间线:一名成员确认计划在最近的 PRs 合并后启动稳定版发布,并概述了当前构建标签的进度。

    • 即将发布的稳定版将经过广泛测试,以确保其对终端用户的可靠性。
  • Axolotl Docker 发布历史:有人指出,由于上游依赖项尚未发布,Axolotl Docker 镜像 的最后一个稳定发布标签已过时。

    • 成员对更新这些依赖项以促进正式 发布到 PyPI 表示乐观。
  • 最新构建的稳定性保证:团队保证最新构建是稳定的,已经通过了多次 端到端测试 (end-to-end tests)

    • 这一验证过程旨在减轻在生产环境中使用当前标签的顾虑。

Alignment Lab AI Discord

  • Steam 礼品卡抽奖:用户 tpojd 正通过 此链接 提供一张 $50 Steam 礼品卡

    • 该公告已在 ai-and-ml-discussiongeneral 频道发布,通知了所有成员。
  • ****:


LLM Agents (Berkeley MOOC) Discord

  • 成员寻求课程结构指导:一位新成员表达了加入的热情,并请求关于课程结构和工作流的指导

    • 社区成员给予了热情回应,提供支持和详细信息,帮助新成员找到有效参与所需的必要细节。
  • 课程网站提供全面信息:一位成员分享了 课程网站,以便访问所有课程信息和作业。

    • 该资源确保新成员可以轻松找到有效参与所需的必要细节。

tinygrad (George Hotz) Discord

  • 封装 IOCTL 还是使用 CUDA 编写设备驱动?:讨论围绕着是封装原始 IOCTL commands 更好,还是采用 CUDA approach 通过加载 .so 文件来发布命令。

    • 讨论强调了 Hailo 环境的细微差别,包括其专有的接口方法。
  • Hailo 的 C 库被封装在 Python 中Hailo 库在其 C 代码之上使用了 Python wrapper,提供了一种独特的命令执行方法。

    • 这种方法增强了易用性,但也引发了关于底层架构和性能权衡的问题。
  • 神经网络的专有编译Hailo 要求将神经网络编译成 HEF proprietary protobuf format,而不是像 CL shaders 这样的传统程序。

    • 用户必须专门为此目的编译 ONNX files,这表明与传统开发实践相比有重大转变。

Mozilla AI Discord

  • Mozilla Builders Demo Day 名额有限:12 月 5 日在加利福尼亚州旧金山举行的 Mozilla Builders Demo Day 仅有有限名额。感兴趣的社区成员应通过 此表单 提交信息进行申请。

  • 12 月 5 日活动时间表:活动将在 40 O’Farrell St 的 Convene 举行,时间为 上午 8:30 到下午 3:00,包括注册、早餐以及开源 AI 项目的现场路演。

    • 日程包括社交机会、午休以及下午的 AI Demo Science Fair。由于名额有限,建议参与者在下周前提交注册。
  • 关于活动的疑问:如有任何关于活动的咨询,成员可以通过 Discord 联系 Maite。也可以在这里发布问题


LangChain AI Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。


LLM Finetuning (Hamel + Dan) Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。


MLOps @Chipro Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。


DiscoResearch Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。


Gorilla LLM (Berkeley Function Calling) Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。


AI21 Labs (Jamba) Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。


第 2 部分:各频道详细摘要和链接

完整的频道分类明细已在邮件中截断。

如果您想查看完整明细,请访问此邮件的网页版:

如果您喜欢 AInews,请分享给朋友!提前感谢!