ainews-not-much-happened-today-8168
今天没发生什么。
以下是该文本的中文翻译:
ChatGPT Search 正式发布,山姆·奥特曼 (Sam Altman) 称其为自 ChatGPT 最初发布以来他最喜欢的功能,并表示该功能使他的使用量翻了一番。舆论将 ChatGPT Search 与 Perplexity 进行了对比,并指出 Perplexity 在网页导航方面有所改进。谷歌 (Google) 在 Gemini API 和 AI Studio 中引入了“Grounding”功能,使 Gemini 模型能够访问实时网络信息。尽管 Gemini 在排行榜上表现出色,但开发者的采用率仍落后于 OpenAI 和 Anthropic。SmolLM2 作为一款新型、强大且适用于设备的端侧小型语言模型,其性能超越了 Meta 的 Llama 3.2 1B。Claude 发布了适用于 Mac 和 Windows 的桌面端应用。Meta AI 宣布了机器人技术的进展,包括 Meta Sparsh、Meta Digit 360 和 Meta Digit Plexus。Stable Diffusion 3.5 Medium 正式发布,这是一个拥有 20 亿参数且许可协议宽松的模型。关于通用人工智能 (AGI) 发展的见解表明,AGI 在初期可能表现平平,但随后会迅速提升。Anthropic 提倡进行早期的针对性 AI 监管。关于机器学习 (ML) 专业化的讨论预测,模型训练将集中在少数几家公司手中,而推理将变得商品化(普及化)。新的 AI 工具包括用于音乐创作的 Suno AI Personas、用于数据自然语言查询的 PromptQL,以及用于桌面任务自动化的 Agent S。此外,网络上还流传着关于 Python 环境升级的幽默段子。
一个幽静得有些诡异的周末正是你所需要的。
AI News 2024/10/31-2024/11/01。我们为你检查了 7 个 subreddits、433 个 Twitters 和 32 个 Discords(231 个频道和 2436 条消息)。预计节省阅读时间(以 200wpm 计算):254 分钟。你现在可以标记 @smol_ai 进行 AINews 讨论!
今天没发生太多事,但在过去两天内发布的内容相当于一个月的量,你可能想要关注一下。
或者,你可能想收听关于 LMSys/Chatbot Arena 的最新 LS pod!
https://www.youtube.com/watch?v=vBlhoAIb0iE
AI Twitter 摘要
所有摘要均由 Claude 3.5 Sonnet 完成,取 4 次运行中的最佳结果。
ChatGPT Search 与 AI 驱动的搜索
-
ChatGPT Search 发布:@sama 宣布推出 ChatGPT Search,并提到朋友们的早期评价非常正面。他还表示 Search 是自 ChatGPT 最初发布以来他最喜欢的发布功能,在过去几周里他的使用量翻了一番。
-
与其他搜索工具的对比:@_akhaliq 分享了 ChatGPT Search 与 Perplexity 的对比。@AravSrinivas 强调了 Perplexity 在导航查询方面的改进,使网页导航变得更加容易。
-
Google 的 Grounding 功能:Google 在 Gemini API 和 AI Studio 中推出了与 Google Search 结合的 “Grounding” 功能,允许 Gemini 模型在运行时访问来自网页搜索的最新信息,正如 @labenz 所指出的。
-
开发者采用情况:尽管 Gemini 在排行榜上表现优异,@labenz 质疑为什么它似乎是大多数开发者的第三选择,排在 OpenAI 和 Anthropic 之后。
AI 模型发布与更新
-
SmolLM2:@LoubnaBenAllal1 宣布发布 SmolLM2,这是一套针对端侧使用优化的新型小型强力语言模型,性能超越了 Meta 的 Llama 3.2 1B。
-
Claude 桌面应用:@alexalbert__ 宣布发布适用于 Mac 和 Windows 的 Claude 桌面应用。
-
Meta 的机器人技术进展:@AIatMeta 宣布了在机器人和触觉感知方面的三项新进展:Meta Sparsh、Meta Digit 360 和 Meta Digit Plexus。
-
Stable Diffusion 3.5 Medium:@mervenoyann 提到了 Stable Diffusion 3.5 Medium 的发布,这是一个拥有 2B 参数且具有商业许可的模型。
AI 研究与见解
-
AGI 发展:@fchollet 分享了对 AGI 发展的看法,认为它在大多数任务上最初会比之前的 AI 系统表现更差,但会迅速改进。
-
AI 监管:@AnthropicAI 发表了一篇文章,主张尽早实施有针对性的 AI 监管。
-
ML 专业化的未来:@StasBekman 讨论了 ML 专业化的未来,认为训练 LLM 将成为少数几家公司的领域,而推理方面的专业知识可能会变得商品化。
AI 工具与应用
-
Suno AI Personas:@suno_ai_ 推出了 Personas 功能,允许用户保存歌曲的精髓并在不同的创作中重新构思。
-
PromptQL:@svpino 介绍了 PromptQL,这是一个自然语言 API,可以在结构化、非结构化和 API 数据之上执行 Python 和类 SQL 查询。
-
Agent S:@rohanpaul_ai 分享了关于 Agent-S 的信息,这是一个像人类一样使用计算机在不同系统上解决各种桌面任务的 AI 系统。
梗与幽默
-
@HamelHusain 开玩笑说要在基础 conda 环境中升级 Python 版本,并祈求好运。
-
@HamelHusain 随后更新说他们正在买一台新笔记本电脑。
-
@jxnlco 幽默地问道,为什么 Cafe Lyria 的每个人都长得这么好看。
AI Reddit 摘要
/r/LocalLlama 摘要
主题 1. AI 实时游戏生成突破
- 这完全是 AI 生成的实时游戏画面。伙计们,一切都结束了不是吗 (分数: 612, 评论: 179):此帖子似乎缺少任何实际内容或正文摘要。由于没有帖子正文中的具体细节、游戏视频或讨论点,我无法提供有关演示或讨论了哪些 AI 生成的游戏画面的有意义摘要。
主题 2. Ollama 框架安全:发现多个 CVE
- More Models, More ProbLLMs: New Vulnerabilities in Ollama (Score: 71, Comments: 6): 在 Ollama framework 中发现了 6 个严重漏洞,包括 remote code execution (远程代码执行) 和 container escape (容器逃逸) 缺陷,可能允许攻击者控制运行 AI 模型的宿主系统。这些安全问题被追踪为 CVE-2024-21626 到 CVE-2024-21631,影响 0.1.27 之前的 Ollama 版本,使攻击者能够通过 path traversal (路径遍历) 和 command injection (命令注入) 技术访问敏感文件、执行任意命令并逃逸容器化环境。
- 讨论了 Ollama endpoint 暴露的担忧,并澄清 OpenWebUI 实现了自己的 OpenAI-compatible endpoint,需要 API key 身份验证,而不是直接代理 Ollama API。
- TL;DROligo 的研究显示,在 6 个漏洞 中,4 个 获得了 CVE,而 2 个 被维护者争议为影子漏洞。这些缺陷可能通过单个 HTTP 请求实现 DoS attacks、model poisoning (模型投毒) 和 model theft (模型窃取)。
- 社区成员强调了 open source security (开源安全) 的优势,指出透明度的提高有助于更快地发现和修复漏洞,最终提升软件质量。
Theme 3. Meta’s MobileLLM: 125M Model Matches 500M Performance
- Minimum viable LLM (Score: 47, Comments: 19): Meta 的 125M MobileLLM 展示了出人意料的连贯文本生成能力,挑战了以往关于基础语言任务所需最小模型尺寸的假设(相比 1.5B 参数的 GPT-2)。该帖子探讨了 LLM 生成 语法正确 且 上下文相关 的响应理论上所需的最小参数量,建议潜在的参数范围从 50M 到 100K。
- RAG 和 masking 方法可以训练专注于知识检索和逻辑而非记忆的小型模型,像 optillm 这样的实现展示了无限的上下文能力。类似的概念也出现在 Google 的 REALM 和 RETRO models 中。
- 讨论探索了最小参数要求,有人建议 100K 参数 可以在有限的 40-70 个单词词汇量 下处理连贯文本,而其他人则提出了使用基础编程结构的更简单方案。
- Qwen2.5 0.5B 被强调为一个有效的小规模移动端 LLM 实现。该模型证明了紧凑架构在本地部署中的实际可行性。
- MobileLLM (Meta - 125M, 350M, 600M, 1B models) (Score: 160, Comments: 29): Meta 发布了全新的 MobileLLM 模型系列,参数量从 125M 到 1B 不等,专为移动设备部署而设计,并针对低延迟推理进行了优化。这些模型在保持效率的同时,实现了与更大模型竞争的性能,其中 1B 变体在标准基准测试中达到了 7B 模型 90% 的性能,而使用的计算资源显著减少。
- 针对 benchmark comparisons (基准测试对比) 未包含 Qwen 2.5 和 Gemma 2 的初步担忧,解释称该论文发表于 2024 年 2 月,早于这些模型。基准测试数据显示 MobileLLM 125M 在 Hellaswag 上的表现优于 Qwen 2.5 0.5B (65.3 对 52.1)。
- 讨论集中在模型架构和实现上,建议训练两个子模型:一个基于 Knowledge Graph (知识图谱) 进行逻辑和推理,另一个用于 prompt-to-graph 转换。由于采用自定义架构,它不太可能作为 speculative decoding (投机采样) 的草稿模型工作。
- 用户对移动端部署能力表示关注,指出 llama.cpp 尚未支持新的 MobileLLMForCausalLM 架构。125M 模型在重写和摘要等基础任务中展现出潜力。
Theme 4. QTIP: Next-Gen 2-bit Quantization for 405B Models
- 新量化方法 – QTIP: Quantization with Trellises and Incoherence Processing (Score: 124, Comments: 29): QTIP 是一种使用 trellis coded quantization 和 incoherence processing 的新 LLM 量化算法。它在包括 405B Instruct 在内的模型上实现了 2-bit 精度 的业界领先性能,在保持相似速度的同时,质量超越了 QuIP#。该方法发表于 NeurIPS 2024 Spotlight 论文,运行速度比 PV-Tuning 快 2-3 倍,且质量相当或更好。目前可通过其 GitHub 仓库 和 HuggingFace 上的预量化模型 获取。
- 将 QTIP 集成到 llama.cpp 似乎非常直接,只需将基于 QuIP# 的 E8P 向量量化器 替换为 QTIP 的 trellis 量化器即可。开发者确认了兼容性,并表示为未来改进 GGUF 模型 进行实现非常容易。
- 405B 模型 的运行成本为 $1.6/小时,并配有专为 8 路张量并行 (tensor parallelism) 设置设计的 TP8 模型。这些模型在每个 GPU 上执行随机 Hadamard 变换,而不是跨所有激活执行,以优化数据传输。
- 量化模型的内存需求可以通过模型大小乘以压缩率来估算(2-bit 精度 将体积缩小约 2/3),这使得一个 70B 模型 在量化后大约需要 17.5GB VRAM。
其他 AI Subreddit 回顾
r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence, /r/LLMDevs, /r/Singularity
AI 开发与研究
-
Meta FAIR 宣布了三项新的机器人技术进展,包括 Meta Sparsh(一种在 46 万多张触觉图像上训练的通用视觉触觉感知编码器)以及 Meta Digit 360(一种具有 18 种以上感知功能的人造指尖传感器)。
-
一个 3B 参数预训练通用模型 在 8 个以上的机器人平台上进行了训练,展示了机器人 AI 的进步。
-
Google 悄悄发布了 “Learn about”,这是一款用于对任何主题进行交互式学习的新 AI 工具。
AI 游戏与图形
- 完全由 AI 生成的游戏画面 展示了实时 AI 视频游戏生成,尽管目前还缺乏物体恒存性 (object permanence)。
- 技术细节:使用 Oasis 模型 (500M 参数)
- 演示地址:oasis.decart.ai
- 使用 SDXL 创建了一个 LucasArts 风格的游戏,展示了 AI 在生成复古游戏资产方面的能力。
- 工作流包括在 1408×704 分辨率下使用带有 SDXL 的 Fooocus
- 使用 img2img 进行精灵图动画 (sprite animations) 处理
产品更新与公告
梗图与幽默
-
一张 AI 生成的图像显示手指挡住了镜头,展示了图像生成中意外出现的伪影 (artifacts)。
-
关于 Sam Altman 言论和推文的各种帖子,包括他 为过度宣传产品道歉。
AI Discord 回顾
由 O1-mini 生成的摘要之摘要的摘要
主题 1. AI 模型性能与优化
- 在本地硬件上优化 AI 模型速度:在配备 4090/7800x3D 和双 2080Ti 配置的工作站上运行 70B 模型,可达到 6-12 tokens/秒。关于 CPU offloading 造成的性能瓶颈问题,凸显了对优化硬件配置的需求。
- FlashAttention-2 提升 GPU 显存效率:FlashAttention-2 通过改进 I/O 操作并集成硬件感知特性,增强了 Attention 机制。Kernel fusion 和 tiling 等技术优化了内存访问,在不牺牲准确性的情况下实现了更高性能。
- SmolLM2 模型提供轻量级性能:SmolLM2 系列提供了 135M、360M 和 1.7B 参数的模型,专为端侧应用优化。SmolLM2-1.7B 增强了指令遵循和推理能力,尽管偶尔会生成无意义的输出。
主题 2. AI 部署、API 与成本效益
- 探索 Hermes 3 的 Serverless 部署:由于 together.ai 平台仅支持专用硬件,一名成员正在寻求部署 Hermes 3 serverless 的替代方案。搜索重点在于提供针对特定部署需求定制的 Serverless 解决方案的平台。
- Pplxity API 缺乏原生引用支持:与其他 API 不同,Pplxity API 不支持获取引用(citations)。用户正在探索在没有原生支持的情况下有效整合引用功能的方法,以平衡功能与成本效益。
- Pplxity API 提供比 OpenAI 更具性价比的替代方案:成员们强调 Pplxity API 比 OpenAI 的产品更便宜,引发了关于在成本敏感型项目中使用 Pplxity 的讨论。这使得 Pplxity API 成为开发者在平衡成本和功能可用性时的诱人选择。
主题 3. AI 框架、微调与工具开发
- Unsloth 微调框架增强自定义模型:Unsloth 微调框架在特定领域数据集的 Tokenizer 微调方面表现出色,提高了模型的适应性。社区成员渴望分享他们的可重用工作,促进协作改进。
- Aider v0.61.0 添加文件命令功能:最新的 Aider v0.61.0 允许用户使用
/save <fname>和/load <fname>加载和保存斜杠命令,方便进行复杂的命令管理。Aider 还引入了匿名的、选择性加入的分析,在尊重用户隐私的同时收集使用洞察。 - DSPy 集成类型化输出以简化实现:带有类型的 DSPy signatures 允许直接获取类型化输出,从而简化了实现过程。即将在 10 月底推出的 streaming DSPy completions 将进一步增强功能,并鼓励用户就所需的使用场景提供反馈。
主题 4. AI 研究创新
- 介绍用于长上下文任务的 Forgetting Transformer:一位成员展示了 Forgetting Transformer,它将遗忘门(forget gate)集成到传统的 Transformer 架构中,以提高在长上下文任务上的性能。该模型优于标准 Transformer,并且在不依赖位置嵌入(position embeddings)的情况下管理信息保留。
- TokenFormer 通过 Token 化参数重塑 LLM 可扩展性:TokenFormer 利用 Attention 机制处理 Token 与模型参数之间的交互,减少了对大规模重新训练的需求。该架构解决了与扩展大型 Transformer 模型相关的不可持续的计算成本问题。
- SAEs 分解文本生成图像模型以实现更好的控制:稀疏自编码器 (SAEs) 可以将文本生成图像模型的生成过程分解为可解释的组件。这增强了对图像构图、局部细节和色彩管理等方面的控制,对未来的发展至关重要。
主题 5. 社区活动、公告与赠送
- 参加 Llama Impact Hackathon 赢取奖金:11 月 8-10 日在旧金山举行的为期 3 天的 Llama Impact Hackathon 提供 $15,000 的奖金池。参与者若能最佳地利用 LlamaIndex,可赢取 $1,000 奖金,旨在鼓励使用 Llama 3.2 模型开发创新的 AI 解决方案。
- Meta FAIR 发布创新机器人工具:在 Meta FAIR,推出了机器人和触觉感知领域的三项新进展,包括 Meta Sparsh。这些工具旨在赋能 open source community(开源社区)在医疗研究和制造等领域的发展,促进协作进步。
- 面向 Alignment Lab AI 成员的 Steam 礼品卡抽奖:用户 tpojd 正向 Alignment Lab AI 社区提供一张 $50 Steam 礼品卡。成员们通过 ai-and-ml-discussion 和 general 频道收到了通知,吸引了社区参与抽奖。
PART 1: 高层级 Discord 摘要
Nous Research AI Discord
-
在本地硬件上优化 AI 模型性能:一位成员详细介绍了使用配备 4090/7800x3D 的工作站和朋友的双 2080Ti 设置运行 70B model 的情况,通过有效的 pipeline parallelism 实现了每秒 6-12 tokens。
- 成员们对 CPU offloading 可能造成的性能瓶颈表示担忧,强调了优化硬件配置的必要性。
-
Gemma2B 庞大的 Tokenizer 词汇量增加了复杂性:Gemma2B 因其庞大的 tokenizer 词汇量而被评为 2.6B 参数,使其能够更有效地处理多样化的输入。
- 这种复杂性凸显了该模型处理各种数据的能力,使其成为处理复杂 AI 工程任务的多功能工具。
-
SmolLM2 模型为设备提供轻量级性能:SmolLM2 系列提供 135M、360M 和 1.7B 参数的模型,针对设备端应用进行了优化。
- SmolLM2-1.7B 展示了改进的指令遵循和推理能力,尽管偶尔会生成无意义的输出。
-
Meta 推出用于高效设备端应用的 Tiny LLMs:Meta 的 Tiny LLMs 是参数量低于十亿的模型,专为有效的设备端使用而设计,以适应硬件限制。
- 支持文档包括 arXiv paper 2402.14905,详细介绍了模型的能力和优化策略。
-
探索 Hermes 3 的 Serverless 部署选项:一位成员正在寻找 together.ai 的替代方案来部署 Hermes 3 serverless,因为该平台仅支持专用硬件。
- 此次搜索旨在确定提供 serverless 解决方案的平台,以满足特定的部署需求。
Unsloth AI (Daniel Han) Discord
-
Unsloth Finetuning Framework 在定制化方面表现出色:参与者赞扬了 Unsloth Finetuning Framework 在特定领域数据集上进行 tokenizer finetuning 的能力,增强了模型的适应性。
- 许多成员渴望与社区分享他们的可重用工作和见解,促进协作改进。
-
对于聊天机器人,RAG 优于 Fine-Tuning:社区倾向于为编程语言聊天机器人使用 RAG 而非 fine-tuning,因为其具有更准确的查询能力。
- 讨论强调,尽管最初偏好 fine-tuning,但 RAG 在处理复杂查询方面的有效性使其成为更优的选择。
-
确定了用于 Pretraining 的最佳 CUDA 版本:CUDA 12.1 和 11.8 被确定为支持持续 pretraining 和实现 RAG 所需库的最佳版本。
- 成员们提出了对向后兼容性的担忧,特别是缺乏与 CUDA 12.6 兼容的 PyTorch 版本。
-
解决 Tokenizer 弃用警告:一位成员询问了弃用警告:Trainer.tokenizer is now deprecated. You should use Trainer.processing_class instead。
- 另一位成员澄清说,可以安全地忽略此警告,减少了对立即采取行动的担忧。
-
解决 Llama 3.1 Notebook 的 ImportError:在使用 Llama 3.1 notebook 时,报告了一个错误 ImportError: cannot import name ‘EntryNotFoundError’。
- 另一位成员承认了该问题并承诺调查解决方案,以确保 notebook 的顺利运行。
Perplexity AI Discord
-
Perplexity Pro 订阅取消:一位用户对他们的 Perplexity Pro 订阅被取消表示沮丧,并质疑其背后的原因。这引发了关于订阅价值以及 Perplexity 最近更新的产品服务的讨论。
- 此次取消引发了用户对 Perplexity 付费服务稳定性的担忧,并促使大家权衡维持订阅的收益与成本。
-
与 ChatGPT 的对比:在 GPT Search 发布后,关于 Perplexity 的模型切换 (model switching) 能力与 ChatGPT 提供的功能之优劣展开了辩论。用户欣赏 Perplexity 的美学设计和功能,但也注意到随着竞争加剧可能面临的挑战。
- 一些用户强调了 Perplexity 中模型切换的灵活性,而另一些人则指出 ChatGPT 功能的进步可能会掩盖 Perplexity 目前的产品优势。
-
Pplxity API 功能:一位成员注意到,与其他 API 提供的功能不同,Pplxity API 目前不支持获取引用 (citations)。这引发了关于在缺乏该支持的情况下如何有效实现引用功能的疑问。
- 鉴于 Pplxity API 缺乏原生引用功能,用户正在探索在他们的应用程序中整合引用能力的替代方法。
-
在 Pplxity API 中实现 RAG 功能:一位成员询问是否可以使用 Pplxity API 实现 RAG (Retrieval-Augmented Generation) 功能。他们了解到 OpenAI 支持 RAG,但尚未在 Pplxity 上进行尝试。
- 这引发了关于在 Pplxity 框架内复制 OpenAI RAG 功能的可行性和潜在方法的讨论,一些成员表示有兴趣进行进一步实验。
-
Pplxity 与 OpenAI API 的成本对比:一位成员幽默地指出 Pplxity API 比 OpenAI 的 API 产品更便宜。这引发了开发者关于高性价比 API 实现的讨论。
- 用户正在考虑将 Pplxity API 作为其项目更经济的替代方案,在节省成本与功能可用性之间进行权衡(相比 OpenAI 的解决方案)。
OpenAI Discord
-
ChatGPT Search 随订阅发布:成员们讨论了新的 ChatGPT Search 功能,该功能包含在 ChatGPT 订阅中,无需额外费用,并将其与需要额外付费的 Perplexity 进行了对比。
- Perplexity 因提供更丰富的结果而受到称赞,引发了关于每种工具在不同用例下优势的辩论。
-
AI 生成可玩游戏的进展:AI 开发能够生成像 Minecraft 这样可玩游戏的迭代版本引起了广泛关注,突显了其在生成式游戏领域的潜力。
- Oasis 公司已经创建了一个基础版本的 Minecraft,向玩家展示了基础功能。
-
配置 D&D GPT 用户动作的挑战:成员们报告了在设置其 D&D GPT 时遇到的困难,即难以将其响应严格限制在用户驱动的动作上(例如战斗中的施法)。
- 建议包括告知模型预期的游戏响应,以保持对游戏叙事的控制。
-
理解 LLM 中的上下文窗口 (Context Windows) 和分词 (Tokenization):讨论明确了上下文窗口定义了模型对 Token 的内存限制,而分词是指将文本分解为处理单元的过程。
- 成员们强调,Prompt Token 和上下文 Token 在 LLM 处理时被同等对待,都会影响响应的生成。
-
Token 权重对模型响应的影响:讨论中强调了响应中 Token 权重 (weighted tokens) 的概念,指出由于时效性,来自 Python 工具的输出权重为 1,与系统提示词 (system prompt) 相等。
- 成员们讨论了使用浏览器检查器工具来验证模型交互过程中的 Token 权重,以确保实现预期的响应优先级。
LM Studio Discord
- LM Studio 在容量满载时丢失上下文:用户指出,一旦达到 100% 容量,LM Studio 就会开始丢失上下文信息,从而影响会话的连续性。
- 一位用户建议使用 system prompt summary(系统提示词摘要),以便在长时间交互中保留更多相关的上下文。
- Open WebUI 在配合 LM Studio 使用时面临 API 障碍:有用户报告成功将 Open WebUI 与 LM Studio 集成,但由于 API endpoint 配置问题,在获取模型列表时遇到困难。
- 另一位成员指出,将 Docker 容器暴露给本地网络对于实现无缝访问至关重要。
- LM Studio 模型中的 HTML 渲染故障:有报告称 LM Studio 内部存在间歇性的 HTML 渲染问题,导致用户对其可靠性产生困惑。
- 用户提出了对安全性的担忧,建议在执行前验证
htmlspecialchars,这暗示了模型迭代中可能存在的 Bug。
- 用户提出了对安全性的担忧,建议在执行前验证
- IBM Granite 1b-A400m 设置需要 Flash Attention:一位用户在 LM Studio 中使用 IBM 的 granite 1b-A400m q4_0 模型生成响应时遇到挑战,怀疑与模型量化有关。
- 另一位用户澄清说,必须启用 Flash Attention 才能使该模型正常运行,并强调了关键的设置步骤。
- LM Studio 的多 GPU 支持表现各异:关于 LM Studio 是否有效支持多 GPU 的讨论不断出现,一些用户利用两个 GPU 来加载 code-straits 22b。
- 虽然支持多 GPU,但用户注意到了性能的不一致性,尤其是在不同的硬件厂商组合之间。
OpenRouter (Alex Atallah) Discord
- Hermes 3 合并 405B 版本:正如 OpenRouter 所宣布的,Hermes 3 405B 扩展版已被移除并合并到标准变体中。此举旨在为用户精简模型选项。
- 这一合并反映了通过提供统一模型来增强用户体验、降低模型选择复杂性的战略转变。
- API v1 模型迁移提升速度:/api/v1/models API 今日正在迁移到新的云服务商,预计将改进缓存并显著提升响应速度。
- 迁移后,
per_request_limits将始终设置为 null,这尤其会影响未登录或未提供 API Key 的用户;目前正在专用频道征求反馈。
- 迁移后,
- Rubik’s AI 搜索界面重构:更新后的 Rubik’s AI 搜索界面已发布,显著增强了高级研究助手的能力。目前正通过提供的 Beta 测试机会征求反馈。
- Beta 测试参与者在结账时使用促销代码
NEW24,即可获得 Mistral Large 和 Gemini-1.5 Pro 等模型的 1 个月免费高级访问权限。
- Beta 测试参与者在结账时使用促销代码
- Hermes 3 免费版停机:用户报告称,免费版的
hermes-3-llama-3.1-405b目前在 OpenRouter 聊天中无响应,而标准版仍可正常运行。- 由于模型仍列在 OpenRouter 上,该问题被认为是暂时的,相关解决方案正在讨论中。
- ChatGPT 模型更新缺乏搜索 API:用户正在讨论最新 chatgpt-4o 模型的性能变化,并注意到在最近发布后,通过 API 无法使用搜索功能。
- OpenAI 承认模型经常在不通知用户的情况下进行更新,这引发了用户对一致性的担忧。
Notebook LM Discord Discord
-
播客源错误引起困惑:用户分享了对“Add Source”功能的挫败感,以及在播客创建后难以定位生成的音频文件的问题。
- 一位地理老师详细说明了在教育内容中实施新工具的挑战,并寻求有关该流程的指导。
-
Python 音频处理的增强:一位参与者讨论了对用于音频处理的 Python 工具的改进,包括循环遍历时间戳以创建片段以及与 Avatar 集成。
- 强调了正在开发的播放“Pause”和“Resume”功能,以便更好地管理音频剪辑。
-
分析 Google TTS 语音质量:Google TTS 的语音质量因语言而异,建议使用 Google Cloud’s Text-to-Speech 以获得更自然的英语声音。
- 用户讨论了创建多发言人对话,并指出了使用 Google Cloud 的 TTS 功能时在音频长度上的限制。
-
对 NotebookLM 播客功能的热情:用户对 NotebookLM 的播客功能充满热情,讨论了创建多个剧集并请求对特定源进行深入探讨。
- 一位新用户询问了播客功能的能力以及制作剧集的流程。
-
用户对 NotebookLM 性能的反馈:成员们对 NotebookLM 网页搜索的自动引用格式提供了褒贬不一的反馈,并对其音频提取和转录能力提出疑问。
- 用户对无法导入某些视频表示担忧,并寻求有关音频处理功能的澄清。
aider (Paul Gauthier) Discord
-
Aider v0.61.0 增强文件命令功能:最新版本 Aider v0.61.0 允许用户使用
/save <fname>和/load <fname>将斜杠命令加载和保存到文件中,方便在聊天期间管理复杂的命令。- 新的启动选项如
--load <fname>允许在启动时执行命令,提升了工程师的交互体验。
- 新的启动选项如
-
Aider 通过代码贡献树立编码里程碑:在 v0.61.0 中,Aider 贡献了 860 行新代码,占该版本新代码库的 68%,展示了显著的自我改进能力。
- 这一大量的代码添加突显了 Aider 在其自身开发过程中不断演进的角色。
-
集成匿名分析以尊重隐私:Aider 引入了匿名、选择性加入(opt-in)的分析,排除了个人数据,旨在收集使用洞察而不损害用户隐私。
- 该功能鼓励用户参与以增强 Aider 的性能,同时保持用户信任。
-
Patched.codes 增强自定义 AI 工作流:Patched.codes 被介绍为一种可定制 AI 工作流的工具,提供自动文档生成和总结 PR 审查等功能,以优化代码后期任务。
- 用户表示有兴趣利用此工具自动化常规琐事并简化其开发流程。
-
新增 Anthropic API 的 Token 计数功能:来自 Anthropic API 的新 Token 计数端点(可在此处访问 here)允许用户发送请求并接收 Token 计数,辅助管理 Token 使用情况。
- 这一新增功能有助于用户防止因快速自动化请求而导致的 Token 超支,解决了使用管理方面的担忧。
Stability.ai (Stable Diffusion) Discord
-
寻求 ComfyUI 优化:一位使用 Mac Studio M2 Max 的用户正在寻求 ComfyUI 的最佳设置,并请求社区提供建议和经验。
- 成员们建议从 Scott 的 ComfyUI 教程视频 开始,以熟悉该软件。
-
关于 FP16 模型可用性的疑问:一位社区成员询问了 Stable Diffusion 3.5 模型的 FP16 版本 的可能性;他们报告称 FP16 在其硬件上的性能是原来的 8倍。
- 另一位成员确认 Stable Diffusion 3.5 large 模型已有 FP16 版本,并提供了 Hugging Face 的访问链接。
-
获取 Lora 触发词:一位用户询问如何在 ComfyUI 中查看所使用的 Lora 的触发词,寻求高效的获取方法。
- 社区建议他们前往 Lora 的原始下载地址,以查找有关触发词的详细信息。
-
视频生成模型推荐:讨论重点介绍了用于视频生成的 Mochi-1 和 CogVideoX,并根据 VRAM 限制给出了建议。
- 成员指出,像 5b 和 2b 变体这样的小型模型可以适配资源有限的系统,同时强调 CogVideoX 最适合低 VRAM 环境。
-
基于 Lora 的图像风格化模板需求:一位用户表示需要一个用于 ComfyUI 的 基于 Lora 的图像风格化 模板,特别是能根据选定的 Lora 生成图像的模板。
- 他们提到,很难找到一个不仅仅是为了同时使用多个 Lora 的模板。
Eleuther Discord
-
DEQ 模型深陷不稳定性困扰:训练 DEQ 模型 面临重大挑战,包括需要频繁重启的训练损失爆炸(exploding train losses)。成员们讨论了“无限深”网络动态是如何导致这些问题的。
- 一位成员幽默地提到通过 向 rnjesus 祈祷 来避免模型失败,突显了社区对这种不稳定性的沮丧。
-
Hypernetworks:仅仅是输入变换吗?:Hypernetworks 引发了辩论,一位成员将其仅归类为依赖输入的变换。讨论内容包括一些实际挑战,例如生成的模型参数量比基础模型还多。
- 其他人分享了他们的实现经验,强调了部署 Hypernetworks 相关的复杂性和资源需求。
-
介绍 Forgetting Transformer:一位成员揭晓了 Forgetting Transformer,它将 forget gate 集成到传统的 Transformer 架构中,以提升 long-context 任务的性能。据报道,该模型在不依赖 position embeddings 的情况下优于标准 Transformer。
- 社区认可了这一创新,指出 forget gate 使模型能够更好地在扩展上下文中管理和保留相关信息。
-
探索 Flow Matching 与 Speculative Decoding:成员们探索了 flow matching 和 speculative decoding 作为 DEQ 和 UT 的替代方案,旨在优化准确度与延迟之间的权衡。这些方法因其高效的计算利用率而受到推崇。
- 虽然不是直接的竞争对手,但小组一致认为 flow matching 和 speculative decoding 为增强模型推理的计算效率提供了有前景的途径。
Latent Space Discord
-
SmolLM2 成为新的 SOTA:SmolLM2 是一款全新的开源 1B 参数语言模型,在来自各种精选数据集的高达 11 万亿 (trillion) tokens 上进行了训练,并在 Apache 2.0 协议下完全开源。
- 成员们讨论了它的性能,其中 SmolLM2 1.7B 的表现优于其他模型,引发了对即将发布的 Demo 和社区测试的热切期待。
-
Anthropic 推动 AI 监管:Anthropic 发布了一篇博客文章,主张进行针对性的 AI 监管,强调了尽早建立准则的紧迫性。
- 这一发布的时间点选在选举前夕,引发了关于其对初创公司竞争影响的讨论。
-
Claude 3.5 Sonnet 基准测试打破纪录:由 Claude 3.5 Sonnet 驱动的框架在 SWE-bench Verified 上达到了惊人的 49%,超越了之前 45% 的 SOTA 纪录。
- 这一里程碑激发了人们对进一步提升以及与 Aider 等其他系统进行对比的兴趣。
-
令人兴奋的新 AI 工具涌现:Blockade Labs 推出了 Blendbox,通过对视觉效果的直接控制简化了 AI 艺术创作;而 Runway ML 宣布了 Advanced Camera Control(高级摄像机控制),以实现更有意图的场景导航。
- 这些创新标志着一种趋势,即通过用户友好的界面来增强 AI 生成内容中的创意表达。
-
OpenAI 的 AMA 揭示算力挑战:在 Reddit 的 AMA 环节中,OpenAI CEO Sam Altman 承认 算力限制 (compute limitations) 正在推迟产品发布,使部署复杂 AI 模型的路径变得复杂。
- 这次讨论揭示了 AI 技术重大进步所面临的基础设施挑战。
GPU MODE Discord
-
FlashAttention-2 增强 GPU 内存优化:FlashAttention-2 (2023) 通过改进 I/O 操作并集成硬件感知特性,引入了 attention mechanism(注意力机制)的进步,在不牺牲准确性的情况下优化了性能。
- 这些增强功能解决了 GPU HBM 和 SRAM 之间冗余的内存访问问题,利用 kernel fusion(算子融合)和 tiling(分块)等技术确保在现代 GPU 架构中高效运行。
-
海量 Triton Kernels 数据集发布:一个包含超过 250 万 tokens 和 3000 个 Triton kernels 的新 Triton Kernels Dataset 已发布,其来源包括 GitHub 仓库抓取以及在各种模型上执行 Torch Inductor。
- 未来计划包括通过分析 200 个 GitHub 仓库来扩展数据集,添加明确的 docstrings,执行去重,并确保所有 kernel 均可运行,以促进监督微调 (supervised finetuning)。
-
Triton 与 vLLM 输出之间的差异:成员们发现了 Triton 和 vLLM 输出之间的不一致,特别是第一个条目的预期值,如 vLLM 仓库所示,Triton 四舍五入为 18,而 vLLM 为 20。
- 这些差异表明可能存在数值错误或实现上的不同,促使进一步调查以确保两个框架之间的计算一致性。
-
Composable Kernel 性能策略:Composable Kernel (CK GEMM) 的目标是达到约 135TFlops,尽管性能可能会根据具体的 kernel 设置而有所不同。
- 为了减轻 bank conflicts,成员们正在实施一种基于 XOR 的置换策略,如 Composable Kernel GitHub 所示,旨在优化张量操作并减少寄存器溢出 (register spills)。
Interconnects (Nathan Lambert) Discord
-
SmolLM2 的发布整合了开源的灵活性:推出了 SmolLM2,这是一个拥有 1B 参数的模型,在高达 11T tokens 的精选数据集上训练而成,采用 Apache 2.0 许可证发布,并公开了所有数据集和脚本。
- 该模型旨在通过在 NLP 中引入令人兴奋的新特性,建立一个强大的语言模型评估基准,从而促进更深入的开发和基准测试。
-
OpenAI o1-preview 亮相:OpenAI 宣布于 2024 年 9 月 12 日发布
o1-preview模型,该模型此前被称为 Q*,后被 Project Strawberry 取代。- 此次发布旨在通过一系列实验和讨论,阐明 OpenAI o1 的功能并提高用户的理解。
-
解码语言模型中的推理:一篇博客文章探讨了 Daniel Kahneman 的系统 1(System 1)和系统 2(System 2)思维,并将其与语言模型的推理过程联系起来,其中传统的推理对应 System 1,而推理过程涉及分析性的 System 2 过程。
- 社区成员讨论了引入“推理 tokens”(reasoning tokens)的影响,质疑在实践中并行 MCTS 的可行性,因为这可能会增加 token 消耗。
-
传统 NLP 评估方式的转变:讨论中提出了对传统 NLP 评估衰落的担忧,特别是在自然语言生成(NLG)领域,因为人们期望模型在没有标准化基准的情况下也能表现出色。
- 参与者注意到评估环境正在发生变化,特别是影响到摘要生成(summarization)和机器翻译(machine translation)等领域,这表明需要更新基准测试。
-
探索机器人领域中的 Diffusion 技术:一位参与者发起了关于 diffusion 方法与机器人技术交叉点的讨论,强调了潜在的应用并寻求合作者的兴趣。
- 这一询问引发了关于应用 diffusion-based 方法来增强机器人功能的各种可行性及现有研究的进一步辩论。
Torchtune Discord
-
Llama 4 在 100k H100 上进行训练:Llama 4 目前正在使用 100k H100 单元进行训练,展示了 AI 发展的重大进步。
- 一位成员感叹这种飞速的进展,说道:“我们生活在一个多么疯狂的世界。”
-
Meta 潜在的核能投资:有人幽默地推测 Meta 将宣布建设核电站的计划。
- 另一位成员建议此类公告最早可能在 2025 年发布。
-
Activation Offloading 过程中的 Graph Breaks:在使用 PPO 时,存在关于 graph breaks 和 activation offloading 的担忧,有报告称性能下降且内存占用未改变。
- 确定的一个潜在原因是激活值增加导致了处理瓶颈。
-
PPO 配置问题影响性能:必须启用 activation checkpoints 才能使 activation offloading 正常工作,但某些配置可能会遗漏必要的检查,从而影响 PPO 性能。
- 一位成员建议检查模型的输出头(output heads),认为这可能是 offloading 过程中出现这些问题的根源。
-
用于 GPU 时间分析的 Profiling 技术:成员们正在讨论使用 tlparse 来识别 graph breaks,以及 profiling GPU 时间对于深入了解性能问题的重要性。
- 一位成员表示愿意在配置完成后协助进行 profiling 和分析。
DSPy Discord
-
DSPy Signatures 简化实现:一位成员强调,使用带有类型的 DSPy signatures 可以直接获得类型化输出,从而简化了实现过程。
- 这种方法通过利用 dspy.LM 和 dspy.JsonAdapter 来确保 Schema 合规性,从而降低了编码复杂度。
-
vLLM 增强服务器生成:另一位成员建议利用支持 Outlines 约束生成 的服务器(如 vLLM)来请求特定类型(如 bool)。
- 他们通过实现
dspy.Predict(“text -> is_factual: bool”)演示了这一点,确保了与现有框架的无缝集成。
- 他们通过实现
-
Streaming DSPy Completions 发布:在 Async PR 准备就绪后,Streaming DSPy completions 预计将在 10 月底 提供原生支持。
- 讨论正在进行中,一个 GitHub issue 正在征集用户对于 dspy.Predict() 功能所需用例的反馈。
-
合成数据生成挑战:一位成员询问如何在没有大量 ICL 示例的情况下,在 DSPy 中使用预训练基础模型进行合成数据生成。
- 另一位成员解释说,由于缺乏指令微调(instruction-tuning),基础模型很难进行有效的 Prompt 引导,这使得实际的 ICL 示例变得至关重要。
-
Textgrad 集成时间表:用户对 Textgrad 集成到 DSPy 的时间表表示关注,但目前尚未提供具体细节。
- 一条 GitHub 评论 讨论了当前的设置以及集成后潜在的 Streaming 能力。
OpenInterpreter Discord
-
Anthropic API 支持问题:在引入 Anthropic API Support 的最新更新后,一位成员报告称脚本无法像以前的版本那样正常运行,感到非常沮丧。
- 他们建议将 API 集成设为可选,并重新启用之前可以无障碍运行的本地模型选项。
-
Meta FAIR 机器人技术进展:今天在 Meta FAIR,发布了三项机器人和触觉感知领域的创新进展,旨在赋能社区。
- Meta Sparsh 被强调为一种用于触觉感知的多功能编码器,增强了机器人系统的能力。
-
Meta Sparsh 创新:Meta Sparsh 作为首个通用编码器推出,它在 460K+ 触觉图像上通过自监督学习进行了训练,适用于多种应用。
- 该技术与各种触觉传感器和任务兼容,为更先进的机器人集成铺平了道路。
-
开源社区影响:来自 Meta 的新机器人工具将对开源社区产生重大影响,使医疗研究和制造等领域受益。
- 鼓励社区参与探索和应用这些技术,以促进协作进步。
LAION Discord
-
Patch Artifacts 困扰生成器:一名成员表达了在自回归图像生成中处理 patch artifacts 的挫败感,并指出尽管不喜欢 VAE,但可能不得不使用它。
- “仍在处理这些 patch artifacts。我讨厌 VAE,但似乎我可能被迫使用一个。”
-
TokenFormer 重新构想模型可扩展性:一种名为 TokenFormer 的新架构通过利用 tokens 与模型参数 之间交互的 attention 机制来增强灵活性,从而减轻了因架构修改而需要重新训练整个模型的需求。
- 这种方法解决了随着模型规模增长,扩展传统 Transformer 模型所带来的不可持续的计算成本问题。详见 TokenFormer: Rethinking Transformer Scaling with Tokenized Model Parameters。
-
SAEs 揭示文本到图像模型的内部运作机制:一项研究表明,Sparse Autoencoders (SAEs) 可以将 text-to-image models 的生成过程分解为可解释的组件,从而实现更好的控制和分析。
- 这些特征涉及 image composition(图像构图)、local detail enhancement(局部细节增强)和 color management(色彩管理)等方面,使其成为未来模型发展的关键。更多信息请参阅 Unboxing SDXL Turbo with SAEs。
-
扩散步骤中缺乏 Attention:讨论指出,diffusion step 仅由单个 MLP 组成,不具备对相邻 patch 的 attention 或感知,导致了连续性问题。
- “……对 masked tokens 的预测提供了用于去噪的连续向量。”
-
Meta 的新视频模型:一名成员提到 Meta 已经推出了一款用于生成视频的新模型,暗示了该领域的创新。
- 他们鼓励其他人查阅链接的论文以获取更多信息:Kaiming He et al.。
LlamaIndex Discord
-
使用 Open Telemetry 记录 Trace:现在,BrainTrustData 允许你使用 Open Telemetry 直接从 LlamaIndex 记录 trace,增强了你的可观测性能力。
- 这种集成确保了在复杂的生产级应用中,遥测数据是清晰且有效的。
-
为 Llama Impact Hackathon 做好准备:为期 3 天的 Llama Impact Hackathon 将于 11 月 8-10 日在旧金山举行,提供 $15,000 的奖金池。
- 参与者将使用 Meta 的 Llama 3.2 模型构建 AI 解决方案,其中最佳 LlamaIndex 使用奖将获得 $1,000 的专项奖金。
-
LlamaParse 推出令人兴奋的新功能:LlamaParse 现在拥有两项新功能:用于拼接多页表格的 Continuous mode(测试版)和用于轻松提取数据的 Excel spreadsheet output 选项。
- Continuous Mode 确保长表格能够无缝呈现,提升了整体用户体验。
-
将 Workflow 转换为 Tool 是可行的:成员们讨论了任何 workflow 都可以使用
FunctionTool转换为 tool 的想法,并展示了相关代码片段。- 这使得 workflow 可以无缝地应用在各种查询引擎中。
-
关于 Workflow 的疑问:一名成员询问 workflow 是否必须是 async,以及高级引擎最终是否会完全使用 workflow 重新实现。
- 回复确认了 workflow 本质上是 async 的,而未来的重新实现可能不是重点,目前的重点是完善文档和提供预构建的 workflow。
Cohere Discord
-
框架狂潮:LLM 组件构建器:一名成员正在开发一个 LLM 框架,该框架能够根据用户提示构建组件,旨在增强各种应用程序的组件生成。
- 目前,该框架仅支持 Tailwind CSS,并计划扩展到其他样式选项。正在解决随机文本输出的问题,以优化框架性能。
-
论文冲刺:寻求导师:一名成员正在为其 硕士论文 (master thesis) 寻求合作者或导师,并寻找 加速 这一过程的方法。
- 有人担心 Cohere for AI Discord 中的申请量过大,可能会导致延迟。该成员询问 “是否有办法加快这一进程?” 并鼓励分享电子邮件以更好地协调。
-
Command R 成本削减与性能提升:有人询问在哪里查看 Command R 的 可靠性评分 (reliability scores),随后指向了 Cohere 关于 Command R 微调的博客。
- Command R 微调 在企业用例中提供 卓越性能,且与最大模型相比,成本降低了高达 15 倍,突显了显著的经济效益。
-
Agent 申请评估:团队正在对 Agent 构建 的准入申请进行彻底审查,重点关注候选人的相关经验。
- 候选人可以期待反馈,因为团队正在仔细评估每份申请,以确保在 Agent 构建方面拥有合格的经验。
Modular (Mojo 🔥) Discord
-
Mojmelo 项目邀请贡献:一名成员正积极 开发 Mojmelo,重点关注原生 Matrix 类型 和 ML 算法。
- 此处 提供了一个使用 逻辑回归 (Logistic Regression) 的示例。
-
Mojo 的参数化能力探索极限:一场关于 Mojo 参数化能力 (parametric capability) 的讨论展开,质疑 “它不能做什么”。
- 这反映了 Mojo 在其强大功能集中的潜在边界。
-
Mojo 测试在 macOS GitHub Actions 上挂起:一名成员报告了在执行 macOS GitHub Actions 期间
mojo test挂起的问题。- 这指出了开发者面临的特定环境挑战。
-
句法宏 (Syntactic Macros) 失去吸引力:一名成员对 句法宏 的热情有所下降,原因是某些库创建了文档有限的小型 DSLs。
- 这突显了与 Mojo 追求简洁目标之间的冲突。
-
Malloc 错误干扰 Mojo 输入:一名成员报告了当 Mojo 的输入方法处理多个用户输入时出现 malloc 错误 (malloc faults)。
- 尽管有一个 GitHub 变通方法,但问题仍然存在,令开发者感到沮丧。
OpenAccess AI Collective (axolotl) Discord
-
Axolotl Docker 标签混淆:用户对 Axolotl 的动态标签(如 main-latest)和稳定标签(如 main-20241031-py3.10-cu121-2.3.1)表示担忧,质疑它们是否适用于生产环境。
- 有人请求提供关于 Axolotl Docker 镜像发布策略的详细文档 以澄清标签命名惯例。
-
稳定版发布时间线:一名成员确认计划在最近的 PRs 合并后启动稳定版发布,并概述了当前构建标签的进度。
- 即将发布的稳定版将经过广泛测试,以确保其对终端用户的可靠性。
-
Axolotl Docker 发布历史:有人指出,由于上游依赖项尚未发布,Axolotl Docker 镜像 的最后一个稳定发布标签已过时。
- 成员对更新这些依赖项以促进正式 发布到 PyPI 表示乐观。
-
最新构建的稳定性保证:团队保证最新构建是稳定的,已经通过了多次 端到端测试 (end-to-end tests)。
- 这一验证过程旨在减轻在生产环境中使用当前标签的顾虑。
Alignment Lab AI Discord
-
Steam 礼品卡抽奖:用户 tpojd 正通过 此链接 提供一张 $50 Steam 礼品卡。
- 该公告已在 ai-and-ml-discussion 和 general 频道发布,通知了所有成员。
-
****:
LLM Agents (Berkeley MOOC) Discord
-
成员寻求课程结构指导:一位新成员表达了加入的热情,并请求关于课程结构和工作流的指导。
- 社区成员给予了热情回应,提供支持和详细信息,帮助新成员找到有效参与所需的必要细节。
-
课程网站提供全面信息:一位成员分享了 课程网站,以便访问所有课程信息和作业。
- 该资源确保新成员可以轻松找到有效参与所需的必要细节。
tinygrad (George Hotz) Discord
-
封装 IOCTL 还是使用 CUDA 编写设备驱动?:讨论围绕着是封装原始 IOCTL commands 更好,还是采用 CUDA approach 通过加载
.so文件来发布命令。- 讨论强调了 Hailo 环境的细微差别,包括其专有的接口方法。
-
Hailo 的 C 库被封装在 Python 中:Hailo 库在其 C 代码之上使用了 Python wrapper,提供了一种独特的命令执行方法。
- 这种方法增强了易用性,但也引发了关于底层架构和性能权衡的问题。
-
神经网络的专有编译:Hailo 要求将神经网络编译成 HEF proprietary protobuf format,而不是像 CL shaders 这样的传统程序。
- 用户必须专门为此目的编译 ONNX files,这表明与传统开发实践相比有重大转变。
Mozilla AI Discord
-
Mozilla Builders Demo Day 名额有限:12 月 5 日在加利福尼亚州旧金山举行的 Mozilla Builders Demo Day 仅有有限名额。感兴趣的社区成员应通过 此表单 提交信息进行申请。
- 参与者的信息将根据 Mozilla Privacy Policy 进行处理。
-
12 月 5 日活动时间表:活动将在 40 O’Farrell St 的 Convene 举行,时间为 上午 8:30 到下午 3:00,包括注册、早餐以及开源 AI 项目的现场路演。
- 日程包括社交机会、午休以及下午的 AI Demo Science Fair。由于名额有限,建议参与者在下周前提交注册。
-
关于活动的疑问:如有任何关于活动的咨询,成员可以通过 Discord 联系 Maite。也可以在这里发布问题。
- 此次活动标志着 9 月中旬开始的 Builders Accelerator program 圆满结束。
LangChain AI Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。
LLM Finetuning (Hamel + Dan) Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。
MLOps @Chipro Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。
DiscoResearch Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。
Gorilla LLM (Berkeley Function Calling) Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。
AI21 Labs (Jamba) Discord 没有新消息。如果该公会长期沉寂,请告知我们,我们将将其移除。
第 2 部分:各频道详细摘要和链接
完整的频道分类明细已在邮件中截断。
如果您喜欢 AInews,请分享给朋友!提前感谢!