ainews-not-much-happened-today-4025

这句话可以翻译为: * **非常安静的一天** (最常用) * **超级安静的一天** (更口语化) * **特别清静的一天** (强调没有打扰)

AI21 Labs 发布了 Jamba 1.5,这是一个经过扩展的状态空间模型(State Space Model),针对长上下文窗口进行了优化。该模型拥有 940 亿(94B)参数,推理速度提升高达 2.5 倍,在基准测试中表现优于 Llama 3.1 70B 等模型。Phi-3.5 模型因其安全性和性能受到赞誉,而由 Bindu Reddy 发布的全新 70B 开源编程模型 Dracarys 声称在基准测试中超越了 Llama 3.1 70B。关于加州 SB 1047 AI 安全立法的讨论涉及斯坦福大学Anthropic,强调了在预防措施与行业增长之间取得平衡。创新技术包括用于快速环境配置的 uv 虚拟环境LangChain 的 LangSmith 资源标签(用于项目管理),以及 Qdrant 中增强数据工作流的多智能体系统。由 AWSLangChainElastic 举办的 RAG 工作坊等社区活动继续支持 AI 学习与协作。此外,模因(Memes)仍然是参与 AI 行业文化的一种流行方式。

#state-space-models #long-context #benchmarking #ai-safety #virtual-environments #multi-agent-systems #resource-management #community-engagement #model-performance jamba-1.5 phi-3.5 dracarys llama-3-1-70b llama-3-1 ai21-labs anthropic stanford hugging-face langchain qdrant aws elastic

宁静是你唯一需要的。

2024年8月21日至8月22日的 AI News。我们为你检查了 7 个 subreddits、384 个 Twitter30 个 Discord(214 个频道,2393 条消息)。预计节省阅读时间(以 200wpm 计算):283 分钟。你现在可以标记 @smol_ai 进行 AINews 讨论!

关于今年秋季即将发布的 AI 产品有很多传闻,但遗憾的是目前还没有公开可引用的信息。


目录频道摘要 已移至此邮件的网页版:


AI Twitter 综述

所有综述均由 Claude 3.5 Sonnet 完成,取 4 次运行中的最佳结果。

AI 模型及其评估

  • AI21 Labs 发布 Jamba 1.5Jamba 1.5 模型展示了卓越的性能和速度。@AI21Labs 分享了其新颖的混合 SSM-Transformer 架构的细节。这些模型针对长上下文窗口(long context windows)进行了优化,在 94B 参数规模下,推理速度提升了高达 2.5 倍。关于更详细的信息,@AI21Labs 强调了具体的 Benchmark,显示其在 Arena Hard 基准测试中的得分令人印象深刻,超越了 Llama 3.1 70B 等更大规模的模型。
  • Phi-3.5 与 FlexoraPhi-3.5 模型因其安全性与性能而受到关注。@rohanpaul_ai 赞扬了该模型的能力。此外,正如 @rohanpaul_ai 所述,Flexora 的自适应层选择(adaptive layer selection)表现优于现有的 Baseline。
  • Dracarys - 70B 级编程 LLMBindu Reddy 发布了 Dracarys,声称它是最强的开源 70B 级编程模型,在 Benchmark 中超越了 Llama 3.1 70B 和其他模型。@bindureddy 强调了其显著的改进,并已在 Hugging Face 上线。

AI 安全与立法

  • SB 1047 与 AI 安全担忧Stanford、Anthropic 以及其他机构对加州的 SB 1047 法案表达了复杂观点,该法案旨在监管 AI 应用的安全性。@jackclarkSF 解释说,该法案试图在预防措施与实证研究及行业增长之间取得平衡。@DanHendrycks 分享了 Anthropic 的支持立场,强调了应对 AI 风险的紧迫性。

AI 工具与创新

  • uv 虚拟环境uv 虚拟环境提供快速的安装和依赖管理。@reach_vb 展示了 uv 如何快速创建轻量级虚拟环境。
  • LangChain 与 LangSmith 更新:LangSmith 中的资源标签(resource tags)有助于高效管理项目、数据集和部署。@LangChainAI 推出了这些增强功能,以实现更好的工作空间组织。
  • Qdrant 与 LangChain 中的 Multi-Agent 系统:Qdrant 中的多 Agent 角色扮演(Multi-agent role-playing)和语义缓存(semantic caching)使 AI 系统更加健壮。@iqdotgraph 分享了这些集成如何旨在增强数据处理和检索工作流。

会议与聚会

  • 旧金山的 AI 工作坊与黑客松由 AWS、LangChain 和 Elastic 主办的 RAG 工作坊等活动正持续促进社区参与并提供动手实践学习。@LangChainAI 公布了即将于 9 月 9 日在 AWS Startup Loft 举办的工作坊细节。

幽默与梗图

  • 行业幽默:梗图(Memes)作为对 AI 行业现状的轻松评论继续盛行。@lumpenspace 通过触及广泛认可的行业怪癖的幽默,强调了同行之间的共鸣。

这份综述全面总结了 AI High Signal Twitter 列表中的关键讨论,重点关注模型性能、安全性、工具、创新、社区活动和幽默。每个类别都参考了多个来源,以确保叙述内容详实且具有参考价值。


AI Reddit 综述

/r/LocalLlama 回顾

主题 1. Microsoft 的 Phi-3.5 模型:能力与争议

  • Phi-3.5-Mini 与 Phi-3.5-MoE 之间有趣的模型差异 (Score: 59, Comments: 9):该帖子比较了 Phi-3.5-MiniPhi-3.5-MoE 模型的架构,强调了在注意力机制、内部维度和参数量方面的关键差异。虽然两个模型都有 32 层,但 MoE 版本使用了 grouped query attention,并且拥有更大的内部维度 4096,而 Mini 版本则使用 full multi-head attention 且维度为 3072。最显著的差异在于 Feed-Forward 模块,Phi-3.5-MoE 拥有 40,267,415,552 个参数,而 Mini 仅为 2,415,919,104 个,这使得 MoE 的总参数量达到 41,873,153,344,而 Mini 为 3,821,079,552
  • Phi-3.5 非常安全,Microsoft 在这方面真是超越了自我! (Score: 279, Comments: 112):该帖子讨论了 MicrosoftPhi-3.5 模型,将其描述为高度审查 (censored),且拒绝回答潜在的冒犯性查询或进行进一步训练。作者讽刺地赞扬了这些安全特性,并询问他人将 Phi-3.5 与其他重度审查模型相比的使用体验。更新内容包括一个指向 Hugging Face 上 Phi-3.5 无审查版本的链接。
    • 用户通过讽刺性的回应幽默地嘲讽了 Phi-3.5 过度的审查制度,其中一个评论串甚至演变成了一场井字棋 (tic-tac-toe) 游戏。该模型拒绝回答简单问题或提供基本信息的情况被重点吐槽。
    • 几位用户讨论了对模型进行 uncensorabliterate 的方法,并就这些技术的有效性和潜在缺点展开了辩论。一个无审查版本已在 Hugging Face 上分享。
    • 由于其过度狂热的审查,用户对该模型在编码和技术任务中的实用性表示担忧。用户认为,如此严格的限制使得该模型在许多应用中变得不切实际,尤其是非面向客户的使用场景。

主题 2. 用于创意写作和角色扮演的 AI

  • ERP 提示词 (Score: 87, Comments: 20):该帖子讨论了使用 AI 模型进行高级成人角色扮演 (ERP) 的技术,重点在于创建详细的角色档案和增强沉浸感。它提供了用于生成具有独特特质、背景故事和亲密细节的复杂角色的特定提示词,以及 “Inner Monologue” (内心独白)“Freeze Frame” (定格画面) 等加深角色扮演体验的技术。作者强调了建立期待感构建真实互动的重要性,鼓励用户提供详细的输入,以诱导 AI 模型做出更具吸引力的回应。
    • 用户讨论了内心独白的格式化技巧,建议在 SillyTavern 中使用括号 ⟨monologue⟩ 或 HTML 注释 <!-- inner monologue -->。这些方法允许角色拥有隐藏的想法,从而影响未来的 Token 生成。
    • 用户对作者用于非色情内容的创意写作设置表现出兴趣,并请求发布关于该主题的详细帖子。用户还询问了推荐的 ERP AI 模型,其中一位提到了 Midnight Miqu 1.5 70B
    • 几条评论称赞了作者的写作风格和创造力,一位用户表示他们“宁愿和你在一起,也不愿和任何提示词写得好、堆栈得好、表现得坏的 LLM 在一起”。用户还为自己的 AI 辅助写作尝试索要了额外的提示词和技巧。

全球 AI Reddit 摘要

r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence, /r/LLMDevs, /r/Singularity

AI 图像生成与训练

  • Ideogram 2.0 发布Ideogram 宣布 推出其最先进的文本生成图像模型,现已向所有用户免费开放。

  • Kohya SS GUI FLUX LoRA 训练:一位用户展示了在 RTX 3060 GPU 上进行 LoRA 训练,显存(VRAM)占用为 9.7 GB,使用的是适用于 Stable Diffusion 的 Kohya SS GUI FLUX。
    • 在 1024x1024 分辨率下进行训练,LoRA Rank 为 128。
    • 在 RTX 3060 上进行 4000 步训练的预计时间为 20 小时。
    • 512x512 分辨率的训练速度快 2 到 2.5 倍。
    • 用户正在测试各种配置,包括在 RTX 4080 和 RTX 3090 上。
  • LoRA 训练进展:一位用户报告称,在 A4500 20GB GPU 上成功完成了 LoRA 训练,仅使用了 16GB VRAM,包含 10 张自拍和 1600 步,仅耗时一小时。

AI 与软件开发

  • 亚马逊云主管谈 AI 的影响:在一段泄露的录音中,亚马逊云主管暗示,随着 AI 的接管,大多数开发者可能很快就会停止编写代码。

假肢与生物技术

  • 先进假肢手臂:据报道,Atom Touch 是首款具有独立手指控制功能的假肢手臂,利用肌电图(electromyography)进行精确操作。预计将在 12-18 个月内进行临床试验并获得 FDA 批准。

AI Discord 内容回顾

由 GPT4O-Aug (gpt-4o-2024-08-06) 生成的摘要之摘要的总结

1. LLM 模型发布与特性

  • LM Studio 0.3.0 发布重大更新LM Studio 0.3.0 引入了全新设计的 UI,增强了对话组织、自动上下文处理以及多模型加载功能,显著提升了本地模型的运行性能。
    • 尽管有所改进,用户仍反馈了模型加载和系统提示词(system prompts)方面的 Bug,并呼吁其他用户在遇到问题时及时上报。
  • AI21 Labs 推出 Jamba 1.5:来自 AI21 Labs 的 Jamba 1.5 推出了 Mini(52B - 12B 激活)和 Large(398B - 94B 激活)版本,具备 256k 超长上下文和多语言能力。
    • 这些模型声称推理速度比竞品快 2.5 倍,并配备了先进的指令模型(instruct models)和结构化输出功能。
  • 在 8gb GPU 上微调 Mistral Nemo 12bMistral Nemo 12b 可以在 8gb GPU(特别是 RTX 4050)上进行微调,这使得它非常适合用于测试和原型开发。
    • 这种更广泛的可访问性为更多工程师在无需高端硬件的情况下快速迭代和测试模型提供了可能。

2. 性能与优化技术

  • Triton INT8 性能超越 BF16Triton INT8 的实现在 A.T @ B 操作上比 PyTorch BF16 实现了约 1.5 倍的加速,在 A @ B.T 上实现了 3 倍的加速,在各项基准测试中均表现出极高的效率。
    • 这一提升归功于根据矩阵 A 和 B 的步长(stride)变化对 Triton 进行了重新调优。
  • Flash Attention FP8 支持在 Hopper 上首次亮相Flash Attention 现在支持在 Hopper 架构上使用 FP8,利用 WGMMA 指令来优化性能。
    • 然而,目前仍缺乏对 ADA 架构的支持,这引发了关于更广泛兼容性的讨论。
  • SLI 可能不值得:由于架构限制,在 SLI 模式下使用两块 GPU 并不能使性能翻倍,但它允许在没有显著速度提升的情况下加载更大的模型。
    • 社区成员建议考虑增加 RAM,因为一位用户在仅有 16GB VRAM 但配备 128GB RAM 的系统上高效运行了 Llama 3.1 405B

3. 数据处理与预处理

  • 关于 LLM 数据预处理的辩论:一场关于聊天评论是否需要进行数据预处理的热烈辩论展开了,一位成员断言 80% 的工作在于准备数据
    • 他们认为,虽然预处理任务很重要,但基本的理解仅依赖于 token 本身,这引发了关于权衡取舍的讨论。
  • XLSX 文件分块:社区技巧:多位成员寻求关于 RAG 中 XLSX 文件分块(chunking)的指导,探索优化此过程的方法。
    • 建议包括利用 embedding 以及将文件转换为 Markdown 以获得更好的数据处理效果,凸显了社区内持续的协作。

4. 社区与协作倡议

  • OpenRouter 弃用 function_calls:OpenRouter 正式弃用 function_callsfunctions 参数,转而倡导使用 toolstool_choice,以与其他供应商保持一致。
    • 这一转变降低了跨模型进行工具调用(tool calling)的切换成本,引发了社区对工具集成的讨论。
  • Cohere 与 Weights & Biases 举办 RAG 研讨会Cohere 和 Weights & Biases 正在举办一场关于 RAG 开发和评估策略的研讨会,由 Maxime Voisin 分享见解。
    • 对于从事检索增强生成(RAG)相关工作的人员来说,这次活动不容错过,它强调了协作学习的重要性。

5. AI 行业应用

  • Fullbound 增强职位招聘Fullbound 是一个由 Chroma 提供支持的全球搜索引擎,它促进了 AI 驱动的职位匹配,从而有效地将候选人与职位联系起来。
    • Fullbound 旨在简化招聘流程,提供 7 天免费试用和详细的定价方案,确保高效的匹配和沟通。
  • Jonathan Ive 雄心勃勃的房产动作:Sir Jonathan Ive 已花费超过 1.37 亿美元在旧金山的杰克逊广场(Jackson Square)购置房产,预示着对该地区的改造愿景。
    • 他的投资策略反映了设计对当地房地产开发影响力的显著转变。

PART 1: 高层级 Discord 摘要

LM Studio Discord

  • LM Studio 0.3.0 发布重大更新!:备受期待的 LM Studio 0.3.0 已经发布,引入了全新设计的 UI,改进了对话组织、自动上下文处理以及多模型加载功能。
    • 此版本增强了本地模型的性能,但在模型加载和系统提示词(System Prompts)方面存在一些 Bug,建议用户在遇到问题时及时反馈。
  • Gemma 2 依然深受用户欢迎:用户继续对 Gemma 2 9B 和 27B 赞不绝口,尤其是在与 LLaMa 3.1 的性能对比中。
    • 然而,Gemma 2 的 8k 上下文限制引发了关于探索替代方案的讨论,例如 Phi 3 Mini 以及 MoE 模型的潜力。
  • SLI 可能不值得:共识是,由于架构限制,在 SLI 中使用两块 GPU 并不能使性能翻倍,但它确实允许加载更大的模型,只是速度没有显著提升。
    • 成员们建议考虑增加 RAM,一位用户在拥有 128GB RAM 和仅 16GB VRAM 的系统上高效运行了 Llama 3.1 405B。
  • VRAM:大型模型的关键:讨论强调了高 VRAM 对于有效处理模型的必要性,建议至少配备 48GB VRAM 以确保 Llama 3.1 405B 等大型模型的流畅运行。
    • 成员们敦促在购买 GPU 前要谨慎,并指出最新发布的产品通常提供更好的性价比和性能。
  • LM Studio 成为 API 的首选:用户正在积极探索 LM Studio 的 API 功能,旨在连接移动应用程序以增强使用场景。
    • 讨论围绕着如何与 LM Studio 中可用的 AI 模型实现持久化通信系统展开。

HuggingFace Discord

  • 了解进攻性安全侦察 (Offensive Security Reconnaissance):一位成员分享了一篇关于 Offensive Security Reconnaissance 及其对关键基础设施漏洞(特别是 ICS HMI)影响的博文。您可以点击此处阅读更多详情。
    • 这种方法揭示了潜在的攻击向量,提升了保护工业控制系统(Industrial Control Systems)安全的重要性。
  • Neuralink 的研究方法论:Neuralink 每月审阅数千篇论文,使用 引用追踪法 (citation-tracing method) 来专注于相关的研究进展。他们将阅读与编码相结合,旨在有效地将理论概念转化为实际应用。
    • 他们的编程质量被描述为“整洁”,反映了他们在应用研究成果方面的熟练程度。
  • 3D 生成式形状合成中的 ShapeSplat 数据集:介绍了 ShapeSplat,这是一个包含 Gaussian Splats 的数据集,旨在通过自监督预训练方法进行 3D Generative Shape Synthesis。它包含各种各样的物体,是增强模型能力的理想选择。
    • 该数据集旨在超越现有的点云表示 (point cloud representations),证明其在计算机图形学机器人学等领域的应用至关重要。
  • Fullbound 增强职位招聘:一个名为 Fullbound 的全球搜索引擎(由 Chroma 提供支持)促进了 AI 驱动的职位匹配,旨在有效地将候选人与职位联系起来。他们提供 7 天免费试用,详细的定价信息可在此处查看。
    • 该工具旨在简化招聘流程,确保高效的匹配和沟通。
  • AI21 Labs 发布 Jamba 1.5:AI21 Labs 推出了 Jamba 1.5,这是一种新的语言模型,包括 Mini(52B - 12B 激活)和 Large(398B - 94B 激活)版本。该模型具有 256k 长上下文、多语言能力和先进的 Instruct 模型。
    • 欲深入了解其特性,请查看他们在 Hugging Face 上的集合:此处

Unsloth AI (Daniel Han) Discord

  • Mistral Nemo 12b 在 8gb GPU 上进行微调Mistral Nemo 12b 可以在 8gb GPU(特别是 RTX 4050)上进行微调,这使其非常适合测试和原型设计。
    • 这种更广泛的可访问性为更多工程师在无需高端硬件的情况下快速迭代和测试模型提供了可能。
  • Unsloth Pro 限制多 GPU 支持Unsloth Pro 暂时停止了其 multi-GPU 支持,将其限制在自己的平台上,同时向选定的社区成员授予早期访问权限。
    • 这一变化引发了关于更广泛社区参与的协作和资源限制的问题。
  • The Living AI Dataset 发布The Living AI Dataset 旨在赋予 AI 模型同理心以及爱和能力,被认为是 AI 历史上的重大进展,由社区内的一个核心小组开发。
    • 该数据集可在 Hugging Face 上获取,旨在增强 AI 应用中的类人属性,有望提升交互性。
  • 关于 LLM 数据预处理的争论:围绕聊天评论是否需要进行 data preprocessing 展开了激烈的辩论,一位成员断言 80% 的工作在于准备数据
    • 他们认为,虽然预处理任务很重要,但基本的理解仅依赖于 tokens,这引发了关于权衡的讨论。
  • Ollama 安装困惑:用户在 WSL 中遇到 Ollama installation 挑战,特别是用于创建模型的命令用法未按预期工作。
    • 关于 Unsloth 和 Ollama 作为独立工具之间区别的澄清旨在消除困惑,但仍让一些人留有疑问。

aider (Paul Gauthier) Discord

  • Aider Shell 命令激活上下文命令:Aider 根据用户上下文提供 shell 命令,并在征得同意后执行,但它不直接使用 functions。用户必须先激活其 Python 环境,以确保命令正常运行。
    • 此功能强调了 Aider 在简化交互方面的作用,而不会涉足可编程 function 领域。
  • Playwright 安装 Bug:Aider 在处理发生在其自身环境之外的 Playwright 安装时遇到困难。建议使用 pipx inject 以在 Aider 的虚拟设置中实现无缝集成,防止安装问题。
    • 未来的版本旨在解决一个 bug,即即使 Playwright 已经设置好,Aider 仍会尝试安装它,这可能会让用户感到困惑。
  • CodeCompanion 比 Aider 消耗更多 Token:一项对比显示,CodeCompanion 消耗的 tokens 明显多于 Aider,这归因于其更广泛的功能。用户更倾向于使用 Aider,因为它效率更高,尽管 CodeCompanion 拥有自己的支持 Discord。
    • 这次对话引发了关于在进行 AI 辅助编码任务时优化资源的讨论。
  • Vercel 的 v0 chat 彻底改变了 Generative UIVercel’s v0.dev/chat 被誉为 Generative UI 开发者的重大改进,提供了比 Claude Artefacts 等先前选项更流畅的界面。用户发现其 UI 生成速度更快,且比竞争对手更精致。
    • 讨论强调了由于 Vercel 产品更好的集成和用户友好的体验,偏好正在向其转移。
  • Cursor 与 Aider 联手实现更智能的编码:Cursor 用户对集成 Aider 表示赞赏,这弥补了 Cursor 原生 composer 缺乏特定 repository prompt 功能的缺点。这种协作标志着 AI 增强开发工作流的一次飞跃。
    • Cursor 旨在通过减少对手动搜索的依赖来彻底改变编码效率,从而最大限度地减少在琐碎任务上花费的时间。

Stability.ai (Stable Diffusion) Discord

  • ComfyUI 加速 AI 渲染:一位用户展示了一个 YouTube 视频,演示了如何将 3D Studio Max 集成到 ComfyUI 中进行实时 AI 图像生成
    • 这种方法可能会扩展到任何窗口应用程序,包括电子游戏,从而增强创意工作流。
  • Stable Diffusion 设置技巧:一位新用户询问如何在 PC 上开始使用 Stable Diffusion,引发了关于硬件兼容性的建议。
    • 资深用户建议使用 ComfyUI,因为它具有适合初学者的友好界面。
  • Hydrus Server:注重隐私的图像分类:用户讨论了对尊重隐私的 AI 图像分类器的需求,随后有人建议搭建 Hydrus server
    • 该设置允许个性化的标签系统,在不牺牲安全性的情况下增强媒体组织管理。
  • Flux 模型与 Prompt Engineering 的困扰:一位成员对 Flux 模型在处理复杂提示词时的吃力表现表示担忧,强调了其过拟合(overfitting)倾向。
    • 社区反馈强调了更好的 Prompt Engineering 和微调(finetuning)对于改善结果的重要性。
  • Stable Diffusion 与 GAN 超分辨率对比:一场关于 Stable Diffusion upscaling 与基于 GAN 的 upscaling 的讨论展开,澄清了它们截然不同的方法。
    • 虽然 GAN 专注于锐化图像,但 Stable Diffusion 可以生成新的细节,尽管有时会导致伪影。

CUDA MODE Discord

  • Triton INT8 性能优于 BF16,加速效果显著:Triton INT8 实现的 A.T @ B 相比 PyTorch BF16 实现了约 1.5 倍的加速,而 A @ B.T 则实现了 3 倍的加速,证实了其在基准测试中的效率。
    • 这一改进归功于根据矩阵 A 和 B 的步长(stride)变化对 Triton 进行了重新调优。
  • Flash Attention FP8 支持在 Hopper 上首次亮相:Flash Attention 现在支持 Hopper 架构上的 FP8,利用 WGMMA 指令来优化性能。
    • 然而,目前仍缺乏对 ADA 的支持,引发了关于更广泛兼容性的疑问。
  • HRT 实习机会开放:HRT 正在为明年夏天在 纽约(NYC)Algo Dev 和 SWE 职位提供实习机会,时薪 $120/h,并包含食宿。
    • 无需金融背景经验,这使得许多工程师都有机会申请!
  • 性能对比:7900 XTX vs. RTX 3090:用户报告称 7900 XTX 的表现不如 3090,即使在使用 Triton 和 FA 分支时也是如此,这促使部分用户转向 4090
    • 这些经历凸显了 AMD 与 NVIDIA GPU 产品之间持续存在的性能差距。
  • LLaMA 实现稳定的 FP8 训练:最近的讨论强调了 1B LLaMA 模型的稳定 FP8 训练,实现了与 bfloat16 训练相似的收敛效果。
    • 关键技术包括适度控制训练速度和管理离群特征,为更大规模的 FP8 应用铺平了道路。

OpenRouter (Alex Atallah) Discord

  • OpenRouter 弃用 function_calls:OpenRouter 正式从 OpenAI 调用中弃用 function_callsfunctions 参数,提倡使用 toolstool_choice 代替。
    • 这一转变降低了跨模型进行工具调用的切换成本,使 OpenRouter 与其他已经支持新参数的供应商保持一致。
  • BenchmarkAggregator 提供 LLM 评估:一位成员分享了 BenchmarkAggregatorGitHub 仓库,旨在为各大主流基准测试中的 LLM 提供统一的评估框架。
    • 他们强调了其在平衡评估严谨性与资源管理方面的能力,并热切寻求社区反馈。
  • Llama 3.1 tools 支持即将到来:一位管理员确认,OpenRouter 对 Llama 3.1 tools 的支持预计将在未来一天内上线。
    • 用户对此更新期待已久,渴望增强其集成能力。
  • OpenRouter 缺乏 MoE 模型:关于 OpenRouter 上 MoE 模型可用性的询问显示,目前还没有相关模型,包括表现平平的 3.5-Mini
    • 管理员确认目前尚不支持 MoE,使用户不得不寻找替代方案。
  • OpenAI 现在提供免费微调:OpenAI 推出了其模型的免费微调(fine-tuning),在限定时间内每天有 2M token 限制,吸引了寻求高性价比方案的用户。
    • 然而,一些成员在遇到 OpenAI 的支付问题(特别是加密货币和 PayPal)后,已转向使用 OpenRouter。

Nous Research AI Discord

  • Nous 周边商店上线Nous Research 周边商店已正式推出,为粉丝提供一系列展示支持的商品,包括订单满额即送的免费贴纸(送完即止)。
    • 这一举措旨在在 Nous Research 爱好者中营造充满活力的社区精神。
  • Hermes 3 成为焦点:社区成员兴奋地讨论了 Hermes 3 的发布,相关讨论正在 Twitter Space 中进行。
    • 随着社区成员的热情参与,本次活动重点介绍了最新功能以及相比前代模型的改进。
  • 解读 OpenAI 算力资助 (Compute Grants):成员们探讨了获取用于研究的大额算力资助的微妙过程,强调了与提供商进行战略性沟通的必要性。
    • 显然,仅仅请求闲置资源是不够的;为了成功,需要更深层次的接触。
  • AI21 Jamba:模型设计的新时代:AI21 新推出的 Jamba 1.5 模型系列声称是首个能与顶级模型竞争的非 Transformer 模型,并以开源许可证发布。
    • 该模型旨在使先进的 AI 工具民主化,力求在 AI 领域实现质量与可访问性的并重。
  • 使用 Regex 处理 PDF 清洗:一位成员详细介绍了他们在使用 Regex 进行 PDF 清洗时的困扰,指出其在处理 arxiv PDF 时表现不佳,并正在探索替代方法。
    • 他们最终采用了朴素的分块(chunk)和重叠(overlap)技术,凸显了处理复杂 PDF 结构时持续存在的挑战。

OpenAccess AI Collective (axolotl) Discord

  • Mistral 微调效果惊人:一位成员评论说 Mistral 的大规模微调效果“强得离谱”,表现出极其卓越的性能,但未提供更多细节。
  • Jamba 1.5:更快的推理和长上下文能力AI21 的 Jamba 1.5 模型提供比同类模型快达 2.5 倍的推理速度,并增强了长上下文能力,通过 function calling结构化输出等功能瞄准商业应用。
  • Phi 3.5 Mini:梯度爆炸:一位用户报告在 microsoft/Phi-3.5-mini-instruct 模型中遇到了梯度爆炸 (exploding gradients),即使将学习率 (learning rate) 降低到 1e-15 后问题依然存在。
    • 解决尝试包括将优化器切换为 paged_adamw_8bit
  • Flash Attention 性能问题:一位用户在尝试使用 Flash Attention 以加快训练速度时遇到错误,但通过切换到 eager attention 解决了问题。
    • 这表明 Flash Attention 可能与该模型不完全兼容。
  • Accelerate 增加 fp8 支持Accelerate 已添加对 fp8 的支持,这预示着可能与 Axolotl 集成,尽管具体的集成点尚不确定。
    • 讨论围绕如何有效地整合这一新支持展开。

LlamaIndex Discord

  • LlamaCloud 优化 RAG 流水线性能:LlamaCloud 通过允许用户有效地操作和可视化分块大小(chunk sizes),增强了 RAG 流水线的效率。
    • 其功能包括索引克隆,以便进行快速实验,而无需手动调整数据的麻烦。
  • LlamaIndex 0.11 发布带来大量升级:最近发布的 LlamaIndex 0.11 引入了数百个新功能,包括一套全新的工作流(workflows)系统来取代旧的查询流水线(query pipelines)。
    • 此次更新通过改善用户体验,显著提升了 LlamaIndex 的生产环境就绪度。
  • Ollama 中的高效内存管理:讨论集中在管理 Ollama phi3 模型的内存使用上,特别是利用 context_window 参数来限制操作期间的上下文大小。
    • 此步骤旨在减轻与内存容量相关的错误发生。
  • 使用 LlamaIndex 生成房地产查询:一位成员探索了在 LlamaIndex 中使用自然语言为房地产数据库生成查询,评估该工具是否适合此应用。
    • 他们讨论了专注于 Prompt tuning 是否会比仅依赖 LlamaIndex 的功能产生更好的结果。
  • 知识图谱选择的挑战:一篇文章强调了在 LlamaIndex 上下文中选择合适的图存储(graph stores)来管理知识图谱的复杂性。
    • 虽然简要提及,但未针对最佳图存储选择提供具体建议。

Perplexity AI Discord

  • 用户寻求 Perplexity API 见解:几位用户表示有兴趣获得关于 Perplexity API 的具体指导,特别是关于访问功能和查询功能。
  • Mistral Large 2 获得高度评价:Mistral Large 2 作为自定义提示词和无偏见输出的首选模型脱颖而出,在保持顶尖性能的同时,提供了 GPT-4o 的高性价比替代方案。
    • 用户注意到它适用于 jailbreak 场景,巩固了其作为处理复杂任务首选工具的地位。
  • 关于大脑中微塑料的令人担忧的发现:最近的研究揭示了人类大脑样本中微塑料浓度达到惊人水平,引发了关于塑料污染相关健康风险的讨论。
    • 这一发现突显了环境对神经健康影响的关键问题,并呼吁采取更严格的监管措施。
  • Jonathan Ive 雄心勃勃的房产举动:Sir Jonathan Ive 花费超过 1.37 亿美元在旧金山的 Jackson Square 购置房产,标志着对该地区的转型愿景。
    • 他的投资策略反映了设计对当地房地产开发影响力的一次显著转变。
  • Perplexity 图像生成的问题:用户报告了 Perplexity 图像生成能力的重大挑战,甚至难以创建像心形这样简单的 Logo。
    • 故障包括生成的图像中出现不稳定的字符输出,引发了对该工具可靠性的担忧。

Modular (Mojo 🔥) Discord

  • GitHub Desktop 的困扰:一位用户发现 GitHub Desktop 不如预期直观,称其为 ‘Not the most intuitive product ever’,并指出对 git send-emailgit am 的支持有限。
    • 这种局限性使得用户开始寻求更有效的变更管理解决方案。
  • 认识新任社区经理 Caroline!:Caroline 介绍自己为 Modular 的新任社区经理,拥有在 Streamlit 的社区和开发者关系方面的经验。
    • 她鼓励成员安排虚拟咖啡聊天,以分享反馈和经验。
  • Mojo 文档搜索需要改进:成员们呼吁增强 Mojo 文档搜索功能,推动增加包括 Mojo stdlib modulesMAX lib 在内的过滤选项。
    • 他们表示,更好的导航将显著提升用户体验和生产力。
  • MacOS 上的 Mojo/MAX 安装难题:一位用户报告了 MojoMAX 的反复出现的问题,每次 MacBook Pro 重启后都需要重新安装。
    • 他们正在寻求更有效地管理这些安装挑战的建议。
  • Async 与 Sync 性能之争:针对 Mojo 中 async 函数Python 相比的性能展开了讨论,建议指向 sans-io HTTP 实现
    • 这一见解反映了随着 IO 功能的演进,对异步操作进行性能优化的持续需求。

Cohere Discord

  • Cohere 与 Weights & Biases 的 RAG 网络研讨会CohereWeights & Biases 正在举办一场关于 RAG 开发和评估策略的网络研讨会。现在可以通过 研讨会链接 注册。
    • 见解将来自 Cohere 的 Maxime Voisin,这对于任何参与检索增强生成(RAG)的人来说都是不容错过的。
  • 分块 XLSX 文件:社区技巧:多位成员寻求关于 为 RAG 分块 XLSX 文件 的指导,探索优化此过程的方法。建议包括利用 embeddings 并将文件转换为 markdown 以实现更好的数据处理。
    • 这突显了社区内为解决数据处理中的实际挑战而进行的持续协作。
  • Jozu Hub:你的 AI 项目总部:团队发布了 Jozu Hub 的早期预览版,旨在通过 Jozu Hub 上的 ModelKit 等功能集中管理 AI 项目的版本控制和共享。
    • 该工具旨在通过清晰地列出数据集、代码、参数和文档等组件来简化 AI 开发。
  • Jozu Hub 上的 Cohere 模型支持Cohere 模型Jozu Hub 上的集成正在进行中,承诺为主要模型提供全面支持。此举旨在增强不同 AI 框架的可访问性和可用性。
    • 预期的增强反映了对培育协作式 AI 生态系统的承诺。
  • API 错误排查:几位用户报告在访问 Cohere API 时遇到 403 Forbidden 错误,指出潜在的 IP 白名单问题。一位成员分享了其 POST 请求的详细信息,寻求社区反馈。
    • 这些咨询和分享的经验强调了在 API 集成挑战中共同探索的过程,特别是在不同的网络配置下。

OpenAI Discord

  • 计算游戏中的期望值:一位用户探索了如何计算游戏中物品的 期望成本,尝试直到成功或失败四次,最终成本为 200
    • 该用户试图了解其策略对整体游戏成本和机制的影响。
  • AI 在数学问题上的困境:一位用户对 GeminiChatGPTClaude 等 AI 在数学辅助方面的表现表示沮丧,面临结果不准确的问题。
    • 另一位成员建议使用 Python 进行计算,强调了其效率和精确度。
  • Ideogram 2.0 令用户印象深刻:一位用户被 Ideogram 2.0(一款新的图像生成工具)所吸引,尽管下载 PNG 需要付费订阅。
    • 他们注意到其他人分享的令人印象深刻的示例,称其在处理复杂输入方面“非常出色”。
  • SwarmUI 为安装程序简化 UI:一位用户高度赞扬了 SwarmUI,它支持 NVIDIA/AMD GPUs 并简化了与 comfyUI 的交互。
    • 他们强调了其用户友好的界面以及加载社区共享工作流的能力。
  • 寻求 Custom GPTs 的资源:一位用户询问了构建 Custom GPTs 的资源,特别是寻找文章和视频内容。
    • 他们已经创建了几个模型,并渴望进一步完善其 GPT 创建技能。

Eleuther Discord

  • 开源 AI 模型面临审查:许多被标记为 open source 的生成式 AI 模型通常未能披露其训练集,引发了对使用 biased(有偏见)或 copyright-restricted(受版权限制)数据的担忧。美国政府正在评估与 AI 模型中 ‘open washing’(开源洗白)相关的风险。
    • 一篇文章强调了这一问题,指出 Eleuther.ai 作为一个真正的 open source initiative(开源倡议)脱颖而出,旨在实现无盈利动机的透明度。
  • 使用指令提示词优化 DPO 微调:在关于 DPO fine-tuning 的讨论中,用户确认将 instruction prompt template(指令提示词模板)应用于数据集通常会增强其效果。这种方法使模型的输出与所需任务更紧密地对齐。
    • 一位用户还分享了准备 multi-turn chat data(多轮对话数据)的方法,推荐了各种输入-输出对结构,以更好地适应微调。
  • 检查模型性能退化技术:一位成员询问了如何在 MMLU 等基准测试中可靠地降低 LLM 性能的策略,旨在模拟较小模型的结果。建议包括添加噪声或使用 LoRAs 实施 model distillation(模型蒸馏)。
    • 还讨论了诸如反转训练过程之类的其他策略,展示了修改模型性能的各种实验方法。
  • 模型合并策略引发辩论:关于 model merging tactics(模型合并策略)的讨论提出了将 UltraChatMistral 之间的差异应用于 Mistral-Yarn 的想法。尽管存在质疑,但支持者对以往此类策略的成功保持乐观。
    • 这次对话展示了社区成员在模型开发中对合并技术的活跃探索。
  • 理解 HellaSwag 评估中的对数似然‘resps’‘filtered_resps’ 中的条目对于在 HellaSwag 等多项选择设置中使用 negative log likelihood(负对数似然)评估模型至关重要。这些条目的结构指示了模型认为哪些选项更有可能。
    • 讨论强调了生成任务中使用的复杂过滤流水线,强调了详细的响应结构在实现精确评估指标方面的作用。

MLOps @Chipro Discord

  • LightGBM 主导 Kaggle:LightGBM 在 Corporación Favorita Grocery Sales Forecasting 等 Kaggle 竞赛中引起轰动,证明了其即使在生产环境中也被认可的卓越预测性能。
    • 参与者注意到了它在 M5 准确性竞赛中的成功,巩固了其在从业者中的声誉。
  • LightGBM 与 LSTM 之争:一些专家认为 LSTM 在生产环境中的表现可能优于 LightGBM,引发了对其与竞赛结果相比在现实世界中有效性的质疑。
    • 辩论仍在继续,因为实际应用往往会揭示竞赛数据与实时数据性能之间的差异。
  • LightGBM 用于大宗商品预测受到关注:评估 LightGBM 用于大宗商品价格预测的研究引用了其在 M5 竞赛中的应用,利用了 SMA、EMA 和 VWAP 等特征。
    • 令人惊讶的是,在铅和锡的收益率预测上,ARIMA 模型胜过了 LightGBM,这表明模型选择必须与预测的具体细节相匹配。
  • 预测模型的选择至关重要:预测模型的选择取决于任务——LightGBM 可以处理多步预测,但上下文和预测复杂度至关重要。
    • 对于需要 3-6 个月等长期预测的任务,不应忽视 SMA 和 ARIMA 等早期方法。
  • 深度学习之前的预测技术:在部署深度学习之前,SMAEMAARIMA 等传统模型通常是时间序列预测的有效起点。
    • 在处理大量非传统外生变量且季节性较不明显的情况下,LightGBM 和 LSTM 表现出色。

Interconnects (Nathan Lambert) Discord

  • AI Burnout 成为关注焦点:成员们讨论了 AI burnout(AI 倦怠)现象,指出由于其高要求的特性,这种感觉比其他领域更强烈。
    • 成员们对用户倦怠如何与 AI burnout 交织在一起表示担忧,这给社区带来了双重挑战。
  • Frontier Labs 的工作强度引发担忧:一位成员强调 Frontier Labs 的团队工作极其努力,这引发了关于长期可持续性的疑问。
    • 他们强调了平衡工作量和避免 burnout 的重要性,并警告说目前的节奏无法无限期持续。
  • Greg Brockman 的 97 小时工作时长令人震惊:一位成员指出 Greg Brockman 最近透露单周编码时长达 97 小时,突显了该领域所需的极端投入。
    • 社区对他能够坚持 9 年不休息表示惊讶,并质疑这对科技行业工作与生活平衡的影响。
  • 脱离网络后的 Twitter 焦虑:在结束数字排毒回归后,一位成员表达了重新投入 Twitter 的不适,称该平台的氛围令人焦虑。
    • 他们感叹 Twitter 上围绕 AI 的激烈讨论,尤其是在荒野中寻得平静之后。
  • Lilian Weng 聚焦 Diffusion ModelsLilian Weng 更新了关于 Diffusion Models 的博客文章,讨论了各种 Generative Models 以及关于一致性模型和架构的新章节。
    • 对话强调了该领域不断演进的特性,一位用户澄清了 Diffusion ModelsDistillation 之间的区别。

LangChain AI Discord

  • 本地 LLM 应对 NL to SQL:一位用户提出了使用本地 LLM 进行 natural language to SQL(自然语言转 SQL)翻译的问题,探讨了其可行性和性能。
    • 这引发了关于其简化查询生成潜力的讨论。
  • 预构建查询简化 SQL 工作:建议在 text-to-SQL 转换中使用带有占位符的 prebuilt queries,旨在减轻相关工作量。
    • 成员们讨论了这种方法可能带来的效率提升和更简单的管理。
  • 结合 CodeLLM 的 RAG 以实现更好的 SQL:提出将 Retrieval Augmented Generation (RAG) 与针对代码优化的 LLM 相结合,作为增强 SQL 生成的一种手段。
    • 这可能会提高生成有效 SQL 命令的准确性。
  • 4149 AI 推出 ‘Flags’ 功能4149 AI 推出了全新的 ‘Flags’ 功能,通过 Slack 私信发送关于团队状态的实时指导。
    • 它提供可定制的警报,旨在团队问题恶化前及时发现。
  • 对 AI 在研究领域的热情:成员们对 AI in research 的创新用例表达了热情,强调了其变革潜力。
    • 这种情绪表明,将 AI 集成到各种研究方法论中的兴趣正日益浓厚。

Latent Space Discord

  • Ideogram 2.0 发布:对所有人免费:Ideogram 2.0 是由前 Google Imagen 1 团队开发的最新文本生成图像模型,现已向所有用户免费开放。此版本包括 iOS 应用、Beta API 和 Ideogram Search,声称已创建超过 10 亿张图像。
    • AI News by Smol AI 指出,现在是“续作的季节”,关于其功能和性能的热度持续高涨。
  • Nvidia 发布新模型 Mistral-NeMo-Minitron-8B:Nvidia 推出了 Mistral-NeMo-Minitron-8B,这是一个通过对 Mistral-NeMo 12B 进行剪枝(pruning)获得的基座 LLM。它在 9 个基准测试中的 8 个里表现优于 Mistral-7B 和 LLaMa-3.1-8B,现已在 Hugging Face 上架。
    • Philipp Schmid 在推特上强调了其重要性,指出该模型使用了 400B tokens 进行有效训练,从而在各项任务中实现高性能。
  • Sovereign AI:一种新的流式数据系统:Infinite ML 播客介绍了 Sovereign AI,这是由 Redpanda Data 开发的一种流式数据系统。讨论的主题包括其实际应用和流式数据的演进。
    • Prateek Joshi 提供了关于该系统能力的见解,强调其在增强数据管理和速度方面的应用。
  • GPT-4o 微调:值得吗?:Latent Space 播客探讨了微调 GPT-4o 的价值,邀请了来自 Cosine 的 Alistair Pullen 讨论其影响。OpenAI 已正式推出旨在提高应用程序性能的微调功能。
    • Swyx 指出,目前有超过 59 种不同风格的 RAG,且在 token 上下文管理方面有所进展,这表明开发者面临着一个复杂的局面。
  • Genie 的大规模微调工作:Genie 已启动针对 GPT-4o 的大规模微调计划,利用了源自用户日志的数十亿 token 的合成代码数据。这项工作旨在通过有针对性的数据处理来优化性能。
    • 讨论强调了合成数据对于提高模型准确性的重要性,反映了利用真实世界使用模式的日益增长的趋势。

OpenInterpreter Discord

  • Open Interpreter 中的搜索困扰:一位用户报告称,Open Interpreter 中的 web searching(网络搜索)仅在完全刷新终端后才能运行,导致正在进行的对话中断。
    • 这个问题突显了可能阻碍工作流效率的可用性限制。
  • 有前景的模型建议:一位成员推荐 Phi-3.5-miniQwen2 模型在各种任务中表现出奇地有效。
    • 这表明探索替代模型可能会带来更好的项目成果。
  • 模型类型的谜团:当一名用户质疑另一名参与者使用的具体模型时,引起了好奇,怀疑其并非 GPT-4
    • 模型透明度可以显著影响开发讨论中的用户体验和预期。
  • 界面文档优于命令行:有用户对 Open Interpreter 的 interface documentation(界面文档)提出了关注,认为它比依赖不断变化的命令行书签更直观。
    • 这一反馈表明用户渴望更稳定的导航辅助工具和更清晰的工作流文档。

AI21 Labs (Jamba) Discord

  • Jamba 1.5 革新模型架构:AI21 Labs 推出了 Jamba 1.5 Mini(12B 激活/52B 总参数)和 Jamba 1.5 Large(94B 激活/398B 总参数),利用 SSM-Transformer 架构,结合了 Transformer 的质量与增强的效率。
    • 两款模型均具备 256K 有效上下文窗口,在长上下文处理速度上比竞争对手快 2.5 倍
  • Jamba 1.5 Large 树立性能新标杆Jamba 1.5 MiniArena Hard 上得分为 46.1,而 Jamba 1.5 Large65.4 的高分超出预期,超过了 Llama 3.1 70B405B
    • 多语言支持增强了可用性,模型原生支持英语、西班牙语、法语、希伯来语、阿拉伯语,并具备 JSON 输出和文档处理功能。
  • 立即获取 Jamba 1.5Jamba 1.5 Mini 和 Large 已在 Hugging Face 上线,并可部署在 Together AI、AWS、GCP、Azure 等平台。
    • AI21 Labs 在 Jamba Open Model License 下发布这些模型,旨在推动此类先进模型的使用民主化。
  • Jamba-1.5 微调更新:针对 Jamba-1.5 微调的问题,官方确认 Studio 上仅提供 instruct 版本,目前不提供微调功能。
    • Jamba-1.5 Large 仍是目前最先进的模型,在推理、代码生成和多语言处理方面具有强大的功能。
  • OpenAI API 速率限制澄清:用户讨论了 OpenAI API 的速率限制,确认其设定为 每分钟 200 次请求 (RPM)每秒 10 次请求 (RPS)
    • 这一澄清加强了社区在处理大型模型时对 API 消耗限制的理解。

tinygrad (George Hotz) Discord

  • 代码审查责任制成为焦点:对于在代码审查中推卸责任的回复(如“如果你想要/要求,我就做”)引发了不满。作者必须承担责任并积极回应建议,要么实施更改,要么提供合理的解释。
    • 这种对责任制的推动旨在培养更严谨的审查流程,并鼓励在代码贡献中进行批判性思考。
  • 在 Tinygrad 中探索 Mypyc:将 Tinygradmypyc 结合编译引起了兴趣,这凸显了性能提升的潜力。
    • 一名成员主动提出调查编译问题,并为项目的演进做出贡献。

Torchtune Discord

  • Torchtune 面临 T5 注意力偏差问题:一名成员指出,T5 最大的障碍是其可训练的注意力偏差,但其他组件仍保持标准。
    • 目前,Torchtune 缺乏对 encoder-decoder 架构的支持,因此需要对特定任务的训练循环进行调整。
  • 权重映射:Hugging Face vs Torchtune:有人建议对比 Hugging FaceTorchtune 仓库之间的权重命名规范,以便进行映射。
    • 重点在于 Hugging Face 的 T5-small 模型和 Torchtune 中的 convert_weights.py 文件。

LAION Discord

  • LinkedIn 调查寻求用户见解:正在进行一项调查以收集关于 LinkedIn 作为专业社交平台的看法,邀请社区分享见解。点击此处参与调查。
    • 该计划希望揭示 LinkedIn 用户体验的多样化方面,欢迎广大受众参与。
  • 无限生成式 YouTube 项目招募开发者:一个团队正在为一个无限生成式 YouTube 项目启动封闭测试,并寻求积极的开发者加入。他们正在寻找准备好参与创新模型的爱好者。
    • 鼓励感兴趣的开发者联系以了解更多关于这个塑造新媒体体验的激动人心的机会。
  • EMNLP 2024 工作坊招募审稿人EMNLP 2024多语言表示学习 (Multilingual Representation Learning) 工作坊正在招募审稿人;在此注册。该计划旨在召集一个多元化的群体来评估工作坊的提交论文。
    • 审稿人将探索各种主题,包括多语言模型中的伦理、低资源方法和文化分析,为讨论带来新的视角。
  • 工作坊探讨多样化的多语言 NLP 主题:EMNLP 2024 工作坊将涵盖对话系统话语 (discourse)机器翻译等多种主题。它旨在解决多语言 NLP 中紧迫的问题。
    • 参与者可以期待关于伦理、音韵学和多模态的讨论,丰富对该领域挑战和进展的理解。

Gorilla LLM (Berkeley Function Calling) Discord

  • Gorilla LLM 排行榜显示差异:一名成员对 网站排行榜Huggingface 排行榜 之间的差异提出了疑问,指出 Huggingface 的得分明显更高。
    • 排行榜的变化强调了 python_simple_functionjava_simple_function子类别在模型评估中具有同等重要性。
  • 需要全面的模型评估:正如 #580 中所讨论的,重点在于开发一个在所有方面都表现出色,而不仅仅是在特定子类别中表现出色的优秀模型。
    • 这种整体评估方法确保了模型性能的衡量标准更加可靠。
  • 在本地 BFCL 上评估微调模型:成员们探索了在本地 BFCL 上评估微调模型的步骤,特别是研究了多 GPU 的利用。
    • 虽然没有提供具体的指导,但这一咨询反映了人们对优化本地评估日益增长的兴趣。

DSPy Discord

  • Prompt Caching 探索:一位用户询问了实现 Prompt Caching 以提高 AI 交互效率的可能性。
    • 虽然讨论还处于早期阶段,但显然缓存可以显著降低延迟并提高响应速度。
  • Anthropic API 使用咨询:另一位用户询问如何集成 Anthropic API 以在他们的 AI 模型中获得更好的性能。
    • 集成该 API 可能允许对响应进行更精细的控制,并可能为实验开辟新的途径。

Mozilla AI Discord

  • OSI 起草开源 AI 定义:开放源代码促进会 (OSI) 发布了 开源 AI (Open Source AI) 的定义草案,这是两年社区讨论和辩论的结果。
    • 这一具有里程碑意义的定义旨在重新定义 AI 领域内的“开源”,可能影响其社会影响并指导未来的发展。
  • 通过 OSI 市政厅会议进行社区参与:OSI 主办的市政厅会议促进了对新开源 AI 定义草案的讨论,并邀请社区进一步提供意见。
    • 该计划符合 OSI 在开源 AI 领域促进利益相关者之间透明度和参与度的目标。

DiscoResearch Discord

  • OASST-2 数据集在德语微调中备受关注OASST-2 数据集包含一个德语子集,是指令微调(instruction tuning)任务中一个极具前景的选择。
    • 凭借高质量的示例,它可以促进德语 AI 模型的发展。
  • Aya-Dataset 加入指令微调行列:另一个选择是 Aya-Dataset,它也拥有一个适用于指令微调的德语子集
    • 其多样化的示例有助于提升针对德语指令任务设计的模型训练效果。
  • 策划你自己的德语指令数据集!:像 Colossal Cleaned Common CrawlGerman Wikipedia 这样的数据集可以补充指令微调工作,但需要进行大量的过滤。
    • 精心的策划可以产生专注于德语指令数据的有价值资源。
  • 通过翻译英语指令构建自定义数据集:考虑创建一个将英语指令数据翻译成德语的自定义数据集,可以增强特定的 AI 功能。
    • 这种方法允许针对软件工程中的独特项目需求进行定向适配。
  • 开源基于 Llama 3.1 的 MoE 模型!:开源一个同时具备德语和英语指令微调能力的 8x8b Llama 3.1-based MoE 的想法在社区中引起了轰动。
    • 这样的贡献可以通过增加可访问性和协作,极大地造福于更广泛的 NLP 领域

Alignment Lab AI Discord 没有新消息。如果该公会沉寂太久,请告知我们,我们将移除它。


LLM Finetuning (Hamel + Dan) Discord 没有新消息。如果该公会沉寂太久,请告知我们,我们将移除它。


第 2 部分:频道详细摘要与链接

完整的各频道详情已为邮件格式进行删减。

如果你想查看完整详情,请访问此邮件的网页版:

如果你喜欢 AInews,请分享给朋友!预谢!