ainews-not-much-happened-today-5446
今天没什么事。
以下是翻译内容:
GPT-5 在平淡的新闻日中再次传出推迟消息。Nous Research 发布了基于 Llama 3 基础模型的 Hermes 3 微调版本,其性能可与 FAIR 的指令微调模型相媲美,但因其包含 6% 的角色扮演数据而引发了关于模型出现“生存危机”行为的讨论。英伟达 (Nvidia) 推出了 Llama 3.1 的 Minitron 微调版本。Salesforce 发布了一个 DEI 智能体,在 SWE-Bench Lite 基准测试中得分 55%。Goodfire AI 获得了 700 万美元的种子轮融资,用于机械可解释性(mechanistic interpretability)研究。
Anthropic 在其 API 中推出了提示词缓存(prompt caching)功能,最高可降低 90% 的输入成本和 80% 的延迟,助力编程助手和大型文档处理。xAI 发布了 Grok-2,在 LMSYS 排行榜上追平了 Claude 3.5 Sonnet 和 GPT-4 Turbo,并集成了视觉+文本输入及图像生成功能。据报道,Claude 3.5 Sonnet 在编程和推理方面表现优于 GPT-4。
François Chollet 将智能定义为将过去的信息高效转化为未来任务的操作能力。Salesforce 的 DEI 框架表现优于单个智能体。Google DeepMind 的 Demis Hassabis 讨论了通用人工智能(AGI)在科学发现和安全 AI 开发中的作用。Dora AI 插件可在 60 秒内生成落地页,提升了网页开发团队的效率。Box AI API 测试版支持文档对话、数据提取和内容摘要。LangChain 更新了 Python 和 JavaScript 的集成文档。
GPT5 又推迟了一天?
2024年8月14日至8月15日的 AI 新闻。我们为您检查了 7 个 subreddits、384 个 Twitter 和 29 个 Discord(254 个频道,5043 条消息)。预计节省阅读时间(以 200wpm 计算):945 分钟。您现在可以标记 @smol_ai 进行 AINews 讨论!
一些值得注意的消息,但没有重大新闻:
- Nous Research 发布了基于 Llama 3 基础模型的 Hermes 3 微调版本,在某些方面匹配甚至超过了 FAIR 进行的 3.1 instruct 微调。关于他们声称的涌现出的生存危机行为存在一些争议,尤其是考虑到 6% 的数据是 roleplay。
- Nvidia 的 Minitron 是 Llama 3.1 的另一个有趣的微调版本。
- Salesforce 的新 DEI Agent 在 SWE-Bench Lite 上达到了 55%。
- Goodfire AI 宣布获得 700 万美元种子轮融资,致力于 mechanistic interpretability。
既然今天是平静的一天,您可以看看我们赞助商 Box 的 AI API!
[由 Box 赞助] 您有文件。这些文件充满了杂乱的信息。Box AI 提供了一个 API,可以从这些杂乱信息中提取有用的 metadata。亲自体验。
Swyx 的评论:与上周的赞助文章相比,本教程深入探讨了从 Box 项目中提取 metadata(即结构化数据),并展示了查询该 metadata 的实际用例。所有的 RAG 最终都会演变为混合 embedding + metadata 查询,而 Box 的模板方法或许是各大实验室 JSONSchema API 的一个更实用的版本。
AI Twitter 摘要
所有摘要均由 Claude 3.5 Sonnet 完成,从 4 次运行中择优。
AI 模型更新与发布
-
Anthropic API Prompt Caching:@alexalbert__ 宣布 Anthropic 已在其 API 中推出 Prompt Caching(提示词缓存),将输入成本降低高达 90%,并将延迟降低高达 80%。该功能允许在多个 API 请求中复用相当于一本书容量的上下文,对编程助手、大型文档处理和 Agentic 工具使用非常有益。
-
Grok-2 发布:@_philschmid 报道称 xAI 发布了 Grok-2,其在 LMSYS 排行榜上与 Claude 3.5 Sonnet 和 GPT-4-Turbo 等前沿模型并驾齐驱。它支持视觉 + 文本输入,并集成了外部模型进行图像生成。
-
Claude 3.5 Sonnet 性能:@bindureddy 声称 Sonnet 3.5 在编程和推理等关键领域表现优于 GPT-4,这表明 SOTA 模型正从“GPT-4 级别”转向“Sonnet 级别”。
AI 研究与开发
-
智能的定义:@fchollet 提出智能是将过去的信息转化为应对未来的操作效率,可以通过算法信息论表示为一种转换率。
-
Salesforce DEI 框架:@_akhaliq 分享了 Salesforce 发布的 DEI (Diversity Empowered Intelligence),这是一个开源的 AI 软件工程 Agent 框架,在 SWE-Bench Lite 上的解决率达到 55%,超过了单个 Agent 的表现。
-
AI 在科学发现中的应用:@GoogleDeepMind 专题报道了与首席执行官 Demis Hassabis 的播客讨论,探讨了 AGI 如何帮助探索宇宙奥秘、当前的 AI 炒作以及安全的技术开发。
AI 工具与应用
-
Dora AI 插件:@svpino 展示了 Dora AI Figma 插件,它可以在不到 60 秒的时间内生成一个完整的落地页,有可能使专业网页团队的效率提高 10 倍。
-
Box AI API:@svpino 宣布了 Box AI API 的 Beta 版发布,使用户能够与文档聊天、提取数据、总结内容,并从其现有的 Box 存储中生成衍生内容。
-
LangChain 集成更新:@LangChainAI 报告了针对 Python 和 JavaScript 翻新的集成文档,其特点是标准化的模板、精简的索引页面以及针对 1,000 多个集成的增强型 API 参考。
迷因与幽默
-
@kylebrussell 开玩笑说使用 Apple Vision Pro 来重温伟大的电影,调侃了该设备的功能。
-
@teortaxesTex 分享了一个关于引用动漫《边缘行者》(Edgerunners)中“入戏太深”(doing the bit)后果的迷因,强调了过度认真对待虚构场景的潜在危险。
AI Reddit 摘要
/r/LocalLlama 简报
主题 1. 新开源模型
- Magnum 12b v2.5 KTO (评分: 62, 评论: 12): Anthracite HQ 发布了 Magnum 12b v2.5,这是一个使用结合了 KTO 和 DPOP 的混合强化学习策略进行微调的新语言模型。该模型将原始模型的 rejected data(拒绝数据)作为“rejected”,将原始微调数据集作为“chosen”(选中数据)。该模型已在 Hugging Face 上提供 exl2、gguf 和 fp16 格式。
- 用户讨论了该模型的营销语气,有些人认为过于热情。一位评论者询问该帖子是由 ChatGPT 还是模型本身编写的。
- 一位用户报告称,该模型比他们使用过的其他开源模型产生了更连贯的回答,并将其性能与 100B+ models 进行了比较。他们注意到它没有掉入通常用于迷惑模型的陷阱。
- 随后展开了关于采样设置 (sampling settings) 的讨论,建议 min-p 约为 0.03,低温度 (temperature) 约为 0.02。一些用户对如此低的温度设置表示惊讶。
- Mistral Nemo 赞赏贴 (评分: 213, 评论: 49): Mistral 的 Nemo 12B 模型因其令人印象深刻的能力而受到称赞,它结合了 12B 参数和 128k context length。据指出,该模型的表现显著优于 Llama-2-13B,提供了 32 倍的上下文长度,同时比 7B 模型提供了更强大的对话体验。
- Mistral 的 Nemo 12B 模型因其效率和 function calling(函数调用)能力而受到称赞。用户注意到它在混合文本回复和函数调用方面优于 Llama 3.1,一位评论者称其为他们的“新首选模型”。
- 该模型的 128k context length 受到了质疑,一些用户报告在超过 8k-16k tokens 后质量会出现下降。讨论建议使用 DRY 等技术和现代采样器来提高长上下文长度下的性能。
- 用户分享了自定义的 system prompts(系统提示词)以增强模型性能,重点关注战略性问题解决和创新思维。社区还将 Nemo 与 Gemma 2 9B 和 InternLM 2.5 20B 等其他模型在各种用例下进行了比较。
主题 2. Grok-2 和 Grok-2 Mini: x.AI 最新基准测试结果
- Grok-2 和 Grok-2 mini 基准测试分数 (评分: 82, 评论: 22): Grok-2 和 Grok-2 Mini 的基准测试分数已经公布,在各项任务中表现出色。Grok-2 在 MMLU 上达到了 92.1%,在 HumanEval 上达到了 90.5%,在 GSM8K 上达到了 82.4%;而 Grok-2 Mini 在相同任务上分别得分 86.5%、80.5% 和 74.9%。这些结果使 Grok-2 在与 GPT-4 和 Claude 2 等其他领先模型的竞争中处于有利地位,特别是在编程和数学推理任务方面。
- 用户讨论了 Sonnet 3.5 的分数被放置在图表最右侧,有人将其解读为试图淡化其表现。一位评论者指出 Grok-2 在两项基准测试中击败了 Claude 3.5 Sonnet。
- Grok-2 缺乏 open weights(开放权重)的情况受到了关注,用户质疑 Elon Musk 对开源 AI 的立场。一些人对他的言论表示怀疑,称他为“最高等级的骗子”。
- 评论者对 Grok-2 Mini 的表现表示惊讶,它在主要基准测试中超过了 Claude 3 Opus 和 Gemini 1.5 Pro。然而,一位用户认为这可能是由于 “contaminated madness”(数据污染狂热),暗示可能存在数据污染。
Reddit AI 动态汇总
r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence, /r/LLMDevs, /r/Singularity
AI 图像生成进展
- FLUX 模型展示了写实纹理:一个基于 4K 专业照片训练的低秩 LORA 展示了 FLUX 捕捉超写实纹理的能力,甚至让专业摄影师感到惊讶。
- FLUX 的 GGUF 量化:一项出人意料的进展使得通常用于 LLM 的 GGUF 量化技术可以 应用于 FLUX 图像生成模型,这可能使更大的模型能够在消费级硬件上运行。
- FLUX NF4 V2 发布:FLUX NF4 模型的更新版本已在 Civitai 上发布,用户反馈在不同硬件配置下有不同程度的性能提升。
- FLUX 的 Union ControlNet:InstantX 发布了 FLUX 的 union ControlNet Alpha 版本,迅速扩展了该模型的能力。
AI 在商业应用中的表现
- AI 生成的阿迪达斯广告:一个 使用 FLUX 和 Runway 在 2 小时内创作的作品 展示了 AI 颠覆广告和模特行业的潜力。
- AI 创作的产品广告:一个 完全由 AI 制作的真实产品广告 展示了该技术在市场营销中的应用。
AI 模型行为与能力
- ChatGPT 语音交互:ChatGPT 语音能力 的演示(包括粗重呼吸和喊叫)引发了关于与 AI 建立情感连接以及潜在滥用的讨论。
幽默与迷因
- AI 生成的脚部图像:一篇幽默帖子建议 通过 AI 生成完美的脚部图像致富,突显了该模型在生成具有挑战性的解剖特征方面的能力提升。
AI Discord 摘要
由 GPT4O (gpt-4o-2024-05-13) 生成的摘要之摘要的摘要
1. LLM 进展与基准测试
- Llama 405B 处理里程碑:Meta 的 Llama 405B 模型 本周在 OpenRouter 上处理了多达 3 亿个单词,尽管 Lepton 的 128k 上下文推理成本较低(每 100 万个单词 2.8 美元),但仍显示出显著的使用量。
- 这种使用情况表明 Llama 3.1 可能是 Aider 的第二佳模型,仅次于 DeepSeek,不过得出结论还需要更多直接的 API 使用数据。
- Grok-2 和 Grok-2 Mini 发布:Grok-2 和 Grok-2 Mini 已发布测试版,在 LMSYS 排行榜上超越了 Claude 3.5 Sonnet 和 GPT-4-Turbo。
- 这些模型将于本月晚些时候通过企业级 API 提供,标志着从 Grok-1.5 迈出的重要一步。
2. 模型优化与缓存
- Anthropic API 获得 Prompt Caching:Anthropic 为其 API 推出了 Prompt Caching,可降低高达 90% 的输入成本和 80% 的延迟。
- 该功能通过缓存频繁使用的提示词来工作,类似于 DeepSeek 的实现,但速度更快且效率更高。
- OpenRouter 集成 Prompt Caching:OpenRouter 将在其 API 中集成 Prompt Caching,从而提高性能和成本效率,特别是对于重复性任务。
- 此举旨在使具有一致元素的任务和提示词受益,减少 API 使用量并增强模型性能。
3. AI 工具与插件
- AI21 FusionLabs 插件进展:适用于 Bubble 的 AI21 FusionLabs 插件 开发进展顺利,允许将 AI21Labs 模型无缝集成到 Bubble 应用程序中。
- 即将推出的 Conversation RAG 门户将允许用户测试和探索新功能,并将很快提供开发测试链接。
- 用于 RAG 系统的 LlamaIndex Workflows:LlamaIndex 发布了 Workflows,用于构建与 Azure 服务集成的先进检索增强生成(RAG)系统。
- 这些工作流利用 Azure AI Search 和 Azure OpenAI 的自定义数据连接器,增强了数据流和功能。
4. 开源 AI 框架与社区努力
- 研究中的双曲嵌入 (Hyperbolic Embeddings):双曲嵌入 因其在保留图距离和复杂关系方面的优势而受到关注,适用于知识库补全和 NLP 任务。
- 研究人员正在将这些嵌入集成到问答等应用中,增强连续空间中的数据表示。
- Tinygrad 类型检查:Tinygrad 中添加了一个 py.typed 文件,确保类型检查能与
tinydreamer包正常配合工作。- 此修复对于使
mypy正常运行是必要的,改善了 Tinygrad 的开发流程。
- 此修复对于使
第一部分:高层级 Discord 摘要
aider (Paul Gauthier) Discord
- OpenRouter 上的 Llama 405B 处理量:OpenRouter 本周使用 Meta 的 Llama 405B 模型 处理了惊人的 2 亿至 3 亿个单词。
- 尽管推理成本相对较低,特别是 Lepton 的 128k 上下文,每 100 万个单词仅需 2.8 美元。
- 5 分钟 Context Caching 对 Aider 是否有效?:一位成员质疑 5 分钟 Context Caching 对 Aider 的有效性,考虑到典型的用户周转时间。
- 然而,其他人认为,考虑到许多提示词可能是重复的,即使是微小的文本变化也可能阻碍缓存的有效性。
- 通过脚本维护 Aider 上下文:一位成员寻求关于通过脚本维护 Aider 上下文以进行迭代生成和测试的指导。
- 回复强调,保持 Coder 对象存活对于保留内部状态至关重要,而使用 Markdown 文件记录聊天历史对于连续聊天并不理想。
- Llama 3.1 作为潜在的第二佳模型:OpenRouter 的数据表明,Llama 3.1 可能是继 DeepSeek 之后 Aider 的第二佳模型。
- 然而,确凿的结果需要直接的 API 使用数据。
- Grok-2 和 Grok-2 Mini 现已发布:Grok-2 和 Grok-2 mini 被描述为相比 Grok-1.5 的重大进步,已在 𝕏 上发布测试版。
- 它们将于本月晚些时候通过企业级 API 提供,据报道在 LMSYS 排行榜上超越了 Claude 3.5 Sonnet 和 GPT-4-Turbo。
Stability.ai (Stable Diffusion) Discord
- 免费的 Stable Diffusion 部署:一位用户询问了部署 Stable Diffusion 模型的免费方法,并收到了使用 Civitai、Shakker AI 和 Hugging Face 的建议,其中 Civitai 最受欢迎。
- 他们特别指出,Civitai 似乎是社区成员中最常用的平台。
- 针对艺术家的 NFT 诈骗:一位成员警告要警惕可疑的 NFT 报价,分享了他们被联系并收到看似好得令人难以置信的报价的经历。
- 其他成员确认这些报价很可能是诈骗,强调合法企业应该能够提供其合法性证明。
- 手机上的 Stable Diffusion:一位用户询问了在手机上运行 Stable Diffusion 的免费选项,寻求慷慨的生成额度或广告支持的替代方案。
- 其他用户建议在移动设备上运行 Stable Diffusion 需要强大的 GPU,并推荐 SD.Next 作为可能的基于 Web 的解决方案。
- 免费的图生视频(Image-to-Video)解决方案:一位成员请求推荐免费的图生视频软件,寻求目前最好的选择。
- 另一位成员解释说 GPU 会因发热而自然降频,建议使用 Afterburner 进行微调,并利用各种 UI 中的 “Generate Forever” 功能。
- Flux Discord 服务器:几位成员表示有兴趣加入 Flux Discord 服务器,认识到 Flux 日益增长的人气。
- 一位成员建议当前服务器的 SD3 板块 已在某种程度上变成了 Flux 板块,而另一位成员则建议创建一个专门针对 Flux 的独立 Discord。
OpenRouter (Alex Atallah) Discord
- OpenRouter 移除 “Flavor of the Week” 模型:由于使用率低,OpenRouter 将于下周移除 “Flavor of the Week” 模型。
- 该模型可在 https://openrouter.ai/models/openrouter/flavor-of-the-week 获取,OpenRouter 正在征求对该实验的反馈。
- OpenRouter Arena 在 LLM 性能判断方面面临困难:一些成员担心 OpenRouter Arena 可能不是 LLM 性能 的可靠评判标准,因为缺乏测试方法的明确细节,且可能存在来自不同专业水平用户的偏见。
- OpenRouter 集成 Prompt Caching:OpenRouter 将在其 API 中集成 prompt caching,这将显著提高性能和成本效率。
- 这对于重复性任务和具有一致元素的提示词特别有利。
- OpenRouter 添加新 LLM 模型:Hermes 3:Nous Research 发布了他们的 Hermes 3 模型(8B, 70B, 405B),现在已在 OpenRouter 上可用。
- 4oSo Agent 结合了 GPT-4o 和 Claude 3.5 Sonnet:4oSo 是一种“Agent 混合”(mixture of agents)方法,结合了 GPT-4o 与 Claude 3.5 Sonnet。
- 该方法运行在 OpenRouter 上。
Eleuther Discord
- 气象学家寻求帮助:一位用户正在寻找可以为客户承包或全职开发气象 ML 模型的合作伙伴。
- 该项目可能对那些喜欢研究图网络(graph networks)的人感兴趣。
- LLM 训练停止条件并不复杂:一位用户询问了预训练 LLM 的停止条件。
- 目前的情况比较简单,最近的一篇论文建议在 80% 的训练过程中保持高恒定学习率,然后在剩余的 20% 过程中衰减至 0%。
- 余弦衰减(Cosine Decay)是传统方案:一位用户描述了传统的 LLM 训练方案。
- 它涉及在整个预定的运行长度内进行一次性余弦衰减,通常衰减到原始学习率的 10% 左右。
- 双曲嵌入(Hyperbolic Embeddings):一种表示数据的新方法:双曲嵌入是一种在连续空间中表示数据的技术,因其能够保留图距离和复杂关系(特别是对于层级图)而受到关注。
- 研究人员正在发布双曲嵌入,这些嵌入可以进一步集成到知识库补全和问答等 NLP 任务的应用中。
- 解决语言模型中的激活量化问题:一篇新的研究论文探讨了语言模型准确量化的挑战,特别是针对激活量化(activation quantization)。
- 该论文提出了一种使用量化感知训练(QAT)和激活峰度正则化(activation kurtosis regularization)的策略,以解决训练过程中出现的离群通道(outlier channels)问题。
Interconnects (Nathan Lambert) Discord
- Anthropic API 推出 Prompt Caching:Anthropic 刚刚为其 API 发布了 Prompt Caching 功能,可将 API 输入成本降低高达 90%,并将延迟降低高达 80%。
- 该功能通过缓存常用提示词来工作,类似于 Deepseek 的实现,但 Anthropic 的实现更快、更高效。
- SB 1047 提案修订:加州拨款委员会通过了 SB 1047 修订案,这些修订改变了法案内容,特别是影响了对 AI 实验室提交安全测试结果认证的要求。
- AI 实验室现在将被要求提交概述其安全实践的公开声明,但该法案不再对这些声明承担任何刑事责任。
- SB 1047 的影响:通过这些修订的 SB 1047 可能会对整个 AI 生态系统产生重大影响,包括欧盟和亚洲。
- 该法案旨在通过实施保障措施来防止 AI 灾难,但反对者认为这可能会扼杀创新并阻碍 AI 的发展。
- ACL 争议:Bender 的演讲引发辩论:Emily Bender 在 ACL 会议上的演讲引发了争议,随后一份针对所提担忧的回应被发布。
- 该回应以 GitHub Gist 的形式提供,深入探讨了围绕该演讲的问题,旨在提供平衡的观点。
- 演讲对社区的影响:该演讲在 NLP 社区内引发了大量讨论,一些人对 Bender 的担忧表示赞同,而另一些人则持反对意见。
- 这场争议凸显了负责任的 AI 开发的重要性,以及对伦理考量进行公开对话的必要性。
Modular (Mojo 🔥) Discord
- MAX:Mojo 的新重点:Mojo 团队正优先发展 MAX(一个加速计算平台)而非网络功能,认为它在计算领域具有更广泛的影响。
- MAX 是一个用于控制 CPU 之外硬件(包括 GPU、DPU 甚至可能是自定义 NIC)的库。
- Mojo 的包管理:模块化方法:Mojo 团队计划以模块化方式管理包,专注于更小、更易于管理的单元。
- 在探索包拆分选项之前,他们正优先考虑 GPU 支持等关键特性。
- MAX:通用矩阵乘法:MAX 旨在为矩阵乘法提供单一实现,该实现可以针对各种硬件平台编译为最优指令。
- 这涉及使用 MLIR 进行高级表示,并根据可用硬件选择优化的 kernel。
- Mojo 的品牌:MAX 登场:虽然 Mojo 是编程语言,但整个平台的品牌是 MAX,即 Modular Accelerated Xecution Platform。
- 随着新能力的开发,MAX 将包含 GPU、graph API 以及不断演进的功能组件。
- Mojo 社区会议 #6:录像已发布:最新的 Mojo 社区会议涵盖了 small buffer 和 string 优化、DuckDB 绑定以及 MAX,现已在 YouTube 上线。
- 您可以通过以下链接观看录像:https://youtu.be/6huytcgQgk8。
LlamaIndex Discord
- LlamaIndex 发布用于构建健壮 RAG 系统的新 Workflows:LlamaIndex 最新发布的 Workflows 支持构建高级检索增强生成(RAG)系统,并与 Azure AI Search 和 OpenAI 等 Azure 服务无缝集成。
- 这种集成利用了自定义数据连接器,从而在这些 Azure 平台内实现流式数据传输和增强功能。
- Citation Query Engine 获得 Workflow 改造:一段视频演示展示了使用 LlamaIndex 强大的 Workflows 重建 Citation Query Engine,体现了更健壮、更高效的方法。
- 该重新实现利用了 chunking 和引用检索文本等技术,能够生成带有清晰来源归属的响应,有效地利用 workflows 和 events 进行引用增强检索。
- LlamaIndex 的 GraphRAG:寻求生产级应用:一位社区成员表示希望看到生产就绪的 GraphRAG 应用,并强调需要直观地展示图(graph)如何通过提供 LLM 生成的答案之外的额外上下文来增强检索。
- 他们自己的应用利用属性图和 RAG 实现来处理聊天问题,旨在结合这些方法,并从其他项目中寻求灵感和最佳实践。
- 揭秘 LlamaIndex Agent 的 Tool Call 预期:一位用户询问了 LlamaIndex Agent 在
astream_chat()函数中 tool calls 的预期行为,特别是当接收到供 Agent 使用的 tools 时。- 他们的具体关注点在于确定最有效的方法:是检测 tool calls 并在发送前缓冲响应,还是继续流式传输 token 并在最终响应中发送 tools。
- 利用聊天历史解锁 LlamaIndex Agent 的潜力:一位用户寻求关于向 OpenAIAgent 提供消息列表的指导,因为现有方法似乎只接受字符串。
- 他们探索了对最后一条消息使用 pop-off 策略的可能性,但需要确认处理 Agent 交互的正确用法和最佳实践。
OpenAccess AI Collective (axolotl) Discord
- Mistral Large 2 训练进展:一位成员询问了 Mistral Large 2 的训练状态,得到的回复是即使在 KTO 中,inputs 也是被 masked(掩码)的。
- KTO Trainer 详解:一位成员询问 KTO 是否支持 multi-turn(多轮对话)或 system prompts(系统提示词)。
- 另一位成员引导他们查看 Hugging Face 上的 KTO Trainer 文档,解释了该训练器的用途和预期的数据集格式。
- KTO Trainer vs SFT:KTO Trainer 旨在利用二元反馈数据(例如:点赞/点踩)来对齐语言模型。
- 根据基础模型的质量,在进行 KTO 之前可能不需要 SFT,这与始终需要它的 RLHF 和 DPO 不同。
- SmolLM 模型微调:一位成员表达了对微调 SmolLM 130m 或 350m 模型 的兴趣。
- 使用 llama.cpp 进行 GGUF 转换:一位用户询问了常用的将模型转换为 GGUF 格式并进行量化的仓库。
- 回复建议使用 llama.cpp 及其相关命令,并指出该过程相对简单。
tinygrad (George Hotz) Discord
- Tinygrad 类型检查现已可用:一位成员在 Tinygrad 仓库 中添加了
py.typed文件,以确保类型检查在tinydreamer包中正常工作。- 此修复是为了在其机器上使
mypy功能正常运行。
- 此修复是为了在其机器上使
- 编译器书籍推荐:一位成员寻求关于编译器的优秀书籍推荐,可能是为了寻找构建 Tinygrad 编译器的指导。
- 对话中未给出具体的书籍推荐。
- 探索 Tinygrad 中的 Cuda.py:一位成员表示有兴趣查找 Tinygrad 仓库 中
cuda.py文件的详细文档或博客。- 具体来说,他们希望深入了解该文件在 Tinygrad 中处理 CUDA 加速的作用。
- Tinygrad 的 ONNX 支持:一位成员建议在 Tinygrad 仓库 中添加 ONNX 支持,旨在让
tensor.py支持大部分 ONNX 特性。- 这一添加可能使 Tinygrad 与其他使用 ONNX 的框架实现无缝集成。
- Tinygrad vs Jax/Flux:一位成员询问了 Tinygrad 相对于 Jax/Flux 的竞争力,并强调了 Jax 令人印象深刻的能力。
- 另一位成员发表了看法,认为 Jax 优先考虑使用 Google 的 TPUs 并为 Google 修复 Bug,而支持其他加速器仅仅是为了在迁移到 Google 基础设施之前进行原型设计。
OpenInterpreter Discord
- 本地运行 LLMs 需要强大的算力:一位用户指出,本地运行 LLMs(如 OpenInterpreter (OI) 和 01)需要大量的计算资源,并不适合所有人。
- 用于 OI 和 01 的家庭服务器设置:一位用户建议使用家庭服务器设置来运行 OpenInterpreter (OI) 和 01。
- 分布式设置的三个关键组件:一位用户详细介绍了 LLM、OI 和 01 分布式设置的三个关键组件。
- 儿童个性化 AI 导师:教育的未来?:讨论了为儿童提供个性化 AI 导师的想法,特别关注导师的情感和个性化方面。
- 目标是创建一个 AI 导师可以根据每个孩子的学习风格和性格进行调整的系统。
- 科学教育的 AI 导师:对话集中在利用 AI 导师教授自然科学的基础原理。
Alignment Lab AI Discord
- Jala:自动化文本数据标注:Jala 是一款旨在降低手动文本数据标注成本和时间的新工具,目前正在接受候补名单用户。
- 这一端到端解决方案使用 AI 支持多种数据格式,包括 CSV, JSON, TXT 和 XML,并提供用于微调各种模型的用户界面。
- Jala:多样化的应用:Jala 可用于各种 NLP, ML 和 AI 相关用途,包括研发数据标注以及自动化内容分类。
- 用户可以在 https://heimdall-3jl.pages.dev/pages/jala 注册候补名单以获取早期访问权限。
MLOps @Chipro Discord
- AI Capabilities and Risks Demo-Jam Hackathon:AI Capabilities and Risks Demo-Jam Hackathon 将在 7 天后举行!
- 这是一个展示 AI 风险与潜力的绝佳机会,可以赢取 2,000 美元的奖金,并与 AI safety 专家和爱好者建立联系。
- Pre-Hackathon Workshop:黑客松预热工作坊将于明天(UTC 时间 8 月 18 日下午 3 点)举行。
- 参与者可以与评委和导师见面,并抢先为黑客松酝酿创意。
- 加入 Discord:加入 Discord 服务器以了解更多关于黑客松的信息,并与其他参与者建立联系。
- Discord 服务器链接为 https://discord.gg/A4GZ9UKb?event=1270997649260281968。
AI21 Labs (Jamba) Discord
- AI21 FusionLabs 插件进展:适用于 Bubble 的 AI21 FusionLabs 插件开发进展顺利。
- 该插件将允许用户将 AI21Labs 模型无缝集成到他们的 Bubble 应用程序中。
- Conversation RAG 推出:用于试用新发布的 Conversation RAG 的门户网站正在开发中。
- 这将让用户有机会测试和探索 Conversation RAG 的新功能。
- Bubble 上的 AI21Labs 模型:一旦 Conversation RAG 门户上线,将提供一个开发测试链接。
- 这将向开发者展示 AI21Labs 模型在 Bubble 上的运行方式,使他们能够在 Bubble 环境中实验 AI21Labs 模型的能力。
LLM Finetuning (Hamel + Dan) Discord 没有新消息。如果该频道长时间保持沉默,请告知我们,我们将将其移除。
Mozilla AI Discord 没有新消息。如果该频道长时间保持沉默,请告知我们,我们将将其移除。
DiscoResearch Discord 没有新消息。如果该频道长时间保持沉默,请告知我们,我们将将其移除。
第二部分:分频道详细摘要与链接
完整的各频道详细内容已针对电子邮件进行了删减。
如果您喜欢 AInews,请分享给朋友!预谢!