ainews-not-much-happened-today-5446

今天没什么事。

以下是翻译内容:

GPT-5 在平淡的新闻日中再次传出推迟消息。Nous Research 发布了基于 Llama 3 基础模型的 Hermes 3 微调版本,其性能可与 FAIR 的指令微调模型相媲美,但因其包含 6% 的角色扮演数据而引发了关于模型出现“生存危机”行为的讨论。英伟达 (Nvidia) 推出了 Llama 3.1 的 Minitron 微调版本。Salesforce 发布了一个 DEI 智能体,在 SWE-Bench Lite 基准测试中得分 55%。Goodfire AI 获得了 700 万美元的种子轮融资,用于机械可解释性(mechanistic interpretability)研究。

Anthropic 在其 API 中推出了提示词缓存(prompt caching)功能,最高可降低 90% 的输入成本和 80% 的延迟,助力编程助手和大型文档处理。xAI 发布了 Grok-2,在 LMSYS 排行榜上追平了 Claude 3.5 SonnetGPT-4 Turbo,并集成了视觉+文本输入及图像生成功能。据报道,Claude 3.5 Sonnet 在编程和推理方面表现优于 GPT-4

François Chollet 将智能定义为将过去的信息高效转化为未来任务的操作能力。Salesforce 的 DEI 框架表现优于单个智能体。Google DeepMind 的 Demis Hassabis 讨论了通用人工智能(AGI)在科学发现和安全 AI 开发中的作用。Dora AI 插件可在 60 秒内生成落地页,提升了网页开发团队的效率。Box AI API 测试版支持文档对话、数据提取和内容摘要。LangChain 更新了 Python 和 JavaScript 的集成文档。

#fine-tuning #prompt-caching #mechanistic-interpretability #model-performance #multimodality #agent-frameworks #software-engineering-agents #api #document-processing #text-generation #model-releases #vision #image-generation #efficiency #scientific-discovery llama-3 llama-3-1 grok-2 claude-3.5-sonnet gpt-4-turbo nous-research nvidia salesforce goodfire-ai anthropic x-ai google-deepmind box langchain

GPT5 又推迟了一天?

2024年8月14日至8月15日的 AI 新闻。我们为您检查了 7 个 subreddits、384 个 Twitter29 个 Discord(254 个频道,5043 条消息)。预计节省阅读时间(以 200wpm 计算):945 分钟。您现在可以标记 @smol_ai 进行 AINews 讨论!

一些值得注意的消息,但没有重大新闻:

既然今天是平静的一天,您可以看看我们赞助商 Box 的 AI API!


[由 Box 赞助] 您有文件。这些文件充满了杂乱的信息。Box AI 提供了一个 API,可以从这些杂乱信息中提取有用的 metadata。亲自体验。

Swyx 的评论:与上周的赞助文章相比,本教程深入探讨了从 Box 项目中提取 metadata(即结构化数据),并展示了查询该 metadata 的实际用例。所有的 RAG 最终都会演变为混合 embedding + metadata 查询,而 Box 的模板方法或许是各大实验室 JSONSchema API 的一个更实用的版本。


目录频道摘要已移至此电子邮件的网页版:


AI Twitter 摘要

所有摘要均由 Claude 3.5 Sonnet 完成,从 4 次运行中择优。

AI 模型更新与发布

  • Anthropic API Prompt Caching@alexalbert__ 宣布 Anthropic 已在其 API 中推出 Prompt Caching(提示词缓存),将输入成本降低高达 90%,并将延迟降低高达 80%。该功能允许在多个 API 请求中复用相当于一本书容量的上下文,对编程助手、大型文档处理和 Agentic 工具使用非常有益。

  • Grok-2 发布@_philschmid 报道称 xAI 发布了 Grok-2,其在 LMSYS 排行榜上与 Claude 3.5 Sonnet 和 GPT-4-Turbo 等前沿模型并驾齐驱。它支持视觉 + 文本输入,并集成了外部模型进行图像生成。

  • Claude 3.5 Sonnet 性能@bindureddy 声称 Sonnet 3.5 在编程和推理等关键领域表现优于 GPT-4,这表明 SOTA 模型正从“GPT-4 级别”转向“Sonnet 级别”。

AI 研究与开发

  • 智能的定义@fchollet 提出智能是将过去的信息转化为应对未来的操作效率,可以通过算法信息论表示为一种转换率。

  • Salesforce DEI 框架@_akhaliq 分享了 Salesforce 发布的 DEI (Diversity Empowered Intelligence),这是一个开源的 AI 软件工程 Agent 框架,在 SWE-Bench Lite 上的解决率达到 55%,超过了单个 Agent 的表现。

  • AI 在科学发现中的应用@GoogleDeepMind 专题报道了与首席执行官 Demis Hassabis 的播客讨论,探讨了 AGI 如何帮助探索宇宙奥秘、当前的 AI 炒作以及安全的技术开发。

AI 工具与应用

  • Dora AI 插件@svpino 展示了 Dora AI Figma 插件,它可以在不到 60 秒的时间内生成一个完整的落地页,有可能使专业网页团队的效率提高 10 倍。

  • Box AI API@svpino 宣布了 Box AI API 的 Beta 版发布,使用户能够与文档聊天、提取数据、总结内容,并从其现有的 Box 存储中生成衍生内容。

  • LangChain 集成更新@LangChainAI 报告了针对 Python 和 JavaScript 翻新的集成文档,其特点是标准化的模板、精简的索引页面以及针对 1,000 多个集成的增强型 API 参考。

迷因与幽默

  • @kylebrussell 开玩笑说使用 Apple Vision Pro 来重温伟大的电影,调侃了该设备的功能。

  • @teortaxesTex 分享了一个关于引用动漫《边缘行者》(Edgerunners)中“入戏太深”(doing the bit)后果的迷因,强调了过度认真对待虚构场景的潜在危险。


AI Reddit 摘要

/r/LocalLlama 简报

主题 1. 新开源模型

  • Magnum 12b v2.5 KTO (评分: 62, 评论: 12): Anthracite HQ 发布了 Magnum 12b v2.5,这是一个使用结合了 KTODPOP混合强化学习策略进行微调的新语言模型。该模型将原始模型的 rejected data(拒绝数据)作为“rejected”,将原始微调数据集作为“chosen”(选中数据)。该模型已在 Hugging Face 上提供 exl2gguffp16 格式。
    • 用户讨论了该模型的营销语气,有些人认为过于热情。一位评论者询问该帖子是由 ChatGPT 还是模型本身编写的。
    • 一位用户报告称,该模型比他们使用过的其他开源模型产生了更连贯的回答,并将其性能与 100B+ models 进行了比较。他们注意到它没有掉入通常用于迷惑模型的陷阱。
    • 随后展开了关于采样设置 (sampling settings) 的讨论,建议 min-p 约为 0.03低温度 (temperature) 约为 0.02。一些用户对如此低的温度设置表示惊讶。
  • Mistral Nemo 赞赏贴 (评分: 213, 评论: 49): MistralNemo 12B 模型因其令人印象深刻的能力而受到称赞,它结合了 12B 参数和 128k context length。据指出,该模型的表现显著优于 Llama-2-13B,提供了 32 倍的上下文长度,同时比 7B 模型提供了更强大的对话体验。
    • MistralNemo 12B 模型因其效率和 function calling(函数调用)能力而受到称赞。用户注意到它在混合文本回复和函数调用方面优于 Llama 3.1,一位评论者称其为他们的“新首选模型”。
    • 该模型的 128k context length 受到了质疑,一些用户报告在超过 8k-16k tokens 后质量会出现下降。讨论建议使用 DRY 等技术和现代采样器来提高长上下文长度下的性能。
    • 用户分享了自定义的 system prompts(系统提示词)以增强模型性能,重点关注战略性问题解决和创新思维。社区还将 Nemo 与 Gemma 2 9BInternLM 2.5 20B 等其他模型在各种用例下进行了比较。

主题 2. Grok-2 和 Grok-2 Mini: x.AI 最新基准测试结果

  • Grok-2 和 Grok-2 mini 基准测试分数 (评分: 82, 评论: 22): Grok-2Grok-2 Mini 的基准测试分数已经公布,在各项任务中表现出色。Grok-2 在 MMLU 上达到了 92.1%,在 HumanEval 上达到了 90.5%,在 GSM8K 上达到了 82.4%;而 Grok-2 Mini 在相同任务上分别得分 86.5%80.5%74.9%。这些结果使 Grok-2 在与 GPT-4Claude 2 等其他领先模型的竞争中处于有利地位,特别是在编程和数学推理任务方面。
    • 用户讨论了 Sonnet 3.5 的分数被放置在图表最右侧,有人将其解读为试图淡化其表现。一位评论者指出 Grok-2 在两项基准测试中击败了 Claude 3.5 Sonnet
    • Grok-2 缺乏 open weights(开放权重)的情况受到了关注,用户质疑 Elon Musk 对开源 AI 的立场。一些人对他的言论表示怀疑,称他为“最高等级的骗子”。
    • 评论者对 Grok-2 Mini 的表现表示惊讶,它在主要基准测试中超过了 Claude 3 OpusGemini 1.5 Pro。然而,一位用户认为这可能是由于 “contaminated madness”(数据污染狂热),暗示可能存在数据污染。

Reddit AI 动态汇总

r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence, /r/LLMDevs, /r/Singularity

AI 图像生成进展

  • FLUX 模型展示了写实纹理:一个基于 4K 专业照片训练的低秩 LORA 展示了 FLUX 捕捉超写实纹理的能力,甚至让专业摄影师感到惊讶
  • FLUX 的 GGUF 量化:一项出人意料的进展使得通常用于 LLM 的 GGUF 量化技术可以 应用于 FLUX 图像生成模型,这可能使更大的模型能够在消费级硬件上运行。
  • FLUX NF4 V2 发布:FLUX NF4 模型的更新版本已在 Civitai 上发布,用户反馈在不同硬件配置下有不同程度的性能提升。
  • FLUX 的 Union ControlNet:InstantX 发布了 FLUX 的 union ControlNet Alpha 版本,迅速扩展了该模型的能力。

AI 在商业应用中的表现

AI 模型行为与能力

  • ChatGPT 语音交互ChatGPT 语音能力 的演示(包括粗重呼吸和喊叫)引发了关于与 AI 建立情感连接以及潜在滥用的讨论。

幽默与迷因


AI Discord 摘要

由 GPT4O (gpt-4o-2024-05-13) 生成的摘要之摘要的摘要

1. LLM 进展与基准测试

  • Llama 405B 处理里程碑Meta 的 Llama 405B 模型 本周在 OpenRouter 上处理了多达 3 亿个单词,尽管 Lepton 的 128k 上下文推理成本较低(每 100 万个单词 2.8 美元),但仍显示出显著的使用量。
    • 这种使用情况表明 Llama 3.1 可能是 Aider 的第二佳模型,仅次于 DeepSeek,不过得出结论还需要更多直接的 API 使用数据。
  • Grok-2 和 Grok-2 Mini 发布Grok-2 和 Grok-2 Mini 已发布测试版,在 LMSYS 排行榜上超越了 Claude 3.5 Sonnet 和 GPT-4-Turbo。
    • 这些模型将于本月晚些时候通过企业级 API 提供,标志着从 Grok-1.5 迈出的重要一步。

2. 模型优化与缓存

  • Anthropic API 获得 Prompt CachingAnthropic 为其 API 推出了 Prompt Caching,可降低高达 90% 的输入成本和 80% 的延迟。
    • 该功能通过缓存频繁使用的提示词来工作,类似于 DeepSeek 的实现,但速度更快且效率更高。
  • OpenRouter 集成 Prompt CachingOpenRouter 将在其 API 中集成 Prompt Caching,从而提高性能和成本效率,特别是对于重复性任务。
    • 此举旨在使具有一致元素的任务和提示词受益,减少 API 使用量并增强模型性能。

3. AI 工具与插件

  • AI21 FusionLabs 插件进展适用于 Bubble 的 AI21 FusionLabs 插件 开发进展顺利,允许将 AI21Labs 模型无缝集成到 Bubble 应用程序中。
    • 即将推出的 Conversation RAG 门户将允许用户测试和探索新功能,并将很快提供开发测试链接。
  • 用于 RAG 系统的 LlamaIndex WorkflowsLlamaIndex 发布了 Workflows,用于构建与 Azure 服务集成的先进检索增强生成(RAG)系统。
    • 这些工作流利用 Azure AI Search 和 Azure OpenAI 的自定义数据连接器,增强了数据流和功能。

4. 开源 AI 框架与社区努力

  • 研究中的双曲嵌入 (Hyperbolic Embeddings)双曲嵌入 因其在保留图距离和复杂关系方面的优势而受到关注,适用于知识库补全和 NLP 任务。
    • 研究人员正在将这些嵌入集成到问答等应用中,增强连续空间中的数据表示。
  • Tinygrad 类型检查:Tinygrad 中添加了一个 py.typed 文件,确保类型检查能与 tinydreamer 包正常配合工作。
    • 此修复对于使 mypy 正常运行是必要的,改善了 Tinygrad 的开发流程。

第一部分:高层级 Discord 摘要

aider (Paul Gauthier) Discord

  • OpenRouter 上的 Llama 405B 处理量:OpenRouter 本周使用 Meta 的 Llama 405B 模型 处理了惊人的 2 亿至 3 亿个单词。
    • 尽管推理成本相对较低,特别是 Lepton 的 128k 上下文,每 100 万个单词仅需 2.8 美元。
  • 5 分钟 Context Caching 对 Aider 是否有效?:一位成员质疑 5 分钟 Context Caching 对 Aider 的有效性,考虑到典型的用户周转时间。
    • 然而,其他人认为,考虑到许多提示词可能是重复的,即使是微小的文本变化也可能阻碍缓存的有效性。
  • 通过脚本维护 Aider 上下文:一位成员寻求关于通过脚本维护 Aider 上下文以进行迭代生成和测试的指导。
    • 回复强调,保持 Coder 对象存活对于保留内部状态至关重要,而使用 Markdown 文件记录聊天历史对于连续聊天并不理想。
  • Llama 3.1 作为潜在的第二佳模型:OpenRouter 的数据表明,Llama 3.1 可能是继 DeepSeek 之后 Aider 的第二佳模型。
    • 然而,确凿的结果需要直接的 API 使用数据。
  • Grok-2 和 Grok-2 Mini 现已发布:Grok-2 和 Grok-2 mini 被描述为相比 Grok-1.5 的重大进步,已在 𝕏 上发布测试版。
    • 它们将于本月晚些时候通过企业级 API 提供,据报道在 LMSYS 排行榜上超越了 Claude 3.5 Sonnet 和 GPT-4-Turbo。

Stability.ai (Stable Diffusion) Discord

  • 免费的 Stable Diffusion 部署:一位用户询问了部署 Stable Diffusion 模型的免费方法,并收到了使用 CivitaiShakker AIHugging Face 的建议,其中 Civitai 最受欢迎。
    • 他们特别指出,Civitai 似乎是社区成员中最常用的平台。
  • 针对艺术家的 NFT 诈骗:一位成员警告要警惕可疑的 NFT 报价,分享了他们被联系并收到看似好得令人难以置信的报价的经历。
    • 其他成员确认这些报价很可能是诈骗,强调合法企业应该能够提供其合法性证明。
  • 手机上的 Stable Diffusion:一位用户询问了在手机上运行 Stable Diffusion 的免费选项,寻求慷慨的生成额度或广告支持的替代方案。
    • 其他用户建议在移动设备上运行 Stable Diffusion 需要强大的 GPU,并推荐 SD.Next 作为可能的基于 Web 的解决方案。
  • 免费的图生视频(Image-to-Video)解决方案:一位成员请求推荐免费的图生视频软件,寻求目前最好的选择。
    • 另一位成员解释说 GPU 会因发热而自然降频,建议使用 Afterburner 进行微调,并利用各种 UI 中的 “Generate Forever” 功能。
  • Flux Discord 服务器:几位成员表示有兴趣加入 Flux Discord 服务器,认识到 Flux 日益增长的人气。
    • 一位成员建议当前服务器的 SD3 板块 已在某种程度上变成了 Flux 板块,而另一位成员则建议创建一个专门针对 Flux 的独立 Discord。

OpenRouter (Alex Atallah) Discord

  • OpenRouter 移除 “Flavor of the Week” 模型:由于使用率低,OpenRouter 将于下周移除 “Flavor of the Week” 模型。
  • OpenRouter Arena 在 LLM 性能判断方面面临困难:一些成员担心 OpenRouter Arena 可能不是 LLM 性能 的可靠评判标准,因为缺乏测试方法的明确细节,且可能存在来自不同专业水平用户的偏见。
  • OpenRouter 集成 Prompt Caching:OpenRouter 将在其 API 中集成 prompt caching,这将显著提高性能和成本效率。
    • 这对于重复性任务和具有一致元素的提示词特别有利。
  • OpenRouter 添加新 LLM 模型:Hermes 3Nous Research 发布了他们的 Hermes 3 模型(8B, 70B, 405B),现在已在 OpenRouter 上可用。
  • 4oSo Agent 结合了 GPT-4o 和 Claude 3.5 Sonnet4oSo 是一种“Agent 混合”(mixture of agents)方法,结合了 GPT-4oClaude 3.5 Sonnet
    • 该方法运行在 OpenRouter 上。

Eleuther Discord

  • 气象学家寻求帮助:一位用户正在寻找可以为客户承包或全职开发气象 ML 模型的合作伙伴。
    • 该项目可能对那些喜欢研究图网络(graph networks)的人感兴趣。
  • LLM 训练停止条件并不复杂:一位用户询问了预训练 LLM 的停止条件。
    • 目前的情况比较简单,最近的一篇论文建议在 80% 的训练过程中保持高恒定学习率,然后在剩余的 20% 过程中衰减至 0%。
  • 余弦衰减(Cosine Decay)是传统方案:一位用户描述了传统的 LLM 训练方案。
    • 它涉及在整个预定的运行长度内进行一次性余弦衰减,通常衰减到原始学习率的 10% 左右。
  • 双曲嵌入(Hyperbolic Embeddings):一种表示数据的新方法:双曲嵌入是一种在连续空间中表示数据的技术,因其能够保留图距离和复杂关系(特别是对于层级图)而受到关注。
    • 研究人员正在发布双曲嵌入,这些嵌入可以进一步集成到知识库补全和问答等 NLP 任务的应用中。
  • 解决语言模型中的激活量化问题:一篇新的研究论文探讨了语言模型准确量化的挑战,特别是针对激活量化(activation quantization)。
    • 该论文提出了一种使用量化感知训练(QAT)和激活峰度正则化(activation kurtosis regularization)的策略,以解决训练过程中出现的离群通道(outlier channels)问题。

Interconnects (Nathan Lambert) Discord

  • Anthropic API 推出 Prompt Caching:Anthropic 刚刚为其 API 发布了 Prompt Caching 功能,可将 API 输入成本降低高达 90%,并将延迟降低高达 80%。
    • 该功能通过缓存常用提示词来工作,类似于 Deepseek 的实现,但 Anthropic 的实现更快、更高效。
  • SB 1047 提案修订:加州拨款委员会通过了 SB 1047 修订案,这些修订改变了法案内容,特别是影响了对 AI 实验室提交安全测试结果认证的要求。
    • AI 实验室现在将被要求提交概述其安全实践的公开声明,但该法案不再对这些声明承担任何刑事责任。
  • SB 1047 的影响:通过这些修订的 SB 1047 可能会对整个 AI 生态系统产生重大影响,包括欧盟和亚洲。
    • 该法案旨在通过实施保障措施来防止 AI 灾难,但反对者认为这可能会扼杀创新并阻碍 AI 的发展。
  • ACL 争议:Bender 的演讲引发辩论:Emily Bender 在 ACL 会议上的演讲引发了争议,随后一份针对所提担忧的回应被发布
    • 该回应以 GitHub Gist 的形式提供,深入探讨了围绕该演讲的问题,旨在提供平衡的观点。
  • 演讲对社区的影响:该演讲在 NLP 社区内引发了大量讨论,一些人对 Bender 的担忧表示赞同,而另一些人则持反对意见。
    • 这场争议凸显了负责任的 AI 开发的重要性,以及对伦理考量进行公开对话的必要性。

Modular (Mojo 🔥) Discord

  • MAX:Mojo 的新重点:Mojo 团队正优先发展 MAX(一个加速计算平台)而非网络功能,认为它在计算领域具有更广泛的影响。
    • MAX 是一个用于控制 CPU 之外硬件(包括 GPU、DPU 甚至可能是自定义 NIC)的库。
  • Mojo 的包管理:模块化方法:Mojo 团队计划以模块化方式管理包,专注于更小、更易于管理的单元。
    • 在探索包拆分选项之前,他们正优先考虑 GPU 支持等关键特性。
  • MAX:通用矩阵乘法:MAX 旨在为矩阵乘法提供单一实现,该实现可以针对各种硬件平台编译为最优指令。
    • 这涉及使用 MLIR 进行高级表示,并根据可用硬件选择优化的 kernel。
  • Mojo 的品牌:MAX 登场:虽然 Mojo 是编程语言,但整个平台的品牌是 MAX,即 Modular Accelerated Xecution Platform。
    • 随着新能力的开发,MAX 将包含 GPU、graph API 以及不断演进的功能组件。
  • Mojo 社区会议 #6:录像已发布:最新的 Mojo 社区会议涵盖了 small buffer 和 string 优化、DuckDB 绑定以及 MAX,现已在 YouTube 上线。

LlamaIndex Discord

  • LlamaIndex 发布用于构建健壮 RAG 系统的新 Workflows:LlamaIndex 最新发布的 Workflows 支持构建高级检索增强生成(RAG)系统,并与 Azure AI Search 和 OpenAI 等 Azure 服务无缝集成。
    • 这种集成利用了自定义数据连接器,从而在这些 Azure 平台内实现流式数据传输和增强功能。
  • Citation Query Engine 获得 Workflow 改造:一段视频演示展示了使用 LlamaIndex 强大的 Workflows 重建 Citation Query Engine,体现了更健壮、更高效的方法。
    • 该重新实现利用了 chunking 和引用检索文本等技术,能够生成带有清晰来源归属的响应,有效地利用 workflows 和 events 进行引用增强检索。
  • LlamaIndex 的 GraphRAG:寻求生产级应用:一位社区成员表示希望看到生产就绪的 GraphRAG 应用,并强调需要直观地展示图(graph)如何通过提供 LLM 生成的答案之外的额外上下文来增强检索。
    • 他们自己的应用利用属性图和 RAG 实现来处理聊天问题,旨在结合这些方法,并从其他项目中寻求灵感和最佳实践。
  • 揭秘 LlamaIndex Agent 的 Tool Call 预期:一位用户询问了 LlamaIndex Agent 在 astream_chat() 函数中 tool calls 的预期行为,特别是当接收到供 Agent 使用的 tools 时。
    • 他们的具体关注点在于确定最有效的方法:是检测 tool calls 并在发送前缓冲响应,还是继续流式传输 token 并在最终响应中发送 tools。
  • 利用聊天历史解锁 LlamaIndex Agent 的潜力:一位用户寻求关于向 OpenAIAgent 提供消息列表的指导,因为现有方法似乎只接受字符串。
    • 他们探索了对最后一条消息使用 pop-off 策略的可能性,但需要确认处理 Agent 交互的正确用法和最佳实践。

OpenAccess AI Collective (axolotl) Discord

  • Mistral Large 2 训练进展:一位成员询问了 Mistral Large 2 的训练状态,得到的回复是即使在 KTO 中,inputs 也是被 masked(掩码)的
  • KTO Trainer 详解:一位成员询问 KTO 是否支持 multi-turn(多轮对话)或 system prompts(系统提示词)。
    • 另一位成员引导他们查看 Hugging Face 上的 KTO Trainer 文档,解释了该训练器的用途和预期的数据集格式。
  • KTO Trainer vs SFTKTO Trainer 旨在利用二元反馈数据(例如:点赞/点踩)来对齐语言模型。
    • 根据基础模型的质量,在进行 KTO 之前可能不需要 SFT,这与始终需要它的 RLHFDPO 不同。
  • SmolLM 模型微调:一位成员表达了对微调 SmolLM 130m 或 350m 模型 的兴趣。
  • 使用 llama.cpp 进行 GGUF 转换:一位用户询问了常用的将模型转换为 GGUF 格式并进行量化的仓库。
    • 回复建议使用 llama.cpp 及其相关命令,并指出该过程相对简单。

tinygrad (George Hotz) Discord

  • Tinygrad 类型检查现已可用:一位成员在 Tinygrad 仓库 中添加了 py.typed 文件,以确保类型检查在 tinydreamer 包中正常工作。
    • 此修复是为了在其机器上使 mypy 功能正常运行。
  • 编译器书籍推荐:一位成员寻求关于编译器的优秀书籍推荐,可能是为了寻找构建 Tinygrad 编译器的指导。
    • 对话中未给出具体的书籍推荐。
  • 探索 Tinygrad 中的 Cuda.py:一位成员表示有兴趣查找 Tinygrad 仓库cuda.py 文件的详细文档或博客。
    • 具体来说,他们希望深入了解该文件在 Tinygrad 中处理 CUDA 加速的作用。
  • Tinygrad 的 ONNX 支持:一位成员建议在 Tinygrad 仓库 中添加 ONNX 支持,旨在让 tensor.py 支持大部分 ONNX 特性。
    • 这一添加可能使 Tinygrad 与其他使用 ONNX 的框架实现无缝集成。
  • Tinygrad vs Jax/Flux:一位成员询问了 Tinygrad 相对于 Jax/Flux 的竞争力,并强调了 Jax 令人印象深刻的能力。
    • 另一位成员发表了看法,认为 Jax 优先考虑使用 Google 的 TPUs 并为 Google 修复 Bug,而支持其他加速器仅仅是为了在迁移到 Google 基础设施之前进行原型设计。

OpenInterpreter Discord

  • 本地运行 LLMs 需要强大的算力:一位用户指出,本地运行 LLMs(如 OpenInterpreter (OI) 和 01)需要大量的计算资源,并不适合所有人。
  • 用于 OI 和 01 的家庭服务器设置:一位用户建议使用家庭服务器设置来运行 OpenInterpreter (OI) 和 01。
    • 他们建议将 UmbrelTuringPi 作为潜在的硬件解决方案。
  • 分布式设置的三个关键组件:一位用户详细介绍了 LLM、OI 和 01 分布式设置的三个关键组件。
  • 儿童个性化 AI 导师:教育的未来?:讨论了为儿童提供个性化 AI 导师的想法,特别关注导师的情感和个性化方面。
    • 目标是创建一个 AI 导师可以根据每个孩子的学习风格和性格进行调整的系统。
  • 科学教育的 AI 导师:对话集中在利用 AI 导师教授自然科学的基础原理。

Alignment Lab AI Discord

  • Jala:自动化文本数据标注:Jala 是一款旨在降低手动文本数据标注成本和时间的新工具,目前正在接受候补名单用户。
    • 这一端到端解决方案使用 AI 支持多种数据格式,包括 CSV, JSON, TXT 和 XML,并提供用于微调各种模型的用户界面。
  • Jala:多样化的应用:Jala 可用于各种 NLP, ML 和 AI 相关用途,包括研发数据标注以及自动化内容分类。

MLOps @Chipro Discord

  • AI Capabilities and Risks Demo-Jam HackathonAI Capabilities and Risks Demo-Jam Hackathon 将在 7 天后举行!
    • 这是一个展示 AI 风险与潜力的绝佳机会,可以赢取 2,000 美元的奖金,并与 AI safety 专家和爱好者建立联系。
  • Pre-Hackathon Workshop:黑客松预热工作坊将于明天(UTC 时间 8 月 18 日下午 3 点)举行。
    • 参与者可以与评委和导师见面,并抢先为黑客松酝酿创意。
  • 加入 Discord:加入 Discord 服务器以了解更多关于黑客松的信息,并与其他参与者建立联系。

AI21 Labs (Jamba) Discord

  • AI21 FusionLabs 插件进展:适用于 Bubble 的 AI21 FusionLabs 插件开发进展顺利。
    • 该插件将允许用户将 AI21Labs 模型无缝集成到他们的 Bubble 应用程序中。
  • Conversation RAG 推出:用于试用新发布的 Conversation RAG 的门户网站正在开发中。
    • 这将让用户有机会测试和探索 Conversation RAG 的新功能。
  • Bubble 上的 AI21Labs 模型:一旦 Conversation RAG 门户上线,将提供一个开发测试链接。
    • 这将向开发者展示 AI21Labs 模型在 Bubble 上的运行方式,使他们能够在 Bubble 环境中实验 AI21Labs 模型的能力。

LLM Finetuning (Hamel + Dan) Discord 没有新消息。如果该频道长时间保持沉默,请告知我们,我们将将其移除。


Mozilla AI Discord 没有新消息。如果该频道长时间保持沉默,请告知我们,我们将将其移除。


DiscoResearch Discord 没有新消息。如果该频道长时间保持沉默,请告知我们,我们将将其移除。


第二部分:分频道详细摘要与链接

完整的各频道详细内容已针对电子邮件进行了删减。

如果您想查看完整内容,请访问此邮件的网页版:

如果您喜欢 AInews,请分享给朋友!预谢!