ainews-not-much-happened-today-4029
今天没发生什么事。
OpenAI 在其 API 中引入了结构化输出功能,新增了“strict”(严格)模式和“response_format”参数,支持 gpt-4-0613、gpt-3.5-turbo-0613 以及新款 gpt-4o-2024-08-06 等模型。同时,他们还将 gpt-4o 的价格减半,降至每百万 token 2.50 美元。Mistral Large 2 在高难度基准测试和编程任务中的表现优于 gpt4-turbo 和 claude-3-opus。Idefics3-Llama 提供了多模态能力,并具备 10k token 的上下文窗口。BigLlama-3.1-1T-Instruct 是 llama-3-120b-instruct 的扩展版本。新的基准测试“big_model_smell”旨在衡量模型的创造力和可靠性。Figure 02 机器人配备了先进的 AI 硬件,拥有板载视觉语言模型、增强型电池以及语音对语音推理功能。Yann LeCun 对加利福尼亚州的 SB1047 监管法案表示了担忧。
anonymous strawberries are all you need.
2024年8月6日至8月7日的 AI 新闻。我们为您检查了 7 个 subreddits、384 个 Twitter 和 28 个 Discord(249 个频道和 2423 条消息)。预计节省阅读时间(以 200wpm 计算):247 分钟。您现在可以标记 @smol_ai 进行 AINews 讨论!
今天没有明显的重大新闻,但有很多有趣的小亮点:
- Mistral Large 的外部评分已经公布,它们在硬核的 Lmsys 提示词以及像 Aidanbench 这样的独立基准测试中表现非常出色——达到了 Gemini Pro 级别。
- 从零开始编写一个 Vision Language Model!(感谢 Sam Julien 在 LS Discord 中挑选了这一条)
- 新的 PyTorch FlexAttention 包含了所有 Attention 变体,包括 FlashAttention 2(但不包括 FA 3!)的 API,以及日益流行的局部-全局注意力谱系,包括 Sliding Window。
- 查看 Grokfast 优化器!
当然,你也可以在 Segment Anything 2 上多花一个 epoch,它现在已经在 Latent Space Podcast 上线了。
AI Twitter 摘要
所有摘要均由 Claude 3.5 Sonnet 完成,从 4 次运行中择优。
OpenAI Structured Outputs 与模型更新
OpenAI 在其 API 中引入了 Structured Outputs,允许开发者为模型响应强制执行特定的 JSON schemas。该功能目前已在多种模型中得到支持,包括 gpt-4-0613、gpt-3.5-turbo-0613 及其后续版本。@sama 宣布了这一备受期待的功能,根据 OpenAI 的评估,该功能在匹配输出 schema 方面实现了 100% 的可靠性。此次更新包括:
- 为 function calling 引入了全新的 “strict” 模式,确保输出与提供的工具定义完全匹配。
- 新增 “response_format” 参数,允许指定 JSON 输出 schemas。
- 推出新模型:gpt-4o-2024-08-06。
@rohanpaul_ai 强调,此次更新在匹配输出 schema 方面达到了 100% 的可靠性,这对于模型不调用工具而是以结构化方式响应用户的下游任务特别有用。
此外,@corbtt 注意到 OpenAI 在没有正式公告的情况下悄悄将 GPT-4o(原版,非 mini 版)的价格降低了 50%,目前其价格页面显示为 $2.50/1M tokens。
AI 模型发展与基准测试
几款新的 AI 模型和基准测试相继发布:
-
Mistral Large 2:@GuillaumeLample 宣布发布 Mistral Large 2,它在编程、困难提示词 (hard prompts)、数学和长查询类别中表现异常出色,在某些领域超越了 GPT4-Turbo 和 Claude 3 Opus。它目前在 Arena hard 排行榜上名列前茅,并且是一款 open-weight 模型。
-
Idefics3-Llama:@mervenoyann 介绍了 Idefics3-Llama,这是一款基于 Llama 3.1 的多模态模型,支持任意数量的文本图像交错输入,并拥有 10k tokens 的巨大上下文窗口 (context window)。
-
BigLlama-3.1-1T-Instruct:@maximelabonne 展示了 Meta-Llama-3-120B-Instruct 的扩展版本,通过 Llama 3 70B 的自合并 (self-merge) 创建而成。
-
新基准测试:@aidan_mclau 引入了一个名为 “big_model_smell” 的新基准测试,用于衡量创造力、可靠性、注意力和指令遵循 (instruction following) 能力。
AI 硬件与机器人
@adcock_brett 介绍了 Figure 02,称其为世界上最先进的 AI 硬件。主要特性包括:
- 6 个摄像头
- 电池容量提升 50% 以上
- 板载 Vision Language Model (VLM)
- 3 倍的 CPU / GPU 算力
- 第 4 代手部
- 集成布线
- 外骨骼结构
- 语音到语音推理 (Speech-to-speech reasoning) 能力
该机器人专为自主运行而设计,包含定制的 2.25 KWh 电池组,目标是每天实现长达 20 小时的有效工作。
AI 安全与监管
@ylecun 对加州的 SB1047 法案(前沿人工智能模型安全创新法案)表示担忧,称其无法解决预期问题,并可能损害学术界、小型科技公司和开源社区的 AI 研发 (AI R&D)。@fchollet 呼应了这些担忧,认为让开源模型开发者对下游所有微调模型 (fine-tuned models) 负责是毫无道理的,这可能会阻碍开源模型的分享。
其他 AI 发展
- @omarsar0 讨论了 Structured Outputs 在提高 LLM 应用性能和可靠性方面的重要性。
- @jeremyphoward 宣布了 FastHTML,这是一个不断增长的实时 FastHTML 代码示例库,用于构建交互式组件和应用程序。
- @LangChainAI 在其针对 Python 和 JavaScript 的最新发布候选版本 (release candidates) 中,引入了对 OpenAI 新 Structured Outputs 功能的支持。
这些进展展示了 AI 模型能力、硬件集成方面的快速进步,以及该领域围绕 AI 安全和监管持续进行的讨论。
AI Reddit 摘要
/r/LocalLlama 摘要
主题 1. LLM 作为研发中的生产力助推器
-
**[auto-md 工具 一键将文件/压缩包 + GitHub 仓库转换为 Markdown 文档 (.md)](https://i.redd.it/dl555pnlw5hd1.png)** (评分: 62, 评论: 10): 工具 auto-md 已更新 Windows .exe 版本,允许用户一键将文件、压缩包和 GitHub 仓库转换为 Markdown 文档。开发者计划很快发布 Mac app,并对收到的支持(包括 GitHub stars 和之前帖子的用户反馈)表示感谢。 - Dark_Fire_12 分享了构建类似工具的另一种方法,选择使用文件扩展名过滤而不是文件夹深度搜索。他们包含了一张截图来展示其实现。
- Environmental-Car267 提到为个人使用创建了两个类似的工具:一个用于将代码库复制到剪贴板以便粘贴到 Sonnet/GPT,另一个让 AI 自主选择重要文件。这些工具在处理过程中会排除某些文件夹和文件。
- Google DeepMind 的研究科学家如何使用 LLM (评分: 318, 评论: 89): Nicholas Carlini,Google DeepMind 的一名研究科学家,在一篇详细的博客文章中分享了他利用 Large Language Models (LLMs) 提升生产力的方法。文章强调了用 AI 增强人类能力的重大价值,并建议在追求全自动 AI 系统之前,这一中间步骤至关重要。
- 用户一致认为 LLMs 既被过度炒作也被低估,许多人要么夸大其能力,要么完全不屑一顾。当在“知识边界”操作时,该技术特别有用,有助于填补理解不全的空白。
- 文章展示了 LLMs 产生幻觉的倾向,因为它错误地声称没有 Podman 的 Python 库,尽管存在 podman-py。用户强调,评估 LLMs 能做什么比关注其局限性更重要。
- 许多用户报告使用 LLMs 带来了显著的生产力提升,其中一人估计编码速度提高了 50%。LLMs 在学习新技术、自动化日常任务和调试方面特别有帮助,尽管一些人对其在学术写作中的使用表示担忧。
主题 2. AI 模型压缩与量化进展
- 将 123B Mistral-Large-Instruct-2407 量化至 35 GB,准确率仅下降 4%。 (评分: 77, 评论: 54): 作者使用 EfficientQAT 算法将 123B Mistral-Large-Instruct-2407 模型从 228.5 GB 量化至 35.5 GB,在 5 个零样本推理任务中平均准确率仅下降 4%。该量化模型使用 INT2 bits 和 64 的组大小 (group size),采用 GPTQ v2 格式打包并上传至 HuggingFace,作者正在寻求将其转换为 GGUF 或 EXL2 格式的帮助。
- 用户强烈表达了对该量化模型 GGUF 格式版本的需求,多条评论请求将当前的 GPTQ v2 格式进行转换。
- 也有人对模型性能表示怀疑,一位用户指出其 perplexity (困惑度) 增加了 100%,另一位用户将准确率下降修正为 5.4% 而非 4%。
- 一名用户尝试使用 Exllamav2 0.1.7 加载模型但遇到了 RuntimeError,这表明该量化版本与当前的加载器存在兼容性问题。
主题 3. 开源 AI 工具与多模态生成
- 开源 Text2Video 生成来了!ChatGLM 的创作者刚刚开源了 CogVideo。 (Score: 61, Comments: 4):ChatGLM 的创作者开源了 CogVideo,这是一个文本生成视频 (text-to-video generation) 模型。CogVideo 可以根据文本提示生成 24 FPS、256x256 分辨率的 5 秒视频,代表了开源 AI 视频生成能力的重大进步。
- CogVideo 规格:6 秒长,8 FPS,720x480 分辨率,使用 SAT 进行推理需要 18GB GPU memory,使用 diffusers 则需要 36GB。用户注意到其连贯性良好,但略有卡顿,可以通过 flowframes 修复。
- 现已提供 CogVideo 的 ComfyUI wrapper,增强了其易用性以及与现有工作流的集成。
- 该模型的许可证 (license) 包含对商业用途的限制,并禁止可能 “损害中国国家安全和国家统一” 的用途,这引发了对其开源状态的讨论。
All AI Reddit 回顾
r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence, /r/LLMDevs, /r/Singularity
AI 模型开发与发布
-
Salesforce 的 xLAM-1b 模型:一个 10 亿参数的模型,在 Function Calling 方面实现了 70% 的准确率,超越了 GPT 3.5。尽管体积相对较小,但被称为“Function Calling 巨人”。
-
带有 Function Calling 的 Phi-3 Mini (6月版):Rubra AI 发布了更新后的 Phi-3 Mini 模型,具备 Function Calling 能力,可与 Mistral-7b v3 竞争,并优于基础版 Phi-3 Mini。
AI 研究与应用
-
Figure 02:Figure AI 推出的新型人形机器人,展示了机器人技术与 AI 集成的进步。
-
AI 图像生成:关于 r/StableDiffusion 成为开源图像模型通用中心的讨论,类似于 r/LocalLLaMA 如何成为 LLM 的中心场所。
AI 伦理与安全
- OpenAI 安全团队辞职:一个幽默帖子根据“新 Scaling Laws”预测下一任 OpenAI 安全负责人将于 8 月 30 日辞职。这突显了 AI 安全和伦理方面持续存在的挑战。
AI 对教育和职业的影响
- Nick Bostrom 谈长期投资:Bostrom 建议,由于 AI 时间线缩短,像大学学位这样的长期投资可能不再值得。这引发了关于 AI 对传统教育和职业道路潜在影响的辩论。
AI 生成内容
- 来自平行现实的电影海报:使用 Flux Pro + SUPIR Upscale 创作的 AI 生成电影海报,展示了 AI 在视觉艺术方面的创作潜力。
梗图与幽默
- 与 AI 和技术相关的各种梗图和幽默帖子,包括 AI 生成图像的对比以及对反 AI 情绪的讽刺性看法。
AI Discord 回顾
总结的总结之总结
1. LLM 进展与基准测试
- DeepSeek-V2 在 MT-Bench 上表现优于 GPT-4:来自 DeepSeek AI 的 DeepSeek-V2 迅速攀升至 ChatbotArena 和 MT-Bench 等排行榜的前列,在超过 50,000 场对决中表现优于 GPT-4-Turbo 和 Claude 3 Opus 等模型。
- 用户在 AlignBench 和 MT-Bench 等基准测试上比较了模型性能,DeepSeek 的发布引发了热烈讨论。
- 新模型推动 SOTA 发展:来自 IBM 的 Granite-8B-Code-Instruct 等新型开源模型增强了代码任务的指令遵循能力,而 DeepSeek-V2 则拥有 236B 参数。
- 示例:DeepSeek-V2 发布公告。
2. 模型性能优化
- AQLM 和 QuaRot 量化 Llama-3-70b:像 AQLM 和 QuaRot 这样的量化 (Quantization) 技术旨在保持性能的同时,在单个 GPU 上运行像 Llama-3-70b 这样的大型语言模型 (LLMs),正如在 RTX3090 上运行的 AQLM 项目 所示。
- 用户讨论了量化方法在优化大模型推理方面的潜在收益和权衡。
- DMC 在 H100 GPU 上提升 370% 吞吐量:根据
@p_nawrot的 DMC 论文,通过动态内存压缩 (Dynamic Memory Compression, DMC) 提升 Transformer 效率的努力,有望在 H100 GPU 上实现高达 370% 的吞吐量提升。- 成员们探索了诸如将 CUDA 操作与 NVIDIA 的 Thrust 库融合等技术,以在模型推理期间最大化 GPU 利用率。
- Thrust 在接近带宽极限时优化 CUDA 操作:讨论集中在优化 CUDA 操作上,例如融合逐元素操作,利用 NVIDIA 的 Thrust 库及其
transform功能来实现接近带宽饱和的性能。- Thrust 文档 提供了关于这些优化策略的见解。
3. 微调挑战与 Prompt Engineering 策略
- Axolotl 应对 Prompt 设计难题:在使用 Axolotl prompters.py 等工具进行微调和评估期间,Prompt 设计和正确模板使用(包括 end-of-text token)对模型性能的影响受到了高度关注。
- 用户分享了围绕 Prompt Engineering 挑战以实现预期结果的经验和见解。
- Logit Bias 调整 Prompt 以获得更多控制:讨论了 Prompt Engineering 的策略,例如将复杂任务拆分为多个 Prompt,并根据 OpenAI 的 logit bias 指南 研究 logit bias 以实现细粒度控制。
- 成员们分享了通过精心设计来增强 Prompt 有效性的经验和技术。
- RET Token 提升信息检索:根据一篇 ArXiv 论文,研究探索了教导 LLM 在不确定时使用
<RET>token 进行信息检索,从而提高在低频查询上的性能。- 社区讨论了新颖的 Prompt Engineering 方法,以扩展语言模型的能力。
4. 多模态 AI 与生成式建模创新
- **Idefics2 和 CodeGemma:多模态惊奇:新的多模态模型如 **Idefics2 8B Chatty 专注于提升对话交互,而 CodeGemma 1.1 7B 则精进了编程能力。
- 这些发布展示了多模态 AI 能力在各个领域的快速进展。
- **Phi3 为 WebGPU 带来强大的 AI 聊天机器人:Phi 3** 模型使强大的 AI 聊天机器人能够通过 WebGPU 在浏览器中运行,突显了更易获取且更具隐私性的 AI 交互潜力。
- 社区成员讨论了这一进展对用户隐私和控制的影响。
- **IC-Light 推进开源图像重打光:开源项目 **IC-Light 专注于改进图像重打光 (Image Relighting) 技术,为不断增长的生成式 AI 开源生态系统做出贡献。
- 成员们分享了与 AI 模型驱动的图像处理能力相关的见解和资源。
PART 1: Discord 高层级摘要
Stability.ai (Stable Diffusion) Discord
- LoRA 让 Stable Diffusion 变得轻量:LoRA 模型是 Stable Diffusion 的小型版本,通过修改标准 checkpoint 使体积缩小 10 到 100 倍,可以安装在 stable-diffusion-webui/models/Lora 目录下。
- 要使用这些模型,只需在 prompt 中包含语法
<lora:filename:1.0>,从而优化你的工作流。
- 要使用这些模型,只需在 prompt 中包含语法
- Pony 模型提供锐利的线稿:Pony 模型专为无阴影的干净线稿而设计,与风格 LoRA 结合使用效果最佳。
- 用户强调,在使用线稿风格 LoRA 时,将 Pony 模型作为基础模型对于实现理想的美学效果至关重要。
- ControlNet 像魔法一样转换图像:ControlNet 有助于在保留原始结构的同时将照片转换为线稿,极大地提升了图像处理能力。
- 社区成员建议使用 depth ControlNet 或 IPAdapter 作为这些转换的有效方法。
- r/stablediffusion 爆发社区风波:关于 r/stablediffusion 版块近期管理层变动的讨论揭示了社区驱动项目与公司主导项目之间的紧张关系。
- 这种反思引发了关于 AI 艺术领域社区动态中所面临的控制权问题的热烈对话。
- AI 硬件争论中怀疑论占据上风:对于在 ML 任务中使用 AMD GPU,社区达成了一致的反对意见,建议倾向于 NVIDIA,或者像 Groq 这样的替代方案更受青睐。
- 参与者还谈到了硬件股票的波动性,引发了关于优化 AI 性能的未来选择的讨论。
Unsloth AI (Daniel Han) Discord
- Unsloth 微调模型的挫败感:用户在使用 Unsloth 进行微调时面临问题,特别是模型无法正常保存,以及与需要 for_inference() 方法的 PPO trainer 集成时的挑战。
- 许多人指出旧版本的集成更加顺畅,这加剧了社区目前的挫败感。
- Llama3.1 推理时间不一致:报告显示,在微调后的 Llama3.1 上进行推理时响应时间不一致,但在多次调用后有所改善。
- 建议用户运行测试,以确认初始延迟是否如预期般影响性能。
- 探索 Unsloth 的多 GPU 支持:Unsloth 的多 GPU 支持正处于 Beta 阶段,旨在提高速度并减少 VRAM 占用,目前测试人员签署了 NDA。
- 参与者预计在进一步完善后将推出付费订阅模式。
- 介绍 BigLlama 3.1-1T-Instruct:一个新模型 BigLlama-3.1-1T-Instruct 正在作为 Meta-Llama 的自合并版本进行测试,但用户报告称其合并权重尚无法正常工作。
- 社区反馈强调,由于训练不完整,该模型目前阶段基本处于无用状态。
- LLaMA3 的高性价比配置:有人请求在 RunPod 上经济高效地运行 LLaMA3 的策略,反映了社区对优化部署成本的关注。
- 成员们讨论了在控制成本的同时管理资源需求的挑战。
HuggingFace Discord
- Google 通过 Gemma 2 2B 增强 Gemma 系列:Google 推出了 Gemma 2 2B,拥有 2.6B 参数,专为端侧(on-device)使用设计,并配有 ShieldGemma 和 Gemma Scope 以实现高级功能。
- 此次发布使 Gemma 2 在端侧机器学习工具中具有很强的竞争力。
- Diffusers 与 FLUX 的新集成:一位成员称赞了新的 FLUX 的 Diffusers 集成,显著提升了文本生成图像的能力。
- 他们分享了一个 gist,介绍如何在资源有限的情况下高效使用 FLUX。
- Argilla 2.0 发布,助力更好的数据管理:Argilla 2.0 作为一款专注于数据可用性的强大 AI 工具亮相,承诺为创作者提供增强的管理功能。
- 社区成员对首个开放合成数据集 magpie-ultra-v0.1 表示欢迎,该数据集由 Llama 3.1 生成,旨在改进数据集的创建。
- OpenAI 推广结构化输出(Structured Outputs):OpenAI 发布了一篇 博客文章,建议在其 API 中使用结构化输出,但并未过多提及之前的工作。
- 这一转变凸显了在采用有效实践的同时,对基础性贡献缺乏认可的趋势。
- 命名实体识别(Named Entity Recognition)数据集可用:一个包含 5029 份标注简历(使用 NER 标记了 IT 技能)的数据集已在 Kaggle 上发布。
- 该数据集包含从 PDF 中手动标注的技能,并以 JSON 格式提供,适用于 Spacy 等 NLP 工具。
LM Studio Discord
- 使用 AnythingLLM 配置 LM Studio:在解决文件访问权限和影响性能的硬件限制后,用户成功将 AnythingLLM 与 LM Studio 配合使用。一位用户确认在加载自定义 Gemma v2 模型后运行成功。
- 几位用户分享了对设置过程中常见问题的见解,重点强调了确保文件路径正确的重要性。
- 优化 LM Studio 的性能设置:“保持模型在内存中”(Keep Model in Memory)功能引起了褒贬不一的反应,一些用户建议默认禁用该功能以避免不必要的 RAM 占用。专家讨论了其对性能的有限影响,特别是对于较大的模型。
- 用户分享了经验,指出禁用此功能可以在系统资源和模型性能之间提供更好的平衡。
- 对音频转录功能的关注:用户表达了自动化音频转录的愿望,但注意到 LM Studio 缺乏对音频输入的直接支持。对于优先考虑隐私的用户,讨论了 API 和开源 TTS/STT 解决方案等替代方案。
- 一些成员报告了使用特定 API 的成功经验,而另一些成员则更倾向于本地解决方案以确保数据机密性。
- 探索多 GPU 配置:用户寻求关于使用 ComfyUI 管理多个 GPU 的建议,并探索有效分配 GPU 资源的脚本。一位用户提议使用启动器来简化 CUDA 设备的设置,而无需修改配置文件。
- 讨论包括了对 GitHub 上现有脚本的建议,这些脚本可以简化多 GPU 设置。
- 对 Phi-3 模型支持的担忧:用户对 llama.cpp 缺乏 Phi-3 模型支持表示担忧,这影响了 Oobabooga WebUI 等界面的兼容性。这引发了关于近期更新和社区反应的更广泛讨论。
- 成员指出,该问题可能需要开发者之间的协调,以确保与最新模型的无缝集成。
CUDA MODE Discord
- Gameboy 模拟器简化 RL:在 PufferLib GitHub 仓库 中可以找到 Gameboy 模拟器 的详细设置,简化了游戏环境中的强化学习(RL)。
- 这种方法允许用户在不需要进行大量速度优化的情况下探索 RL 概念。
- PyTorch 2.4 在 CUDA 12.4 上表现不佳:用户报告了 PyTorch 2.4 在 CUDA 12.4 上的问题,指出与 CUDA 12.1 等早期版本相比性能有所下降。
- 人们对兼容性以及回退到以前的 CUDA 版本时可能带来的改进表示关注。
- AMD 声明后 ZLUDA 3 被撤回:在 AMD 声称发布许可无效后,作者已下架 ZLUDA 3,详情见 GitHub 页面。
- 这一情况引发了关于 AMD 在开发生态中的角色以及对开源贡献影响的讨论。
- 关于 INT8 量化技术的辩论:围绕 INT8 对称量化 的讨论揭示了在训练期间使用 127.5 的缩放比例时,对权重更新偏差的担忧。
- 成员们辩论了全范围(full range)与受限范围(restricted range)量化的有效性,强调了模型完整性方面的潜在挑战。
- 引入 SARATHI 以提高 LLM 效率:一个名为 SARATHI 的新框架通过采用分块预填充(chunked-prefills)和改进的批处理策略,解决了 LLM 推理中的低效问题。
- 该方法旨在提高 GPU 利用率,同时减少模型推理过程中流水线并行(pipeline parallelism)的不平衡。
Nous Research AI Discord
- UltraSteer-V0 数据集发布:Nvidia 推出了 UltraSteer-V0 数据集,包含 230 万次对话 和 280 万个轮次,并使用 Llama2-13B-SteerLM-RM 奖励模型在 9 个细粒度信号 上进行了标注。
- 尽管是 V0 版本,但由于经过了 22 天 的广泛去重,它具有独特的线程延续性,可在 Hugging Face 上获取。
- 保险模型微调的挑战:一位用户询问了在 保险领域 微调模型的经验,强调了该行业特有的挑战。
- 这次讨论吸引了关于在保险背景下有效应用 AI 所需的调整和注意事项的建议。
- Flux AI 能力引发热议:Flux AI 展示了在 文本理解、提示词理解 和 图像生成 方面的技能,引发了成员们的兴奋。
- 许多用户称赞其能力,一些人已经在使用其 Pro 版本以获得增强的性能。
- 开放医疗推理任务倡议:由 Open Life-Science AI 协作领导的 Open Medical Reasoning Tasks 项目旨在为医疗保健领域的 LLM 编制一份强大的任务列表,邀请各利益相关方贡献力量。
- 一位成员赞扬了这一协作努力,强调了对推动医疗领域 AI 发展的集体影响;更多详情可在 GitHub 查看。
- MiniCPM-Llama3-V 模型更新:成员们讨论了 MiniCPM-Llama3-V 的最新更新,该模型声称在处理 多图输入 和 OCR 任务方面具有改进的能力。
- 这最初引发了一些怀疑,但随着展示其应用和效果的新示例出现,大家的兴奋感与日俱增。
Latent Space Discord
- Web 开发人员转型为 AI Engineering:讨论强调了由于高需求和 ML 工程师短缺,Web 开发人员向 AI Engineering 转型的趋势日益增长,参与者分享了关于调整技能组合的见解。
- 成员们强调,Web 开发人员通常被期望在承担传统开发职责的同时实施 AI 项目。
- OpenAI 面临领导层变动:OpenAI 的一波领导层变动引发了对公司未来轨迹和稳定性的担忧,在社区中引发了激烈的辩论。
- 参与者推测了这些离职对 OpenAI 整体方向的潜在影响。
- Generative AI 变革零售业:Generative AI 应用在零售领域蓬勃发展,特别是在跨平台制作产品描述方面,例如来自 L’Oreal 的案例。
- 讨论提出了关于评估 AI 生成内容有效性的关键点,以及对更好性能指标的需求。
- Structured Outputs 功能在 GPT-4o 中首次亮相:OpenAI 在 GPT-4o 中推出了 Structured Outputs 功能,使模型能够遵循 JSON schemas,且可靠性较之前的模型有所提高。
- 社区成员认为这一进步是迈向在 AI 中生成更受控且结构化数据输出的重要一步。
- 对 Energy-Based Language Modeling 的怀疑:关于与 Extropic AI 研究员会面的轶事凸显了对其在 Energy-Based Language Modeling 知识储备的怀疑,并对其公信力提出了质疑。
- 这次交流引发了关于新兴初创公司在复杂 AI 领域专业知识的更广泛讨论。
OpenAI Discord
- OpenAI DevDay 走向全球!:OpenAI 将在今年秋季举办巡回 DevDay,活动地点包括旧金山、伦敦和新加坡,届时将提供动手实践环节和针对开发者的最佳实践。参与者可以直接与 OpenAI 工程师交流,观看创新成果的实际应用,详情请见此处。
- 该活动承诺为全球开发者提供一个联系平台,分享见解并重新定义 AI 开发实践。
- DALL-E 3 模型显示出结果的可变性:成员们讨论了 DALL-E 3 模型及其生成结果的可变性,重点对比了 Llama 模型以及安全过滤器的影响。值得注意的是,输出质量的差异归因于 OpenAI 实施的安全措施。
- 社区正在分析这些差异,同时探索 AI 生成质量和安全问题的细微差别。
- Search GPT 现已可用!:Search GPT 已正式推出,引发了用户对其功能和应用的兴趣。成员们正在积极讨论如何计划在工作流中利用这一新功能。
- 此次推出引发了关于 Search GPT 用户体验和实际实施的问题。
- 对 Generative AI 在游戏领域应用的兴奋:成员们对 Generative AI 在增强游戏体验方面的潜力感到兴奋,特别是在 BG3 和 Pathfinder 等作品中。他们预见到改进的 AI 能力将带来动态的 NPC 互动。
- 讨论集中在创建沉浸式环境,使角色设计和玩家选择无缝融合。
- ChatGPT-4o 的更新引发疑问:用户注意到 ChatGPT-4o 的性能发生了重大变化,推测其近期进行了更新。成员们正在讨论这些变化对输出一致性和用户体验的影响。
- 对版本
gpt-4o-2024-08-06的观察引发了关于这些更新对开发者和用户未来意味着什么的进一步讨论。
- 对版本
Perplexity AI Discord
- Perplexity AI 出现技术问题:用户报告了 Perplexity Pro 应用的各种技术问题,包括无法切换 LLM 以及库丢失,引发了对其功能的重大担忧。
- 部分功能意外恢复,表明这可能是间歇性问题而非系统性故障。
- NVIDIA 的 Blackwell GPU 遭遇延迟:由于关键的设计缺陷和 CoWoS-L 封装技术问题,NVIDIA 的 Blackwell GPU 已被推迟,需要重新设计处理器晶圆。
- 这些挫折推迟了生产时间表,影响了对下一代 GPU 的预期。
- 语言模型对比升温:关于 GPT-4o 与 Turbo 性能对比的辩论爆发,用户表达了褒贬不一的体验,特别是在响应速度和有效性方面。
- 一些用户注意到 GPT-4o 在处理新指令时表现吃力,引发了重新评估 LLM 能力的呼声。
- 探索内容推荐引擎:一个旨在开发内容排序和推荐引擎的新大学项目引起了关注,强调了在创建相关排序算法时用户输入的需求。
- 成员们建议利用 RAG(检索增强生成)原则来增强项目的有效性。
- API 功能受到审查:用户对 API 差异表示担忧,用户遇到的数据返回损坏导致了对 API 可靠性的怀疑。
- 此外,所有 Perplexity API 模型将于 2024 年 8 月 12 日弃用,这引起了对未来使用所需调整的关注。
Eleuther Discord
- 机械式异常检测(Mechanistic Anomaly Detection)的新方法:团队研究了使用 Neel Nanda 的归因补丁技术对语言模型进行异常检测的“机械式”方法,但基于激活(activations)的传统基准表现更好。
- 他们发现通过评估整个批次(batches)而非单个点,性能有所提高,但在不同任务中的成功程度各异。
- 关于 SB1047 AI 安全法案的辩论升温:成员们对 SB1047 进行了激烈的讨论,有人担心它可能会扼杀创新,而另一些人则主张 AI 研究中必要的问责制。
- 辩论者表示,该法案的责任条款可能会阻碍开放研究工作,表明需要在监管与创新之间取得平衡。
- Meta 在分布式 AI 训练方面的进展:在 ACM SIGCOMM 2024 上,Meta 展示了关于 RDMA over Ethernet 用于分布式 AI 训练的论文,重点关注支持训练 LLAMA 3.1 405B 等模型的基础设施。
- 此次演讲强调了大规模 AI 应用引发的日益增长的通信需求。
- 稀疏自编码器(SAE)发展回顾:成员们引用了一篇 关于 SAE 的论文 以及关于 扩展 SAE 的后续研究,以了解 SAE 的最新进展。
- 他们讨论了 SAE 符号的相关性,并分享了包括一个跟踪这些技术格局的 Google 文档在内的资源。
- lm-eval-harness 见解与用法:一位用户询问了如何将 lm-eval-harness 用于自定义模型,并收到了一个有用的链接,指向一个用于适配 Huggingface 模型类的 自包含示例。
- 讨论强调了包含 BOS 等特殊 Token,以及从评估结果的 JSON 输出中提取基准测试名称的过程。
LangChain AI Discord
- 管理 GPU 内存问题:一位用户报告在使用 32GB RAM 的机器运行 aya 和 nomic-embed-text 等模型时出现 out-of-memory errors。有人建议切换到 CPU,但这导致性能大幅下降。
- 这场讨论突显了工程师在处理内存限制时面临的性能权衡,以及优化 GPU 资源的挑战。
- LangGraph 课程推荐:用户讨论了各种 LangGraph 课程,推荐 DeepLearning AI 课程 作为一个可靠的选择,以及 Udemy 上的一个进阶课程。普遍感受是目前存在许多适合初学者的资源,但缺乏进阶材料。
- 这表明 LangGraph 生态系统需要为希望深化技能的从业者提供更多高水平的综合培训。
- SQL 聊天 Agent 协作:一位用户寻求开发 SQL 聊天 Agent 脚本 的帮助,引发了另一位经验丰富的开发者的协作努力。双方分享了脚本和反馈,展示了社区的支持。
- 这种互动体现了开发者之间的协作文化,强调通过知识共享来改进 AI 功能。
- 新音乐发现应用发布:mood2music 应用推出,承诺根据用户情绪提供 AI 驱动的音乐推荐。目前该应用正在建立候补名单,并具有独特的音乐策划功能。
- 该应用在准备发布之际引发了关注,确定了与音乐爱好者互动的潜力。
- AgentGenesis 助力 AI 开发:一位成员分享了 AgentGenesis,这是一个提供 copy-paste 代码片段 的库,用于加速 Gen AI 应用 的开发。它旨在提供一个对开发者友好的代码库,从而大幅提高生产力。
- 该项目邀请社区贡献,旨在简化开发流程,展示了 AI 开发者社区的协作精神。
Interconnects (Nathan Lambert) Discord
- John Schulman 离开 OpenAI 加入 Anthropic:John Schulman 宣布离开 OpenAI,专注于 Anthropic 的 AI 对齐研究,并表示渴望从事一线技术工作。
- 他强调这一选择是个人行为,并指出尽管他离开了,但这反映了 OpenAI 对对齐工作的持续支持。
- GDB 的休假引发猜测:GDB 决定休假到年底,这引发了对其原因的讨论,包括对过度劳累和健康问题的担忧。
- 有人推测,在专注于 AGI 开发的紧张几年后,这次休息可能是必不可少的。
- 关于 AI 对齐观点的激烈辩论:一场关于 AI 对齐不同观点的深入讨论展开,Schulman 倾向于强化学习方法,而其他人则认为这超越了传统方法。
- 这反映了对于控制超人类 AI 的更广泛担忧,以及对齐从根本上是否是一个深度学习问题的争论。
- 结构化输出革新 API 处理:最近推出的 Structured Outputs 允许开发者在不丢失键的情况下实现一致的 schema 匹配。
- 此外,通过切换到 gpt-4o-2024-08-06 模型,开发者可以节省 50% 的输入成本 和 33% 的输出成本。
- DALL·E 面临日益激烈的竞争:随着新竞争对手的加入,关于 DALL·E 是否仍保持 最佳图像生成地位的讨论随之而起,直接对比面临挑战。
- 成员们指出,在评估竞争能力时,上下文比直觉更重要。
OpenRouter (Alex Atallah) Discord
- GPT-4o-2024-08-06 现已上线:GPT-4o-2024-08-06 的发布标志着一次显著更新,其输入价格大幅降低了 50%,输出价格降低了 33%,进一步提升了开发者的可访问性。
- 值得注意的是,该模型包含一个新的 ‘refusal’ 字段功能,引发了对其功能改进的期待。
- Gemini Pro 1.5 遭遇资源限制:用户在使用 Gemini Pro 1.5 时遇到了“资源已耗尽 (Resource has been exhausted)”的错误,这与 Google 强制执行的严格速率限制(rate limits)有关。
- 不幸的是,目前没有补救措施,因为这是直接来自 Google 的限制。
- 导航 OpenRouter API:关于模型购买的咨询表明,通过 OpenRouter 使用模型需要按 token 使用量付费,建议新用户尝试使用 Lobe Chat 等界面以获得更简便的交互。
- 这种方法旨在简化访问并减少用户入门的阻力。
- Structured Outputs 提升 API 可靠性:OpenAI 推出了 Structured Outputs,允许开发者直接从 API 请求有效的 JSON 响应,增强了整体可靠性和可用性。
- 这一举措解决了之前输出格式不一致的问题,旨在实现跨应用程序的更标准化的交互。
- 模型定价波动审查中:关于 gpt-4o-2024-08-06 的 token limit 差异的讨论浮出水面,OpenRouter 界面显示的上限低于 OpenAI 的文档说明。
- 用户正在等待更新,以使系统能力与最新的模型规范准确对齐。
LlamaIndex Discord
- 参加 CodiumAI 关于 RAG 增强编码的网络研讨会:分享了即将举行的 CodiumAI 网络研讨会 的提醒,重点是 RAG 增强的编码助手。参与者必须通过钱包验证 token 所有权才能参加活动。
- 研讨会将涵盖 Retrieval-Augmented Generation (RAG) 如何提高 AI 生成代码的上下文感知能力,这对于保持软件开发的高质量至关重要。
- 使用 RabbitMQ 构建多智能体系统:一篇博客重点介绍了如何使用 RabbitMQ 创建本地多智能体系统(multi-agent system),并通过 llama-agents 利用 ollama 和 qdrant_engine 等工具。查看完整指南请点击这里。
- 这种设置促进了 Agent 之间的通信,并增强了构建健壮 AI 系统所必需的开发体验。
- 使用 HuggingFace Inference API 获取 Embeddings:HuggingFace Inference API 允许使用
TextEmbeddingsInference类生成 embedding,详见此示例。它支持模型名称和 embedding 批处理大小等参数以优化性能。- 用户强调了它为处理 embedding 带来的效率,这对于训练 AI 模型至关重要。
- 分享 RAG 性能见解:讨论包括关于 Retrieval-Augmented Generation 如何基于上下文感知提高生成代码质量的见解。关于使用 LlamaIndex 基础设施的高级方法的演示涵盖了实际应用。
- 与会者可以期待学习上下文感知生成 (context-aware generation),这对于希望改进编码助手的开发者来说至关重要。
- Llamaparse 的阿拉伯语解析问题:用户报告称 Llamaparse 在阿拉伯语解析方面存在困难,尽管阿拉伯语是“从右到左”的性质,但生成的却是“从左到右”格式的结果。这引发了关于 Llamaparse 处理语言复杂性能力的重要疑问。
- 这一反馈标志着在解析应用中适应多种语言方面的一个潜在改进领域。
Cohere Discord
- LLM 幻觉指数引发关注:LLM Hallucination Index 评估模型对上下文的忠实度,因其被命名为年度词汇而备受瞩目。
- 成员们讨论了该指数对 Command R Plus 的准确性,认为其误导了其开源状态。
- 开源定义引发辩论:关于幻觉指数中开源定义的分歧,认为仅发布权重就定义为开源过于宽松。
- 强调数据集和训练方法的额外透明度对于真正的开源状态至关重要。
- Mistral 的许可证受到审视:成员们澄清 Mistral 模型采用 Apache 2.0 许可证,使其符合开源标准,尽管在数据集访问方面存在限制。
- 讨论显示,许多模型被标记为“开放权重 (open weights)”,但缺乏真正的开源特性。
- Command R Plus 的商业用途争议:Command R Plus 在知识共享署名-非商业性使用许可 (Creative Commons Attribution Non Commercial license) 下运行,使其在实际上属于闭源。
- 论文中的开源定义受到审查,成员们主张建立更清晰的标准。
- Cohere Toolkit 助力学习项目:Cohere Toolkit 被用于一个 AI 研究员项目的学习计划,重点是在食谱和法律案例笔记等多样化语料库上构建带有 RAG 的 LLM。
- 出现了关于从 Cohere 模型迁移到第三方 API(如 OpenAI Chat GPT 或 Gemini 1.5)的咨询,暗示了更广泛的功能需求。
Modular (Mojo 🔥) Discord
- InlineList 定义新方向:
InlineList目前缺少 __moveinit__ 和 __copyinit__ 功能,但相关进展正在进行中,关键特性即将合并。- 成员们将这些开发视为改进核心功能的首要任务。
- 澄清 Mojo 类型:List vs. InlinedFixedVector:
InlinedFixedVector专为 AnyTrivialRegType 设计,而List则服务于 CollectionElement,突显了它们在 Mojo 中各自的用途。- 讨论涉及正在审查的小缓冲区优化 (small buffer optimization),这可能会提升
List的性能。
- 讨论涉及正在审查的小缓冲区优化 (small buffer optimization),这可能会提升
- Mojo 与自定义硬件:一个加速话题:成员们辩论了在 Mojo 中使用 PCIe 卡等自定义加速器的潜力,并质疑在开源发布前是否提供支持。
- 对性能的担忧强调了有效硬件集成对 cxl.mem 的依赖。
- FPGA 与 CXL IP 模块:硬件开发见解:讨论涵盖了 Xilinx VU13P FPGAs 的使用以及为硬件优化项目集成 CXL IP 模块。
- 一位成员分享了用自定义解决方案替换内核使用的计划,以提高整体效率。
- 对 Mojo 开源未来的期待升温:人们对 Mojo 作为开源项目的未来感到兴奋,特别是关于对 RISC-V 向量扩展 (vector extensions) 的支持。
- 成员们表达了希望 Mojo 能够显著贡献于他们的项目,尽管目前存在兼容性限制。
LAION Discord
- John Schulman 离开 OpenAI 加入 Anthropic:OpenAI 联合创始人 John Schulman 在 OpenAI 的 superalignment team 解散后,将加入由 Amazon 支持的 AI 初创公司 Anthropic。
- 这一转变可能反映了在不断变化的环境中,确保对先进 AI 系统进行控制的持续担忧。
- 开源 AI 面临高昂成本挑战:open-source AI 领域面临重大挑战,特别是 SOTA 模型的高昂训练成本以及获取必要偏好数据的难度。
- 这些问题导致了竞争性开源模型开发的瓶颈。
- Meta 的 JASCO 受到质疑:关于 Meta JASCO 的猜测激增,有报道称其“失踪”并可能面临来自 Udio 和 Suno 的诉讼。
- 随着社区中不确定性的蔓延,这一传闻可能会阻碍 Meta 的 AI 进展。
- Doxxing 事件引发隐私担忧:Nullbulge 遭遇了 doxxing(人肉搜索)事件,引发了关于在线隐私和个人声誉风险的讨论。
- 社区成员指出,操作安全(operational security)中存在的潜在弱点可能有助于减轻未来风险。
- 模型在 270k 参数处遇到准确率瓶颈:据报道,270k model 遇到了准确率平台期,仅达到 84% 的验证准确率,这标志着增加参数带来的收益递减。
- 一位参与者建议,这一趋势表明模型设计需要替代策略。
tinygrad (George Hotz) Discord
- tinygrad 在 Aurora 上的可行性:成员们讨论了在 Aurora 上运行 tinygrad 的可行性,因为其依赖 Intel GPU,并强调了对 A770s 等张量核心指令的支持。
- 讨论涉及对 Aurora 能力 的预期,其预计将超过 2 ExaFLOPS,使其有可能成为史上最快的计算机。
- 张量的预分配技术:一名成员建议预分配张量并分配切片(slices)可能解决张量操作问题,George 确认连续性(contiguity)可以解决该问题。
- 将
Buffer实例映射回DEFINE_GLOBAL突显了对清晰度的需求,因为像 Eigenvector42 这样的成员对张量流(tensor flow)表示了不确定性。
- 将
- 对分布式计算功能的需求:成员们强调,tinygrad 需要成熟的 distributed computing 功能才能充分发挥 Aurora 的能力。
- 他们强调,增强这些功能对于更好地利用 Aurora 的计算能力至关重要。
- FP8 NVIDIA 赏金任务需要双重支持:有人询问 FP8 NVIDIA 赏金任务是否需要支持 E4M3 或 E5M2,或者两者都需要,George 对两者都给予了积极回应。
- 这表明了未来开发的一个关键领域,以及对 NVIDIA 要求的支持。
- OpenMP 线程见解:关于 CLANG 和 LLVM 线程的讨论确认了目前主要在单线程上使用,并提到了通过 OpenMP 进行增强的可能性。
- 共享了相关 tinygrad GitHub pull requests 的链接,以激励贡献和改进。
DSPy Discord
- Wiseflow 彻底改变了信息挖掘:Wiseflow 是一款新型敏捷信息挖掘工具,可从多种来源提取并分类简洁信息,增强数据组织。
- 这一创新工具旨在为信息密集型环境提供最佳检索,满足当前用户需求。
- HybridAGI 引入神经符号增强:HybridAGI 的最新版本整合了以图(graphs)为中心的神经符号系统,改进了 RAG (Retrieval-Augmented Generation) 功能。
- 主要特性包括旨在简化易用性和增强数据处理流水线的各种 Notebook。
- LLM 通过 Agent 向 AGI 演进:关于将 LLM 转型为基于 LLM 的 Agent 的研究正在进行中,旨在解决这篇 研究 中强调的自主性局限。
- 这强调了建立统一标准来评估作为 Agent 的 LLM 解决方案的必要性。
- 通过推理计算提升性能:最近的一项研究表明,在推理过程中增加生成的样本数量可以提高性能,正如在 SWE-bench Lite 中所见,问题解决率从 15.9% 提升到了 56%。
- 样本覆盖率与性能之间的这种关系对于代码编写和形式化证明特别有利。
- MIPRO 通常优于 BootstrapFewShotWithRandomSearch:针对相关咨询,有人指出 MIPRO 的表现“经常,但不一定”优于 BootstrapFewShotWithRandomSearch。
- 这指出了 MIPRO 的强劲性能,同时也承认了其变数。
OpenAccess AI Collective (axolotl) Discord
- 合成数据生成策略:一名成员询问了关于合成数据生成的策略,以增强 8b 模型在推理任务上的表现,特别是使用 Chain of Thought (CoT) 训练的 text to SQL。
- 他们建议在生成 SQL 查询之前利用合成指令,以潜在地提高模型性能。
- 针对 Gemma 2 27b 的 QLoRA 配置:讨论集中在针对 Gemma 2 27b 的 QLoRA,并建议调整 learning rate 以兼容 Flash Attention。
- 成员们分享了尝试这些修改的意图,这可能有利于训练。
- 微调上下文长度(Context Length)的见解:一名成员询问在将 llama2-13b-hf 等微调模型的上下文长度设置为 4k 后,是否还能进行调整。
- 另一名成员确认可以增加或减少,并建议对于大幅度调整采用逐步方法以保持性能。
- 用于快速调整的 RoPE Scaling:关于上下文长度话题,有人建议使用 RoPE scaling 进行高效调整。
- 建议逐渐增加上下文长度以获得最佳效果,特别是对于重大变更。
- BitsAndBytes GitHub Pull Request 提及:一名成员强调要关注 BitsAndBytes GitHub 上的正确分支,特别提到了 Pull Request #1220。
- 这一细节对于任何参与近期开发或调试的人员来说都至关重要。
Torchtune Discord
- PPO 训练 Recipe 已添加到 Torchtune:一个端到端的 PPO 训练 Recipe 已集成到 Torchtune 中,实现了 RLHF 功能。查看详细实现 点击这里。
- 这一补充简化了强化学习与 Torchtune 工具包之间的集成, 增强了训练选项。
- 现在支持 Qwen2 模型:对 Qwen2 模型(包括 7B 模型)的支持已集成到 Torchtune 的训练 Recipe 中,1.5B 和 0.5B 模型也即将发布。更多详情见 这里。
- 这一扩展为社区内的模型实验和微调开辟了更多可能性。
- 计划为 Llama 3 提供 DPO 支持:成员们讨论了为 Llama 3 8B full finetune 提供 DPO 支持的可能性,并对功能增强表示了兴趣。即使没有预构建的配置,任何模型都可以与这些 Recipe 配合使用。
- 这表明正在持续努力探索更深层次的模型能力。
- 重构后的 PreferenceDataset 增强了聊天支持:新重构的 PreferenceDataset 现在支持聊天功能,详见 Pull Request #1276。这与之前讨论中建立的统一 message_transform 流水线保持一致。
- 此次更新似乎显著改善了用户与数据集的交互体验。
- 关于专用模型构建者页面的提案:一位成员建议为每个模型的构建者(builders)创建一个专用页面,以适应不断增加的模型和多模态 LLM。这将使我们能够更好地解释诸如模型下载和配置等重复性细节, 为用户整合信息。
- 该提案强调了社区对模型管理中更清晰组织工具的需求。
OpenInterpreter Discord
- Open Interpreter 设置故障排除:用户报告了设置 Open Interpreter 时的问题,特别是在选择本地 Llama 模型时,执行过程中经常遇到 openai.APIConnectionError。
- 一位用户报告称,即使在选择之后,他们的模型仍尝试再次下载。
- 关于 Open Interpreter 安全措施的咨询:一位成员对 Open Interpreter 如何处理用户数据提出了担忧,特别是数据是否保留在本地机器上。
- 他们询问了端到端加密标准以及通信过程中是否有任何第三方参与。
- Open Interpreter 的 Python 兼容性:一位成员询问 Open Interpreter 是否支持 Python 3.12,并表示自己是编程初学者。
- 另一位成员澄清说,目前的兼容性需要 Python 3.10 或 3.11。
- Ollama 模型列表命令:为了探索可用模型,一位成员建议使用命令
ollama list,并指出每个模型都有特定的 VRAM 需求。- 运行模型的指令详见 Ollama 文档,重点强调了资源可用性。
- 远程托管模型的 API Key:已确认访问付费的远程托管模型必须使用 API Key,而本地模型则在指定的 port 上运行。
- 这突显了远程功能中身份验证的重要性。
Mozilla AI Discord
- Llamafile 取得重大里程碑:团队继续推进 Llamafile,在单个文件中提供离线、可访问的 LLM,这让社区成员感到非常兴奋。
- 社区成员对该项目在可访问性方面的潜在影响表示兴奋。
- Mozilla AI 社区征求反馈以换取奖励:Mozilla AI 社区通过一项调查寻求建议,参与者有机会赢取 $25 礼品卡。
- 鼓励成员分享 Mozilla AI 如何通过社区资源更好地支持他们。
- 庆祝 sqlite-vec 发布派对:诚邀大家参加 sqlite-vec 发布派对,届时将有核心维护者主持的演示。
- 参与者将有机会尝试演示并直接与核心团队交流, 增强他们的动手实践经验。
- 机器学习论文研讨会 (Machine Learning Paper Talks) 中的精彩讨论:即将举行的 Machine Learning Paper Talks 将涵盖 Communicative Agents 和 Extended Mind Transformers,由一位知名的社区成员主持。
- 这些环节有望让参与者了解最新的研究并进行充满活力的讨论。
- Local AI AMA 的见解:一场与 Local AI 核心维护者的 AMA 即将举行,讨论自托管替代方案。
- 这是成员提问并探索 Local AI 实际实现的绝佳机会。
MLOps @Chipro Discord
- LinkedIn 工程团队重构其 ML 平台:LinkedIn 正在举办一场直播活动,详细介绍其工程团队对 ML 平台的改造及其内部创新。你可以点击此处加入讨论。
- 该活动强调了对 machine learning 最新进展的见解,鼓励参与者在讨论中积极参与并分享想法。
- 直播活动带来实时见解:活动正在进行中,揭示了 LinkedIn 在 machine learning 方面的关键进展,展示了其工程团队使用的策略和技术。
- 参与者可以积极贡献,为那些对该领域前沿实践感兴趣的人提供了一个协作场所。
Alignment Lab AI Discord 没有新消息。如果该服务器长期沉寂,请告知我们,我们将予以移除。
LLM Finetuning (Hamel + Dan) Discord 没有新消息。如果该服务器长期沉寂,请告知我们,我们将予以移除。
DiscoResearch Discord 没有新消息。如果该服务器长期沉寂,请告知我们,我们将予以移除。
AI21 Labs (Jamba) Discord 没有新消息。如果该服务器长期沉寂,请告知我们,我们将予以移除。
第 2 部分:按频道详细摘要和链接
完整的频道细分内容已针对电子邮件进行了截断。
如果您喜欢 AInews,请分享给朋友!预谢!