ainews-too-cheap-to-meter-ai-prices-cut-50-70-in
**便宜到无需计费:过去 30 天 AI 价格下调 50-70%**
Gemini 1.5 Flash 降价约 70%,并提供极具竞争力的免费层级(每分钟 100 万 token),价格低至 $0.075/百万 token,进一步加剧了 AI 模型的价格战。其他显著降价的模型还包括:GPT-4o(降价约 50%,至 $2.50/百万 token)、GPT-4o mini(降价 70-98.5%,至 $0.15/百万 token)、Llama 3.1 405b(降价 46%,至 $2.7/百万 token)以及 Mistral Large 2(降价 62%,至 $3/百万 token)。Deepseek v2 引入了上下文缓存(context caching),将输入 token 成本降低了高达 90%,降至 $0.014/百万 token。
新发布的模型包括 Llama 3.1 405b、Sonnet 3.5、EXAONE-3.0(由 LG AI Research 开发的 7.8B 指令微调模型)以及 MiniCPM V 2.6(结合了 SigLIP 400M 和 Qwen2-7B 的视觉语言模型)。基准测试显示,Mistral Large 在 ZebraLogic 上表现优异,而 Claude-3.5 在 LiveBench 中处于领先地位。FlexAttention 作为一个新的 PyTorch API,简化并优化了注意力机制。Andrej Karpathy 对 RLHF(人类反馈强化学习)进行了分析,指出了其与传统强化学习相比的局限性。此外,文中还总结了 Google DeepMind 关于计算最优扩展(compute-optimal scaling)的研究。
Gemini Flash 就足够了吗?
2024年8月7日至8月8日的 AI 新闻。我们为你检查了 7 个 subreddits、384 个 Twitters 和 28 个 Discords(249 个频道和 2423 条消息)。预计节省阅读时间(按 200wpm 计算):247 分钟。你现在可以标记 @smol_ai 进行 AINews 讨论!
一份过去 30 天内 AI 领域所有降价情况的简单列表(以 “mtok” 即 “每百万 token” 衡量——大部分成本通常是输入),按 LMsys Elo/排名排序:
- Elo 1286 Rank 2: GPT-4o 从 5 月到 8 月降价约 50% ($2.50/mtok)
- Elo 1277 Rank 3: GPT-4o mini 实际上降价了 70-98.5%,取决于你是与 GPT3.5T 还是 GPT4T 比较 ($0.15/mtok)
- Elo 1264 Rank 4: Llama 3.1 405b 最初由 Together AI 提供 $5/15 的价格——在 48 小时内被 DeepInfra 降价 46% 至 $2.7/mtok,Lepton 紧随其后 ($2.7/mtok)
- Elo 1249 Rank 8: Mistral Large 2 相比 2 月的 Large v1 降价了 62% ($3/mtok)
- Elo 1228 Rank 17: Gemini 1.5 Flash 降价约 70% —— 此外还有其现有的 每分钟 100 万 token 的免费层级 ($0.075/mtok)
- Elo 1213 Rank 17: Deepseek v2 在 Context Caching 的 GA 发布上击败了 Gemini,将缓存命中的输入 token 价格最高降低了 90% ($0.014/mtok(没写错))。这是在他们最初的 $0.14/mtok 定价之后,该定价可能引发了上个月的价格战
鉴于 Gemini 1.5 极其慷慨的免费层级,LMsys 排名 17 以下的所有模型——目前包括 Gemma 2, Nemotron 4, GLM 4, Reka Flash, Llama 3 7b, Qwen 72B 等——对于大多数个人和团队使用场景来说,实际上是一发布就过时了。
价格-智能前沿(Price-Intelligence frontier)在又一个季度中再次推进了一个数量级。
AI Twitter 综述
所有综述均由 Claude 3.5 Sonnet 完成,取 4 次运行中的最佳结果。
AI 模型开发与发布
-
新模型与新功能:@rohanpaul_ai 报道了 Llama3.1 405b 和 Sonnet 3.5 的发布,用户可以通过 Google Cloud 的 300 美元赠金免费使用。@_akhaliq 宣布了来自 LG AI Research 的 EXAONE-3.0,这是一个 7.8B 的指令微调模型,在同尺寸的最先进开源模型中表现出极具竞争力的性能。@mervenoyann 重点介绍了 MiniCPM V 2.6,这是一款结合了 SigLIP 400M 和 Qwen2-7B 的视觉语言模型,在多项基准测试中超越了专有模型。
-
模型性能与基准测试:@sophiamyang 指出,尽管 Mistral Large 比其他模型尺寸更小,但在 ZebraLogic 基准测试中表现出色。@rohanpaul_ai 分享道,在针对新版 GPT-4o-2024-08-06 的 LiveBench 基准测试中,Claude-3.5 依然稳居榜首。
-
AI 工具与框架:@cHHillee 介绍了 FlexAttention,这是一个新的 PyTorch API,允许仅用几行 PyTorch 代码就能让多种 Attention 变体享受融合算子(fused kernels)的加速。该开发旨在简化和优化神经网络中的各种 Attention 机制。
AI 研究与洞察
-
RLHF 与模型训练:@karpathy 对来自人类反馈的强化学习(RLHF)进行了深入分析,讨论了其局限性并将其与传统强化学习进行了比较。他认为 RLHF“仅仅勉强算是强化学习”,并强调了将其应用于大语言模型时的挑战。
-
计算最优扩展(Compute-Optimal Scaling):@rohanpaul_ai 总结了 Google DeepMind 关于大语言模型推理时计算(test-time computation)的计算最优扩展论文。该研究引入了根据提示词难度自适应分配推理时计算资源的方法,有可能让较小的基础模型表现超越大得多的模型。
-
模型合并技术:@cwolferesearch 解释了各种模型合并技术,包括线性合并(linear merging)、任务向量(task vectors)、TIES 合并和 DARE 合并。这些方法允许在不需要额外训练数据或计算资源的情况下,结合多个 LLM 的能力。
AI 应用与工具
-
用于对象分割的 SAM 2:@AIatMeta 宣布了 SAM 2,这是一个用于图像和视频中实时、可提示对象分割的统一模型。@swyx 强调,据估计仅在图像处理方面,SAM 1 在一年内就为用户节省了约 35 年的时间。
-
AI 数字人:@synthesiaIO 推出了个人 AI 数字人(avatars),并在一个有 4000 多人参加的直播活动中展示了其逼真度。
-
LlamaIndex 进展:@llama_index 分享了一个构建文档聊天机器人的教程,该教程使用 Firecrawl 进行网页抓取,并使用 Qdrant 进行向量存储和检索。
AI 伦理与政策
-
结构化输出与安全性:@AlphaSignalAI 报道了 OpenAI 发布了其性能最强的 GPT-4o 助手模型,其特点是具有 100% 可靠性的结构化输出(structured outputs),并改进了 Token 限制和价格。
-
AI 安全担忧:@rohanpaul_ai 总结了一篇关于使用人类流畅提示词对经过安全微调的 LLM 进行越狱(jailbreaking)的论文,该方法在保持低困惑度(perplexity)的同时实现了极高的攻击成功率。
AI Reddit 综述
/r/LocalLlama 综述
主题 1. 免费访问高级 LLM:Llama 3.1 405B 和 Sonnet 3.5
-
免费使用 Llama3.1 405b + Sonnet 3.5 (分数: 304, 评论: 108):Google Cloud 正通过其 Vertex AI Model Garden 提供 Llama 3.1 405B 和 Sonnet 3.5 模型的免费访问,提供价值高达 300 美元 的 API 使用额度,对于每个 Google 账号,这大约相当于 2000 万个输出 Token 的 Sonnet 3.5 使用量。一个相关的项目 Open Answer Engine 展示了如何利用这项 API 服务创建一个具有 Google 搜索功能的 405B 模型,详情见 Weights & Biases 的报告。
-
Experimenting llama3-s: An early-fusion, audio & text, multimodal model (Score: 92, Comments: 16): Llama3-s 是一款集成了音频和文本的早期融合(early-fusion)多模态模型,现已发布供实验使用。该模型在 1.4 trillion tokens 的文本和 700 billion tokens 的音频上进行了训练,展示了在转录、翻译和音频理解任务中的能力,同时在纯文本基准测试中保持了强劲性能。
Theme 2. Optimized Inference and Quantization for ARM-based Processors
-
Snapdragon X CPU inference is fast! (Q_4_0_4_8 quantization) (Score: 83, Comments: 39): Snapdragon X CPU 在使用 Q_4_0_4_8 量化运行 Llama 3.1 8B 时表现出令人印象深刻的推理速度,在搭载 10 核 Snapdragon X Plus 芯片的 Surface Pro 11 上达到了 15.39 tokens per second。该帖子提供了优化性能的说明,包括使用 -win-llvm-arm64.zip 发布版本、将 Windows 电源模式设置为“最佳性能”,以及使用 llama-quantize.exe 命令将现有的 GGUF 模型重新量化为 Q4_0_4_8,并指出这些结果与 MacBook M2 和 M3 的性能水平相当。
-
LG AI releases Exaone-3.0, a 7.8b SOTA model (Score: 144, Comments: 77): LG AI 发布了 Exaone-3.0,这是一个拥有 7.8 billion 参数的语言模型,在多个基准测试中达到了 SOTA 性能。该模型在韩语和英语方面表现出卓越的能力,在某些任务上超越了像 GPT-3.5 这样更大规模的模型,而体积却小得多。
Theme 3. Summarization Techniques and Model Comparison for Large Texts
- Best summarizing LLMs for average PCs? (Score: 68, Comments: 72): 该帖子讨论了与消费级硬件兼容的摘要生成 LLM,特别是针对 Nvidia RTX 3060 12GB GPU 和 32GB DDR5 RAM 的配置。作者推荐使用 Qwen2、InternLM,有时也使用 Phi3 mini 和 medium 128k 来处理 20,000 到 25,000 字的文本块,并指出更大的 LLM 与其配置不兼容,且 Llama 3.1 在此任务中表现不佳。
- Llama3.1 和 GLM-4-9b 被用于摘要 YouTube 视频转录文本。该过程包括创建章节大纲,然后为每个项目生成详细描述,这种滚动窗口(rolling window)方法对于长内容效果良好。
- Gemini 1.5 Flash 的免费层级提供了令人印象深刻的摘要能力,拥有 1 million token context window 和每分钟 1 million 免费 tokens 的额度,正如一位用户链接到 Google AI 价格页面所澄清的那样。
- Obsidian 的 Copilot 插件允许使用本地 LLM 轻松对选定文本进行摘要,提供了一个直接在应用程序内保存摘要的流线化流程。
Theme 4. Repurposing Mining Hardware for AI Workloads
- Picked up a mining rig for testing . . . (Score: 143, Comments: 62): 一位用户购买了一台装有 7x 3060 GPU 的矿机进行测试,发现它是一台完整的 PC,虽然处理器和 RAM 较弱,而不仅仅是电源和转接卡。他们正在寻求关于如何在这台机器上加载 AI 模型并将输出分发到宿主 LLM 应用程序的建议,旨在将矿机硬件重新用于 AI 推理任务。
- llama.cpp 可以在该设备的 84GB VRAM 上运行 LLaMA 3.1 70B Q8,如果使用 Q6 量化则可获得更多上下文空间。用户建议先尝试较小的模型,从 2B 开始逐步增加以测试性能。
- 建议升级主板和 CPU,推荐使用双路 E5 v3/v4 服务器 CPU 以及支持多个 PCIe 插槽的主板。PCIe 分叉(Bifurcation)扩展卡可以允许一个 16x 插槽处理多个 GPU。
- 推荐使用 vLLM 进行分布式设置,而 ExLlamaV2 提供了内置的生成器/队列功能。该矿机每个 GPU 仅占用一个 PCIe 通道可能是个瓶颈,但一旦模型加载到 VRAM 中,CPU 和系统 RAM 的占用率极低。
AI Reddit 全回顾
r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence, /r/LLMDevs, /r/Singularity
AI 模型改进与技术
-
Flux 结合 LoRA 显著提升照片写实感:在 r/StableDiffusion 中,一篇文章展示了使用 Flux 结合 LoRA 如何显著增强生成图像的写实感,特别是皮肤纹理和面部细节。用户注意到第一张图像看起来与真实照片无异。
-
Midjourney 到 Runway 的视频生成效果令人印象深刻:r/singularity 的一篇文章展示了将 Midjourney 图像作为输入用于 Runway 视频生成的惊人能力,突显了 AI 生成视频的快速进步。
OpenAI 动态与推测
-
Project Strawberry 预热:OpenAI 在社交媒体上暗示 “Project Strawberry” 的帖子引发了讨论和推测。一些用户认为这可能与改进 ChatGPT 统计单词(如 “strawberry”)中字母数量的能力有关,这是一个已知的问题。
-
潜在的新推理技术:分享的一篇 Reuters 文章表明,OpenAI 正在开发代号为 “Strawberry” 的新推理技术。
AI 模型行为与局限性
-
ChatGPT 在字母计数方面表现挣扎:多位用户测试了 ChatGPT 统计 “strawberry” 中 ‘r’ 数量的能力,模型始终给出错误答案。这突显了在某些类型的推理任务中持续存在的局限性。
-
Tokenization 对模型性能的影响:一些专业用户指出,字母计数问题与语言模型如何对单词进行 Tokenization 有关,解释了为什么 ChatGPT 在处理这个看似简单的任务时会遇到困难。
社区反应与讨论
-
对 OpenAI 营销手段的质疑:几位用户对 OpenAI 的营销策略表示不满,认为 “Strawberry” 的预热过于夸大,或者分散了对其他问题的注意力。
-
关于 AI 进展的辩论:这些帖子引发了关于 AI 能力现状的讨论,一些用户对图像和视频生成的快速进步感到印象深刻,而另一些用户则指出了推理任务中持久存在的局限性。
AI Discord 全回顾
由 GPT4O-Aug (gpt-4o-2024-08-06) 生成的总结之总结的摘要
1. 模型性能与优化
- BiRefNet 超越 RMBG1.4:BiRefNet 在背景移除方面表现出优于 RMBG1.4 的性能,具有增强的高分辨率图像分割能力,详见 arXiv 论文。
- 该模型由 南开大学 开发,采用双边参考技术,显著优化了图像处理任务。
- Torchao v0.4.0 提升优化性能:torchao v0.4.0 的发布引入了 KV cache 量化和量化感知训练 (QAT),增强了低比特优化器支持。
- 社区讨论了关于 Intx Tensor Subclasses 的 GitHub issue,邀请在追踪器上提供更多输入,以实验低比特量化。
- RoPE 优化简化代码:成员们分析了 RoPE 的实现,主张通过转向直接的三角函数运算而非复数来简化代码。
- 这一调整被视为在保留训练逻辑功能完整性的同时,迈向增强代码清晰度的一步。
2. 开源 AI 发展
- Harambe 彻底改变漏洞猎取:开源漏洞猎取工具 Harambe 的推出,旨在利用 LLM 生成 API 端点建议,从而简化 API 分析。
- 这种从传统 fuzzing 技术向新方法的转变,为识别代码中的潜在问题提供了一种更高效的方式。
- EurekAI 平台为研究人员发布:EurekAI 作为一个面向研究人员的跨协作平台推出,旨在通过 AI 功能简化研究流程并提高生产力。
- 目前处于 alpha 阶段,它承诺提供诸如项目创建和集成日志记录(journaling)等功能,旨在促进研究参与度。
- Midjourney CEO 批评开源:Midjourney CEO 对 开源持怀疑态度,认为本地模型无法与使用 64 GPUs 的服务竞争,并将 ControlNet 视为唯一的成功案例。
- 批评者反驳称,Midjourney 的产品类似于开源所能实现的 劣质版本,并指出了 Flux 中的 overfitting 问题:“它看起来有一种塑料感。”
3. AI 基础设施与市场动态
- Hugging Face 通过收购 XetHub 进行扩张:Hugging Face 宣布收购 XetHub,以增强其大模型的协作基础设施,旨在实现更好的数据集管理。
- CEO Clem Delangue 强调,此举对于扩展 AI 模型开发和统一其运营策略至关重要。
- OpenAI 的降价引发竞争:据报道,OpenAI 正在对其 GPT-4o 模型实施 70% 的降价,引起了行业的广泛关注。
- 这种剧烈的价格变动可能会导致 AI 模型领域竞争对手调整其定价策略。
- Vercel 故障影响 OpenRouter:Vercel 目前面临间歇性故障,影响了 OpenRouter 服务,详见其 状态更新。
- 经过多次更新,服务在 东部时间下午 3:45 恢复稳定,目前仍在持续监控中。
4. Prompt Engineering 与微调
- Self-Discover Prompting 受到关注:一位成员强调了 Self-Discover prompting 的潜力,断言其力量和有效性超越了传统的 Chain-of-Thought (CoT) 方法。
- 他们强调了其在构建定制化 prompt 以产生更好输出方面的适用性。
- RAG Pipeline 需要增强可观测性:有观点认为 RAG pipelines 需要更好的可观测性来捕获查询时的追踪(query-time traces),以及合理的文档分块(document chunking)的重要性。
- 正如一条 推文 所强调的,不恰当的上下文分块可能会导致检索问题。
- 为 LLM 优化聊天记录:讨论集中在实现一个 自定义函数 来限制 LLM 应用的聊天记录,旨在提高性能。
- 维护特定用户的上下文被认为是简化跨不同用户交互的聊天保留的关键因素。
5. AI 应用与工具
- SAM 2 Pod 启动上线:最新一期的 Latent Space podcast 以 SAM 2 为主题,邀请了 Nikhila Ravi 和 Joseph Nelson 分享见解。
- 听众了解到,在 RoboFlow 上使用 SAM 标记了 4900 万张图像,估计节省了用户 35 年 的时间。
- Stable Diffusion 在 Python 中进行优化:成员们讨论了利用 Diffusers 库在 Python 中实现 Stable Diffusion,重点是优化性能和 VRAM 使用。
- 他们强调了正确设置参数以达到 理想输出质量 的重要性。
- MiniCPM-V 2.6 在性能测试中表现出色:据报道,MiniCPM-V 2.6 的表现优于其竞争对手,包括 Gemini 1.5 Pro、GPT-4V 和 Claude 3.5 Sonnet,特别是在多图应用中。
- 欲了解更多详情,成员们分享了其 Hugging Face 页面 和 GitHub 仓库 的链接。
PART 1: 高层级 Discord 摘要
Unsloth AI (Daniel Han) Discord
- 4bit GGUF 模型面临加载挑战:围绕 4bit GGUF 模型展开了讨论,指出在模型加载过程中使用
load_in_4bit可能导致精度损失,并强调了如果不开启此选项会出现 OOM 错误。- 虽然 4bit 降低了 VRAM 消耗,但在实施前需要仔细权衡性能方面的折中。
- PPO Trainer 实现中出现问题:一名成员报告在尝试将自定义二进制奖励函数与 PPO Trainer 结合使用时,出现了负 KL 散度错误。
- 成员们探讨了将 DPO 作为更简单的替代方案,但也对其与 PPO 相比的性能表现表示担忧。
- Unsloth 推出多 GPU 支持:确认向受信任的 Unsloth 用户推出多 GPU 支持(multi-GPU support),这可能导致 VRAM 消耗降低并提高处理速度。
- 随后引发了关于该功能是会在开源仓库中开放,还是仅限付费订阅用户使用的辩论。
- Mistral 模型成功量化:分享了关于量化 123B Mistral-Large-Instruct-2407 模型的见解,使用 EfficientQAT 算法在减小模型体积的同时实现了极小的精度下降。
- 这种优化进一步证明了在不产生实质性输出降级的情况下提高模型效率的可行性。
- Harambe:新型 Bug 猎取助手:介绍了 Harambe,这是一个开源的 Bug 猎取工具,旨在利用 LLM 生成 API 端点建议,从而简化 API 分析。
- 这种从传统模糊测试(fuzzing)技术的转变,为识别代码中的潜在问题提供了一种更高效的方法。
HuggingFace Discord
- BiRefNet 超越 RMBG1.4:BiRefNet 在背景去除方面的表现优于 RMBG1.4,具有增强的高分辨率图像分割能力,详见 arXiv 论文。
- 该模型由 南开大学 开发,采用双边参考技术,显著优化了图像处理任务。
- EurekAI 平台发布:EurekAI 作为一个面向研究人员的跨协作平台推出,旨在通过 AI 功能简化研究流程并提高生产力。
- 目前处于 alpha 阶段,它承诺提供项目创建和集成日志等功能,旨在促进研究参与度。
- AI 模型性能评估:成员们对比了预训练翻译模型,如 Facebook 的 M2M100 和 SeamlessM4T,这些模型在多语言翻译中展现出良好的前景。
- 讨论强调了 SeamlessM4T-v2 与 Whisper 模型在转录能力上的差异,重点关注实际可用性。
- Gradio v4.41 的精彩更新:Gradio v4.41 的发布引入了显著功能,例如为
gr.Image提供全屏图像显示,通过改进的用户交互机制增强了输出查看体验。- 此次更新还加强了针对未授权访问和 XSS 攻击的安全性,为部署应用程序提供了更健壮的框架。
- Papers with Code 资源见解:一名成员强调 Papers with Code 是总结计算机视觉领域 State-of-the-art (SOTA) 性能的重要资源,包含 11,272 个基准测试和 137,097 篇带有代码的论文。
- 这个宝贵的平台有助于用户探索各种机器学习应用,增强了文献的可理解性。
CUDA MODE Discord
- 用于 CUDA Profiling 的 BPF 见解:一位成员询问是否有人正在使用 BPF 对 CUDA 进行 profiling,部分成员表示 eBPF 缺乏对 GPU 活动的可见性,仅限于 OS kernel。
- 成员们对其有效性提出了质疑,并建议使用 Nsight Compute 和 Nsight Systems 等替代方案来进行全面的 GPU 应用监控。
- Attention Gym 链接与 FlexAttention:成员们报告了 Attention Gym 的链接失效,并对其关于 softcapping 的详细内容表示赞赏。
- 此外,还出现了关于将 FlexAttention 集成到 HF 模型中的讨论,表示计划等待 PyTorch 2.5 版本以实现更顺畅的集成。
- torchao v0.4.0 发布:torchao v0.4.0 的发布带来了 KV cache 量化和量化感知训练 (QAT) 等增强功能,其对低比特优化器的支持令人振奋。
- 社区参与包括一个关于用于低比特量化实验的 Intx Tensor Subclasses 的 GitHub issue,并邀请在 tracker 上提供进一步的输入。
- 内存使用与 KV Cache 优化:一位成员对 KV Cache 的实现优化了内存使用,实现了在单个 80GB GPU 上进行全量 bfloat16 微调,尽管已接近内存极限。
- 讨论建议探索托管内存以缓解限制,同时准备专注于代码清理和可维护性的 pull requests。
- RoPE 优化讨论:成员们分析了 RoPE 的实现,主张通过转向直接的三角运算而非复数来简化。
- 这一调整被视为在保留训练逻辑功能完整性的同时,增强代码清晰度的一种举措。
Perplexity AI Discord
- Perplexity Pro 降低每日限制:Perplexity Pro 用户报告每日限制从 600 次降至 450 次,引发了对变更沟通方式的不满。
- 一位成员表示不信任,称他们事先没有收到关于此变动的任何通知。
- API 停机导致访问问题:用户正面临 Perplexity API 的重大停机,引发了对问题范围的担忧。
- 报告显示,一些用户通过 VPN 连接到不同地区解决了问题,这表明可能存在基于地理位置的差异。
- Google 反垄断裁决震动市场:2024 年 8 月 5 日,美国法院裁定 Google 维持非法垄断,这是 Department of Justice 的重大胜利。
- 裁决确认“Google 是垄断者”,并概述了其维持市场主导地位的非法做法。
- 关于神经科学中量子理论的讨论:对大脑中量子纠缠的研究引发了辩论,特别是围绕 Orch-OR 等暗示认知影响的理论。
- 怀疑论者认为,大脑温暖、潮湿的环境可能无法支持持续的量子态。
- 非英语回答缺乏连贯性:用户注意到非英语语言的 prompt 经常产生不连贯的回答,突显了多语言处理方面的局限性。
- 一个法语案例导致了重复的输出,引发了对模型在不同语言下鲁棒性的担忧。
Stability.ai (Stable Diffusion) Discord
- 在 Python 项目中优化 Stable Diffusion:成员们讨论了利用 Diffusers 库在 Python 中实现 Stable Diffusion,重点在于优化性能和 VRAM 占用。
- 他们强调了正确设置参数以达到期望输出质量的重要性。
- 为 AI 工作升级旧电脑:一位用户寻求关于升级陈旧电脑配置以处理 AI 任务的建议,寻找不需要彻底翻新且价格合理的组件。
- 建议包括使用 Fiverr 寻求组装协助,以及考虑将准系统预装电脑作为替代方案。
- 在 Intel CPU 上进行换脸:一位用户请求推荐兼容 Intel CPU 的换脸技术,并表示愿意为专家指导付费。
- 这凸显了硬件配置较低的用户对实用解决方案的需求。
- 使用 SAM 工作流增强图像:社区分享了利用 SAM 检测器改进图像细节的心得,从而实现更强大的工作流。
- 一位成员强调细节处理不应局限于人物,还应包括背景和结构,从而拓宽了潜在的应用场景。
- 在 Mac 上生成 NSFW 内容 - 需要网页工具:一位用户询问在配备 16GB RAM 的 MacBook Air M2 上能高效运行的、用于 NSFW 内容生成 的最佳网页工具。
- 讨论内容包括与模型复杂度相关的性能影响,以及基于硬件能力进行本地安装的优势。
LM Studio Discord
- NVIDIA 显卡未受当前问题影响:当前的性能问题仅影响 CPU,成员们对他们的 NVIDIA 显卡 表示放心。
- 讨论强调了对 CPU 与 GPU 配置的偏好,展示了 CPU 驱动型工作负载的优势。
- CPU 使用率报告引发困惑:关于 CPU 使用率数字超过 100% 的讨论出现,解释为应用程序根据核心数量报告总使用率。
- 成员们指出不同操作系统之间的报告标准各异,导致了普遍的误解。
- 双 GPU 未能提升推理速度:成员们确认 LM Studio 支持双 GPU,但推理速度仍与单 GPU 配置相似。
- 出现了关于硬件改进以增强 Token 吞吐量从而获得更好性能的建议。
- 性能辩论:4090 对比 3080:用户对 4090 的表现与 3080 相似表示不满,其训练速度优势仅为 每 epoch 20 毫秒。
- 虽然 4090 在游戏方面表现出色,但其他人强调了 3080 在处理 8B 以下模型时的高效性。
- 有限的 VRAM 阻碍了模型选择:2GB VRAM 被证明不足以运行大多数模型,导致低 VRAM 选项的性能不佳。
- 用户注意到必须将较大的模型拆分到 VRAM 和系统内存中,这显著限制了效率。
OpenAI Discord
- OpenAI 发布 GPT-4o System Card:OpenAI 分享了 GPT-4o System Card,详细介绍了旨在追踪前沿模型风险的评估,并概述了带有预设语音的音频功能。
- 该 System Card 确保了针对有害内容的妥善防护,增强了用户的信任和理解。
- 免费用户可访问 DALL·E 3:ChatGPT 免费用户现在每天可以使用 DALL·E 3 创建最多两张图片,使内容生成更加普及。
- 这一功能通过无缝请求,为演示文稿和定制卡片等项目提供了个性化的创意输出。
- 持续的网站访问问题:多位用户报告了访问 OpenAI 主站时的连接问题,导致持续的错误和间歇性的可访问性。
- 这种情况证实了成员们日益增长的挫败感以及社区内意想不到的困难。
- 对消息配额的困惑:成员们对使用平台(尤其是涉及 GPT-4o 时)较早达到消息配额限制表示不满。
- 这种体验引发了关于意外达到限制的不一致性的讨论,影响了用户交互。
- 在使用 OpenAI Python SDK 时遇到困难:用户在尝试使用 OpenAI Python SDK 复现结果时面临挑战,特别是在遇到 Python 版本差异时。
- 这表明了可能存在的兼容性问题,阻碍了跨不同编码环境的准确输出。
Nous Research AI Discord
- MindSearch AI 增强信息检索:论文 MindSearch: Mimicking Human Minds Elicits Deep AI Search 介绍了一种 Agentic AI,通过 WebPlanner 和 WebSearcher 的双系统方法改进了信息检索,超越了当前的搜索模型。
- 这种创新结构有效处理复杂查询,展示了在智能信息寻求方面的显著增强。
- Tavus Phoenix 模型席卷视频生成领域:Tavus 推出了 Phoenix 模型,该模型利用先进技术创建超写实的数字人视频 (talking head videos),并能够同步自然面部动作。
- 开发者可以通过 Tavus 的 Replica API 访问 Phoenix 模型,实现视频内容的多样化和高级定制。
- 模型在处理倒置文本时崩溃:Mistral 和 ChatGPT 等多种模型无法生成连贯的倒置文本,而 Claude Opus 和 Sonnet 3.5 则能轻松处理并提供准确输出。
- 这些观察结果突显了 Claude 模型卓越的能力,特别是在无错误地生成和重写倒置文本方面。
- 社区讨论 AI Discord 资源:一名成员分享了一个 Reddit 帖子,列出了几个有用的 AI Discord 频道,包括 Replete-AI 和 Unsloth。
- 这些资源为在 Discord 中探索 AI 领域的学习者提供了多样的见解和支持。
- Claude API 面临服务器过载问题:用户指出 Claude API 在使用高峰期频繁给出过载消息,干扰了他们的工作流。
- 目前尚不确定这些问题是源于服务器限制还是影响访问的封禁。
Eleuther Discord
- LM Harness 数据集要求明确:一名成员询问了用于 LM Evaluation Harness 的数据集所需格式,特别是必要的字典键 (dictionary keys)。他们被引导至 YAML 文件 以获取关于键设计的结构化指导。
- 这强调了格式化的灵活性,这对于从事数据集集成的开发者至关重要。
- 辩论 AI 模型的 CBRN 风险:成员们讨论了模型是否可以在不产生 CBRN 风险的情况下提供化学建议,并担心过滤可能会损害科学能力。
- 讨论指出,知识渊博的用户可能仍会提取有害信息,这对当前过滤策略的有效性提出了挑战。
- 过滤预训练数据的后果:参与者认为,删除“坏”数据可能会削弱模型的整体理解能力和对齐效果。
- 有人提到,缺乏负面示例可能会阻碍模型避免有害活动的能力,引发了对能力退化的担忧。
- 对 AI 新闻报道的挫败感:成员们表达了对记者描述 AI 方式的不满,认为他们通常在缺乏足够背景的情况下强调煽动性的风险。
- 这引发了对 AI 输出安全叙事及其潜在误导的更广泛担忧。
- 寻找开源奖励模型:有人询问关于用于验证数学任务的有效开源 Process Based Reward Models。
- 这突显了在数学解题领域对可靠验证工具的迫切需求。
Interconnects (Nathan Lambert) Discord
- Hugging Face 通过收购 XetHub 进行扩张:Hugging Face 宣布收购 XetHub,以增强其针对大型模型的协作基础设施,旨在实现更好的 dataset 管理。
- CEO Clem Delangue 强调,此举对于扩展 AI 模型开发和统一其运营策略至关重要。
- Qwen2-Math 在数学任务中占据主导地位:阿里巴巴新推出的 Qwen2-Math 模型系列在专业数学任务中的表现优于 GPT-4o 和 Claude 3.5。
- 这标志着数学专用语言模型的重大飞跃,预示着特定领域应用可能发生的转变。
- AI Infrastructure 独角兽崛起:一系列讨论揭示了像 Hugging Face 和 Databricks 这样的 AI infrastructure 构建者如何塑造 generative AI 市场。
- Hugging Face 最近的融资努力使其在 open-source 领域足以与 GitHub 竞争,反映出强劲的增长战略。
- OpenAI 的降价引发竞争:据报道,OpenAI 正在对其 GPT-4o 模型实施 70% 的降价,引起了行业的极大关注。
- 这种剧烈的价格变动可能会导致 AI 模型领域竞争对手调整定价策略。
- 关于 GPT-4 Token 数量的澄清:报告确认 GPT-4 使用了 10 万亿个 tokens,这一数字得到了聊天频道中多个来源的证实。
- 尽管达成了共识,成员们仍将 GPT-4 称为过时的技术 (ancient technology),暗示了模型能力的快速演进。
LangChain AI Discord
- 修复 AWS Lambda 中的 LangChain 问题:一位用户在尝试于 Python 3.12 运行时的 AWS Lambda 中导入 LangChain 模块时遇到了 pydantic 错误,凸显了潜在的版本冲突。
- 建议包括仔细检查 lambda layer 设置以解决导入问题。
- 为 LLM 优化聊天记录 (Chat History):讨论集中在实现一个自定义函数来限制 LLM 应用的聊天记录,旨在提高性能。
- 维护特定用户的 context 被认为是简化不同用户交互中聊天保留的关键因素。
- LangChain 与其他框架的辩论:用户表示,由于功能差异,使用 LangChain 从 OpenAI 切换到 Anthropic 需要大量的代码重写。
- 参与者一致认为,尽管 LangChain 进行了抽象,但仍需根据单个 LLM 的行为进行特定调整。
- LLM 可靠性担忧:有人对 Claude 3.5 出现内部服务器错误表示担忧,强调了生产环境中 AI 系统的可靠性。
- 这引发了关于 LangChain 是否是构建稳定 AI 系统的正确选择的更广泛讨论。
Latent Space Discord
- GPT-4o 增强了输入和输出能力:GPT-4o 模型可以处理文本、音频、图像和视频,显著提升了通用性和响应速度,类似于人类交互。
- 它的 API 使用价格也便宜了 50%,并在多种语言中表现出更强的性能。
- Gemini 1.5 Flash 大幅降价:GoogleAI 将 Gemini 1.5 Flash 的价格降低了约 70%,使其对开发者更具吸引力。
- AI Studio 现在面向所有 workspace 客户开放,方便更好地进行新语言实验。
- DALL·E 3 向免费用户开放:ChatGPT Free 用户现在每天可以使用 DALL·E 3 生成两张图片,提高了内容创作的可及性。
- 虽然这一功能受到欢迎,但对其更广泛的应用仍存在一些怀疑。
- Mistral Agents 扩大了功能集成:Mistral Agents 现在可以在各种工作流中使用 Python,突显了其更强的适应性。
- 用户对促进 API 调用的功能非常感兴趣,这增强了实际应用。
- SAM 2 播客上线:最新一期的 Latent Space podcast 介绍了 SAM 2,并包含了来自 Nikhila Ravi 和 Joseph Nelson 的见解。
- 听众了解到,在 RoboFlow 上使用 SAM 标记了 4900 万张图像,估计为用户节省了 35 年的时间。
LAION Discord
- Midjourney CEO 批评开源:Midjourney CEO 对开源持怀疑态度,认为本地模型无法与他们使用 64 GPUs 的服务竞争,并将 ControlNet 贬低为唯一的成功案例。
- 批评者反驳称,Midjourney 的产品类似于开源所能实现效果的劣质版本,并强调了 Flux 中的过拟合 (overfitting) 问题:“它看起来有一种塑料感。”
- ASL 语言模型概念出现:一位用户提议开发一个将语音翻译为 ASL 的应用,并考虑了使用手势图像训练模型的挑战。
- 建议包括对现有模型进行 fine-tuning,另一位用户讨论了改进语音识别模型,使用 emojis 来表示手势。
- 合成语音数据集构想提出:一名成员提议使用 so-vits-svc 通过转换音频文件中的声音来创建合成数据集,旨在增强多样性同时保留内容。
- 这种方法可以促进在语音表达中捕捉更广泛的情感,并提高模型在人口统计分类中的区分度。
- Flux 模型讨论持续:用户对 Flux 进行了反思,一些人将其标记为“好玩的玩具”,认为它没有取得重大进展,并对其过拟合 (overfitting) 表示担忧。
- 持续的对话强调了与 Midjourney 相比,Flux 需要更有针对性的 fine-tuning。
- 多种辅助功能 AI 应用:分享了各种旨在增强辅助功能的 AI 建议,包括一个用于语音识别的尊重隐私的 IP Relay 应用。
- 成员们专注于本地 inference 技术以帮助听障人士,展示了对具有影响力的 AI 应用的浓厚兴趣。
OpenAccess AI Collective (axolotl) Discord
- 多后端重构安装顺利:一位成员确认他们成功安装了 multi-backend-refactor,没有出现任何问题,并准备关注后续进展。
- 这种顺利的安装过程增强了对其在进行中项目的稳定性和实用性的信心。
- Google Gemini 大幅降价:一位成员分享了一个名为“Google Gemini 疯狂降价!!!”的 YouTube 视频,重点介绍了 Gemini 1.5 Flash 的降价。
- 视频概述了大幅度的折扣,观众可以在 Google Developers blog 中找到更多细节。
- 在 Metaverse 中呼吁 H100:有人幽默地建议 Zuck 需要在 Metaverse 中提供更多 H100 GPU,强调了对先进资源的需求。
- 这一言论强调了虚拟环境中对高性能计算的持续需求。
- 使用 38k 数据集进行训练:一位成员报告称,他们使用 38k 条目的数据集训练模型,在 RTX 4090 上耗时 32 小时。
- 他们担心当前设置中的 learning rate 可能过高。
- 正确 Prompt 格式讨论:成员们强调了在 inference 期间针对特定任务的 Prompt 必须使用 Alpaca 格式,以确保一致性。
- 他们强调,聊天时的输出必须镜像 fine-tuning 中使用的格式,以获得最佳效果。
Cohere Discord
- Almosnow 寻求 API 文件上传指导:一位成员希望使用 API 在 coral.cohere.com 上复制 UI 中的 PDF 查询功能,但难以找到相关文档。
- 出现错误:could not convert string to float: ‘float_’ 表明输入格式存在底层问题。
- Mapler 提供 RAG 资源:Mapler 回复了关于通过 Cohere API 使用 Retrieval-Augmented Generation (RAG) 的资源,并链接到了一篇 博客文章 和额外文档。
- 他们分享了一个用于生成可靠回答的代码片段,增强了对 RAG 使用的理解。
- Azure AI Search 集成困扰:用户报告称,尽管向量化数据已成功索引,但 Cohere embeddings 在 Azure AI Search 中的结果并不一致。
- 使用来自 Azure AI Studio 的模型进行集成向量化 被强调为解决问题的潜在资源。
- Cohere-toolkit 增强工具激活:讨论了通过在 preamble 中添加
always use the <tool> tool来默认启用 Cohere-toolkit 中的工具。- 有人指出,必须列出该工具才能在调用期间正常运行。
- 用户在自定义部署中遇到障碍:一位成员分享了在模型选择受限的自定义部署中修改
invoke_chat_stream以实现默认工具加载的尝试。- 由于 UI 差异显示工具未激活而产生困惑,强调了模型反馈中需要进一步澄清。
LlamaIndex Discord
- LlamaIndex 公告即将发布:LlamaIndex 的公告定于 5 分钟 后发布,这在公告频道成员中引发了热议。
- 成员们正热切期待此次活动可能带来的亮点或更新。
- RAG 流水线需要增强可观测性:有观点认为 RAG pipelines 需要更好的可观测性来捕获查询时的 traces 以及正确文档 chunking 的重要性。
- 正如一条 推文 所强调的,不当的上下文 chunking 可能会导致检索问题。
- LongRAG 论文对比引发讨论:分享的 LongRAG 论文 表明,在资源充足的情况下,长上下文模型优于 RAG,这引发了对其方法论的讨论。
- 成员们表达了对涉及 Claude 3.5 的对比以及来自 LangChain 的 Lance 的见解的渴望,增强了社区讨论。
- Self-Routing 技术革新效率:LongRAG 论文中介绍的 Self-Route 方法 根据 self-reflection 路由查询,在保持性能的同时降低了成本。
- 利用元数据进行 parent-document retrieval 的提议浮出水面,以增强检索系统,同时也强调了元数据标记中的可靠性挑战。
- Workflows 抽象引发关注:团队展示了使用 Workflows 构建复杂 AI 应用程序的简便性,特别是在 新视频 中展示的重建 LlamaIndex 的 Sub-Question Query Engine。
- 这使得 Workflows 能够有效地在生成式 AI 应用中部署复杂的查询引擎。
Torchtune Discord
- 对 LLAMA 3 生成质量的担忧:在使用 LLAMA 3 8B instruct model 时,一位成员发现使用“anything”进行提示会导致意外输出,引发了对生成质量的担忧。
- 他们引导其他人分享经验,或参考 GitHub issue #1285 进行进一步讨论。
- 评估 RTX A4000 和 A2000 的 Fine Tuning 表现:讨论强调了 RTX A4000 和 RTX A2000(均配备 16GB 显存)的性能特征,显示在 1.5B 模型上的 Fine Tuning 结果不尽如人意。
- 一位成员建议增加默认的 batch size 以更好地管理内存开销,可能使工作负载适应 12GB 环境。
- 内存优化参数正在审查中:目前关于内存优化参数存在一些推测,虽然 LoRA 非常有效,但目前并未被优先考虑。
- 优化的潜力显而易见,特别是对于使用 8GB VRAM GPU 的成员,性能提升可能超过 2x。
- 关于 RLHF 清理工作的讨论:一位成员提出了关于在公开分享前对 RLHF 进行必要清理的问题,并回顾了早期关于所需调整的笔记。
- 他们表示愿意合作编写 tutorial 或 blog post,并承认这需要投入大量精力。
- 宣传和记录工作的计划:一位成员渴望发起关于公开宣传其工作并开发文档或 tutorials 的讨论,并概述了一个初步路线图。
- 他们欢迎社区的投入和协助以增强这些努力,表明将采取集体协作的方式。
Modular (Mojo 🔥) Discord
- 在 AI Infrastructure 上构建的自由:成员们讨论了只要没有商业化意图,在 AI Infrastructure 上部署任何内容都是可以接受的,并引用了 pricing page。
- 内部工具的使用似乎没问题,只要目标不是商业化,但相关指南仍有些模糊。
- VS Code + WSL:Mojo 的黄金搭档:一位用户探索了在 Windows 开发环境中使用 WSL 上的 Mojo Max 运行 Mojo,并推荐使用 VS Code 无缝桥接 Windows 和 Linux。
- 利用这种设置,你几乎会忘记自己是在 Linux 中开发,尽管在可复现性方面存在一些限制。
- FancyZones 提升工作流管理:一位成员介绍了 FancyZones utility,通过将应用程序吸附到定义区域来增强 Windows 上的窗口管理,从而提高生产力。
- 该工具允许高效利用屏幕,帮助开发者在多窗口设置中简化工作流。
- Active Directory:并非真正的 distributed database:关于是否将 Active Directory 称为 distributed database 展开了一场幽默的辩论,成员们指出尽管它被贴上了此类标签,但缺乏真正的 consistency 等特征。
- 随后出现了关于 Windows 上现有 distributed databases 的进一步讨论,展示了社区对澄清术语的兴趣。
DSPy Discord
- 用于 LLM 评估的 Inspect 工具预告:一位成员询问了关于 Inspect 在 LLM observability 方面的应用,寻求与 DSPy 集成的见解。
- 虽然尚未有经验分享,但该工具的定位似乎是为了增强 large language model evaluations。
- DSPy 相比 Langgraph 的优势:一个明显的区别是 DSPy 优化了 prompt space 指令,而 LangGraph 在 LangChain 架构中处于较低层级。
- 从本质上讲,DSPy 侧重于性能提升,而 LangGraph 处理系统级接口。
- optimize_signature 胜过 COPRO:用户报告称,在 GSM8K 的 Chain of Thought 任务中,optimize_signature 的表现优于 COPRO,获得了 20/20 的分数。
- 相比之下,COPRO 难以获得 zero-shot 指令解决方案,最高分仅为 18/20。
- 用户寻求 DSPy-Multi-Document-Agent 的帮助:一位成员在查找 DSPy-Multi-Document-Agent 的 requirements.txt 时遇到困难,询问是否遗漏了关键文件。
- 这一询问指向了潜在的文档缺失或资源链接不清晰的问题。
- 对使用 qdrant_dspy 进行高级检索的兴趣:qdrant_dspy GitHub repository 的链接强调了使用 Gemma-2b、DSPy 和 Qdrant 构建 RAG pipelines。
- 另一个资源 dspy/retrieve/qdrant_rm.py 强调了 DSPy 在本地 VectorDB 编程中的实用性。
tinygrad (George Hotz) Discord
- getenv 函数触发 ValueError: 一位用户在导入时遇到了
ValueError,具体为 ‘invalid literal for int() with base 10: WARN’,这指向了一个环境变量问题。- 一位成员建议检查环境变量会有所帮助,并确认将 DEBUG 变量设置为 ‘WARN’ 是问题的根源。
- DEBUG 变量引发麻烦: 尽管用户的 Python 脚本运行良好,但在 notebook 环境中将 DEBUG 环境变量设置为 ‘WARN’ 会导致 getenv 函数出现问题。
- 这凸显了 tinygrad 在 notebook 和独立脚本环境之间潜在的兼容性差异。
- Tinygrad Tensor Puzzles 挑战发布: 成员们介绍了 Tinygrad Tensor Puzzles,这是一个包含 21 个有趣谜题的集合,旨在从第一性原理出发掌握 tinygrad 等张量库,避免使用魔法函数。
- 该项目基于 Sasha 的 PyTorch Tensor-Puzzles,鼓励新手和资深开发者共同参与,培养问题解决者社区。
- 探索 Tinygrad 内部机制的教程: 分享了一套教程,旨在增强对 tinygrad 内部机制的理解并促进贡献,同时还提供了一份快速入门指南以获取基础见解。
- 虽然这些资源并非完全针对初学者,但为希望有效参与 tinygrad 开发的开发者提供了必要的知识。
- 利用计算机代数技术优化 Tinygrad: 最近的讨论涉及与 tinygrad 优化过程相关的计算机代数学习笔记,增强了潜在的性能洞察。
- 这种整合展示了可以支持开发者改进 tinygrad 能力的有价值的方法论。
OpenInterpreter Discord
- 寻求开源视觉模型: 成员们正积极寻求适用于视觉任务的开源模型建议,并询问有关本地和 API 实现方案。
- 一位成员通过询问社区内此类模型的可用性和性能表现表达了好奇。
- MiniCPM-V 2.6 在性能测试中脱颖而出: 据报道,MiniCPM-V 2.6 的表现优于竞争对手,包括 Gemini 1.5 Pro、GPT-4V 和 Claude 3.5 Sonnet,特别是在多图应用中。
- 欲了解更多详情,成员们分享了其 Hugging Face 页面和 GitHub 仓库的链接。
- 询问发货更新: 一位成员提出了关于发货更新的问题,表示对时间表和状态感兴趣。
- 尽管未提供具体答案,但分享了一个相关的 Discord 频道链接以供潜在讨论。
MLOps @Chipro Discord
- Llama 团队在 arXiv 上参与互动: Llama 团队正在 arXiv 讨论论坛上回答问题,提供了直接进行技术交流的机会。
- 这一举措有助于更深入地了解 Llama 3 模型及其应用。
- Quora 启动 Poe Hackathon: Quora 正在举办一场线下和线上的 Hackathon,重点是利用 Poe 的新 Previews 功能构建机器人。
- 参与者将利用 GPT-4o 和 Llama 3.1 405B 等先进的 LLM 开发创新的聊天内生成式 UI 体验。
- 探索非生成式 AI 应用: 一位成员发起了关于非生成式 AI 重要性的对话,鼓励他人分享想法。
- “你心目中关注哪些类型的 AI 应用?”这一问题激发了探索各种应用的兴趣。
- 确定了多样化的 AI 应用: 成员们纷纷建议将计算机视觉、预测、推荐系统和 NLP 作为非生成式 AI 的关键领域。
- 这些例子说明了 AI 技术在生成式模型之外服务于各个细分领域的广泛频谱。
OpenRouter (Alex Atallah) Discord
- Vercel 的停机影响 OpenRouter:Vercel 目前面临间歇性停机,影响了 OpenRouter 服务,详见其 状态更新。经过多次更新,服务已于 东部时间下午 3:45 恢复稳定。
- Vercel 继续监控该问题,并确保更新将发布在 Vercel 状态页面。
- Anthropic 的高错误率已缓解:Anthropic 一直在解决影响 3.5 Sonnet 和 3 Opus 模型的高错误率问题,并实施了缓解策略,截至 PDT 时间 8 月 8 日 17:29,成功率已恢复正常。
- 他们提供了更新,确保 Claude.ai 免费用户的访问现已恢复,同时继续密切监控情况。
Alignment Lab AI Discord 没有新消息。如果该频道长时间没有活动,请告知我们,我们将将其移除。
LLM Finetuning (Hamel + Dan) Discord 没有新消息。如果该频道长时间没有活动,请告知我们,我们将将其移除。
Mozilla AI Discord 没有新消息。如果该频道长时间没有活动,请告知我们,我们将将其移除。
DiscoResearch Discord 没有新消息。如果该频道长时间没有活动,请告知我们,我们将将其移除。
AI21 Labs (Jamba) Discord 没有新消息。如果该频道长时间没有活动,请告知我们,我们将将其移除。
第 2 部分:频道详细摘要与链接
完整的频道详情已为邮件格式进行截断。
如果你喜欢 AInews,请分享给朋友!提前感谢!