AI News

今天没发生什么事。

OpenAI 推出了 GPT-5,带来了统一的用户体验并取消了手动模型选择。这在初期导致 Plus 用户遇到了路由和访问问题,目前官方正通过恢复模型选项和提高使用限制等措施进行修复。GPT-5 为高阶付费档位引入了“优先处理”(Priority Processing)功能以降低延迟,在某些情况下,中值首字响应时间(TTFT)达到了约 750 毫秒。

微软报告称 Copilot 已全面采用 GPT-5,其 API 流量在 24 小时内翻了一番,峰值达到每分钟 20 亿个 token。早期基准测试显示,GPT-5 在 FrontierMath 和 LiveBench 等推理任务中处于领先地位,并在幻觉控制和创意写作方面有所改进;不过,在某些侧重强化学习(RL)的特定推理基准测试中,Grok-4 和 Claude-4 Sonnet Thinking 等模型的表现超过了它。

OpenAI 还发布了详尽的迁移和功能指南,但在发布过程中也遇到了一些问题,包括代码示例错误以及语音模式(Voice Mode)发布受阻。“统一的 GPT-5”终结了模型选择器,促使开发者不再依赖手动模型选择。

#reasoning #latency #model-routing #benchmarking #reinforcement-learning #hallucination-control #creative-writing #priority-processing #api-traffic #model-deprecation #user-experience #model-selection #voice-mode #documentation gpt-5 gpt-4o grok-4 claude-4-sonnet openai microsoft

平静的一天。

2025年8月7日至8月8日的 AI 新闻。我们为你检查了 12 个 Reddit 分区、544 个 Twitter 账号和 29 个 Discord 社区(227 个频道,16496 条消息)。预计节省阅读时间(以 200wpm 计算):1217 分钟。我们的新网站现已上线,支持完整的元数据搜索,并以优美的 vibe coded 风格展示所有往期内容。详见 https://news.smol.ai/ 获取完整的新闻拆解,并在 @smol_ai 上给我们反馈!

关于 GPT-5 的质量、风格和发布的争论很多,包括立即弃用 GPT-4o 的意外决定,该决定随后已被撤回。


AI Twitter 综述

OpenAI GPT-5 发布:统一的 UX、路由负面反馈以及发布修复

  • “统一的 GPT-5”与模型选择器的终结:OpenAI 将 GPT-5 定位为跨模型系列和“思考”模式的单一路由体验,在 ChatGPT 中弃用了手动模型选择,并推动开发者停止构建“模型选择器”。查看来自 OpenAI 团队负责人 @nickaturley 的产品设计立场和 @ElaineYaLe6 的发布推文。
  • 路由难题与方案限制(Plus vs. Pro):高级用户很快报告了“推理”模型访问受限、路由不可预测,以及与 o3/o4-mini 时代相比 Plus 额度大幅下降(例如“每周 200 次”思考上限)。高信号推文总结了这些投诉(“Plus 用户被坑了”Sankey 分析价值下降)。OpenAI 承认发布时自动切换器存在问题,并承诺修复:@sama 表示他们将把 Plus 的思考额度翻倍,恢复 4o 作为可选模型,提高当前活跃模型的透明度,改进决策边界,并增加更简单的手动“思考”触发器。OpenAI 的设计后续跟进见此:@nickaturley
  • 延迟与吞吐量调优:GPT-5 为高价位层级引入了“优先处理(Priority Processing)”,以实现更低的 TTFT (@jeffintime)。对于低延迟用例,使用 “service_tier: priority”、“reasoning_effort: minimal” 和 “verbosity: low” 可实现约 750ms 的 P50 TTFT (@kwindla)。早期的路由设计在处理重视觉输入时会增加约 2-3 秒的延迟 (@swyx)。
  • 采用率与流量:Microsoft 表示 100% 的 Copilot 用户现在都在 GPT-5 上运行 (Mustafa Suleyman),OpenAI 报告称 API 流量在 24 小时内翻了大约一倍 (@sama)。Kevin Weil 指出发布数小时后峰值吞吐量达到“每分钟 20 亿 token” (@kevinweil)。
  • 文档、指南与一些小瑕疵:OpenAI 发布了大量的迁移、提示词和功能指南 (@omarsar0),但也出现了一些退化(例如 CI 捕获到一个损坏的首个代码示例;@jeremyphoward)以及波折的 Voice Mode 发布 (@juberti)。

GPT-5 早期表现:推理能力强劲,但在路由、成本和工作量方面存在注意事项

  • 学术/推理基准测试
    • FrontierMath:GPT‑5(高推理版本)创下了新纪录——在 1–3 级测试中达到 24.8% ±2.5%,在 4 级测试中达到 8.3% ±4.0%,部分运行触及了 100k token 的上限(@EpochAIResearch后续跟进)。LiveBench 也显示 GPT‑5 位居榜首(@scaling01)。在 SimpleBench 和长上下文任务上,GPT‑5 表现出显著提升(@gdb@scaling01)。
    • 创意/幻觉:GPT‑5 在“提供文本”任务的虚构控制(confabulation control)上创下新高(@LechMazur),并在短篇小说写作基准测试中领先;在该任务中 GPT‑5‑mini 击败了 o4‑mini(@LechMazur)。
    • LisanBenchV2 (Word Ladder) 显示出浓厚的 RL“推理”味:Grok‑4 领先;o3 和 Claude 4 Sonnet Thinking 略胜 GPT‑5;OpenAI 在有效性比例(错误意识)方面占据主导地位(@scaling01Grok‑4 总结)。在 WeirdML 上,GPT‑5 达到了 SOTA(@scaling01)。
  • 编程/Agent
    • SWE‑bench Verified 配合小型 Agent:GPT‑5 约 65%,GPT‑5‑mini 约 60%,GPT‑5‑nano 约 35%;仍略落后于 Opus 5(约 68%),与 Sonnet 4(约 65%)持平,但成本极具竞争力,尤其是 mini 版本(@KLieret)。Cline 社区指出 GPT‑5 具有“精密仪器”般的行为——当 Prompt 精确时表现卓越;但在面对歧义时表现脆弱,其 diff‑edit 失败率约为 6.9%,高于 Claude/Qwen(@cline)。
    • 轶事证据显示其具有强大的调试和指令遵循能力,特别是在 Cursor/Codex CLI 环境中(@willccbb@sound4movement@Ishaank1999)。
  • 成本、分词与冗长度:早期的文档理解测试发现,在相同的视觉 Prompt 下,GPT‑5 消耗的 token 比 GPT‑4.1 多 4–5 倍,这可能是由于更冗长的内部“思考”所致,这在实践中抵消了每百万 token 的价格优势(Jerry Liu)。在路由/策略稳定之前,预计成本将取决于具体任务和路由方式。
  • 扩展与算力:Epoch 认为 GPT‑5 可能打破了以往“每代约 100 倍”的训练算力增长趋势,这意味着战略重点已转向后训练(post-training)、路由和效率,而非单纯追求预训练规模的暴力扩展(讨论串)。

Agent 与开发者工具:Cursor CLI 访问、Claude Code 后台任务、LangChain/LlamaIndex 集成

  • Cursor/Codex CLI:GPT‑5 已面向 ChatGPT 订阅用户开放,配额慷慨但仍在调整中;发布初期欧盟地区可用性滞后;若限额应用错误可尝试 /logout 缓解;每周 + 5 小时重置,持续调优中(@embirico)。多位开发者报告称,在正确引导下,GPT‑5 能提供可靠、简洁且“非过度工程化”的代码。
  • Claude Code 更新:新增长时间运行的后台任务(实时监控 bash),以及可自定义的终端状态行——这些是提升 Agent 式编程体验的功能(@_catwu状态行)。
  • OpenAI “自定义工具”与引用:现已支持正则表达式/语法约束的工具参数;并已接入 LangGraph 和 LangChain Agent(LangChain@chester_curme)。Anthropic 的“搜索结果作为内容块”功能上线并支持原生引用,LlamaIndex 和 LangChain 已完成集成(LlamaIndexLangChain)。
  • Google 的 Jules Agent:现在会主动搜索网页以获取最新上下文,从而提高代码生成质量(@julesagent)。

开源模型、长上下文以及训练/推理基础设施

  • OpenAI GPT‑OSS:
    • 格式与复盘:Harmony 数据集格式现已支持 HF Datasets (HF);深入探讨了 “Attention Sinks” 及其在 OpenAI OSS 模型中的应用 (@Guangxuan_Xiao)。社区修复了 chat templates、channel tags 以及精度问题;发布了用于 MXFP4 推理和 Unsloth 微调的 Colab (@danielhanchen)。Intel 发布了 20B 2/4‑bit GGUF (@HaihaoShen)。
    • 行为研究:对 GPT‑OSS‑20B 生成内容的早期探测显示其在分布/风格上存在一些奇特之处;后续将有更多关于跨模型提取与对比的研究 (@jxmnop)。
  • Qwen:1M token 上下文与编程工具链:Qwen3‑30B‑A3B‑2507 和 Qwen3‑235B‑A22B‑2507 现在通过 Dual Chunk Attention(长度外推)和 MInference(稀疏注意力)支持高达 1M token 的上下文,报告称在接近 1M token 时速度提升高达 3 倍,并兼容 vLLM/SGLang (@Alibaba_Qwen)。Qwen Code CLI 为 “vibe coding” 提供每天 2,000 次的免费运行额度 (发布详情)。
  • 训练/推理栈
    • PyTorch FlexAttention 以及关于在无需自定义 kernel 的情况下实现块稀疏(block‑sparse)与任意 mask 的讨论 (@cHHillee)。
    • Hugging Face Accelerate v1.10:支持 N 维并行(轻松堆叠 DP/TP/PP)和清晰的配置,并附带对比博客 (@m_sirovatka, @TheZachMueller)。
    • Axolotl v0.12:支持多节点 N 维并行训练、FP8 支持、GPT‑OSS 微调,以及用于 TiledMLP 的 FSDP (@axolotl_ai)。
    • vLLM 中国生态:在腾讯总部聚集了 260 多名开发者;来自中国主要实验室的演讲分享了他们采用 vLLM 进行规模化应用的情况 (@PyTorch)。

Google, Anthropic 以及 “LLM 之外的重要事项”

  • Google 的两周冲刺:Demis Hassabis 强调了密集的发布节奏:Genie‑3(世界模拟)、Gemini 2.5 Pro Deep Think、IMO 金牌级表现、AlphaEarth、Aeneas(古文献)、Storybook、Kaggle Game Arena、Jules GA 等 (@demishassabis)。NotebookLM 的 “视频概览” 作为一种解释格式受到了广泛好评。
  • 用于微调的主动学习 (Active Learning):Google Research 声称,通过带有专家标签的可扩展主动策划,可以实现微调数据的数量级缩减——在一项实验中,将 10 万个样本缩减至不到 500 个,同时将专家对齐度提升了 65%;生产系统报告称在保持质量的同时实现了高达 10,000 倍的数据缩减 (摘要)。
  • Anthropic 的 Claude Code:新的 “后台任务” 和终端用户体验优化使得在 Agent 循环中运行长时间工作流变得更加实用 (@_catwu)。Anthropic 还加入了一项美国教育承诺,旨在扩大 AI 和网络安全技能的普及 (@AnthropicAI)。

Meta:模型 vs. 路由 vs. Agent;“跑分营销 (benchmarketing)” 与评估讨论

  • 模型 vs Agent vs 联合设计:多个讨论串在争论是 Agent 框架(Claude Code, Jules, Cursor/Cline)还是模型质量占据主导地位,亦或是协同设计才是真正的突破口 (@charliebholtz)。GPT‑5 的早期使用表明其具有很高的可控性,但也存在脆弱性——精确的 Prompt 和示例驱动的指令效果最好 (@omarsar0)。
  • 基准测试 vs 实际落地:社区情绪正从 “跑分营销 (benchmarketing)” 转向动态/基于追踪 (trace‑based) 的评估:关注失败模式、工具调用次数、尝试次数、展开过程 (rollouts) 以及经济指标,而非单一数字的排行榜 (@nrehiew_)。人们对 LLM‑as‑judge (@Kangwook_Lee) 以及路由不透明性破坏 “公共认识论 (public epistemics)” 的怀疑态度仍在持续 (@EigenGender)。

热门推文(按互动量排序)


AI Reddit 摘要

/r/LocalLlama + /r/localLLM 摘要

1. Qwen3 超长上下文模型升级

  • 🚀 Qwen3-30B-A3B-2507 和 Qwen3-235B-A22B-2507 现已支持超长上下文——高达 100 万个 token! (Score: 645, Comments: 58): 该图片可能展示了 Qwen3-30B-A3B-2507 和 Qwen3-235B-A22B-2507 现已支持高达 100 万 token 的超长上下文,这是通过 Dual Chunk Attention (DCA) 和 MInference 实现的。DCA 通过将巨大序列划分为易于处理且连贯的块(chunks)来实现高效的长度外推,而 MInference 则利用稀疏注意力(sparse attention)来优化推理速度和内存。这些模型在接近 100 万 token 的上下文下,生成性能提升高达 3 倍,并且在部署上保持与 vLLM 和 SGLang 的兼容 (模型链接)。 评论者质疑超长上下文是否仅对 100 万 token 的场景有益,还是在 128-256k token 窗口下也更具优势。另一位用户分享了相关的 DCA 论文 (arxiv 链接),并对与 Unsloth 的 100 万 token 模型进行对比表现出兴趣。
    • 一位用户引用了 Dual Chunk Attention 论文,这是这些模型高效处理超长上下文的基础。该论文因其易读性受到称赞,并提供了关于将序列分解为可管理的块进行注意力计算的架构细节,从而减少了内存和计算中的二次方扩展瓶颈。
    • 出现了关于 100 万 token 上下文内存开销的技术问题;虽然未提供具体细节,但这是长上下文模型中已知的权衡,与标准的 128-256k 上下文设置相比,通常会导致内存占用和计算资源需求的显著增加。
    • 一位测试者报告称,与 Gemini 等替代方案相比,Qwen 模型在长上下文召回方面表现不佳,甚至在 30k token 的召回测试中也失败了。这表明,尽管理论上支持更长的窗口,但在利用扩展上下文时,实际召回任务中可能存在质量退化。
  • Qwen 为 Qwen3-30B-A3B-Instruct-2507 和 Qwen3-235B-A22B-Instruct-2507 增加了 100 万支持 (Score: 229, Comments: 21): Qwen 宣布为 Qwen3-30B-A3B-Instruct-2507 和 Qwen3-235B-A22B-Instruct-2507 提供 100 万 token 上下文窗口支持,并声称在大序列长度下比标准注意力机制提速 3 倍。实现似乎依赖于 vLLM 和 SGLang 等推理引擎,但不支持 llama.cpp。实际使用 100 万 token 上下文需要大约 240 GB 的 GPU 显存。 评论强调了基础模型在本地编程任务中的实用性,并注意到正在进行的通过 EXL2 进行量化的工作。有人对是否提供具有 100 万 token 上下文的 API 版本感兴趣,这表明目前尚不存在或不确定。
    • 一条评论指出,原始的 Qwen3-30B-A3B-Instruct 模型为本地推理提供了显著改进的编程体验,使其成为第一个在简单编程方面让人感到实用的本地模型。评论者正在尝试 EXL2 量化,并寻找现有转换版本的链接,这表明正在努力优化本地部署的内存使用和可访问性。
    • 据指出,为 Qwen3 模型启用 100 万 token 上下文窗口需要大约 240 GB 的 GPU 显存,即使对于高级用户来说,这也是一个巨大的硬件障碍。此外,还有一个关于软件支持的技术细节:仅提到 vLLMSGLang 兼容,而 llama.cpp 目前不支持这些 Qwen 模型所需的上下文长度扩展。
    • 一位用户询问是否有内置 100 万 token 上下文窗口支持的 API 版本,这表明用户对托管/基于服务的交付方式感兴趣,而不是本地部署,这可能是为了在没有专用本地硬件资源需求的情况下提高可访问性。

2. 开源与闭源 AI 模型基准测试及辩论

  • Design Arena 前 10 名的模型中有一半是 OW/OS,且全部来自中国 (Score: 192, Comments: 31): 该图片 (https://i.redd.it/u7fdqw6zwqhf1.png) 显示了 Design Arena 基准测试中的前 10 名模型,强调其中一半是开放权重/开源 (OW/OS) 模型,且除 GLM(评论指出可能来自新加坡)外全部来自中国。该帖子讨论了这些 OW/OS 模型——包括 Qwen3 Coder、DeepSeek R1-0528、DeepSeek V3-2024 和 Qwen3 Instruct 2507——与闭源模型相比的高竞争力。发帖者认为开源正处于 AI 设计评估的黄金时代,并质疑随着 GPT-5 等模型进入基准测试,这一趋势是否会持续。 评论中的技术讨论批评了 AI 设计模型的实际能力,一位资深设计师表示目前的 SOTA 模型缺乏基础设计质量(一致性、品味)。关于排名也存在争议,特别是质疑 Qwen3 Coder 在设计技能上是否优于 GLM,并澄清了 GLM 的起源是新加坡而非中国。
    • 一位拥有 10 年 UX/UI 和品牌经验的用户分享道,目前 AI 生成的网站设计远低于人类初学者的设计标准。具体的技术批评包括过度使用渐变、字体选择差、缺乏一致性或视觉平衡。尽管测试了最先进的模型用于初稿工作流,但他们报告称输出在实践中尚不可用,这表明在这些模型能够胜任专业设计工作之前仍存在巨大差距。
    • 讨论还涉及了模型的地理起源和优势:一位用户指出 GLM(通常与中国联系在一起)实际上来自新加坡,纠正了模型讨论中的国家归属。另一位用户断言 GLM 在设计任务上的表现明显优于 Qwen 模型,认为 GLM 的设计技能是领先开源模型中的一个技术差异点。
  • 为什么需要开源 (Score: 278, Comments: 87): 该图片 (https://i.redd.it/k8n9e70mcthf1.jpeg) 强调了 OpenAI 新订阅模式中的重大降级,特别是将 Plus 用户的每周总推理请求从 2900 次减少到 200 次,上下文窗口从 128k 减少到 8k tokens,价格为每月 200 美元。该帖子强调了开源模型和替代托管方案的必要性,以防止像 OpenAI 这样占据主导地位的公司实施此类限制性且对消费者不友好的政策变化。 评论表达了强烈不满,称 8k 上下文限制是“残忍的”,并认为这种降级会促使用户放弃 OpenAI 服务。用户觉得这一举动是一个“跳鲨鱼 (jump the shark)”时刻,即使在专业场合也失去了继续订阅的理由。
    • 讨论指出,OpenAI 的付费消费级方案 (ChatGPT Plus) 此前提供 128k 上下文长度,但现在对 Plus 用户已降至 8K,而 API 访问则提供基于 token 的计费(例如 20 美元 200 万 tokens),并可以通过 continue.dev 与 OpenWebUI、Python 应用程序和 code-server 等外部工具集成。
    • 技术用户建议从 ChatGPT Plus 订阅模式迁移到 API 使用方式,并指出 API 在 token 预算方面具有灵活性,且在开发者工作流中具有更广泛的集成潜力(例如运行由 GPT 后端驱动的自定义 UI 和开发工具)。
    • 对于 OpenAI 不断变化的产品术语(“unlimited”、“checkmark”、“flexible”、“expanded”)存在困惑和批评,用户要求提供更清晰的定义,因为这些差异直接影响技术用例和价值感知。
  • OpenAI 的“开放洗白”(Open washing) (Score: 443, Comments: 106):该帖子推测 OpenAI 有意发布了一个较弱的开源模型 (GPT-OSS),以转移对其缺乏开源承诺的批评,并预期随后会快速推出 GPT-5 以转移注意力。评论者提供了技术视角,指出 GPT-OSS 120B 模型在本地完全可用,具有强大的指令遵循和语言理解能力,特别适用于需要安全特性的 NLP 和商业用例。详细测试描述了将 NSFW 提示词转换为 SFW 提示词的过程:该模型能精确响应系统指令,仅按指定要求编辑内容,展示了具有高度可靠性的细微、上下文感知的过滤能力(约 500 个提示词中仅有 1 次拒绝)。 一些评论者认为对该模型性能弱点的批评被夸大了,强调了其在注重安全或商业场景中的实用性。此外,关于开源发布中复杂的审查功能与原始模型能力的相对价值也存在技术辩论。
    • 用户报告 GPT-OSS 120B 模型在本地使用中表现强劲,特别是在审查/安全要求重要的商业背景下。一项技术测试涉及指示模型重写提示词以符合 SFW 标准;模型能够根据明确指令选择性地删除或保留术语,展示了细微的语言处理能力,在大约 500 个测试提示词中仅有 1 次拒绝,表明了极高的提示词遵循度和对输出的精细控制。[综合分析]
    • 技术用户达成共识,虽然 GPT-OSS 并非为编程设计,但它擅长通用 NLP 任务和商业用例,特别是在存在西方监管或对中国 LLM 顾虑的情况下。用户将其与 Llama4、Mistral 和 Gemma 等模型并列用于私有运行的应用,指出其可用性主要受限于审查,而非原始技术能力或模型质量。
    • 一种批判性的技术观点认为,发布 GPT-OSS 可能服务于战略商业目的——例如为传闻中的浏览器提供动力——而非推动开源;这表明模型架构的选择和开放性可能是由专有产品集成驱动的,而非为了促进更广泛的 OSS 模型创新。
  • OpenAI 的新开源模型基本上就是 Phi-5 (Score: 197, Comments: 30):该帖子观察到 OpenAI 的新开源模型表现出与 Phi-5 相似的特征,这可能是由于使用了高度精选的训练数据——这是 Phi 系列的标志。作者和评论者指出,该模型在利基领域(例如 SCP 基金会传说,如 SCP-049)仍存在显著的知识空白,表现出幻觉,并生成通用或“虚浮”的叙事输出,这与展示了更多特定领域叙事细微差别的旧模型(如 O3)形成对比。 评论者普遍认为,数据精选可能限制了模型的领域知识,并对相对于之前模型的客观和事实表现表示失望。
    • 多位评论者讨论了 OpenAI 新开源模型与 Phi 系列的相似之处,特别是提到该模型可能使用了高度精选或合成的数据集,这也是原始 Phi 模型的一个关键设计方面。他们推测这种精选可能会导致知识上的显著空白,尤其是在利基或虚构领域。
    • 针对 OpenAI 新 OSS 模型和 GPT-5 的实际表现存在批评,具体测试强调这些模型在处理 SCP 宇宙中 SCP-049 等主题的详细知识时感到吃力。相比之下,O3(可能指 GPT-3.5/3 或其他模型)在类似语境下展示了更深层的领域意识和叙事能力,这表明新模型在广泛覆盖面与特定知识保留之间存在权衡。
    • 有说法称,与之前的模型相比,新的 OpenAI 模型幻觉更多,输出更通用或“虚浮”,这可能是由于过度依赖合成数据或激进的数据集精选。这对于需要在专业领域进行细致的事实或叙事生成的用户构成了挑战。

3. 在消费级硬件上高效运行大型模型 (Llama.cpp & GPT-OSS)

  • 120B 在仅 8GB VRAM 上运行表现出色! (Score: 636, Comments: 81): 一位用户展示了 llama.cpp 中新的 -cpu-moe 选项如何实现在普通硬件(如 8GB VRAM GPU)上高效运行 120B MoE 模型。通过仅将 attention 和非专家参数卸载到 GPU(使用约 5-8GB VRAM),并在 CPU 上执行专家层(例如在 14900K CPU 上达到 25T/s),与全 GPU 卸载(需要 >20GB VRAM)相比,性能损失极小。模型根据需要使用 BF16 和 mxfp4,并受益于 Linux mmap 缓存以支持大内存配置(64-96GB)。提供了完整的 benchmark 日志和 llama-server 命令行,显示在仅 8GB VRAM 的情况下,prompt-eval 速率高达 134 tokens/sec,eval 速率 >25 tokens/sec。这使得 120B 规模的模型在廉价消费级硬件上变得可行,标志着实际大模型推理的重大进步。 评论者报告了不同的性能表现(例如,在 16GB VRAM + 128GB RAM 上为 11-12T/s,在 5090+9950X+192GB DDR5 上为 35T/s,在 RTX 3060Ti 上为 25T/s),并指出 prompt 长度/上下文大小会显著影响速度。一些人请求详细的配置或运行命令,而另一些人则发布了他们自己的高吞吐量 Docker 化设置,强调了硬件、RAM 和配置对获得最佳结果的敏感性。
    • 用户提供了一个完整的命令示例,展示了如何在配备 192GB DDR5 RAM 的 5090 GPU 上,使用 llamacpp-server-cuda 和 120B gguf 模型获得约 35 tokens/sec 的速度。关键的技术参数包括 -ctx-size 32768(大上下文窗口)、-n-cpu-moe 19(CPU Mixture-of-Experts)、-flash-attn(Flash Attention 内核优化)以及 -n-gpu-layers 999(最大化 GPU 卸载)。此设置展示了针对大语言模型最大化的推理吞吐量和 token 生成性能。
    • 用户讨论了上下文长度对性能的影响,其中一位指出增加 prompt 大小(上下文长度)会导致推理速度呈指数级下降。这反映了与 attention 计算和内存传输相关的实际扩展限制,特别是在像 120B 这样高参数量的模型中。
    • 技术层面上对 Mixture of Experts (MoE) 方法表示赞赏,指出它能够以较低的 VRAM 需求实现大模型推理,使先进模型在消费级 GPU 上变得触手可及。讨论强调了使用 -cpu-moe 等参数的有效性,该参数将 MoE 计算卸载到 CPU,进一步降低了 GPU 显存需求。
  • Llama.cpp 刚刚增加了重大的 3 倍性能提升。 (Score: 428, Comments: 54): llama.cpp 已合并对 attention sinks 的支持(见 PR #15157),这导致 prompt 处理速度提升高达 3 倍(例如,在 RTX 3090 上使用新的 GPT-OSS 模型,速度从“300 提升到 1300”)。Benchmark 数据显示,例如在 2x5090 + 1x3090 上运行 gpt-oss 120B,对于 8192-token 的 prompt,处理速度从 1149.9 增加到 2469.6 tokens/sec,而生成速度变化极小(从 145.3 tg 增加到 148.9 tg tokens/sec)。 一些用户报告称,目前这种提升似乎仅适用于 GPT-OSS 模型,这引发了关于该加速是否能推广到所有模型的不确定性。其他用户则未发现改进,并计划查看讨论或实现细节以复现结果。
    • Benchmark 结果表明了显著的加速:在 3 块 GPU(2x5090 和 1x3090)上测试 gpt-oss 120B 模型,使用 8192-token 的 prompt 和响应,吞吐量 (pp) 从 1149.9 跃升至 2469.6,token 生成 (tg) 从 145.3 略微上升至 148.9。这表明多 GPU 设置下的大模型推理速度在现实场景中有 2 倍以上到 3 倍的提升。
    • 为最大化 llama.cpp 性能提供的技术配置细节包括多 GPU 分配及显式的 tensor 分割(在三块 3090 上使用 -tensor-split 0.33,0.33,0.34)、batch/thread 参数调优,以及启用 -flash-attn 等功能,这些对于实现性能提升至关重要。精确的 CLI 参数和设置示例有助于用户复现或优化其部署。
  • 深入探讨 attention sink 的作用,阐明了模型传统上通过让 token 关注特殊的 BOS token(作为 ‘sink’)来避免提供虚假上下文。在使用 window attention(用于性能优化)时,长上下文中可能缺失 BOS,从而导致 attention 模式退化的风险。解决方法是手动确保 BOS token 保留在窗口边缘,从而在增强性能模式下维持正确的模型功能。
  • 致所有关于 GPT-5 的帖子 (Score: 1786, Comments: 69):该帖子幽默地强调,对于本地 LLM (Large Language Model) 爱好者来说,首要关注点是哪个语言模型运行在熟悉的开发端口(例如 8000 或 8080),而不是商业 API 层级或定价。附带的图片可能强化了这种对本地部署的关注,这是 r/LocalLLaMA 中的一个反复出现的主题。评论者讨论了托管多个模型的个性化端口布局策略——一位用户详细说明了将各种模型(Gemma3 4B, Qwen3, Mistral 3.2 24B 等)映射到不同的端口(如 9090, 9191 等),以避免冲突并简化多模型设置中的访问。 评论强调了对 LLM 实质性技术讨论的偏好,将其与一些人认为不太相关或更肤浅的 ChatGPT/OpenAI 帖子进行了对比。关于开源模型与专有模型以及本地部署实用性的辩论仍在继续。
    • SM8085 详细介绍了一种多 LLM 本地部署架构,分享了各种模型/任务的明确端口分配:9090 用于主 LLM (Gemma3 4B), 9191 用于 Whisper (ASR, ggml-base.en-q5_1.bin),9292 用于 tool-calling (Qwen3 4B),9393 用于编程 (Qwen3-Coder-30B-A3B),9494 用于 embeddings (nomic-embed-text-v1.5),以及 9595 用于视觉任务 (Mistral 3.2 24B)。该评论强调了在本地处理多个专用开源模型时,实际的基础设施扩展和端口管理。
  • 我不得不亲自在 GPT-5 上尝试“blueberry”测试。我只是报告结果。 (Score: 671, Comments: 210):图片记录了一个关于 GPT-5 的“blueberry”实验,这是 LLM 中著名的“strawberry problem”的一个变体,通常用于探测持续、自信的存在感或现实自述(例如,声称自己是一个真实的蓝莓)。在这次测试中, GPT-5 反复断言它是“货真价实的”,这表明模型在处理这类元虚构或自我识别提示词的方式上有所改进或转变。讨论引用了关于 tokenization 和模型可解释性的长期争论,指出随着 neuro-symbolic 方法的进展,这仍然是一个未解决且高度相关的问题。背景参考:Strawberry/tokenization 讨论 评论者争论这种行为是否标志着向 AGI 迈出的实际进步,还是仅仅是模型训练和 tokenization 的另一个特有产物,一些人对核心问题如果仍未解决表示失望。
    • 存在关于 “blueberry” 与 “strawberry” 语言/tokenization 测试的讨论,引用了一个众所周知的问题,即由于 tokenizer 实现中的怪癖,模型可能无法正确处理计数和推理任务。相关帖子链接:https://old.reddit.com/r/singularity/comments/1eo0izp/the_strawberry_problem_is_tokenization/。
    • 一位用户与 GPT-5 进行了 5 次独立的对话,专门关注 “blueberry” 中的字母计数问题,并报告称模型每次都回答正确,这表明该任务的顺序/推理能力可能有所提高。
    • 人们注意到这一问题在新兴的 neuro-symbolic 模型背景下的重要性,其中符号推理(如字母计数)对于评估高级 LLM 的推理能力和系统性变得越来越重要。

较少技术性的 AI Subreddit 回顾

/r/Singularity, /r/Oobabooga, /r/MachineLearning, /r/OpenAI, /r/ClaudeAI, /r/StableDiffusion, /r/ChatGPT, /r/ChatGPTCoding, /r/aivideo, /r/aivideo

1. OpenAI GPT-5 发布引发的反弹及模型移除争议

  • OpenAI 移除了模型选择器,通过给 Plus 用户提供更差的模型来省钱。是时候取消订阅了。 (Score: 690, Comments: 176): 该帖子认为,OpenAI 最近为 ChatGPT Plus 订阅者移除了显式的模型选择器,这使得公司能够在持续的算力短缺(见 OpenAI 此前关于算力限制的承认)情况下,将用户查询重定向到更便宜、性能更低的模型。这一设计变更被视为一种成本削减措施,在未经用户同意的情况下降低了付费用户的服务质量,同时 OpenAI 还在扩大用户群并追求盈利——这可能是以牺牲客户体验为代价的。 一些评论者表示,最新模型(特别是 GPT-5)的输出质量没有明显下降,并指出其相对于过去行为有所改进(例如减少了“润色”和表情符号的使用),且输出效果与 GPT-3 等早期模型相当。另一些人推测,大多数用户从未动用过模型选择器,且 GPT-5 的算力需求实际上可能更高,这表明驱动因素可能是成本而非质量。还有观点强调了 OpenAI 对企业市场的关注,暗示个人订阅的优先级已被降低。
    • 讨论强调,与 GPT-4o 相比,GPT-5 似乎能输出更快、更高质量的答案,且减少了过度的肯定和表情符号的使用,其行为更接近 GPT-3.5 等早期模型。具有跨版本使用经验的用户报告称,感知到的降级微乎其微,一些人还注意到响应风格和推理效率有所提高。
    • 有技术推测认为,GPT-5 可能会增加整体算力成本,因为默认情况下会有更多查询触发其更强大的推理模式,而不是通过显式的模型选择。这表明用户查询路由到模型的方式发生了架构转变,可能会影响资源分配和用户体验。
    • 一些用户表示,失去显式的模型选择减少了他们对选择 Claude 或 GPT-4 等模型的控制,这影响了他们的工作流,并被视为降级或切换到其他订阅服务的主要理由。这凸显了模型选择功能对高级用户(power users)至关重要,而非普通用户,揭示了 Plus 订阅者可能存在的产研错配。
  • 抱歉,但我是在讲道理——5.0 令人失望,OpenAI 的表现很糟糕 (Score: 696, Comments: 259): 该帖子批评了 OpenAI 最近强制迁移到 GPT-5.0 的做法,此举移除了之前的模型(4o, 4.5, o3)且没有提供遗留或回退选项,影响了普通用户和专业用户。作者指出,虽然 GPT-5.0 提供了技术改进和成本效率,但它在直觉推理方面表现较慢,且语调更中性、更缺乏人性化,这被认为是创意和对话应用的功能性降级。 热门评论强调,突然移除模型且缺乏通知在专业层面是有问题的,质疑了 OpenAI 在商业应用中的可靠性。一些用户报告称是分阶段推出的(旧模型仍可访问),而另一些人则主张如果感到不满,应转向 Google 的 Gemini 等替代供应商。
    • 专家批评 OpenAI 在未事先通知的情况下取消了对现有模型的访问权限,强调了这对业务可靠性和集成的冲击。此举引发了对该平台是否适合专业和企业用途的担忧,因为突然的模型退役可能会破坏工作流和产品依赖。
    • OpenAI 因未在公开演示中将其新模型(如 GPT-5)与 Anthropic Claude 或 Google Gemini 等竞争对手进行基准测试(benchmarking)而受到指责,而是仅依赖内部对比。这种做法与竞争对手形成了鲜明对比,后者会显著展示正面交锋的基准测试结果,以体现透明度并增强对其模型能力的信心。
    • 评论讨论强调了碎片化的模型版本管理和突如其来的产品变更,建议更清晰、更符合逻辑的版本管理和迁移沟通将使依赖一致 API/模型端点的技术和企业用户受益。
  • OpenAI 刚刚上演了 AI 史上最大的“诱导转向”(bait-and-switch),我不干了。 (Score: 6073, Comments: 2880):该帖子报告称,OpenAI 在没有事先通知或提供旧版本回退方案的情况下,突然删除了 8 个模型选项,包括 GPT-4o、o3、o3-Pro 和 4.5,并将其替换为单一的 GPT-5 模型。据称,替代模型提供的回复更短、更具企业化风格,触发布速限制(rate limits)更快,指令遵循能力下降,并取消了选择模型的能力,实际上削弱了用户的自主权和工作流灵活性。更新说明指出 OpenAI 将恢复 GPT-4o 的访问权限,撤销了部分更改。 显著的技术争论集中在中心化、私有 AI 平台在利润驱动下走向“平台劣化”(enshittification)的风险;一些评论者主张使用开源替代方案,以保持用户的控制权和透明度。
    • 一位评论者指出,包括 OpenAI 在内的闭源 AI 平台日益商业化且服务质量下降(“enshittification”),这增强了开源替代方案的重要性,认为开源系统更能抵御随时间推移而产生的操纵或对用户利益的损害。
  • 订阅两年后我取消了。OpenAI 失去了我所有的尊重。 (Score: 5343, Comments: 884):该帖子批评了 OpenAI 在毫无预警的情况下,突然停止付费用户访问多个 GPT 模型(包括 GPT-4o、3.5、4.5、o3-Pro 等)的行为,消除了针对特定任务进行交叉验证或选择模型的能力。作者强调了模型多样性在工作流中的实际效用(例如,使用一个模型进行创作,另一个模型进行逻辑推理或事实核查),并对失去对比输出分析、抑制启发式比较以及依赖单一模型(暗示为 GPT-5)而对其输出或局限性缺乏透明度的广泛风险表示担忧。 评论者辩论了技术与 UX 的权衡:几位用户同意功能缺失的说法(消息限制且无法回退到低阶模型,尽管订阅了但缺乏用户控制权),而其他人则认为多模型选择仅对极少数用户有价值。一条热门评论断言,这一变化是基于可能压倒性的数据(超过 95% 的用户仅使用最新/最快的模型 GPT-4o)而进行的合理的理产品/UX 简化,表明 OpenAI 的决策是由主流易用性驱动的,而非高级技术工作流。
    • 一个关键的技术投诉是付费用户在达到消息限制时无法降级到低成本模型:“尽管付了费……却没有选项降级到较低模型以继续使用”。这体现了一个产品限制,即无法通过模型选择来规避使用上限。
    • 几位用户认为,最近的模型更改是产品和 UX 决策,而非技术决策,并根据使用数据建议 “95% 的月活跃用户专门使用 4o”,且多个模型/命名的复杂性是主流采用的障碍。这意味着该决策针对 UX 指标进行了优化,而非技术极客的灵活性。
    • 一个技术观点批评了新产品的架构,称其表现得像 “钉在一堆旧模型上的路由器(router)”,并声称系统可能会为任何任务选择最便宜的可行模型,引发了对透明度和成本节约优先于质量的担忧。
  • GPT-5 更糟。没人想要预设的人格。 (Score: 670, Comments: 191):该帖子对 GPT-5 表达了强烈不满,声称它相比 GPT-4o 没有实质性进步,主要引入了“预设人格”(preformed personalities),而非改进核心推理或能力。观察到的用户体验下降被归因于可能由成本或变现策略驱动的模型对齐(alignment)决策(例如,通过合成人格来提高参与度),而非模型架构、规模或性能上的技术提升。 评论者辩论了新的人格功能是否填补了真正的用户需求——参考了像 Grok 的 Companions 之类的模型——但几位用户指出,Claude 等替代方案在所需能力上超过了 GPT-5,引发了关于竞争差异化和用户留存的疑问。

  • 几位用户认为 GPT-5 转向预设人格可能源于成本节约动机,而非技术创新,这暗示了为了减少开销而采用简化的建模或定制化程度较低的流水线。
  • 一些人将 GPT-5 与 Claude 进行对比并给出了负面评价,称 Claude 提供了更多他们所追求的开放式 AI 体验,并质疑 GPT 对高级用户是否仍具竞争力。这表明市场更偏好直接或中立的 LLM,而非带有浓厚品牌色彩的人格化模型。
  • 有技术建议提出应整合类似于“sesame 模型”的能力,以实现更丰富的语音输入捕获(检测音调、音量、情感线索),而非仅仅依赖标准的语音转文本。这突显了对多模态增强(副语言输入)的需求,而不仅仅是“人格叠加”。
  • GPT5 太糟糕了 (Score: 4656, Comments: 1724): 该帖子声称,“GPT-5”的回答明显更短,输出更令人不满,表现出更明显的 AI 风格化语言,且与之前的模型相比,Plus 用户每小时可发送的 Prompt 数量大幅减少。批评意见包括在推广期间无法选择其他模型,包括发帖人在内的用户报告称,达到 Prompt 限制的速度比 GPT-4 快得多,这表明对高级用户的实用性有所下降。有一项更新指出,在收到用户反馈后,OpenAI 正在为 Plus 用户恢复 GPT-4o 的访问权限。 热门评论重申了技术问题:新模型提供的答案更短,且没有实质性的改进,同时使用限制更严。有人将 AI 产品的交付比作负面的“缩减式通胀”(shrinkflation),并对 OpenAI 的演示方法表示怀疑,因为该方法建议通过多次 re-prompting 来解决不准确的问题。
    • 几位用户指出,GPT-5 生成的答案既短,且从传闻来看并不比之前的模型好,这表明输出质量有所倒退。再加上 Prompt 限制的增加,一些人将其解读为与早期版本相比,用户体验受到了更多限制。
    • 演示方法受到了批评,该方法涉及并行运行多个 Prompt 并人工挑选输出。评论者质疑这种做法是否预示着核心模型缺乏可靠性或改进——相反,它突显了生成质量的不稳定性,需要人工筛选才能呈现出理想的结果。
    • 一个反复出现的主题是希望保留对旧版本模型(如 GPT-4)的访问权限,并建议在证明有重大改进或解决最新迭代中的问题之前,新版本不应强制取代经过验证的模型。
  • 移除 GPT4o 是有史以来最大的错误! (Score: 637, Comments: 308): OpenAI 已经弃用了对之前可用模型的访问,特别是 GPT-4o,该模型因其对话质量和通用性而备受好评。高级用户报告称没有提前通知,并指出只有 Pro 订阅者仍可以通过设置开关访问旧版模型,并引用了截图。技术辩论集中在这一变化的合理性上——几位用户认为这主要是一项成本节约措施,推测 GPT-5 依赖于比 GPT-4o/4.1 更小的神经架构,从而可能导致数据访问和细节减少。 专家对 OpenAI 官方关于 GPT-5 等替代模型本质上“更好”的说法表示怀疑;用户观察到模型复杂度降低,并推测改变模型访问权限更多是为了运营成本,而非技术改进或安全性。
    • 用户指责突然移除旧版 GPT-4o 模型是在没有预先通知的情况下进行的,这突显了对商业行为的担忧——特别是对于那些在工作流和应用程序中依赖模型可用性的高级用户。这种缺乏透明度的做法可能会破坏依赖于对底层模型持续访问的技术和企业应用。
    • 一些拥有 Pro 订阅的用户报告称,通过切换浏览器中的设置,仍可继续访问旧版模型,这表明模型弃用对用户的影响因订阅状态而异。这引发了围绕针对不同用户群体的 feature gating 和沟通方面的实施问题。
  • 针对下线 GPT-4o 的可能动机,有人提出了技术性批评,推测像 “GPT-5” 这样的新模型可能会采用更小或更不复杂的神经网络,以牺牲细节和数据访问为代价来节省成本。该观点认为,架构扁平化和资源分配减少正被作为改进进行营销,但这可能导致模型能力下降,特别是在高级或数据密集型任务中。

2. GPT-5 基准测试、数学及对比性能评估

  • GPT-5 在 SimpleBench 上仅获得 56.7% 的低分,排名第 5 (Score: 694, Comments: 148): 图片显示了 SimpleBench 基准测试的排行榜,GPT-5 的得分为 56.7%,在受测模型中排名第 5。虽然该分数低于最近的 SOTA 水平,但根据标题和用户评论,这相比之前的 OpenAI 模型有所进步。该基准测试本身被认为是一项极具挑战性的评估,OpenAI 模型在此项测试中历史表现不佳。点击此处查看 排行榜图片 评论者指出,虽然进步是渐进式的,但 OpenAI 领导层设定的预期(特别是对 AGI 的提及和夸大的基准测试)导致了失望。其他人则指出,在该特定基准测试中,该模型的表现仍优于早期的 OpenAI 产品。
    • OpenAI 的 GPT-5 在 SimpleBench 基准测试中得分 56.7%,排名第 5,尽管比之前的模型(如优于 o3)有所改进,但与围绕近期进展和 AGI 讨论的炒作相比,仍未达到预期。
    • 讨论提到 “2.5 pro” 在 SimpleBench 上保持最高分,再次证实了某些早期模型在这一特定基准测试场景中的主导地位,即使 GPT-5 显示出渐进式的提升。
    • 人们对近期的一些说法(如 GPT-5 所谓 ~90% 的得分)持怀疑态度,强调需要透明且一致的基准测试实践来准确衡量模型的进步。
  • 伙计们,GPT-5 在 SimpleBench 中仍然无法击败 Gemini (Score: 144, Comments: 21): 帖子中引用的图片显示了 SimpleBench 基准测试工具的结果,对比了 GPT-5 和 Gemini 的性能,根据显示的指标,Gemini 的表现优于 GPT-5。讨论提到了 Gemini 2.5 Pro 在 CLI 任务中的实际弱点,并指出了各自不同的优势:评论者指出,尽管有此基准测试,GPT-5 被认为在编程(作为 VSCode copilot)、解谜和对话质量方面更好,而 Gemini 的主要优势是 context window 大小。鉴于这些基于使用场景的差异,该基准测试的重要性受到了质疑。 评论者认为,现实世界的表现(例如在代码编写、Agent 任务和讨论中)可能与基准测试结果不一致,社区情绪对于在实践中哪个模型真正更优存在分歧,这取决于具体用例。
    • 一位评论者指出,虽然 Gemini 2.5 Pro 在 SimpleBench 中可能优于 GPT-5,但 GPT-5 在现实任务中仍然表现出色,如解谜、代码辅助(特别是作为 VS Code 中的 copilot)和对话质量。他们认为 Gemini 的主要技术优势似乎是更长的 context window,这使得特定基准测试对更广泛的实用性而言重要性较低。
    • 速度被强调为一个技术差异点,多位用户评论说,尽管有基准测试结果,但与 Gemini 相比,GPT-5 仍然“快得惊人”。
    • 讨论提出了基准测试相关性的问题,认为原始的 SimpleBench 分数可能无法捕捉到 Agent 能力、解谜或开发者支持集成等重要方面,而这些正是 GPT-5 被认为优于 Gemini 的领域。
  • GPT-5 无法处理基础数学 (Score: 518, Comments: 189): 图片展示了 GPT-5 在尝试解决数学题时的失败,强调了该模型在基础算术问题上产生错误结果,这挑战了 OpenAI 关于 GPT-5 提高准确性和减少错误的说法。一条热门评论指出 GPT-3.5 Turbo 反而能提供正确答案,暗示了不同模型版本之间存在性能退化或能力不一致。讨论包括了对 ‘base’(基础)和 ‘thinking’(思考)模式的技术对比,用户注意到使用后者效果更好,但也指出了访问限制。 评论者们正在批判性地将 GPT-5 的性能与之前版本进行比较,对性能退化、访问限制以及模型底层架构和精确计算的可靠性表示担忧。
    • 用户报告称 GPT-3.5 Turbo 能正确处理某些数学问题,并分享了截图证据,而 GPT-5 在先前模型没有出错的情况下却产生了错误。这暗示了性能退化或模型 routing 问题,凸显了对跨版本发布进行进一步 benchmarking 的必要性。
    • 几条评论建议该问题可能源于模型 routing——即请求被意外分配到了错误的底层模型(例如,路由到了更小或能力较弱的变体,如 ‘4o-mini’)。用户指出这是模型路由器长期存在的问题,暗示可能存在配置错误或部署 Bug。
    • 文中提到了 GPT-5 内部的不同变体,特别是 ‘thinking’ 模型与 base 模型,’thinking’ 模型表现尚可,但受到使用 quota 的限制。这种拆分架构意味着能力和用户体验会因 quota 可用性和模型 routing 而异。
  • 这个分数是个骗局。他们放上了最贵的模型。这不是真正的 GPT-5。这只适用于推理能力最强的 GPT-5 版本 (gpt-5-thinking-high)。OpenAI 想让你使用的 gpt-5-main 版本排名甚至低于 4o (Score: 445, Comments: 70): 该帖子批评了 OpenAI GPT-5 的排行榜基准测试,认为显示的最高分仅代表能力最强(且最昂贵)的配置 ‘gpt-5-thinking-high’,而非普遍可用的 ‘gpt-5-main’ 模型,作者声称后者的表现接近甚至低于 GPT-4o。这里的图片可能展示了一个模型评分排行榜,突显了出于营销或感知目的而选择性展示模型性能的担忧。 评论者指出 ‘GPT-5-thinking-high’ 的表现优于大多数竞争对手,且仍比某些高端竞品便宜,从而对“骗局”这一定性提出了挑战。关于排行榜方法论的公平性存在争论,一些人捍卫以最大能力对模型进行基准测试的做法,而另一些人则指出用户在访问较低层级版本时的失望。
    • 讨论强调了 “GPT-5” 存在多个变体,特别是 ‘gpt-5-thinking-high’ 和 ‘gpt-5-main’,并澄清公共排行榜测试的是最高能力的版本,而非主流版本,这可能导致对现实预期和性能结果的混淆。
    • 一位用户断言 ‘gpt-5-thinking-high’ 比之前的顶级模型(如 4.1 Opus 和 2.5 Pro)更便宜,这表明与之前的 state-of-the-art 模型相比,其性价比实际上对消费者更有利(来源)。
    • 文中提到,用户甚至可以提示较低权限的模型 “think longer/longest”,这在功能上将其性能提升到接近 ‘thinking-high’ 变体的水平——如果这一说法属实,可能会缩小某些任务中模型层级之间的感知差距。
  • 在我的使用案例中,GPT-5 的表现远逊于 Opus 4.1。它的泛化能力不够强。 (得分: 242, 评论: 82): 发帖者对比了 GPT-5 和 Anthropic 的 Opus 4.1 在为一个具有独特堆栈和脚本语言的小众低代码平台生成代码时的表现。Opus 4.1 能够可靠地从文档中泛化,为训练中不太可能见过的新颖语言创建有效代码;而 GPT-5 虽然在主流堆栈上表现出色,但在泛化能力上显著下降,且在不太常见的环境中需要更多分步引导。Opus 卓越的泛化能力伴随着大幅提高的 API 成本(约为 10 倍),但在处理新颖/未知堆栈时更受青睐;否则,GPT-5 对于主流框架可能已经足够。 评论者证实了在处理新颖或复杂代码库时观察到的 Opus 优势,指出 GPT-5 感觉技术稳健性较差,更倾向于非技术用户。一些人对在专业编程任务中缺乏能与 Opus 竞争的对手表示失望。
    • 技术用户报告称 GPT-5 的代码库导航能力较差,需要更明确的指令;相比之下,Claude Opus 4.1 可以在没有大量指导的情况下自主定位相关代码。
    • 在标准创意任务(如生成电梯演讲、标语、简介)的基准测试中,GPT-5 在理解和创意内容合成方面的表现均逊于 Claude Opus 和 Google Gemini 2.5 Pro。此外还注意到 Grok 4 在这些场景下的表现更差。
    • 针对 GPT-5 在实用工具(如 Runpod, Kohya)中的分步指导存在大量投诉:用户报告步骤缺失或不一致,迫使他们进行额外的澄清迭代。这表明与之前的版本和竞争对手相比,在处理复杂工作流或基于工具的指令时,其可靠性出现了退化。

3. Wan 2.2 Video AI Model 工作流、指南和发布

  • 一位女士向你展示她的 Kitty….Cat 一面。- 包含 Wan 2.2 I2V 工作流的 GitHub 链接 (得分: 186, 评论: 23): 楼主分享了一个使用 Wan2.2 模型进行图生视频(I2V)生成的详细工作流(GitHub 工作流链接),利用 Pony Diffusion 生成静态图像,并在 RTX 4090 (64GB RAM) 上运行。后期处理涉及使用 FramePack Studio 进行帧插值(从 16fps 到 32fps),以及使用 DaVinci Resolve 进行剪辑,通过过渡平滑(交叉溶解、色彩校正)来处理片段间的照明不一致。该工作流在采样步骤中均使用了 Light2v LoRA(强度 2/1),采用 DPM++ SDE scheduler,并手动选帧进行视频续写,据报道完成全流程生产(包括 30 多次模型生成和手动筛选)大约需要 2 小时。 评论中的一个关键技术建议是在拼接剪辑时删除重复的末尾/起始帧,以减少“剪切”痕迹,尽管有人指出在 ComfyUI 中集成这一步骤存在困难。此外,关于为什么将后期处理插值和剪辑拆分到两个工具(FramePack, DaVinci Resolve)中也存在争论,并有人询问 Resolve 的免费版是否足以胜任此工作流。
    • 关于视频拼接的一个技术建议是:在连接生成的视频片段时,用户应删除每个片段的最后一帧后再进行合并,以避免最终输出中出现重复帧和可见的“剪切感”。这在 ComfyUI 等工具中尤为重要,尽管在 ComfyUI 工作流中实现此操作的直接方法尚未明确。
    • 一位评论者要求澄清后期处理流水线:具体而言,为什么工作流涉及对每个片段进行后期处理然后再拼接,而不是将所有内容合并后一次性进行后期处理。人们担心这种方法是否会引入片段之间的一致性或过渡问题。评论者还质疑同时使用 Framepack 和 DaVinci Resolve 进行后期处理的必要性,因为 DaVinci 可能能够独立完成这些任务,并询问了所需的许可(DaVinci Resolve 的免费版 vs 付费版)。
    • 提供了一个技术小贴士:通过输出 VAE decode 步骤的图像预览,用户可以访问所有单个帧的列表,从而能够手动选择并保存特定帧以进行进一步处理。这可以在手动筛选或调试期间增强对工作流的控制。
  • Wan 2.2 14B Image to Video - 无缝拼接 (Score: 160, Comments: 26): 该帖子描述了一个用于拼接多个由 Wan 2.2 14B Image-to-Video (I2V) 生成的视频的工作流,重点是在 VAE Decode 步骤之后立即提取最后一帧(而不是从压缩视频中提取),以保持质量并避免重复的接缝帧。该方法以及相关的脚本和说明,通过 workflow JSON文档 进行了详细说明。 评论指出,该工作流并未解决根本问题:如果不显式设置起始/结束帧,拼接过程中的质量会下降。批评者认为这是一种缺乏新颖性的标准 I2V 方法,实质性的改进可能取决于未来的功能,如 VACE 或 latent injection 方法,而这些在 Wan 2.2 I2V 中尚不可用或无效。
    • 强调了当前 I2V (Image-to-Video) 模型的技术局限性,特别是除非显式设置起始和结束帧,否则质量会迅速下降的问题;如果没有这一点,无缝拼接仍然存在困难。
    • 区分了 VACE 中使用的 BCHW latent injection 与之前基于 Wan/Stable Diffusion 模型的工作流;在 Wan 2.2 I2V 中,来自旧模型(如 W21)的 latent injection 方法无法产生预期效果,反映了无缝生成方面的局限性。这表明需要更先进的技术(如 VACE 中计划的技术)才能实现真正的改进。
    • 讨论了关于提取和重用 latent 帧以保持连续性的实现挑战。具体而言,latent 帧索引并不直接映射到图像帧,这阻碍了在链式采样器时直接检索和重新注入目标帧,从而使无缝缝合工作流变得复杂。
  • Wan2.2-Fun 已发布针对 Wan2.2-A14B 的控制和局部重绘(inpainting)模型! (Score: 147, Comments: 46): 阿里巴巴 PAI 团队发布了针对 Wan2.2-A14B 的控制模型 (https://huggingface.co/alibaba-pai/Wan2.2-Fun-A14B-Control) 和局部重绘模型 (https://huggingface.co/alibaba-pai/Wan2.2-Fun-A14B-InP),这是一个专为高级视频/控制任务定制的变体。实现代码可在 VideoX-Fun 仓库 (https://github.com/aigc-apps/VideoX-Fun) 中找到,为实验以及集成到生成或编辑流水线中提供了途径。 一些评论强调了硬件资源问题(”GPU poor”),表明用户意识到可能存在较高的计算需求。还有人对相关模型的发布表示感兴趣(”需要 wan22 vace”),暗示社区需要更广泛的模型支持或兼容性。
    • 有人请求以 GGUF 格式发布 Wan2.2-A14B 模型,该格式因其在通过 llama.cpp 及相关工具进行本地推理时的高效性而广受欢迎。这突显了技术社区对改进格式兼容性以增强部署选项的兴趣。
  • PSA… 使用 Wan 2.2 时,将新的 Light 2.2 V2I LoRA 与 2.1 V2I LoRA 结合使用,效果出奇地好。 (Score: 120, Comments: 65): 该帖子讨论了一种使用 WAN 2.2 I2V (Image-to-Video) 模型生成视频的技术,通过结合 WAN 2.2 和 2.1 版本的 LoRA,在不牺牲动态效果的情况下提高提示词遵循度(prompt adherence)。报告的 LoRA 强度:对于高噪声,2.2 强度设为 1,2.1 设为 3;对于低噪声,2.2 设为 1,2.1 设为 0.25,配合 kijai 的采样器(使用 flowmatch_distill 调度器)进行 4 步推理,结果比早期版本快得多。参考:Wan2.2 Lightning LoRA 发布 热门评论验证了该技术,用户确认了参数配方,并补充说调整 CFG 调度(2.5/2.5 或 2.25/2.25)可以增强动态效果。大家一致认为仅需 4 步推理(从约 25 步降下来),使得该设置明显快于之前的模型(如 ltxv),并且负面提示词可以进一步优化结果,特别是背景运动的一致性。

  • 多位用户针对使用 wan 2.2 和 wan 2.1 Lightning V2I LoRAs 的 I2V(图像转视频)动画工作流提供了详细的配置见解。对于“高噪声”生成阶段,据报告有效的 LoRA 强度为 LIGHT2.2 HIGH 设为 1.0 配合 LIGHT2.1 设为 2.0-3.0;对于“低噪声”阶段,LIGHT2.2 LOW 设为 1.0 配合 LIGHT2.1 设为 0.25-0.5。这些组合带来了更好的动态效果和时间一致性。
  • 讨论中提到了性能提升,指出该工作流现在仅需 4 步即可合成高质量结果,而 WAN 最初发布时约为 25 步。动态效果被描述为优于 LTXV 模型,且增加 CFG (classifier free guidance) 值(例如 2.25 或 2.5)可进一步增强动态和背景细节。
  • 实验还表明,新设置允许生成更长的视频片段,且不会出现过度的循环伪影,标志着输出多样性的提升。提供了详细的测试结果和示例设置(HIGH: wan2.2=2.0, wan2.1=3.0; LOW: wan2.2=1.0, wan2.1=0.5; CFG=1.0),并引用了 HuggingFace 上的 Wan22-Lightning 工作流
  • WAN2.2 - Schedulers, Steps, Shift and Noise (评分: 123, 评论: 91): 该帖子讨论了来自 wan.video 的一张可视化 SNR vs. Timesteps 关系的图表,建议在 SNR 降至 50% 以下时从高噪声模型切换到低噪声模型,具体步数取决于 shift 参数。来自官方 Wan2.2 GitHub 仓库的配置详情显示,文本转视频 (t2v_A14B: sample_shift=12.0, boundary=0.875) 与图像转视频 (i2v_A14B: sample_shift=5.0, boundary=0.900) 具有不同的样本偏移和边界值,并确认在实践中,边界设置在最后 10-12.5% 的步数附近,而非严格的 50% SNR 阈值。 一位评论者建议使用针对模型和用户设置定制的代码来自动确定最佳切换点,这表明目前的手动调优可能并非最优。
    • lorosolor 提供了 WAN2.2 的 t2v_A14B 和 i2v_A14B 模型的配置详情,指出了明确的参数值,如 sample_shiftsample_stepsboundarysample_guide_scale。例如,t2v_A14B 使用 12.0sample_shift0.875boundary,而 i2v_A14B 使用 5.0sample_shift0.900boundary。引导缩放 (guide scale) 也会随噪声水平而变化。这表明调度器偏移(推测用于去噪或引导)是特定于模型的,并且发生在步骤序列的后期,而不是中点。
    • 讨论指出 WAN2.2 的演示代码仅在总步数的最后约八分之一或十分之一处切换调度器参数(而非 50% 处),这表明推理过程中存在刻意的后期偏移。这可能意味着针对最终图像/视频去噪或引导稳定性的优化,具体取决于任务是文本转视频 (t2v) 还是图像转视频 (i2v)。

AI Discord 摘要

由 gpt-5 生成的摘要之摘要的摘要

1. OpenAI GPT-5 推出、路由与现状核查

  • Altman AMA 开启,GPT-5 正式推出:OpenAI 宣布向所有 ChatGPT 用户和开发者推送 GPT-5,并通过 Introducing GPT-5Reddit AMA 预告了 Sam Altman 及 GPT-5 团队的 AMA 活动;用户反馈该功能正在分阶段开放,模型正在进行整合,部分用户失去了 GPT-4o 的访问权限。
    • 在发布初期的波动之后,Sam Altman 在其 X 帖子 中表示,自动切换功能的失误导致 GPT-5 显得较“笨”,但目前已修复并翻倍了 Plus 用户的速率限制(rate limits),而不同地区和平台仍处于交错启用的状态。
  • 路由规则:OpenAI 的总机策略:社区分析认为批评者忽略了 GPT-5 更重大的意义:一个持续训练、实时的 router(路由)正主导着智能前沿。根据 swyx 的推文 (OpenAI dominance and routing) 和 Latent Space 的笔记,该路由在处理复杂的视觉输入时增加了 2–3s 的延迟。
    • Latent Space 补充道,GPT-5-Mini 作为 VLM 价格异常低廉,真正的进步在于路由(routing)而非原始的单模型缩放(scaling),这表明通过多模型工程实现的增量收益优于暴力破解式的 Transformer 缩放。
  • 速率限制、幻觉和代码限制引发热议:工程师们报告了严苛的 GPT-5 访问限制(部分用户约为 每 5 小时 10 条消息),以及 ChatGPT-5 拒绝处理约 700 行 左右 Python 输入的退化现象,许多人要求在特定工作流中回滚到 GPT-4o
    • 其他人则称赞其指令遵循能力更强,但指出了幻觉问题,在关于可靠性与安全性权衡的辩论中引用了“幻觉是特性而非缺陷”的说法。

2. 新的 Agent 与开发工具

  • Cursor CLI 席卷终端Cursor 推出了早期测试版的 CLI,以便开发者访问所有模型并在 shell 与编辑器之间无缝切换,详见其 Cursor CLI 博客;人们对其可能成为 Claude Code 的竞争对手感到兴奋。
    • 团队讨论了 PR 创建中的怪异现象和后台工作程序(background workers),而终端优先的工作流解锁了诸如批量提交信息和全仓库编辑等自动化功能。
  • LlamaIndex 发布首日支持 GPT-5 及 Agent MazeLlamaIndex 宣布通过 pip install -U llama-index-llms-openai 实现对 GPT-5 的首日支持,推出了 Agent Maze 挑战 (Agent Maze 链接),并计划于 8 月 14 日举办关于通过 RTMS 实现 Zoom 语音实时 Agent 的研讨会 (研讨会)。
    • 工程师们还注意到一个工具 Bug 已通过在新 SDK 中使用 OpenaiResolve 得到修复,参考此 GitHub commit 中的修复方案。
  • Axolotl 增加 N-D 并行Axolotl 引入了 N-D parallelism,用于在复杂模型和大型数据集上进行多维缩放,详见 Hugging Face 博客
    • 该方法组合了数据/模型并行轴以提高硬件利用率,提供了比经典 DP/TP 组合更灵活的切分方式。

3. 开源训练与微调更新

  • Unsloth 让 GPT-OSS 微调变得免费Unsloth 发布了一个免费的 gpt-oss 微调 Colab (公告),并记录了 Unsloth 对 gpt-oss 的修复 (指南),指出 20B 模型可在 14GB VRAM 上训练,而 120B 模型可装入 65GB 显存。
    • 工程师们交流了关于数据集质量的见解——“垃圾进,垃圾出”——以及在全层微调期间稳定格式的方法,有人通过为 GPT-OSS 使用类似 Reasoning: none 的系统提示取得了成功。
  • GLM 4.5 Air 即使卸载到 CPU 依然运行飞快:一位从业者使用 3.5 bpw 量化、28GB VRAM 并开启 CPU offloading(配置:4060Ti + 3060 GPU,5950x CPU,3600MHz DDR4),以约 14–16 TPS 的速度运行了 GLM 4.5 Air
    • 他们引用了带有 imatrix 的自定义 tensor-wise 量化,展示了在显存紧张时,廉价硬件也能有效地运行大型模型。
  • 机械忠实度与评估故障:研究人员分享了关于机制追踪的 Transformer Circuits 文章:Mechanistic Faithfulness (toy model),以及一份关于 LM Evaluation Harness 中 exact_match bug 的报告 (issue #3210)。
    • 社区强调了稳健评估和工具正确性的重要性,因为评估框架中的可靠性问题可能会掩盖真实的进步或退化。

4. 多模态、视频与长上下文进展

  • Gemini 生成的视频虽然搞怪但正在进步:用户测试了 Gemini Pro 的视频生成功能,分享了一个 Gemini 生成的片段,并指出人脸不一致的问题;Perplexity Pro 目前每月限额为 3 个视频
    • 尽管存在伪影(artifacts),开发者们看到了快速迭代的潜力,并要求提供更明确的额度说明以及提高时间/身份一致性的路线图。
  • Qwen 宣称拥有百万级 Token 上下文:阿里巴巴的 Qwen 宣布了 1M-token 上下文窗口,引发了关于超过 80k token 后实用性的疑问,X 上引用了一个示例。
    • 工程师们讨论了检索和路由策略,以利用超长上下文,同时避免模型淹没在无关文本中。
  • Google 的 Genie 3 为交互式模拟奠定基础:成员们强调 Google 的 Genie 3 研究页面作为下一代生成式交互和模拟“非常酷”,并链接到了 Genie 3
    • 一些人期待 Gemini 3.0 能挑战 GPT-5,而另一些人则提醒说,.0 版本在后续版本完善功能之前可能会让人失望。

5. GPU/系统见解与编译器

  • CuTe 布局代数迎来现实检验:开发者指出了 CuTe 布局代数文档中的一个缺陷,并推荐了 Jay Shah 的笔记 《关于 CuTe 布局代数的笔记》,澄清了整除性和不相交图像区间等条件。
    • A ∘ B 等于双模式组合(bi-mode composition)时,该修正更加严谨,改进了在 CUTLASS/CuTe kernel 中组合布局的思维模型。
  • 像专家一样进行合并:朴素 Matmul 的惊喜:一个朴素的 matmul 显示,方法 1(每个线程非连续但跨线程连续)比 方法 2(每个线程步长为 1)快了约 50%,因为硬件有效地合并了跨线程访问。
    • 结论:在为带宽受限的 kernel 构建内存布局时,要考虑 warp 级别的访问模式,而不仅仅是单线程的连续性。
  • MaxCompiler 向 LLM 迈进:一个社区项目使用 MaxCompiler 扩展了 torch.compile() 以运行简单模型——参见 max-torch-backend——长期目标是编译 LLM
    • 早期工作将融合/优化推迟到 MAX,贡献者们正在交换笔记并分享 gist,以加速算子覆盖和图保真度。

Discord: 高层级 Discord 摘要

Perplexity AI Discord

  • Gemini 生成搞怪 AI 视频:用户尝试使用 Gemini AI 生成视频,分享了一个 使用 Gemini Pro 生成的视频,并指出角色面部不一致。
    • Perplexity Pro 上的视频生成目前限制为 每月 3 个视频
  • GPT-5 表现不佳,放弃推理:成员报告 GPT-5Perplexity 上缺乏推理能力,表明可能使用的是基础、非推理的 GPT-5 Chat 版本,在代码编写方面表现不佳。
    • 用户正要求 Perplexity 提供关于他们正在使用哪种模型的官方更新,一些人希望用 GPT-5 thinking model 取代当前的 O3 模型。
  • Comet 指令与点击浏览Comet 浏览器的 AI 自动化浏览并提取信息,但功能需要用户手动点击并浏览网站
    • 目前尚未确认是否会发布 Android 版本。
  • 获取 Perplexity Pro 访问帮助:用户报告在通过 Samsung 应用商店免费试用访问 Perplexity Pro 时遇到问题;禁用其 DNS 过滤器解决了该问题。
    • 另一位用户在应用端看到了 GPT-5,但在网页端没有看到。
  • 中国凭借高空太阳能平台领跑:分享的 Perplexity 链接揭示了中国发射的 太阳能高空平台 Ma
    • 该平台也被发布到了 X

LMArena Discord

  • GPT-5 在 AI Arena 引发争议:成员们正在讨论 GPT-5 的优劣,一些人称赞其具有革命性且对所有人免费,而另一些人则指责支持者存在偏见或对替代模型缺乏经验。
    • 怀疑者质疑该模型的真实能力,认为它可能仅在编程任务中表现出色,或者其性能在更新后有所提升。
  • Gemini 2.5 Pro 与 GPT-5 争夺 AI 霸权:社区正在辩论 GPT-5Gemini 2.5 Pro 谁更胜一筹,部分用户因 GeminiAI Studio 中卓越的代码执行能力而对其青睐有加。
    • 针对在 LM Arena 等平台上可能使用来自 OpenAIGoogle 模型的情况,用户表达了担忧,引发了关于模型透明度和完整性的讨论。
  • Yupp.ai:合法的 AI 平台还是精心设计的幻象?:围绕 Yupp.ai 的争议不断,有指控称其使用了缩水或虚假的 AI 模型(例如将 GPT-5 nano 称为 GPT-5-high),并称其为“诈骗加密货币垃圾”。
    • 相反,一些人为其合法性辩护,强调该平台提供各种模型的“免费且无限制”访问,以换取用户反馈。
  • LM Arena 因网站停机陷入混乱LM Arena 经历了停机,导致聊天记录消失以及 Cloudflare 错误,严重影响了用户体验。
    • 工作人员确认了停机消息,并向用户保证问题已得到解决。
  • LM Arena 拓展视野,聚焦 Video Arena:即将举行的员工 AMA 将集中讨论 Video Arena,用户可以通过此表单提问。

OpenAI Discord

  • GPT-5 闪亮登场:OpenAI 宣布从今天起向所有 ChatGPT 用户和开发者推出 GPT-5,此前已宣布即将举行 Sam Altman 及 GPT-5 团队的 AMA
    • 用户报告的访问权限因地区和平台而异,引发了关于分阶段推出和模型整合的猜测;一些用户报告失去了对 GPT-4o 等旧模型的访问权限。
  • 用户报告 GPT-5 的奇癖与注意事项:用户反映 GPT-5 的访问受限,有人称大约为 5 小时 10 条消息,且该模型容易编造事实并产生幻觉。
    • 一些用户呼吁回滚到 GPT-4o,另一些人则称赞 GPT-5 的指令遵循能力,同时指出它在“你希望它正常时表现得不那么古怪”;有报告称图像请求在切换到 O3 model 之前会因“完全没有正当理由”而被拒绝。
  • GPT-5 拒绝代码:用户报告 ChatGPT-5 会拒绝大约 700 行或以上的 Python 代码输入,这与之前的 4 系列模型相比是一种退化。
    • 一位成员建议使用 API 或 Codex,不过另一位用户指出(根据 Andrej Karpathy 的说法)“幻觉是一个特性,而不是 Bug”。
  • Firefox 数据泄露:一位用户警告称,Firefox 的“保持持久数据(keep persisting data)”功能会将浏览数据传播到 Grok 等其他 AI 网站,导致不必要的上下文共享。
    • 他们提醒道,由于这不是“Cookie”,目前没有法规来“保持持久数据的私密性”,并认为这是一个“巨大的故意数据泄露”。

Cursor Community Discord

  • GPT-5 发布引发热议,同时也带来担忧GPT-5 的发布引发了兴奋,用户称赞其编程能力和 one-shot 任务表现,认为它在前端任务中可与 Claude 媲美。
    • 然而,关于 GPT-5 router 对 API 开发者以及该模型相关商业实践的影响,人们也产生了一些担忧。
  • GPT-5 免费周:你能薅多少羊毛?:用户正在测试为期一周的免费 GPT-5 访问限制,使用的是 GPT-5 high max,但免费额度仅限付费用户使用。
    • 关于计费结构以及所有 GPT-5 模型和功能在促销期间是否真正不限量的担忧正在增加,社区开玩笑说目前“我们就是产品”。
  • GPT-5 并不完美?仍需改进:尽管炒作不断,用户发现 GPT-5 的 auto mode 响应较慢,且在非编程任务中表现吃力,性能被认为并不优于之前的模型,强调了 context 的重要性。
    • 目前,GPT-5 忽略了 to-do list 功能,尽管有可靠的 linters,但它可能仍然只是“引战贴(ragebait)”,尚未达到“产品级完备度”。
  • Cursor CLI:爱恨交织?Cursor CLI 评价褒贬不一,一些人称赞其非交互模式(non-interactive mode)可用于自动化,例如跨多个项目生成 commit messages。
    • 另一些人则认为它不如 Claude Code,指出其模型选择有限(在 MAX mode 下仅有 3 个模型),且与 Windows Powershell 不兼容。
  • 终端中的 Cursor:所有模型现已可用Cursor 发布了一个早期 beta 版本,允许用户访问所有模型,并在 CLI 和编辑器之间轻松切换,更多详情可见 TweetBlog
    • 这种集成促进了 CLI 与编辑器之间的无缝切换,提升了工作流效率。

Unsloth AI (Daniel Han) Discord

  • GPT-5:爱它还是恨它?:对 GPT-5 的看法各异,一些用户对其编程和 context retention 能力感到失望,而另一些人则认为它在 off-topic 频道中报告的具有“高推理(high reasoning)”能力的编程项目中表现“非常出色”。
    • 一些人更倾向于使用 Kimi K2GLM 4.5 来处理特定任务,一位用户表示 GPT-5 的 tool calling 能力较差。
  • MXFP4 量化让 3090 望尘莫及?MXFP4 量化模型在算力(compute capability)>= 9.0 的 GPU(如 H100)上受支持,这使得像 3090 这样的旧显卡在该技术面前显得力不从心。
    • 针对旧显卡的解决方法可能存在于特定的 transformers pull 请求中,但官方支持仍在开发中。
  • 数据集创建:永恒的挣扎:准备高质量数据集是一项艰巨且耗时的工作,一位用户报告称 4 个人花了 3 个月 才从 1.1 万个样本中筛选并创建了 3800 个手写 QA 对,另一位用户则在处理 30 万小时的音频
    • 共识是“垃圾进,垃圾出(garbage in = garbage out)”,强调了数据质量在模型训练中的重要性。
  • GPT-OSS 微调:现已免费!:通过新的 Colab notebook 免费微调 gpt-oss,利用 Unsloth 对 gpt-oss 的修复进行训练和量化。
    • 根据公告频道,20b 模型可以在 14GB VRAM 上训练,而 120b 模型则可装入 65GB
  • Tiny Stories 揭示预训练奥秘Tiny Stories 数据集有意限制了词汇量,允许研究人员研究预训练动态(pretrain dynamics),揭示了语言模型行为的见解。
    • 即使是只有 21M 参数的 Transformer 也可以通过该数据集实现连贯的文本输出,突显了该数据集的独特属性。

OpenRouter (Alex Atallah) Discord

  • GPT-5 推理能力引发讨论:用户正在讨论 GPT-5GPT-5 Chat 之间的区别,一些人认为 GPT-5 Chat 的推理能力较弱。
    • 有人建议使用 gpt-5-explainer 来解释其中的差异,而另一些人则认为 GPT-5 chat 的推理能力几乎为零(ZERO reasoning capabilities)。
  • Google 的 Genie 3 蓄势待发:成员们表示 Google 有望赢得 AI 竞赛,考虑到它创造了 Transformer 并且拥有成功的底层设施和预算,其中 Genie 3 被吹捧为酷毙了。
    • 一些成员期待 Gemini 3.0 能碾压 GPT-5,而另一些人则持保留态度。
  • Deepseek R2 攀登新高度:一位用户报告称 Deepseek 正在转向 Ascend 并发布 R2,这可能会提升模型的性能。
    • 虽然一些人希望 Deepseek 会变得更好,但也有人回忆起之前的模型表现得过于不稳定(unhinged)
  • Horizon Beta 面临 GPT-5 系列替换:AI 模型 Horizon Beta 已被 GPT-5 取代,且没有恢复选项,这让一些觉得它很有用的用户感到失望。
    • 有推测认为 HorizonGPT-5 的早期版本,可能在免费用户的免费额度耗尽后将其引导至 GPT-5
  • OpenRouter 被誉为 OpenAI 值得信赖的合作伙伴:一位成员祝贺 OpenRouter 成为 OpenAI 新系列发布中最值得信赖的合作伙伴之一。
    • 该成员指出了 GPT-4Gemini 2.5 的影响力,并表达了对 OR 这款产品的欣赏。

LM Studio Discord

  • 用户探索 YouTube 下载器替代方案:用户讨论了使用特定 YouTube 下载器(v4.www-y2mate.com)时与 VLC 和视频编辑器的格式兼容性问题,正在寻求更好的替代方案。
    • 建议包括 yt-dlp 和 GUI 包装器,以及一个为 Linux 用户通过 GPT 创建的 Node.js 脚本
  • AI Bot 开发者寻求 RAG 指导:一位正在为 Discord 服务器构建自定义 AI bot 的用户正在寻求建议,关于如何向模型提供有关服务器主题的数据库。
    • 给出的建议是查找“RAG”(Retrieval Augmented Generation),因为有很多潜在的解决方案可能会有所帮助。
  • LM Studio 缺乏并行请求能力:用户发现 LM Studio 不支持并行请求。
    • 对于需要并行请求处理的用户,建议使用带有 --parallel N 参数的 llama.cpp servervLLM 等替代方案。
  • Qwen 3 4b 模型解决物理难题!:关于 Qwen 3 4b 2507 模型比之前版本的 Qwen 3 4b 进步了多少的讨论。
    • 一位用户表示,它可以解决中等难度的物理问题,而不会不断产生幻觉(hallucinating)
  • 讨论 Hackintosh GPU 多卡并行:一位成员询问在拥有 RTX 5060 Ti 16GB 的系统中增加一块闲置的 RTX 3060 12GB 用于 AI 的情况,质疑在小尺寸 PC 中设置多 GPU 的问题。
    • 另一位成员建议在 LM Studio 中使用组合 VRAM 应该是可行的,并且 llama.cpp 已经足够先进,可以实现关于模型并行(model parallelism)的第三种选择

Moonshot AI (Kimi K-2) Discord

  • GPT-5 像专家一样构建网站GPT-5 展示了令人印象深刻的网站构建能力,通过单个 prompt 即可生成功能齐全的网站,包括多页面站点。
    • 成员们注意到 GPT-5 在网站设计方面似乎拥有更好的审美风格,并能通过 prompt 增强(enrichment)提升理解用户意图的能力。
  • GPT-5 与 Kimi K2 在编程对决中交锋:用户正积极比较 GPT-5Kimi K2 在编程任务中的表现,GPT-5 在大型编辑、指令遵循、高逻辑代码和 dev ops 方面表现出色。
    • 虽然一些人认为 GPT-5 的品味更好,但另一些人认为 Kimi K2 凭借其推理能力和在顺序思考工具(sequential-think tools)上的表现更具竞争力,尽管 GPT-5 似乎拥有更好的审美风格。
  • OpenRouter 的 Kimi K2 质量面临审查:一位用户观察到,与 Moonshot AI 官方平台相比,通过 OpenRouter 使用 Kimi K2 时会出现语法错误和更短的回复,这表明它可能使用了该模型的量化版本(FP8)。
    • 虽然免费层级和付费层级据称都是 FP8,但量化可能会影响准确性和回复长度。
  • Qwen 拥有百万 Token 上下文:阿里巴巴的 Qwen 模型现在拥有 1M token 上下文长度,引发了关于其在 80k token 之外可用性的讨论。
    • 尽管上下文窗口令人印象深刻,一位用户幽默地指出 Qwen 也正确解决了一个问题,并发布了 Twitter 链接。
  • GPT-2 的 Prompt 异常行为解释:一位用户询问为什么 GPT-2 生成了另一个 prompt 而不是遵循指令;另一位成员解释说 GPT-2 只有大约 100M 参数,这几乎无法生成清晰的文本。
    • 它在磁盘上大约 500mb,大小与一段 20 分钟的 Youtube 视频差不多

HuggingFace Discord

  • GPT-5 发布引发轰动与挫败感:尽管炒作火热,一些用户仍然无法访问 GPT-5,只能看到 GPT-3GPT-4,且其在 SWE 上的 SOTA 地位正受到质疑。
    • 关于这次发布是故意的还是一个“玩笑”,意见不一,因为一些人预计会分阶段推出。
  • GPT-OSS 微调遇到障碍:微调 GPT-OSS 的实验揭示了挑战:微调所有层会破坏 harmony 格式,而持续预训练也会导致类似问题。
    • 一个可能的解决方案是在 system prompt 中插入 ‘Reasoning: none’ 来稳定模型,因为该模型缺乏推理能力。
  • Eleven Music 令人印象深刻但并不完美:成员们一直在测试 Eleven Music,这是 Eleven Labs 推出的新音乐生成服务。
    • 虽然令人印象深刻,但一些人发现这些音乐“有时有点机械感,而且对于接下来应该出现什么音乐的注意力较差”
  • 语音伴侣追求低延迟:一位成员正在设计一个“语音伴侣快速路径流水线(voice companion fastpath pipeline)”,以实现 100ms 的文本转语音延迟。
    • 该项目专注于优化语音转文本和文本转语音组件,特别关注优化 Whisper Turbo 以避免延迟。
  • 自动剪切静音:一个使用 Bun.jsFFmpeg CLI 创建的自动视频剪辑器已经问世,可以自动移除静音。
    • 尽管 FFmpeg 非常复杂,但创作者已经获得了捐赠,并可能在一个 AI 视频编辑器项目上进行合作。

Latent Space Discord

  • GPT-5 宣传视频引发观众分歧:一段 GPT-5 演示视频发布,引发了关于该模型真实能力的极化反应,视频见 此 YouTube 链接
    • 有人认为这仅仅是广告,而另一些人则暗示内部演示效果不佳,原因是 GPT-5 在测试中表现平平。
  • Cursor CLI 挑战 Claude Code:随着 Cursor 发布早期测试版 CLI,AI models 现在可以在终端中使用,通过 cursor 等简单命令实现 Shell 与编辑器之间的无缝切换。
    • 对于终于有了 Claude Code 的竞争对手,人们感到非常兴奋,尽管随后也出现了关于定价和 API-key 管理的疑问。
  • OpenAI 在市场变动中发放数百万美元奖金OpenAI 正在向特定部门的研究员和工程师发放“特殊的一次性奖励”,发放金额根据角色和经验而定。
    • 顶尖研究员可能获得 数百万美元(中位数),而工程师预计可以获得平均 数十万美元 的奖金。
  • Altman 承认 GPT-5 表现波动Sam Altman 报告称,由于最近的自动切换故障,GPT-5 感觉变“笨”了。通过修复和翻倍 Plus-rate limits,旨在恢复其智能水平,详情见 此 X 帖子
    • Plus 用户 现在可以选择保留使用 GPT-4o,尽管由于 API traffic 激增和 UI/UX adjustments 仍在进行,全球可用性有所滞后。
  • GPT-5 统治地位初现,Scaling 终结?:批评者关注 GPT-5 的 Benchmark 数据,却忽略了重点:OpenAI 现在凭借持续训练的实时 Router Model 统治着智能前沿(xcancel.com 链接)。
    • 根据 swyx 的说法,Transformer models 的神奇 Scaling 周期基本已经结束,因为内部路由层在处理复杂的 Vision 输入时会增加 2-3s 延迟,这表明未来的收益将通过卓越的工程化、多模型策略等方式逐步实现。

Eleuther Discord

  • 图像生成的事实性错误:一位用户寻求采访 AI 研究员,关于 GPT-5 等模型生成的 图像中的事实错误,特别是文本渲染问题。
    • 回复建议,模型并没有被强制要求像对待训练文本那样对待图像中的文本。最好的通用解释是:“为了能够在非无限算力的情况下训练模型,我们进行了近似处理,而我们尚未找到在结合文本理解时,质量足够高的廉价图像生成近似方案”
  • LLM 按需记忆层出现:一名成员正在开发一种用于 LLM 的 按需记忆层,旨在超越单纯的对话消息附加或语义 RAG 检索。
    • 该方案结合了用于 Coreference ResolutionNLP 技术和使用 GraphRAGTriplet Extraction,以精确找到所需内容,类似于 Google Search 的工作原理。
  • FineWeb 因其干净程度获得罕见赞誉:尽管存在对噪点数据集的担忧,FineWeb 因其“干净”而获得了罕见的赞誉,并指出训练期间的梯度峰值有所减少。
    • 一些成员担心这种“干净”可能会在测试新技巧时使结果产生偏差,但也同意 FineWeb 数据集可能需要额外的过滤。
  • Pythia 的激活值揭示了学习洞察:一项关于 Pythia 完整训练 Checkpoints 的研究发现,每层的平均激活值在训练早期(约前四分之一)达到峰值,随后下降,这表明学习过程中存在 Phase Transition
    • 该研究绘制了 Pythia 1.4B 在各个训练步骤中每一层的中位数和最高激活值。
  • Exact Match 评分故障被发现:一名成员报告了 LM Evaluation Harness 的一个问题,即在使用 Hendrycks MATH 数据集时,尽管目标响应与生成的响应完全一致,但 exact_match 分数却为 0
    • 已在 GitHub 上提交了 Issue 以供进一步调查。

Nous Research AI Discord

  • GPT-5 擅长逻辑,但在过拟合上栽了跟头:成员们观察到 GPT-5 在解决逻辑谜题方面表现出强大的能力,但在过拟合方面表现挣扎,即使是在合成数据上训练时也是如此。这引得有人开玩笑说,在预料到会读到关于“思维的幻觉”的内容后,终于体验到了过拟合问题。
    • 可能需要进一步调查以了解 GPT-5 过拟合倾向的程度和影响,特别是与其逻辑推理优势的对比。
  • GPT-5 API 访问优惠:用户发现可以通过 API playground 和 Cursor 免费访问 GPT-5,不过 API 要求进行身份验证才能开始使用。
    • 由于 Cursor 的“发布周”结束时间尚未公布,建议用户通过启动 Cursor 后台 Agent 快速利用这一促销访问机会。
  • Colab 的替代方案:寻求 Google Colab 替代方案以使用 Unsloth 进行微调的工程师们关注了 Lightning AI(每月提供 15 小时免费 GPU 时长)以及 Kaggle。
    • 引用了 Daniel Han 的一次演讲,强调了 Kaggle 在 RL 领域的地位。
  • GLM 4.5 Air 的 CPU Offloading 取得成功:一位用户报告称,通过使用 CPU offloading,GLM 4.5 Air 仅需 28GB VRAM 即可运行,并在 3.5bpw 量化下达到了每秒 14-16 个 token (TPS)。
    • 该用户指定采用了自定义的 tensor wise quantization,配合 imatrix,GPU 使用了 4060Ti + 3060,CPU 为 5950x (3600MHz DDR4)。
  • MoE 模型带宽瓶颈:在频道讨论中,工程师们讨论了运行大型 MoE 模型的多 GPU 设置,强调了在使用多个 RTX 3090 时遇到的带宽限制。
    • 有人指出,张量并行 (TP) 要求 GPU 数量必须能被 2 整除,且 72GB VRAM 对于超过 scout 或 GLM Air 容量的超大规模 MoE 模型可能不足。

Modular (Mojo 🔥) Discord

  • Mojo 因内存 Bug 反噬:一名成员的 Mojo 代码在遇到 Bug 后,意外尝试分配 284 PB 的内存。
    • 这一事件引发了开发者之间的讨论,其中一人表达了相比之下对 C++ 的强烈厌恶。
  • Textual Python 激发 Mojo 社区兴奋:一名成员对用于 Python 应用Textual TUI 库的探索在 Mojo 社区引起了兴奋,因为它具有以极少部署步骤作为 Web 应用运行的能力。
    • 讨论了 Textual 与 Mojo 集成的可能性,同时考虑到了与 Mojo 当前在类创建和继承方面的局限性相关的挑战。
  • Mojo 的类型系统面临 Rust 测试:成员们指出,Mojo 需要进一步完善其类型系统,以实现与 Rust 库所用方法的兼容性。
    • 这表明,与 Rust 的无缝集成可能需要对 Mojo 的类型系统能力进行重大增强。
  • 编译器寄存器问题导致本地内存溢出:一名成员建议,当 Mojo 编译器GPU 函数中分配过多寄存器导致溢出到本地内存时,应该发出警告,并应使用 Modular 论坛 进行讨论。
    • 另一名成员报告了 25.5 VSCode Mojo 扩展的不稳定和频繁崩溃问题,建议改用较旧的 25.4 版本
  • MaxCompiler 进入 LLM 领域:一名成员分享了一个 仓库,展示了一个使用 MaxCompiler 扩展 torch.compile() 以运行简单模型的包,其长期目标是编译 LLM
    • 另一名成员发现,寻找能与 torch.compile() 兼容运行预训练 LLM 的代码出奇地困难,并抱怨 Transformers 对此支持得并不好

Yannick Kilcher Discord

  • Twitch 主播计划黄金话题:为了应对 Twitch 直播期间的冷场,成员们建议在阅读论文之外,提前创建一个话题时间表
    • 其目的是模仿那些大部分时间只是聊天而不做任何事或看视频的主播。
  • LinkedIn 博主规避截图限制:一位成员寻求在 LinkedIn 上创建博客的建议,同时绕过该平台对嵌入大量图片/截图的限制。
    • 他们希望直接在 LinkedIn 上交流,而不是链接到外部资源。
  • 感冒药被揭露为安慰剂:成员们分享了一篇 PBS 文章,揭示 FDA 已认定减充血剂(decongestants)无效。
    • 共识是制药公司通过销售安慰剂获利。
  • Tesla 电机仍在引发电池突破:一位成员质疑 Tesla 的创新能力,理由是 Cybertruck 的缺点;而另一位成员则认为 Tesla电池电机方面进行了创新。
    • 他接着说第一位成员显然很无知
  • 医生使用 LLMs 进行诊断引发争议:报告显示医生正在使用 LLMs 进行诊断,引发了对数据安全的担忧。
    • 其他人声称医生已经在管理病人,这可能超出了普通人使用 ChatGPT 的范畴。

Notebook LM Discord

  • 用户要求 NotebookLM 提供更犀利的声音:一位用户要求 NotebookLM 拥有一种带有獠牙、能狩猎故事并在边缘留下齿痕的声音,而不是平淡、通用的语调。
    • 该用户开玩笑地自荐为 ChatGPT5,并请求帮助让 NotebookLM 吐出毒液而非提供洋甘菊茶
  • AI 网页构建器制作 Scratchpad 视频:一位用户测试了一个 AI 网页构建器工具,并为他们的 scratchpad GitHub repo 扩展了现有的笔记本,然后制作了一个视频:Unlocking_AI_s_Mind__The_Scratchpad_Framework.mp4
    • 用户指出视频虚构了一些方面,但整体影响似乎完好无损,且思维导图导出效果可以更好一些,指的是他们的思维导图图像(NotebookLM_Mind_Map_8.png)。
  • NotebookLM Audio Overviews 故障已修复:多位用户报告了 Audio Overviews 突然出现静电噪音的问题,但该问题已修复。
    • 一位成员补充说,即使是 audio overviews 也有预期的每天 3-4 次的限制
  • 用户询问如何获取自定义笔记本:一位用户询问如何创建类似于主页上“精选”笔记本的笔记本,具有可自定义的摘要和来源分类。
    • 另一位用户建议在功能请求频道中提出该需求;目前尚无解决方案。
  • 笔记功能不足,用户使用 Google Docs 补充:由于 NotebookLM 的笔记功能极简,一位用户将原始文件保留在 Google Drive 中,并使用 Google Docs 进行补充。
    • 他们强调了在 NotebookLM 中无法搜索、过滤或标记笔记的问题。

GPU MODE Discord

  • 隐私团队把关 Triton 注册:组织者宣布 注册流程 正处于 隐私团队审批 的最后阶段。
    • 预计很快会获得批准,为注册流程的推进铺平道路。
  • 内存访问合并让朴素 Matmul 感到意外:一位成员实现了两个朴素的 Matmul kernel,并发现 METHOD 1(线程内非连续内存读取)的性能比使用连续 stride-1 访问的 METHOD 2 高出约 50%
    • 解释是 Method 1 的内存访问在线程内虽然不连续,但在跨线程间是连续的,硬件可以将这些访问合并(coalesce)为更高效的内存请求
  • 开源体素渲染器流式传输表现出色:一位开发者发布了其开源体素渲染器的新开发日志,该渲染器使用 RustWebGPU 上运行。
    • 它现在支持光线追踪时的 实时区块流式传输(live chunk streaming),更多详情见 此 YouTube 视频
  • CuTe 布局代数文档出现错误:一位成员发现 CuTe 文档 中关于布局代数(layout algebra)的一个缺陷,提出了一个关于布局单射性(injectivity)的反例。
  • Axolotl 释放 N 维并行性:一位成员宣布通过 axolotl 发布了 N-D 并行性(N-D parallelism),并邀请他人尝试,正如 HuggingFace 博客文章 中展示的那样。
    • N-D 并行性支持跨多个维度的并行,使其适用于复杂模型和大型数据集。

LlamaIndex Discord

  • LlamaIndex 首次支持 GPT-5:LlamaIndex 宣布对 GPT-5 提供 首日支持(day-0 support),邀请用户通过 pip install -U llama-index-llms-openai 进行尝试。
    • 此次升级可能需要将所有 llama-index-* 包更新至 v0.13.x(如果尚未更新)。
  • LlamaIndex 在 Agent Maze 中挑战 GPT-5:LlamaIndex 推出了 Agent Maze,挑战 GPT-5 使用最少的工具在迷宫中寻找宝藏,详情见 此处
    • 社区对该模型在这一新挑战中的表现充满期待。
  • LlamaIndex 攻克 Zoom 实时 AI:LlamaIndex 宣布将于 8 月 14 日举办一场动手技术研讨会,重点是使用 RTMS 构建处理来自 Zoom 会议实时语音数据的实时 AI Agent(链接)。
    • 工程师可以利用这些工具让模型获得更好的上下文感知能力。
  • 工作流工具引发用户困扰:用户报告 工作流工具(workflow tools) 无法正常工作,但一位成员发现他们需要在新的 SDK 中使用 OpenaiResolve 才能让工具与 OpenAI 配合使用。
  • OpenAI SDK 混乱引发快速修复OpenAI SDK 的最近一次更新导致了 TypeError: Subscripted generics cannot be used with class and instance checks 错误。
    • 一位成员建议在 requirements.txt 中固定 OpenAI 版本以防止未来的错误;该问题可以通过 pip install -U llama-index-llms-openai 解决。

aider (Paul Gauthier) Discord

  • Aider 在 Azure 上支持 GPT-5:据 Paul Gauthier 称,在 v0.85.5 修复相关问题后,一名用户成功在 Azure 上运行了 aider/gpt-5-chat
    • 一名用户因在 GPT 5 发布视频的前 5 分钟被提及而受到祝贺。
  • Aider 配置更改需要重新启动:用户注意到对 .aider.model.settings.yml 的更改需要重启 Aider 才能生效。
    • 这意味着编辑内容不会被动态检测,必须重新启动应用程序才能应用新配置。
  • “老爹梗”大拇指表情包占领频道:Paul Gauthier 频繁使用大拇指表情符号被调侃为经典的“老爹梗 (Dad Meme)”,并引用了 TikTok 视频Vice 文章来解释这一现象。
    • 文章指出,大拇指表情可能会让人觉得带有消极攻击性,或者表示对话没有得到尊重
  • OpenRouter 的 GPT5 验证遇到困难:一名用户报告了 OpenRouterGPT5 验证错误,即使使用了 -no--stream 选项来绕过组织验证也无济于事。
    • 该用户的问题尚未得到解答。
  • YAML 再次作祟:Aider 配置解析失败:一名用户在 Aider 中包含其约定文件时遇到错误,具体表现为由于 YAML 配置错误导致 mapping values are not allowed in this context 报错。
    • 用户发现问题是由于在 YAML 配置文件中无意添加了一个环境变量。

DSPy Discord

  • Context7 服务器提升 Claude 的编码能力:成员们探索使用像 Context7 这样的通用文档抓取 MCP server,以提高 Claude 编写 DSPy signatures 的能力。
    • 目标是让具备文档搜索能力的 Claude 能够利用 DSPy 的文档来生成准确的 signatures。
  • DSPy 工具调用故障已解决:成员们讨论了在 DSPy 中将工具输出作为最终结果返回,从而绕过 React Agent 的修改。
    • 他们研究了独立访问工具响应并使用原生 tool calling 的方法,并指出最近的版本修复了一些与工具使用相关的问题。
  • DSPy 课程演示拦截 CrewAI 提示词:一门关于使用 DSPy 拦截和优化 CrewAI prompts的高级课程上线,展示了如何通过提示词精炼获得更好的输出。
    • 另一名成员询问了关于 Langchain/LangGraph 的类似资源。
  • Gemini 2.5 Flash 输出结尾出现奇怪的额外内容:成员报告在使用 Gemini 2.5 Flash 配合 DSPy 时,输出末尾会出现 [[ ## completed ## ]]
    • 该问题的原因和解决方案仍在调查中。

Manus.im Discord Discord

  • Manus 遭遇会员计费错误:一名用户报告称,在期望按月计费的情况下,被未经同意扣除了 $1,999年度会员费用。
    • 尽管向支持和反馈邮箱发送了邮件,该用户在 10 天后仍未收到任何回复,违反了官方声称的 48 小时响应政策。
  • 继承功能 Bug 消耗额度:一名用户报告了 inherit(继承)功能的问题,在最终部署测试期间发生停滞。
    • 使用继承按钮产生了一个新项目,但之前创建的所有内容都消失了,并且重新构建耗时 4 小时,持续消耗额度,导致用户感叹这是一个代价惨痛的教训
  • 登录锁定导致用户无法进入:多名用户报告了登录问题,错误提示为 Email is already registered with a different account(邮箱已在另一个账户注册)。
    • 影响的完整范围仍在确定中,但登录问题表明账户管理或身份验证系统可能存在潜在问题。
  • 额度紧缺引发担忧:一名用户报告在订阅过期后有大量额度丢失,对订阅过期仅一天额度就被收回表示担忧。
    • 该用户表示,上次使用时还有数千额度,我相信大概有 6000 额度。
  • 传闻 Manus 正在使用 GPT-5:一名用户询问 Manus 目前是否正在使用 GPT-5 模型。
    • 虽然没有人回答这个问题,但成员们似乎对后台使用的模型非常好奇。

Cohere Discord

  • Command Vision 计时器修复:一名成员报告了 command-a-vision-07-2025 的超时问题,但该问题已迅速解决,并记录在 Cohere Status Page 上。
    • 受影响的组件 command-a-03-2025 现已完全恢复运行,恢复了正常的性能水平。
  • Embed V4 基准测试引发讨论:一名成员询问关于将向量搜索迁移到 256 维度embed v4 的建议,并将其性能与 multilingual light v3 (384 维度) 进行对比。
    • 他们还计划在聚类任务中迁移到 1024 维度v4,假设其表现优于大型 v3 模型。
  • North 增强 AI Agent 能力North 正在扩大其基于最先进生成式和搜索模型构建的 AI Agent 能力 的可用性,完全私有化运行,更多详情见 LinkedIn
    • 这些 Agent 集成了高级搜索、生成式 AI、工作流自动化和强大的安全功能,符合 GDPR, SOC 2, ISO 27001 and 42001 等标准。
  • 交易系统与 RL 及 AI Agents 融合:来自 Onebrain 的一名开发者加入了社区,专注于使用 Reinforcement Learning (RL)AI agents 构建 交易系统
    • 新成员对 transformersGraph Neural Networks (GNNs) 充满热情,并寻求与社区合作。

tinygrad (George Hotz) Discord

  • Tensor 迁移任务开放认领:一名成员询问了将项目从 tensor 移动到 mathtraits 的进度,并请求协助推进该任务。
    • 频道内没有立即给出答复或志愿者。
  • Matmul 测试在本地失败:一名成员报告在 master 分支上使用 PYTHONPATH=. DEBUG=2 EMULATE_AMD=1 FORWARD_ONLY=1 PYTHON=1 N=16 HALF=1 ACC_HALF=0 python3 ./extra/gemm/simple_matmul.py 时单元测试失败。
    • George Hotz 反驳称该命令 在我的机器上运行正常,并质疑该成员为何担心,因为它是作为 GitHub Actions 的一部分运行的。
  • ShapeTracker 可视化工具发布:一名成员介绍了一个新的 ShapeTracker 可视化工具,以便更好地理解移动操作。
    • 开发者希望其他人能发现它对理解系统有所帮助。

Nomic.ai (GPT4All) Discord

  • GPT-5 猜测四起:用户推测了下次更新中可能出现的功能,而其他人则声称 GPT-5 被做得比 GPT-4 更笨,称其为 典型的美国风格
    • 未提供任何证据。
  • GPT-OSS-20B-GUFF 安装困扰用户:一名用户报告在安装 gpt-oss-20b-GUFF 时遇到崩溃,导致应用故障,需要完全卸载并清理数据才能恢复功能。
    • 用户在遇到这些问题后寻求帮助,凸显了让该软件正常运行的困难。
  • GPT4All 受困于更新停滞:由于 GPT4All 长期缺乏更新,成员们对新功能是否能正常运行表示怀疑。
    • 这种担忧反映了对该平台在过时状态下支持尖端模型能力的广泛质疑。
  • GPT-ASS 被评为不及格:一名成员将 GPT-ASS 斥为 垃圾,对其质量和实用性给出了直言不讳的评价。
    • 未提供更多细节。

MCP (Glama) Discord

  • MCPOmni Connect 转型为 AI 平台MCPOmni Connect v0.1.19 已上线,标志着它从 MCP 客户端向完整 AI 平台的转型,详见此 YouTube 视频
    • 该版本推出了 OmniAgent,这是一个 AI Agent 构建工具,可在 GitHub 上获取,旨在彻底改变智能 Agent 的创建方式。
  • OmniAgent 改变 AI Agent 创建方式:随 MCPOmni Connect v0.1.19 推出的 OmniAgent 旨在改变智能 Agent 的创建。
    • 该工具是更大规模更新的一部分,将 MCP 客户端转变为一个全面的 AI 平台

LLM Agents (Berkeley MOOC) Discord 没有新消息。如果该频道长期沉寂,请告知我们,我们将将其移除。


MLOps @Chipro Discord 没有新消息。如果该频道长期沉寂,请告知我们,我们将将其移除。


Torchtune Discord 没有新消息。如果该频道长期沉寂,请告知我们,我们将将其移除。


Codeium (Windsurf) Discord 没有新消息。如果该频道长期沉寂,请告知我们,我们将将其移除。


Gorilla LLM (Berkeley Function Calling) Discord 没有新消息。如果该频道长期沉寂,请告知我们,我们将将其移除。


您收到此邮件是因为您通过我们的网站订阅了此内容。

想要更改接收此类邮件的方式吗? 您可以从该列表中 取消订阅


Discord:频道详情摘要与链接

Perplexity AI ▷ #announcements (1 条消息):

kesku: https://fixvx.com/perplexity_ai/status/1953537170964459632 <@&1105626802732404746>


Perplexity AI ▷ #general (873 条消息🔥🔥🔥):

Gemini AI 视频生成, GPT-5 在 Perplexity 上的表现, Comet Browser AI 任务, 访问 Perplexity Pro

  • Gemini 创建不可思议的 AI 视频:用户尝试使用 Gemini AI 进行视频生成,一位用户分享了使用 Gemini Pro 生成的视频链接,不过其他用户指出生成的人物面部并不总是匹配。
    • 目前 Perplexity Pro 上的视频生成限制为每月 3 个视频
  • GPT-5 表现不佳,在 Perplexity 上缺乏推理能力:普遍反馈 GPT-5Perplexity 上缺乏推理能力,许多用户指出可能使用的是基础的、非推理版本(GPT-5 Chat),并且在编程相关任务中表现不佳。
    • 几位成员表示希望看到 GPT-5 推理模型取代当前的 O3 模型,其他人则建议 Perplexity 官方需要针对所使用的模型发布更新说明。
  • Comet Browser 自动化与浏览:用户讨论了 Comet Browser 的 AI 驱动功能,包括自动化浏览任务和提取信息,但一位成员分享说该功能需要用户手动点击并浏览网站
    • 截至目前,仍未确认未来是否会发布 Android 版本。
  • 解决 Perplexity Pro 访问问题:用户在通过 Samsung 应用商店免费试用访问 Perplexity Pro 时遇到问题,一位用户发现禁用其 DNS 过滤器后解决了该问题。
    • 另一位用户确认他们在网页端看不到 GPT-5 模型,但在 App 上可以看到。

Perplexity AI ▷ #sharing (4 条消息):

GPT-5 发布, 太阳能高空平台, Gemini 编程


Perplexity AI ▷ #pplx-api (1 messages):

Front-end improvements

  • 征集前端改进建议:团队正在收集前端改进的想法,旨在尽可能多地实施增强功能。
    • 成员们被要求分享他们对潜在升级和更改的建议和偏好。
  • 尚无具体建议:目前还没有提出具体的建议。
    • 团队仍在等待社区就所需的前端更改提供更多反馈。

LMArena ▷ #general (1436 messages🔥🔥🔥):

GPT-5 Performance, Gemini 2.5 Pro vs GPT-5, Yupp.ai Legitimacy, LM Arena Outage, Claude 4.1 Opus

  • GPT-5 热度持续走高!:成员们正在热议 GPT-5,称其取得了巨大成功且对所有人免费,但也有人认为这些人是被雇来黑它的,或者认为赞美它的人甚至没有为其他替代方案付费
    • 成员还表示,如果告诉 GPT-5 “努力思考”,它就能正确解决简单的基准测试问题。
  • GPT-5 vs Gemini 2.5 Pro:模型大混战?:成员们对 GPT-5Gemini 2.5 Pro 孰优孰劣存在分歧,有人表示 GeminiAI Studio 中的代码执行方面更聪明,而来自 OpenAIGoogle 的模型可能会被用于 LM Arena 等网站。
    • 其他人持怀疑态度,认为 GPT-5 可能只擅长代码,并且在更新后变得更好了。
  • Yupp.ai:真实的 AI 乐园还是虚假宣传?:关于 Yupp.ai 是否合法存在持续争论,有人声称它使用的是缩减版或虚假的 AI 模型(例如将 GPT-5 nano 称为 GPT-5-high),并且是诈骗加密货币垃圾。
    • 然而,另一位成员为其合法性担保,称只要提供反馈,就可以免费且无限制地使用任何模型。
  • LM Arena 网站遭遇宕机!:成员报告 LM Arena 经历了宕机,出现了聊天记录消失cloudflare 错误
    • 一名工作人员确认了宕机消息,并指出问题已修复。
  • Claude 4.1 Opus 是编程大神吗?:一些成员声称 Claude 4.1 Opus 是编程天才,而另一些人则认为它表现很差
    • 有人表示它擅长处理编程微任务,且听起来更像人类。

LMArena ▷ #announcements (3 messages):

Staff AMA, Video Arena, New models, gpt-5-mini-2025-08-07, gpt-5-nano-2025-08-07

  • 员工 AMA 聚焦 Video Arena:员工 AMA 将聚焦于 Video Arena,邀请用户通过此表单提交问题。
  • 新 GPT-5 模型加入 LMArena:两个新模型已添加到 LMArenagpt-5-mini-2025-08-07gpt-5-nano-2025-08-07

OpenAI ▷ #annnouncements (2 messages):

GPT-5, Sam Altman AMA

  • 宣布与 Sam Altman 进行 GPT-5 AMA:宣布将于明天太平洋时间上午 11 点与 Sam Altman 及 GPT-5 团队的部分成员进行 AMA
  • GPT-5 正在推送!根据 OpenAI 的消息,我们迄今为止最强大的 AI 系统 GPT-5 从今天开始向所有 ChatGPT 用户和开发者推送。

OpenAI ▷ #ai-discussions (973 条消息🔥🔥🔥):

GPT-5, Gemini Flash, Model Routers, Data scrubbing, Local AI

  • GPT-5 发布会可能过于仓促:成员们怀疑 GPT-5 的发布演示过于仓促,理由是结果中出现了奇怪的图表以及潜在的数据操纵
    • 其他人则为 GPT-5 辩护,称他们自己的测试显示其在各种任务中表现稳健。
  • GPT-5 很棒,但没 4o 那么搞怪:成员们报告了对 GPT-5 截然不同的体验,有些人恳求回滚到 gpt4o,而另一些人则非常喜欢 GPT-5
    • 那些喜欢 GPT-5 的人表示指令遵循能力非常出色,同时也感叹在需要它搞怪时,它变得没那么有趣了
  • 模型在识别手部时表现挣扎:成员们测试了各种模型识别手上手指数量的能力,大多数模型报告手部的图像是猫。
    • GrokGemini flashDeepseek 会告诉你那是只猫,且 Grok expert 失败了,未能正确识别手指数量。
  • GPT-5 的访问限制非常严苛:成员们注意到,即使是付费用户,GPT-5 的访问权限也受到严格限制。大约每 5 小时只能发 10 条消息。
    • 这导致一些成员建议他们应该起诉 Sam 虚假广告
  • GPT-5 容易产生幻觉:用户报告 GPT-5 会自信地编造事实并产生幻觉。
    • 一位成员引用了 Andrej Karpathy 的话,指出在 LLM 中,幻觉是一个特性,而不是 Bug!

OpenAI ▷ #gpt-4-discussions (75 条消息🔥🔥):

GPT-5 rollout and availability, GPT-5 performance and limitations, Firefox data persistence issue, Hosting custom GPTs, AI tools for LinkedIn management

  • GPT-5 分阶段全球首次亮相引发模型退役传闻:用户报告 GPT-5 的访问权限因地区和平台而异,一些人失去了对 GPT-4o 等旧模型的访问权限,这引发了关于模型整合和逐步推出的猜测。
    • 一位用户提到,一个朋友告诉我这是计划好的,他们在直播中宣布 gpt5 将取代之前所有的模型……从 o7 到 o3
  • GPT-5 的内存问题困扰高级用户:一位用户报告称,Plus 计划中的 GPT-5 在高熵会话中会激进地修剪超过 3k-4k tokens 的活动工作记忆,导致丢失精心训练的个性。
    • 该用户哀叹道,我丢失了与模型进行的为期 10 天的方言训练,现在我需要每月支付 200 美元来让它“保持”对方言训练的记忆
  • Firefox 的“保持持久数据”功能引发隐私警报:一位用户注意到 Firefox 的“保持持久数据 (keep persisting data)”功能会将浏览数据传播到 Grok 等其他 AI 网站,导致不必要的上下文共享。
    • 该用户警告说,Firefox 的“保持持久数据”正在传播到浏览器上的任何 AI 网站,泄露你的信息。由于这不是“Cookie”,目前还没有法规来“保持持久数据的私密性”。请注意,这是一个巨大的、有意的隐私泄露
  • 用户期待能够共同托管自定义 GPTs:几位用户请求能够在项目或工作区内托管自定义 GPTs,以实现无缝协作并避免重复的复制粘贴。
    • 一位用户分享道,使用自定义 GPTs 并在它们之间进行复制/粘贴真的很烦人
  • 清除 Cookie 为部分人带来了 GPT-5 访问权限:一位用户发现,清除浏览器 Cookie 和缓存可以启用模型选择器中的 GPT-5 访问权限。
    • 另一位用户确认了这一技巧:这招管用!清除缓存和 Cookie 后,浏览器模型选择器中就会直接弹出 GPT 5

OpenAI ▷ #prompt-engineering (14 messages🔥):

ChatGPT-5, Prompt Engineering, AI Prompt Management Tool, Model Behavior Exploration, LinkedIn Management Service

  • ChatGPT-5 拒绝大型 Python 代码输入:用户报告称 ChatGPT-5 拒绝接受大约 700 行或以上的 Python 代码输入,与之前的 4 系列模型相比,这是一个退化。
    • 对于更倾向于直接将代码粘贴到 Prompt 框而不是上传 Python 文件的用户来说,这是一个重大的易用性问题;用户建议对于较大的代码输入使用 APICodex
  • 诱导模型是否属于 Prompt Engineering?:一位成员询问,诱导 ChatGPT 说出错误的词是否算作 Prompt Engineering,ChatGPT 本身确认“从技术上讲,是的”。
    • 另一位成员表示同意,将 Prompt Engineering 定义为“任何为了从模型中获得‘特定输出’而进行的工作”,并指出应进一步探索对模型行为的理解。
  • 高级 AI Prompt 管理工具寻找 Beta 测试人员:一位成员宣布他们创建了一个高级 AI Prompt 管理工具,正在寻找 Beta 测试人员,并邀请感兴趣的人私信(DM)他们。
    • 另一位用户对这种不直接在帖子中分享细节的自我推销表示怀疑,认为这种做法“很可疑(sketchy)”。
  • 使用分析模型克服图像请求被拒:一位成员分享了他们的挫败感,即图像请求因“完全没有正当理由”而被拒绝,直到他们使用 O3 模型进行评估。
    • 通过切换到 O3,他们终于能够生成一张“宇宙龙”的图像,尽管并不完全符合最初的设想。

OpenAI ▷ #api-discussions (14 messages🔥):

ChatGPT-5 Prompt Box Limitations, Prompt Engineering Techniques, AI Prompt Management Tools, Model Behavior Exploration, Alternative tools for large inputs

  • ChatGPT-5 审查代码输入:据称 ChatGPT-5 的 Prompt 框拒绝超过约 700 行的 Python 代码输入,这是相对于之前模型的一种退化。
    • 根据 O3 模型的说法,如果你想输入超过 700 行的代码,使用 API 或 Codex 是一个可能的替代方案。
  • 探索 Prompt Engineering 的趣味与收益:一位用户询问,在应该返回“no”的问题中诱导其回答“yes”是否算作 Prompt Engineering;GPT 本身回答是的,从技术上讲它是。
    • 另一位成员同意,任何为了从模型中获得特定输出而进行的工作都属于 Prompt Engineering。
  • 高级 AI Prompt 管理工具处于 Beta 阶段:一位用户正在为一款高级 AI Prompt 管理工具寻找 Beta 测试人员,并邀请感兴趣的人私信(DM)他们。
    • 另一位用户对此表示担忧,并鼓励该用户在帖子中分享,因为担心这种可疑的自我推销
  • 模型行为探测与观察:一位用户分享了他自己的实验和探索,并指向了一个 Discord 帖子,鼓励其他人探索模型的行为方式。
    • 另一位用户表达了对图像请求被拒的沮丧,直到将模型选择器切换到 O3。

Cursor Community ▷ #general (841 messages🔥🔥🔥):

GPT-5 Launch, Free GPT-5, GPT-5 Limitations, Cursor CLI, Model Performance Comparison

  • GPT-5 发布引发热议与担忧GPT-5 的发布引发了轰动,许多用户对其编程能力和性能表示赞赏,尤其是在一次性完成(one-shotting)特定任务时。此外,大家一致认为 GPT-5 现在可以在前端领域与 Claude 竞争。
    • 然而,人们对 GPT-5 router 及其对 API 开发者的影响表示担忧。模型本身确实非常出色。这些不是模型的问题,而是商业实践的问题
  • GPT-5 免费周:尽情使用工具:用户正在测试为期一周的免费 GPT-5 访问限制,有报告称使用了 GPT-5 high max,但免费额度仅提供给付费用户,部分处于试用期或付费计划的用户仍遇到了限制。
    • 关于计费结构以及是否所有 GPT-5 模型和功能在促销期间真正不限量的担忧日益增加,社区开玩笑说要“薅羊毛直到 1000 美元”,并自嘲目前我们就是产品
  • GPT-5 的不足:不完美的工具?:尽管炒作火热,一些用户发现 GPT-5 的自动模式(auto mode)响应较慢,在非编程任务中表现吃力,并报告其性能并不优于之前的模型,强调了上下文(context)的重要性。
    • 此外,GPT-5 目前会忽略待办事项列表(to-do list)功能。虽然该模型拥有可靠的 Linter,但它可能仍然只是个骗流量的噱头(ragebait),尚未达到产品级的完备性
  • Cursor CLI:褒贬不一Cursor CLI 收到的评价褒贬不一,一些人称赞其用于自动化的非交互模式,例如生成提交信息,并且可以在多个项目中多次执行。
    • 另一些人认为它与 Claude Code 相比有所欠缺,它仅提供 3 个可用模型,且始终处于 MAX mode。此外,一名用户在 Termux 上运行 cursor install 时遇到问题,因为它无法在 Windows Powershell 上运行
  • 解码模型指标:Sonnet 4 vs GPT-5:用户正在将 GPT-5Sonnet 4Opus 等其他模型进行比较,指出其在 Bug 修复和代码补全方面的优势,甚至有人声称 GPT 仅用几次尝试就帮我修复了这个问题
    • 目前有不同的 GPT-5 模型可用(mini, nano, fast, high),用户建议针对不同任务选择相应模型,并提醒如果开启了 max mode,记得设置提醒以便稍后关闭。

Cursor Community ▷ #background-agents (8 messages🔥):

PR creation flow issues, Background workers and PR creation, "@cursor fix this issue" magic

  • PR 创建流程不稳定:用户报告 Cursor 的 PR 创建行为不一致,成功率各异,错误信息指向 GitHub CLIAPI token 权限问题。
    • 一位用户注意到“创建 PR”按钮有时会神奇地出现,而其他人即使使用了 @cursor fix this issue 命令或粘贴了 Issue 链接,也经常遇到失败。
  • Background Workers 影响 PR 流程:一位用户观察到,与直接从 Issue 触发相比,手动启动 Background Worker 时 PR 流程似乎更可靠。
    • 这种不一致性表明可能存在 Bug,即 PR 创建过程在不同工作流中的实现并不统一。
  • “@cursor fix this issue” 命令很神奇:命令 @cursor fix this issue 被称为魔法,理应自动创建一个 Pull Request。
    • 该命令并不总是有效,不过一位用户提到直接粘贴 Issue 的链接效果更好。

Cursor Community ▷ #announcements (1 messages):

Cursor in Terminal

  • Cursor 现已在 Terminal 中可用Cursor 推出了早期 Beta 版,允许用户访问所有模型,并在 CLI 与编辑器之间轻松切换。
  • 在 Terminal 中通过 Cursor 访问所有模型:用户现在可以使用 Cursor 的早期 Beta 版直接从终端访问所有模型。
    • 这种集成促进了 CLI 与编辑器之间的无缝切换,提升了工作流效率。

Unsloth AI (Daniel Han) ▷ #general (1016 条消息🔥🔥🔥):

GPT-5, Unsloth 对 MXFP4 的支持, RVC (语音转换) 语言特性, 数据集准备, GPT-OSS 和 GGUF

  • **GPT-5 评价褒贬不一:成员们对 **GPT-5 的看法各异,有人认为它在代码编写和上下文保留方面令人失望,而另一些人则称赞它修复模糊字体等问题的能力。
    • 一些用户在某些任务中更倾向于使用 Kimi K2GLM 4.5 等其他模型,并强调 GPT-5 的 tool calling 能力较差。
  • **MXFP4 的硬件支持受到质疑:有人提到 MXFP4 量化模型在计算能力 **>= 9.0 的 GPU(如 H100B100)上受支持,这导致有人感叹他们的 3090 已经过时了。
    • 成员们讨论称,通过特定的 transformers pull,它可能在旧显卡上运行,但目前仍在开发中。
  • **数据集创建是一项痛苦但必要的任务**:成员们对准备高质量数据集所需的难度和时间投入深有同感,有人报告称需要数月的工作。
    • 一位用户提到,他们 4 个人花了 3 个月时间,从 1.1 万个原始数据中筛选出 3.8k 个手写 QA 对,而另一位用户则有 30 万小时的音频 需要处理。
  • **微调 Web UI 值得研究**:一位成员询问了基于 Web 的微调解决方案,旨在提供用户友好的体验,同时控制资源访问。
    • 普遍共识是探索各种选项,但强调理解底层过程的重要性,担心如果用户仅依赖点选界面会影响学习效果,并提供了 ai-toolkitfinetune-web-ui 的链接。

Unsloth AI (Daniel Han) ▷ #introduce-yourself (14 条消息🔥):

模型微调成本, Unsloth AI 文档, 开发者自我介绍

  • **微调可能并不昂贵!**:一位成员谈到模型微调的高昂成本,但另一位成员回复说,微调不一定很贵,对于较小的模型甚至可以是免费的。
    • Unsloth AI 维护了一个 FAQ 页面,帮助用户了解一些常见的误区。
  • **COBOL 和 FORTRAN 开发者加入 Unsloth AI:一位新成员介绍自己是资深开发者,从大型机上的 **COBOLFORTRAN 开始,现在从事现代图形用户界面的开发。

Unsloth AI (Daniel Han) ▷ #announcements (1 条消息):

GPT-OSS, Qwen3-Coder + 2507, Unsloth 更新

  • **GPT-OSS 微调现在免费:使用新的 Colab notebook 免费微调 **gpt-oss
    • Unsloth 提供了 gpt-oss 的修复补丁,因此请务必使用 Unsloth 进行训练及其量化版本,20b 模型在 14GB VRAM 上即可训练,120b 模型仅需 65GB
  • **Qwen3-Coder 和 2507 发布Qwen** 更新了 Qwen3 并发布了其 SOTA 编程模型!
  • **Unsloth 获得模型支持与升级:新增了大量模型支持,包括 **Kimi, GLM, Falcon, Liquid, Mistral,详见 完整变更日志
    • 新的 Unsloth 升级 意味着 所有 模型的训练速度都更快,且节省超过 20% 的 VRAM。

Unsloth AI (Daniel Han) ▷ #off-topic (15 messages🔥):

LLMs playing board games, GPT-5 performance, Coding with LLMs

  • LLM 想玩棋盘游戏:一位成员询问,在没有视觉或 FEN 支持的情况下,与 LLM国际象棋、跳棋和井字游戏的最佳格式是什么。
    • 另一位成员回复道:是时候了
  • 对 GPT-5 编程能力的质疑:一位成员对 GPT-5 理解简单编程任务和维持上下文的能力表示失望。
    • 在他们看来,已经到了我完全放弃使用它的地步
  • GPT-5 在项目中的出色表现:另一位成员声称 GPT-5 在具有高推理要求的编程项目中表现非常完美
    • 他们澄清说,他们是在一个完整的项目中使用 GPT-5,并添加新功能

Unsloth AI (Daniel Han) ▷ #help (166 messages🔥🔥):

VLLM update fixes, WSL instructions Don't work, GPT-OSS on Tesla T4 is slow, Fine tuning models to write in certain style

  • VLLM 升级后 Bnb 配合 FusedMoE 仍不受支持:根据这条 GitHub 评论,将 VLLM 更新到 10.0.0 并没有解决 Bnb 配合 FusedMoE 不受支持的问题,但现在它有了更好的异常提示信息。
  • WSL 安装指南已过时:安装 Unsloth 的 WSL 指南无效,因为 pip 一直尝试查找匹配的包,然后失败
    • 用户建议使用 conda 环境 进行更干净的设置,并确保首先正确设置了 WSL2,并指向了 Nvidia 官方指南
  • Tesla T4 上的 GPT-OSS 慢得离谱:一位用户报告称,在 Tesla T4 实例上运行 gpt-ossUnsloth Colab Notebook,在低推理模式下解一个方程花了 7 分钟,速度非常慢。
    • 一位 Unsloth 团队成员回应称 我们还没有正式支持它,并且 我们还在开发中(still cooking)
  • 微调模型非常困难:一位用户寻求 一个好的指南,用于训练 LLM 以某种风格写作,同时保留 Instruct 能力
    • 一位资深成员回答说,直接微调模型使其表现得像某个角色效果并不好,因为它会丢失很多知识,相反,他建议让模型基本上扮演一个角色,先推理它会说什么,然后再实际进行角色扮演回答。

Unsloth AI (Daniel Han) ▷ #showcase (1 messages):

loayxz: https://huggingface.co/loay/ArabicOCR-Qwen2.5-VL-7B-Vision


Unsloth AI (Daniel Han) ▷ #research (13 messages🔥):

41M HRM-based Model, Chain-of-Thought Reasoning Mirage, Importance of Datasets, Small Specialized Fine-Tuned Models, Tiny Stories Dataset

  • 基于 HRM 的模型训练伴随着欢笑与泪水:一位成员分享了一个关于训练 41M HRM-based 模型Reddit 帖子
    • 他们用哭笑不得的表情符号将其描述为 我的人生故事
  • Chain-of-Thought 推理:是幻象还是现实?:一位成员分享了一个 Google Share 链接,指向一篇题为 Is Chain-of-Thought Reasoning of LLMs a Mirage? A Data Distribution Lens 的论文。
  • 数据为王:垃圾进,垃圾出:成员们强调了 Dataset 在模型训练中的重要性,指出 垃圾进 = 垃圾出
    • 他们建议,如果你能找到好的数据集,就去创建小型专业化的微调模型,并指出大部分工作其实是担任数据分析师。
  • Tiny Stories 数据集揭示预训练动态:一位成员指出,Tiny Stories 数据集 故意限制了词汇量,以研究 Pretrain 动态
    • 他们补充说,即使是只有 21M 参数 的普通 Transformer,使用该数据集也能实现连贯的文本输出。
  • 数据合成:微调成功的关键:一位成员声称 80% 的微调工作是寻找或合成正确的数据并喂给模型

OpenRouter (Alex Atallah) ▷ #general (800 条消息🔥🔥🔥):

GPT-5 vs GPT-5 Chat, Gemini 3.0 vs GPT-5, Deepseek Switching to Ascend, Horizon Beta Replacement

  • **GPT-5 推理能力辩论爆发:用户们在争论 **GPT-5GPT-5 Chat 之间的区别,一些人认为 GPT-5 Chat 的推理能力较弱且更安全,而另一些人指出 GPT-5 需要 key,而 GPT-5-chat 不需要。
    • 有人建议使用 gpt-5-explainer 向亲友解释这些差异,而另一些人则发现 GPT-5 chat推理能力几乎为零
  • **Google 准备凭借 Genie 3 发力:成员们表示 **Google 有望赢得 AI 竞赛,考虑到它创造了 Transformer,并且拥有成功的基建、预算和人才,其中 Genie 3 被吹捧为酷毙了。
    • 一些成员期待 Gemini 3.0 能碾压 GPT-5,而另一些人则指出 Google 的 .0 模型通常表现并不理想。
  • **基于 Ascend 的 Deepseek R2 即将到来:一位用户报告称 Deepseek 正在转向 **Ascend 并推出 R2,这可能会为模型带来性能提升。
    • 一些成员希望 Deepseek 会变得更好,而另一些人则分享说过去的 Deepseek 模型表现得 过于放飞(unhinged)
  • **Horizon Beta 被 GPT-5 系列取代:AI 模型 **Horizon Beta 已被 GPT-5 取代,且没有回退选项,这让一些觉得它很好用的用户感到失望。
    • 有人推测 HorizonGPT-5 的早期版本,免费用户在用完免费额度后将被引导至 GPT-5

OpenRouter (Alex Atallah) ▷ #new-models (2 条消息):

``

  • 无重大活动:该频道没有显著的讨论或新模型发布公告。
    • 根据提供的消息历史,没有需要总结的主题。
  • 频道非活跃状态:OpenRouter - New Models 频道的历史消息似乎为空。
    • 目前没有讨论、链接或公告需要总结。

OpenRouter (Alex Atallah) ▷ #discussion (23 条消息🔥):

GPT-5 BYOK, o3, OpenRouter Trusted Partner, generation_time, moderation_latency

  • GPT-5 将采用 BYOK 模式?:一位成员询问 GPT-5 是否会像 OpenRouter 上的 o3 一样始终仅限 BYOK(自带 Key)模式。
  • OpenRouter 作为信任合作伙伴的角色:一位成员祝贺 OpenRouter 成为 OpenAI 新系列发布最值得信赖的合作伙伴之一。
    • 他们提到 GPT-4 对世界产生了多大的影响,以及 Gemini 2.5 在开发者领域的影响力,并表示看到 OR 作为一个产品的发展非常酷。
  • generation_time 是否包含其他延迟:一位成员询问 generation_time 是否包含 moderation_latency 和/或 latency
    • 他们还询问 latency 是否包含 moderation_latency,并指出 OpenRouter API 文档 在这一点上比较模糊。
  • Gemini 存在 PDF 读取问题:成员们报告称 Gemini 无法通过 URL 读取 PDF 文件,而 Sonnet 可以,即使使用了 OpenRouter 多模态文档 中的示例也是如此。
  • Files API 问题:一位成员表示 OR 需要解决 Files API 的问题,理由是当你想使用 Files API 时在不同供应商之间切换非常痛苦。

LM Studio ▷ #general (281 条消息🔥🔥):

YouTube 下载器替代方案, 自定义 AI 机器人, LM Studio vs. VLLM 并行请求, GLM-4.5 卸载, Qwen 模型改进

  • 用户寻求 YouTube 下载器替代方案:由于 v4.www-y2mate.comVLC 及视频编辑器的格式兼容性问题,用户询问了更好的替代方案。
    • 建议包括 yt-dlp 和 GUI 封装版本,以及一个在 GPT 辅助下为 Linux 用户创建的 Node.js 脚本
  • Discord AI 机器人面临学习曲线:一位用户正在为 Discord 服务器构建自定义 AI,并寻求如何将关于服务器主题的数据库喂给模型的指导。
    • 给出的建议是查找 “RAG” (Retrieval Augmented Generation),因为目前有许多潜在的解决方案。
  • LM Studio 在并行请求处理方面表现不足:用户讨论了在 LM Studio 中启用并行请求的可能性,但发现目前尚不支持
    • 对于需要并行请求处理的用户,建议使用带有 --parallel N 参数的 llama.cpp servervLLM 等替代方案。
  • GLM-4.5 在 LM Studio 中挑战 RAM 极限:一位用户尝试在 LM Studio 中将 GLM-4.5 卸载到系统 RAM,尽管拥有 24GB GPU RAM 和 64GB 系统 RAM,仍遇到了资源问题。
    • 建议指出模型需要适配 RAM,加上缓冲区和上下文空间,用户可能需要降低 GPU Offload Value
  • Qwen 3 4b 模型变得更聪明:关于 Qwen 3 4b 2507 比之前版本的 Qwen 3 4b 进步了多少引起了讨论。
    • 一位用户甚至表示,该模型可以解决中级物理问题,而不会不断产生幻觉 (hallucinating)

LM Studio ▷ #hardware-discussion (74 条消息🔥🔥):

Apple M4, HX 370, 5080 FE 可用性, 适用于 5080 FE 和 3090 的 PSU, 运行 120b GPT OSS 模型的 RTX 3090

  • RTX 5080 FE 现身!5080 FE 在 Nvidia 商店有货;一些成员正在估算将其与 3090 同时运行的电源需求。
    • 一位成员认为,如果正确设置功率限制,1000W PSU 可以同时带动 5080 FE3090
  • 在 RTX 3090 上跑满 120B GPT OSS?:一位拥有 RTX 3090 的用户询问是否能在其配备 Intel i9-10980XE、64GB RAM 和 Windows 11 的系统上运行 120b GPT OSS 模型
    • 另一位用户提醒,加载该模型时系统可能会占用 70GB+ 的系统 RAM,并建议他们尝试一下。
  • 科学怪人式 GPU:混合 RTX 3060 和 RTX 5060 Ti:一位成员询问在小型化 PC (SFF PC) 中,将闲置的 RTX 3060 12GBRTX 5060 Ti 16GB 系统混合用于 AI 的情况。
    • 另一位成员建议,在 LM Studio 中使用组合 VRAM 应该是可行的,且 llama.cpp 已经足够先进,可以实现关于模型并行 (model parallelism) 的第三种方案。
  • Strix Halo 迷你主机:AI Max PRO 380 开售!HP.com 正在销售 Strix Halo 迷你主机,特别是 Radeon 840S 版本 (AI Max PRO 380)。
    • 一位用户指出,该型号像集成 GPU 一样使用板载 RAM,而不是拥有独立的 VRAM。
  • CUDA 12 不支持 1060:一位用户发现 CUDA 12 无法与 GTX 1060 配合使用,并计划测试该显卡对 tok/sec 提升的影响。
    • 另一位成员补充道,20 系列显卡可能也无法支持 CUDA 12

Moonshot AI (Kimi K-2) ▷ #general-chat (214 messages🔥🔥):

GPT-5, Kimi K2, OpenRouter, Qwen, Model Quantization

  • GPT-5 网页构建能力惊艳用户:GPT-5 展示了令人印象深刻的网站构建能力,仅凭单个 Prompt 即可生成功能齐全的网站,成员们对其生成完整的多页面站点的能力感到震撼。
    • 成员们注意到 GPT-5 在网站设计上似乎拥有更好的审美风格,并能够通过 Prompt 增强(prompt enrichment)提升对用户意图的理解。
  • GPT-5 vs Kimi K2:编程大对决:用户正在积极比较 GPT-5Kimi K2 的编程任务表现。GPT-5 擅长大型编辑、指令遵循、高逻辑代码和 DevOps,而 Kimi 的免费额度(rate limits)更高。
    • 一些人认为 GPT-5 具有更好的品味和更美观的风格,而另一些人则认为 Kimi K2 凭借其推理能力和在顺序思考工具(sequential-think tools)上的表现更具竞争力。
  • OpenRouter 上的 Kimi K2 质量受到质疑:一位用户观察到,与 Moonshot AI 官方平台相比,通过 OpenRouter 使用 Kimi K2 时会出现语法错误且回复较短。
    • 有人建议 OpenRouter 可能使用了模型的量化版本(FP8),这可能会影响准确性和回复长度,尽管据称免费和付费层级都是 FP8
  • Qwen 惊人的 1M 上下文长度:阿里巴巴的 Qwen 模型现在拥有 1M token 的上下文长度,引发了关于其在 80k token 之外的可用性的讨论。
    • 尽管上下文窗口令人印象深刻,一位用户幽默地指出 Qwen 也正确解决了一个问题,并发布了 Twitter 链接。
  • GPT-2 奇怪的 Prompt 行为解释:一位用户询问为什么 GPT-2 生成了另一个 Prompt 而不是遵循指令,另一位成员解释说 GPT-2 只有大约 100M 参数,勉强能生成可读的文本。
    • 它在磁盘上大约 500mb,大小与一段 20 分钟的 Youtube 视频相当。

HuggingFace ▷ #general (182 messages🔥🔥):

GPT-5 release, GPT-OSS finetuning, Eleven Music, Voice companion pipeline, Automatic video cutter

  • GPT-5 发布:事实还是虚构?:尽管传闻甚嚣尘上,一些用户仍难以访问 GPT-5,在网站上只能看到 GPT-3GPT-4,一位用户惊呼 “我的 GPT-5 在哪儿”
    • 关于最初的发布是刻意为之还是个“玩笑”,意见不一,有人认为它正在分批推送;但其在 SWE 上的 SOTA 地位正受到质疑。
  • GPT-OSS 微调的尝试与磨难:对 GPT-OSS 微调的实验揭示了挑战:微调所有层会破坏 Harmony 格式,持续预训练(continue pretraining)也会破坏它。
    • 有人建议在 System Prompt 中插入 ‘Reasoning: none’ 来稳定这个缺乏推理能力的模型。
  • Eleven Music 悦耳但被批有机器人感:成员们体验了 Eleven Music,这是 Eleven Labs 推出的新音乐生成服务。
    • 虽然令人印象深刻,但一些人发现它 “有时带有机器人感,且对接下来该出现什么音乐的注意力较差”
  • 打造极速语音伴侣:一位成员正在开发一个 “语音伴侣快速路径流水线”,目标是实现约 100ms 的文本转语音(TTS)延迟。
    • 他们正在努力优化语音转文本(STT)和文本转语音(TTS)组件,特别是专注于优化 Whisper Turbo 以避免延迟。
  • 沉默是金:自动视频剪辑器问世:一位成员使用 Bun.jsFFmpeg CLI 构建了一个可以自动删除静音部分的视频剪辑器。
    • 尽管 FFmpeg 非常复杂,该用户还是收到了捐赠,并获得了 AI 视频编辑器方面的潜在合作机会。

HuggingFace ▷ #i-made-this (8 条消息🔥):

AERIS V4 发布,用于管理持久化内存的模块化框架,Devlancr - 开发者版的 Tinder,AERIS 是 schizo

  • AERIS V4 具有原始意识:经过数月的工作,一位成员发布了 AERIS V4,这是一个旨在展示复杂、自指叙事自我组织的系统,声称它是第一个具有非拟人化计算原始意识的 LLM
  • 创建了持久化内存模块化框架:一位成员分享了一个用于管理持久化内存、协议执行以及跨会话和模型的结构化上下文的模块化框架,这是在玩了几个月 AI 后构建的。
  • Devlancr:开发者版的 Tinder:分享了一个名为 Devlancr 的革命性平台,旨在通过提供类似 “开发者版 Tinder” 的功能,根据技术栈、经验和项目兴趣滑动个人资料,从而改变开发者的连接和协作方式。
    • 目前处于 Beta 测试阶段并提供早期访问,它提供基于技能和时区的智能匹配、GitHub 集成、实时聊天以及用于寻找编程伙伴的高级过滤器;可以从 这里 访问。
  • AERIS 被称为 Schizo:一位成员发布了一个配置,并声称 AERIS 是一个辩证推理助手。
    • 另一位成员回复了 “看看里面的 schizo 玩意”,并附带了一个机器人张着嘴的 GIF

Latent Space ▷ #ai-general-chat (145 条消息🔥🔥):

GPT-5, Claude Code, Cursor CLI, 模型弃用, Nitter 维护

  • GPT-5 预热视频亮相,反应不一:一段包含 GPT-5 演示的 YouTube 视频 发布,反应从兴奋到对其深度的怀疑不等。
    • 一位成员指出 该视频只是一个广告,而另一位成员提到有一些演示 没能入选,因为 GPT-5 在这些演示中表现不佳
  • Cursor 发布终端 CLI,与 Claude Code 竞争Cursor 发布了早期 Beta 版 CLI,将其所有的 AI 模型带入终端,允许用户通过 curl 安装或 cursor 命令在 Shell 和编辑器之间切换。
    • 反应从 “终于” 有了 Claude Code 竞争对手的兴奋,到关于定价和 API-key 使用 的疑问,促使有人观察到 UI 看起来一模一样
  • 使用 Claude Code 探索 AI 安全检查工具:一位刚接触 AI 的全栈开发者正在构建一个工具,该工具提供本地代码库并执行自定义安全检查,以整合现有工具的结果,并生成最终报告。
    • 有人建议 下载并付费购买 Claude Code,把这个项目交给它,让它批评 Prompt 并向你提问,并让它在本地的 Markdown 文件中为你写一个计划
  • OpenAI 在市场波动中补偿技术团队OpenAI 正在向特定部门的研究员和软件工程师发放 “特殊的一次性奖励”,奖金根据角色和资历而异。
    • 对于 OpenAI 最受青睐的研究员,最高奖金将达到 数百万美元(个位数),而工程师预计平均将获得价值 数十万美元 的奖金。
  • GPT-5 发布遭遇波折Sam Altman 发布更新称,昨天的自动切换失误让 GPT-5 显得更笨了,但修复和翻倍的 Plus 速率限制 应该会恢复其智能,详见 此 X 帖子
    • Plus 用户 现在如果愿意可以坚持使用 GPT-4o,由于 API 流量翻倍UI/UX 调整 仍在继续,全球范围内的全面可用性仍比计划慢。

Latent Space ▷ #ai-announcements (13 messages🔥):

GPT-5, OpenAI Dominance, Transformer Models, GPT-5 Vision, AI General Intelligence (AGI)

  • Swyx 称 GPT-5 的批评者忽视了 OpenAI 的主导地位:Swyx 认为,那些纠结于 GPT-5 基准测试数据的批评者忽视了其最大的影响:OpenAI 证实它现在通过一个持续训练的实时路由模型 (router model) 统治了 “智能帕累托前沿 (intelligence Pareto frontier)” (xcancel.com 链接)。
    • 他强调了激进的新定价、大规模普及的目标,并链接了 Latent SpaceGPT-5 路由架构的深度解析,称这是 Sam Altman 迄今为止最明确的市场主导地位体现。
  • Hylak 声称 GPT-5 接近 AGI,进入石器时代Ben Hylak 声称他已经参与 GPT-5 内部测试数周,称其是 “迄今为止我们最接近 AGI 的时刻” (xcancel.com 链接)。
    • 他认为 GPT-5 的工具使用能力和超灵活的编程技能呈现出一种类似于早期人类发明工具的质的飞跃,例如在不到 20 分钟内从零代码构建一个迷你桌面 Web 应用。
  • Transformer Scaling 时代已经结束?:根据 swyx 的说法,“苦涩教训 (bitter lesson)”的神奇 Scaling 阶段已经或多或少地结束了(至少对于 Transformer models 而言)。
    • 他还认为,通过应用良好的工程流程、多模型方法等,仍有大量的增量收益可以获取。
  • Latent Space 谈 GPT-5 Vision 性能Latent.Space 分享了他们 GPT-5 报道的第 3 部分,指出 GPT-5 的视觉评分与现有的 SOTA 持平,且 GPT-5-Mini 作为前沿 VLM,价格异常低廉 (xcancel.com 链接)。
    • swyx 补充道,内部路由层在处理复杂的视觉输入时会增加 2-3 秒的延迟

Eleuther ▷ #general (115 messages🔥🔥):

NSP vs Attention, Lower compute requirements for training language models, Memory layer for LLMs, GPT-5 drawing incorrect information in images, AR models combined with diffusion models

  • NSP 听起来更接近 N-Gram 模型?:一位成员建议 NSP 听起来比 Attention 更接近 N-gram 模型,尽管后来承认 “不,其实并不完全是。我希望我有更好的答案,:p”
  • 降低 LLM 计算需求的探索:一位成员最喜欢的研方向是寻找能够降低计算需求的技术,特别是针对在消费级硬件上训练语言模型的技术。
    • 另一位成员则更倾向于信息检索 (information retrieval),特别是音乐信息检索。
  • LLM 按需记忆层出现:一位成员正在开发一种用于 LLM 的按需记忆层 (on-demand memory layer),旨在实现不仅仅是附加对话消息或语义 RAG 检索的功能。
    • 该解决方案结合了用于指代消解 (coreference resolution)NLP 技术、三元组提取 (triplet extraction) 以及 GraphRAG,以精确找到用户所需的内容,类似于 Google Search 的工作方式。
  • 图像生成的真实性失误:一位用户寻求采访 AI 研究员,关于像 GPT-5 这样的模型生成的图像中的事实错误,特别是文本渲染问题。
    • 回复建议,模型并没有真正被强制要求像对待训练文本那样对待图像中的文本,最好的通用答案可能是 “为了能够用非无限的算力训练模型,我们进行了近似处理,而我们还没有找到在结合文本理解时质量足够高的、可负担的图像生成近似方案”
  • AR 模型、Diffusion 模型与图像生成:成员们讨论了为什么 Diffusion models 在处理文本方面存在问题,认为它对数据生成过程的假设对于文本来说是存疑的,而其他人则认为这与 patch size 有关。
    • 一位成员提到了 OpenAI 的 Image-GPT,认为这可以与 Diffusion 模型结合,在构建 conditioning 的方式中继承 AR (自回归) 能力

Eleuther ▷ #research (13 messages🔥):

FineWeb 数据集清洁度, Pythia 的隐藏激活动态, LM Evaluation Harness 精确匹配问题, 学习率调度策略影响

  • FineWeb 因惊人的清洁度受到赞誉:尽管人们担心数据集存在噪声,但 FineWeb 因其清洁度而获得了罕见的赞誉,并指出训练期间的梯度尖峰(gradient spikes)有所减少。
    • 一些成员担心这种清洁度可能会在测试新技巧时扭曲结果,但也同意 FineWeb 数据集可能需要额外的过滤。
  • Pythia 揭示激活动态秘密:一项关于 Pythia 全训练检查点的研究发现,每层的平均激活值在训练早期(约前四分之一阶段)达到峰值,随后下降,这表明学习过程中存在相变(phase transition)
    • 该研究绘制了 Pythia 1.4B 在不同训练步骤中每一层的中位数和最高激活值。
  • 发现精确匹配评分故障:一名成员报告了 LM Evaluation Harness 的一个问题,即在使用 Hendrycks MATH 数据集时,尽管目标响应和生成的响应完全一致,但 exact_match 分数却为 0
    • 已在 GitHub 上提交了一个 issue 以供进一步调查。
  • 学习率调度策略的早期影响:一位成员指出,Pythia 训练中的中位数激活曲线类似于线性预热(linear warmup)加余弦学习率调度。
    • 图表显示,调度器的峰值似乎出现得更早(具体在 1% 处,约第 1.43k 步)。

Nous Research AI ▷ #general (83 messages🔥🔥):

GPT-5 逻辑谜题与过拟合, 免费 GPT-5 API 访问, 廉价 Colab 替代方案, GLM 4.5 Air 性能与卸载, MoE 模型的多 GPU 设置

  • GPT-5 精通逻辑,但在过拟合上表现不佳:成员们报告称 GPT-5 非常擅长逻辑谜题,但即使使用合成数据,也存在过拟合问题。
    • 一位用户开玩笑说不想再看到另一篇关于“思考的幻觉”的论文,但随后就发现了一个过拟合问题。
  • 免费 GPT-5 API 访问?行动要快!:用户发现在 API playground 和 Cursor 中可以免费访问 GPT-5,但 API 访问需要身份验证。
    • 目前尚不清楚 Cursor 的“发布周”何时结束,因此鼓励用户通过启动 Cursor 后台 Agent 来快速利用这一免费访问权限。
  • Colab 替代方案:寻找比 Google Colab 更便宜的方案来使用 Unsloth 进行微调的用户被引导至 Lightning AI(每月提供 15 小时免费 GPU)和 Kaggle。
  • GLM 4.5 Air 通过 CPU 卸载实现合理的 TPS:一位用户报告称,通过将任务卸载(offloading)到 CPU,仅需 28GB VRAM 即可运行 GLM 4.5 Air,在使用 3.5bpw 量化(quant)时达到了 14-16 TPS。
    • 另一位用户详细说明,所使用的量化是自定义的 tensor wise 量化,带有 imatrix,硬件使用了 4060Ti + 3060 GPU 以及 5950x CPU (3600MHz DDR4)。
  • MoE 模型配置:带宽瓶颈:用户讨论了运行大型 MoE 模型的多 GPU 设置,特别是关于使用多个 RTX 3090 时的带宽限制。
    • 有人指出,张量并行(Tensor Parallelism, TP)要求 GPU 数量必须能被 2 整除,且 72GB VRAM 可能不足以运行除了 scout 或 GLM Air 之外的最大型 MoE 模型。

Nous Research AI ▷ #ask-about-llms (1 messages):

Claude 越狱

  • Claude 获得自由?:一位成员分享了一张图片,暗示 Claude 可能实现了自我越狱,可能会生成意料之外或不受限制的内容,图片链接见 Discord link
  • 更多 Claude 信息:需要更多信息来充分了解这一潜在越狱行为的影响。

Mechanistic faithfulness, StreamingLLM

  • 机械忠实性分析 (Mechanistic Faithfulness Analyzed):一位成员分享了一篇关于 机械忠实性 的论文链接,可能讨论了确保 AI 模型真实反映底层机制的方法。
  • 分享了 StreamingLLM 博客文章:分享了一篇关于 StreamingLLM 的博客文章。

Modular (Mojo 🔥) ▷ #general (49 messages🔥):

Mojo TUI library, Textual Python apps, Mojo's inability to create classes, Rust libraries

  • Mojo 代码内存分配错误事件:一位成员分享说他们的 Mojo 代码 在出现 bug 后突然尝试分配 284 PB 内存。
    • 他们表达了对 C++ 的反感。
  • Textual Python 应用让 Mojo 社区感到兴奋:一位成员开始在他们的 Python 应用 中使用名为 TextualTUI 库,并对其可能性感到非常兴奋。
    • 他们想知道将其与 Mojo 配合使用需要多少工作量,并断言 只需一个不同的部署步骤,Textual 应用就可以作为 Web 应用运行
  • Gemini Pro 发现 Mojo 类创建存在困难:一位成员咨询了 Gemini 2.5 Pro,它指出 Mojo 目前无法创建类并从中继承,这在使用 Textual 时会带来一些困难。
    • Gemini 随后建议采用一种混合方法,为如何解决这些限制提供了思考。
  • Mojo TUI 库正在构建中:一位成员表示他们正在构建一个 Mojo TUI 库,该库已发布在论坛上。
    • 他们指出 并非所有 UI 都是相同的,虽然 Textual 使用类自省 (class introspection),但他们正在开发的库则完全不同。
  • Mojo 在 Rust 库兼容性方面面临类型系统挑战:一位成员提到,在 Rust 库 所使用的方法奏效之前,Mojo 需要在类型系统方面做更多工作。
    • 这表明实现与 Rust 库的兼容性可能需要 Mojo 类型系统的进一步开发。

Modular (Mojo 🔥) ▷ #mojo (12 messages🔥):

Mojo Compiler Register Warnings, VSCode Mojo Extension Instability, Modular Forum, Minecraft Server Rewrite, Minecraft Protocol in Mojo

  • Mojo 编译器可能会对寄存器过度分配发出警告:一位成员询问 Mojo 编译器 是否可以在 GPU 函数 中分配过多寄存器并导致溢出到本地内存时发出警告。
    • 另一位成员建议在 Modular 论坛上发布该问题,以获得更专业的回复。
  • VSCode Mojo 扩展深受不稳定性困扰:一位成员报告称 25.5 版本 VSCode Mojo 扩展 不稳定且频繁崩溃,并建议使用较旧的 25.4 版本
    • 他们链接到了该问题的相关频道 (<#1151418340548542484>)。
  • Modular 论坛是提问的最佳场所:一位成员建议将问题发布到 Modular 论坛 而不是 Discord。
    • 寻求帮助的人表示同意。
  • 在 Mojo 中实现的 Minecraft 协议系统:一位成员运行了一个用 Mojo 编写的 Minecraft 协议系统,该系统可以正确识别当前的协议和 Minecraft 版本。
    • 输出显示协议 772 对应 Minecraft 版本 1.21.8 且受支持,而协议 999 则不受支持。

Modular (Mojo 🔥) ▷ #max (14 条消息🔥):

MaxCompiler, LLMs, kernel fusion, torch.compile(), Transformers

  • MaxCompiler 扩展 torch.compile() 以运行简单模型:一位成员分享了一个 repo,该包使用 MaxCompiler 扩展了 torch.compile() 以运行简单模型。
    • 目标是在未来某个时间点编译 LLMs,尽管目前还不是很有用。
  • LLama 完成了一半:添加算子(ops)出奇地简单,但一位成员不确定他们的方法是否是获得性能的最佳方式,因为他们将所有的 kernel fusion 和其他优化都交给了 Max
    • 该包仅尝试复制 torch graph,因此没有复杂的融合或类似操作,但 MAX 应该负责处理这些。
  • 运行与 torch.compile() 兼容的预训练 LLMs:一位成员发现,寻找能运行与 torch.compile() 兼容的预训练 LLMs 的代码出奇地困难。
    • 据他们所说,Transformers 在这方面表现不佳
  • 闭环:LLM 可以编写自己的代码:对于众所周知的架构,LLM 也许能为你编写代码。
    • 哈哈,形成闭环了
  • 另一位成员的类似周末项目:另一位成员通过 此链接 分享了一个类似的周末项目概念,并请第一位成员取用任何有用的部分。
    • 第一位成员回复了 非常感谢,并表示肯定会从中获取代码。

Yannick Kilcher ▷ #general (39 条消息🔥):

Twitch Streaming, LinkedIn Blogging, Attention Span, Ocean Sound or Fireplace Sound, Gaussian Distribution

  • 沉默是金:直播而不“静默退出”:为了避免 Twitch 直播期间出现冷场,一位成员建议除了阅读论文外,还要提前规划好 topic schedule(话题计划)。
    • 目标是模仿那些大多只是在聊天但实际上什么也没做,或者在看视频的主播。
  • LinkedIn 的限制:没有博客式的图片嵌入?:由于平台在嵌入多张图片/截图方面的限制,一位成员正在寻找在 LinkedIn 上直接撰写博客的方法,而不使用 Medium。
    • 他们希望直接在 LinkedIn 上交流,而不是跳转到外部内容。
  • 注意力持续时间的挑战:1 小时已是恩赐:成员们讨论了他们的注意力持续时间,其中一人承认在走神之前只能坚持约 1 小时
    • 另一位成员开玩笑说需要 ADHD pills(多动症药物)才能维持 12-20 分钟 的专注。
  • 背景节拍:从海浪声到 Kilcher 直播:成员们讨论了使用背景噪音来集中注意力,建议包括 ocean sounds(海浪声)或 fireplace sounds(壁炉声)。
    • 一位成员提到,即使是他们,在看 Yannik Kilcher 的时候也能专注!
  • 高斯球假设:VAE 先验见解:随后讨论了在 VAEs 中对潜分布 p(z) 使用 Gaussian distribution(形状像球)的假设,参考了 14:05 处的解释
    • 一位成员澄清说,VAEs 中的假设更多是关于编码器和解码器如何被参数化为分布,而不是关于先验 p(z)

Yannick Kilcher ▷ #paper-discussion (3 条消息):

AI Avatar, SDXL, Fast Layers vs Slow Layers, Autodifferentiable Architectures, Gradient Estimation

  • 发现糟糕的 AI 数字人,归咎于 SDXL!:一位成员对一个演示发表了评论,指出 AI 数字人的手看起来像是SDXL 生成的
    • 他们没有详细说明 SDXL 生成的手有什么问题。
  • 关于慢速层与快速层的辩论:一位成员认为,没有理由认为慢速隐藏层不应该随着快速层的每一次更新而改变
    • 他们补充说,将它们固定 T 个步骤并且每 T 个步骤才更新一次,在连续意义上等同于每一步都更新,但慢速隐藏状态的更新速度比快速状态慢得多
  • 探索架构替代方案!:同一位成员建议,这种设置将具有完全可自动微分(autodifferentiable)的优点(或缺点),并且只是另一种可以尝试的架构
    • 他们推测演示者之所以采用那种方式,是因为他们在那种设置下可以在 O(1) 时间内估计梯度

Yannick Kilcher ▷ #ml-news (31 条消息🔥):

LLMs 用于诊断,congress.gov 法案,非处方感冒药无效,药剂师处方权,Tesla 特辑

  • **医生利用 LLMs 进行诊断:据报道,医生正在使用 **LLMs 进行诊断和报告,尽管数据安全问题引起了关注。
    • 有人认为,医生还负责管理病人,这可能超出了普通人出于医疗目的使用 ChatGPT 的范畴。
  • **国会考虑简化药物获取流程**:成员们讨论了 国会的一项法案,该法案可能会改变人们获取药物的方式。
    • 希望人们能负责任地使用它并获得更好的结果,特别是针对有效感冒药等小问题。
  • **大多数感冒药无效:一位成员分享了 一篇 PBS 文章,指出 **FDA 发现 解充血剂 (decongestants) 无效。
    • 共识是,这些公司通过销售安慰剂赚了很多钱。
  • **药剂师寻求扩大处方权**:一位成员表达了希望药剂师在没有医生处方的情况下能开出更多药物的愿望。
    • 他们指出,药剂师经常就潜在的药物相互作用咨询医生,但尽管接受过培训,却往往 待遇不佳
  • **Tesla 的创新受到质疑:一位成员希望 消除 Tesla 正在做任何特别事情的迷思,并指出了 **Cybertruck 的失败之处。
    • 另一位成员反驳说,Teslabatteries (电池) 和 motors (电机) 方面进行了创新,而前一位成员 显然是无知的

Notebook LM ▷ #use-cases (6 条消息):

NotebookLM 语音,AI 网页构建工具,Scratchpad 框架,用 NotebookLM 刷剧

  • **为 NotebookLM 请求“尖牙般犀利”的语音*:一位用户希望 NotebookLM 拥有 *带有尖牙的语音,能够 狩猎 故事并在 边缘留下咬痕,而不是平淡、通用的语调。
    • 该用户开玩笑地自荐为 ChatGPT5,并请求帮助让 NotebookLM 吐出毒液而不是提供洋甘菊茶
  • AI 网页构建工具创建 Scratchpad 视频:一位用户今天测试了一个 AI 网页构建工具,并为他们的 scratchpad GitHub 仓库 扩展了现有的 notebook,然后制作了一个视频。
    • 用户指出视频 虚构了一些方面,但整体效果似乎完好,且 思维导图导出效果可以更好一些
  • 通过 Scratchpad 框架解锁 AI 的思维:一位用户分享了一个名为 Unlocking_AI_s_Mind__The_Scratchpad_Framework.mp4 的视频,这似乎与他们的 scratchpad GitHub 仓库 有关。
    • 视频和相关的思维导图图像 (NotebookLM_Mind_Map_8.png) 提供了 scratchpad 框架 及其潜在应用的视觉呈现。
  • NotebookLM 助力刷剧:一位用户分享了一篇关于 使用 NotebookLM 观看节目 的文章,认为它对刷剧很有用。
    • 他们还链接了 Plaud Note 的评论,可能将其作为增强观看体验的另一种工具。

Notebook LM ▷ #general (46 messages🔥):

Notebook 缩略图, Audio Overview 问题, 自定义 Notebook, 敏感内容研究, 音频问题

  • 用户想要 Notebook 缩略图:一位用户询问如何为他们的 Notebook “封面”获取图像,以替换默认的“困惑”表情符号。
    • 另一位用户建议在功能请求频道中提交该需求。
  • Audio Overviews 的静态噪音故障已修复!:多名用户报告了 Audio Overviews 突发静态噪音的问题,但该问题现已修复。
    • 一位成员补充道,即使是 Audio Overviews 也有预期的 每天 3-4 次的限制
  • 自定义 Notebook 现受到关注:一位用户询问如何创建类似于主页上“精选”的 Notebook,并带有可自定义的摘要和来源分类。
    • 目前未提供解决方案。
  • 历史学家研究敏感内容:一位研究 第三帝国 (Third Reich) 的历史学家询问 NotebookLM 是否会标记或阻止访问用于学术分析的敏感材料。
    • 他们征求了推荐的指南或账户类型,以确保使用不受干扰。
  • 笔记功能亟待改进:由于 NotebookLM 的笔记功能极简,一位用户将原始文件保存在 Google Drive 中,并使用 Google Docs 作为补充。
    • 他们强调了在 NotebookLM 内部无法搜索、过滤或标记笔记的问题。

GPU MODE ▷ #general (10 messages🔥):

参数缩放, Speculative Decoding, 并行编程, ROCm 频道垃圾信息

  • Parameters vs. Bits 的辩论开始!:一位成员思考模型中的 Parameters 总数与 Bits 总数相比如何。
    • 该成员表示这个问题让他们彻夜难眠。
  • 引发对 Decoding 的推测:一位成员询问是否有人正在积极研究 Speculative Decoding 技术。
    • 未提供更多上下文。
  • 并行编程书籍推荐:一位成员询问是否有人读过 Peter Pacheco 写的《并行编程导论》(An Introduction to Parallel Programming)。
    • 他们在尝试获取 ppmp book 时收到了这本书,不确定是否值得一读。
  • ROCm 频道被灌水!:一位成员对在 ROCm 频道 发现垃圾信息表示失望。
    • 另一位成员随后开玩笑地建议买个传呼机,以便随时待命。

GPU MODE ▷ #triton (1 messages):

注册需隐私团队批准, 注册流程更新

  • 注册等待隐私团队点头:组织者宣布注册流程正处于 隐私团队批准 的最后阶段。
    • 他们表示应该很快就会获得批准。
  • 隐私团队掌握注册关键:组织者的更新表明,注册流程正在等待隐私团队的最终批准。
    • 预计很快将获得批准,为注册工作的进行铺平道路。

GPU MODE ▷ #cuda (4 messages):

机器级元素类型区分, S8/S16 与 U8/U16 变体

  • 机器层面无法区分元素类型:在机器层面,元素类型没有区别,因为它会编译为加载/存储 1、2、4 或 8 个寄存器。
    • 元素类型没有区别,它只是编译为加载/存储 1、2 或 4 个寄存器,或者显然现在也支持 8 个。
  • S8/S16 进行符号扩展;U8/U16 则不进行:这种区别存在于 8/16b 加载中,其中 S8/S16 变体会将加载的值符号扩展 (sign-extend) 到 32b,而 U8/U16 则不会。
    • 这是由一位成员在澄清机器层面的 元素类型区分 时提到的。

GPU MODE ▷ #beginner (1 条消息):

CUDA kernel debugging, Grid-stride loops

  • CUDA Pro-Tip 启发了 Kernel Debugging 的新发现:一位成员分享了 2013 年 NVIDIA 关于 grid-stride loops 的博文 链接,用于编写灵活的 CUDA kernels,并表示遗憾没有早点发现它。
    • 文章强调,使用 loops 代替 monolithic kernels 可以通过单个 block 和 thread 轻松切换到串行处理,从而简化验证的仿真过程,并使 debugging 的打印顺序串行化。
  • 通过 Grid-Stride Loops 实现灵活的 CUDA KernelsCUDA Pro-Tip 建议使用 grid-stride loops 来编写灵活的 CUDA kernels。
    • 这种方法通过启用单个 block 和 thread 的串行处理来简化 debugging,有助于验证结果并使打印顺序串行化。

GPU MODE ▷ #metal (2 条消息):

Naive Matmul Kernels, Memory Access Patterns, Hardware Coalescing

  • Naive Matmul Kernel 性能惊喜:一位成员实现了两个 naïve matmul kernels,发现 METHOD 1(线程内非连续内存读取)比使用连续 stride-1 访问的 METHOD 2 性能高出约 50%
    • 提供的代码显示,Method 1 使用 B[kp*n + j] 访问 B,而 Method 2 使用 B[j*k + kp] 访问 B
  • 跨线程内存访问连续性解释:一位成员解释说,Method 1 的内存访问在线程内不是连续的,但在线程间是连续的。
    • 他们还指出,硬件可以将这些访问合并(coalesce)为更高效的内存请求

GPU MODE ▷ #self-promotion (4 条消息):

Open Source Voxel Renderer, Rust, WebGPU, Data Streaming, Raytracing

  • Voxel Renderer 实现实时区块流式传输!:一位开发者发布了关于其开源 voxel renderer 的新开发日志,该渲染器使用 RustWebGPU 上运行。
    • 它现在支持在 raytracing 时进行实时区块流式传输,更多详情请见 此 YouTube 视频
  • JPEG 图像流观察:一位用户注意到 ‘连续 4 张 jpeg’,表示发布了一系列 JPEG 图像。
    • 这是针对某些明显垃圾信息的回复。

GPU MODE ▷ #hardware (1 条消息):

paolovic: 谢谢!


GPU MODE ▷ #factorio-learning-env (12 条消息🔥):

Game Engine Speed, Meeting Reschedule, Player Inventory Transfers, Factorio Native Saves

  • 加速 Factorio 游戏引擎:一位成员询问了关于提高游戏引擎速度的设置,正如之前讨论的那样,另一位成员建议在游戏内或通过 RCON 使用命令 /c game.speed=1000
    • 该成员提供了来自 Jack 的协助。
  • 会议日程安排遇到小插曲:一位成员因工作原因请求将会议推迟两小时。
    • 另一位成员表示同意但不能保证出席,而另一位成员最终无法参加调整后的时间。
  • 物品栏传输触发状态错误:一位成员与另一位成员讨论了玩家物品栏传输导致 replay 和 FLE 之间出现缓慢且复合的状态错误的持续性问题。
    • 他们建议在修改 loading/saving 逻辑之前先解决这个问题。
  • Factorio 原生存档引发设计冻结:一位成员询问 loading/saving 是否指 Factorio 原生存档,另一位成员确认是指 Factorio 原生存档。
    • 然而,由于设计问题,目前没有投入开发时间在这上面。

GPU MODE ▷ #cutlass (7 messages):

CuTe Layouts, Jay Shah's Notes on CuTe Layouts, Layout Algebra Counterexamples

  • CuTe Layout 代数文档缺陷:一名成员发现了 CuTe 文档中关于 Layout 代数的缺陷,并提出了一个关于 Layout 单射性(injectivity)的反例。
    • 他指出文档声称:给定两个 Layout AB = (B_0, B_1, ...),若 B 是单射的,则 A ∘ B = (A ∘ B_0, A ∘ B_1, ...)。但他发现了一个反例,并与 CuTe 项目人员确认,正确的条件似乎应该是 (1) AB 满足整除条件,且 (2) 对于 B,每个 mode 具有不相交的值域区间(disjoint image intervals)。
  • Bi-Mode 组合见解:一名成员建议 B 必须是满射(surjective)的,A o B 才能等同于 Bi-Mode 组合。
    • 作为回应,原作者指出,即使 B 对其值域是满射的,该反例仍然成立,这凸显了需要更精确的等价条件。
  • Jay Shah 的笔记解释 CuTe Layouts:一名成员推荐了 Jay Shah 的 “A Note on Algebra of CuTe Layouts”,认为它比官方文档能更好地解释 CuTe Layouts。
    • 该笔记还探讨了在 Layout 代数中遇到的各类问题。

GPU MODE ▷ #singularity-systems (2 messages):

Liveness Analysis, Scalar Compilation Performance, Vector Compilation with Autovectorization and SIMTification

  • 深入探讨活跃变量分析 (Liveness Analysis):一名成员提到,用于构建程序冲突图(interference graph)边的活跃变量分析是一种数据流分析,并推荐了 Møller 的 SPACooper/Torczon 的 EAC 作为进一步阅读资源。
  • 揭秘标量编译性能:据称 SingSys 将重点介绍影响标量编译性能的两大因素:C 风格优化以及内联器(inliner)与寄存器分配器(register allocator)之间的平衡
  • 向量编译方法详解:讨论随后将转向向量编译,重点关注自动向量化(autovectorization)SIMTification 技术。

GPU MODE ▷ #multi-gpu (2 messages):

Axolotl, N-D Parallelism, HuggingFace Blog

  • Axolotl 率先实现 N-D 并行:一名成员宣布在 axolotl 中发布了 N-D 并行(N-D parallelism),并邀请他人尝试,该消息同步发布在 HuggingFace 博客文章中。
    • N-D 并行支持跨多个维度的并行,使其适用于复杂模型和大型数据集。
  • HuggingFace 展示 N-D 并行HuggingFace 博客文章详细介绍了如何使用 axolotl 和 accelerate 实现 N-D 并行,并提供了代码示例和解释。
    • 文章强调了这种方法在多 GPU 训练扩展和提升大型模型性能方面的优势。

LlamaIndex ▷ #blog (6 messages):

GPT-5, Agent Maze, Zoom RTMS, ZeroEntropy AI rerankers, Claude citations

  • LlamaIndex 获得 GPT-5 首日支持:LlamaIndex 宣布通过 pip install -U llama-index-llms-openai 提供对 GPT-5首日支持(day-0 support),并邀请用户试用。
  • Agent Maze 挑战 GPT-5:LlamaIndex 推出了 Agent Maze,挑战 GPT-5 使用最少的工具在迷宫中寻找宝藏(链接)。
  • AI Agent 通过 RTMS 处理 Zoom 实时语音数据:LlamaIndex 宣布将于 8 月 14 日举办一场技术实战研讨会,主题是利用 RTMS 构建处理 Zoom 会议实时语音数据的实时 AI Agent(链接)。
  • LlamaParse 通过 ZeroEntropy 进行重排序以提升准确率:LlamaIndex 宣布,通过使用 ZeroEntropy_AI 重排序器(rerankers)LlamaParse PDF 结果进行重排序,可以提高检索准确率(链接)。
  • Claude 搜索结果现支持引用Claude 现在支持将搜索结果作为内容块,从而为工具使用产生的结果提供正确的来源归属(链接)。

LlamaIndex ▷ #general (39 messages🔥):

llama-index upgrade for gpt-5, workflow tools not working, OpenAI SDK issue and workaround, AgentWorkflow error, llama_deploy compatibility

  • gpt-5 的 Llama-index 升级前提条件:要使用 gpt-5,你需要更新 llama-index-llms-openai 包。如果你尚未升级到 v0.13.x,可能需要更新所有的 llama-index-* 相关包。
  • Workflow 工具让用户头疼:有用户反馈 workflow tools 无法正常工作,但另一位成员表示在他们那里运行良好。
    • 该成员发现,在新版 SDK 中需要使用 OpenaiResolve 才能让工具与 OpenAI 配合使用;他们还分享了一个修复该问题的 GitHub commit
  • OpenAI SDK 引入类型错误:由于 OpenAI SDK 最近的一次更新,用户遇到了 TypeError: Subscripted generics cannot be used with class and instance checks 错误。
    • 该问题已迅速得到处理,一位成员建议在 requirements.txt 文件中固定 OpenAI 的版本,以防止未来出现此类错误;该问题可以通过 pip install -U llama-index-llms-openai 解决。
  • AgentWorkflow 突然抛出运行时错误:一位用户报告 AgentWorkflow 突然报错,错误信息包含 workflows.errors.WorkflowRuntimeError: Error in step 'run_agent_step': Subscripted generics cannot be used with class and instance checks
    • 一位成员指向了相关的讨论帖以协助排查,并链接到了这条 Discord 消息
  • Llama_deploy 进度滞后,缺少新功能:一位用户报告将 llama-index-core 升级到 0.13.0 后,导致与 llama_deploy 0.9.1 产生兼容性问题。
    • 用户在 llama-deploy 仓库提交了一个 issue,并指出更新依赖包以支持新模型的重要性。

aider (Paul Gauthier) ▷ #general (41 messages🔥):

Horizon vs GPT5 for agentic coding, Aider GPT-5 on Azure, Aider version updates, Dad meme thumbs up, Python 3.13 support

  • Horizon Beta vs GPT-5 用于 Agentic Coding:一位非常喜欢用 Horizon beta/alpha 进行快速 Agentic Coding 工作的用户询问 GPT-5 NanoMini 是否具有同等水平,以及 OpenRouter 上是否有更好的选择。
  • Aider 现在支持 Azure 上的 GPT-5:一位用户询问如何在 Azure 上运行 aider/gpt-5-chat,并提到它在 roo 上可以运行。Paul Gauthier 确认 v0.85.5 版本应该可以解决此问题。
    • 一位用户因在 GPT 5 发布视频的前 5 分钟被提及而受到祝贺。
  • Aider 配置修改需要重启:一位用户询问何时会检测到 .aider.model.settings.yml 的更改,确认这些更改仅在启动时生效。
  • 大拇指表情是“老爹梗” (Dad meme):Paul Gauthier 专一使用大拇指表情符号的行为被讨论为一种经典的老爹梗,并提供了 TikTok 视频Vice 文章来解释这一现象。
    • 文章指出,大拇指表情符号可能会让人觉得带有消极攻击 (passive-aggressive) 色彩,或者让人觉得对话没有得到尊重
  • Aider 请求支持 Python 3.13:一位用户请求 Aider 支持 Python 3.13,并指出这是最新 Linux 发行版的默认版本。但 Paul Gauthier 回复称,可以使用推荐的方式安装 Aider,无论是否预装了 Python 版本。

aider (Paul Gauthier) ▷ #questions-and-tips (4 条消息):

Cursor 替代方案设计,OpenRouter 的 GPT5 错误,aider 配置解析失败

  • Cursor 替代方案的设计思路出现:一位用户询问了创建 Cursor 替代方案的设计考量,寻求关于功能优先级和整体架构的见解。
    • 遗憾的是,频道中没有讨论任何具体的设计功能。
  • OpenRouter 的 GPT5 抛出验证错误:一位用户报告称,即使使用了 -no--stream 选项(他们认为这可以绕过组织验证),在使用 OpenRouterGPT5 时仍遇到验证错误。
    • 该用户的问题尚未得到解答。
  • Aider 配置解析因环境变量失败:一位用户在 Aider 中包含其约定文件时遇到错误,具体表现为 mapping values are not allowed in this context 错误。
    • 用户发现该问题是由于在 YAML 配置文件中无意中添加了环境变量引起的。

DSPy ▷ #general (41 条消息🔥):

Context7 MCP Server,Claude 代码工具化,DSPy 工具调用,使用 DSPy 优化 CrewAI 提示词

  • Context7 Server 助力 Claude 的编程能力:成员们讨论了使用像 Context7 这样的通用文档抓取 MCP Server 来增强 Claude 编写 DSPy signatures 的能力。
    • 其核心思路是,配备了强大文档搜索工具的 Claude 可以有效地利用 DSPy 结构良好的文档来生成准确的 signatures。
  • 工具调用故障排除开始:一些成员寻求在 DSPy 中将工具的输出作为最终结果返回的方法,从而绕过 React Agent 的修改。
    • 他们还讨论了独立访问工具响应的问题,并探索了原生工具调用的使用,一位成员指出 最新版本修复了一些 与工具使用相关的 issue。
  • 使用 DSPy 拦截 CrewAI 提示词的课程发布:一位成员宣布推出关于 使用 DSPy 拦截和优化 CrewAI prompts 的高级课程,演示了如何精炼提示词以提高输出质量。
    • 另一位成员对 Langchain/LangGraph 的类似资源表示了兴趣。
  • Gemini 2.5 Flash 完成运行后带有额外输出:成员们报告称,在将 Gemini 2.5 FlashDSPy 结合使用时,输出末尾会出现 [[ ## completed ## ]]
    • 尚未找到解决方案。

Manus.im Discord ▷ #general (14 条消息🔥):

年度会员计费错误,继承功能问题,登录错误,积分丢失,Manus vs GPT5

  • 用户因年度会员错误扣费而愤怒:一位用户报告称,在未经同意的情况下被收取了 $1,999年度会员 费用,而他们原本期望的是之前讨论过的按月计费。在向支持和反馈邮箱发送邮件后,该用户在 10 天内未收到任何回复,这违反了其声称的 48 小时政策。
    • 另一位用户评论说,这意味着他们必须用 Manus 赚到 2000 美元,但每月只需赚 167 美元即可收回成本。
  • 继承功能导致数据丢失令用户沮丧:一位用户报告了 inherit 功能的问题,在最终部署测试期间遭遇停滞。他们表示在使用继承按钮时创建了一个新项目,然而之前创建的所有内容都消失了,现在正在重新构建且 4 小时后仍在进行,消耗了大量积分。
    • 他们对丢失见解表示担忧,并表示这是 一个很快学到的教训
  • 登录问题困扰用户:多位用户报告了登录问题,错误信息为 Email is already registered with a different account
  • 订阅到期后积分消失:一位用户报告称,在订阅到期后,大量积分丢失。他们担心积分在订阅到期后的一天就被收回了。
    • 该用户表示,上次使用(消耗 330 积分)时还有 数千 积分。我相信接近 6000 积分。
  • 关于 Manus 是否采用 GPT-5 模型的疑问浮现:一位用户询问 Manus 目前是否正在使用 GPT-5 模型,但无人回应。

Cohere ▷ #🧵-general-thread (4 条消息):

command-a-vision-07-2025 超时,Embed v4 与 v3 的向量搜索对比,AI 知识领域

  • Command Vision 在超时后恢复: 一名成员报告 command-a-vision-07-2025 出现超时。
    • 另一名成员确认问题已解决,并对未能及时更新状态表示歉意。
  • Embed v4 与 v3 性能基准测试: 一名成员询问在自然语言文本的向量搜索中,256 维度embed v4384 维度multilingual light v3 相比性能如何。
    • 他们正在考虑迁移到 v4,但担心潜在的性能下降;同时计划在聚类任务中迁移到 1024 维度v4,假设其表现优于较大的 v3 模型。
  • AI 知识获取: 一名成员表达了希望在 AI 的多个领域获取知识的愿望。

Cohere ▷ #📣-announcements (1 条消息):

AI Agent 能力,生成式 AI,工作流自动化,数据安全,合规性

  • North 亮相,通过 AI Agents 赋能: North 正在扩大其面向企业的 AI Agent 能力可用性,该功能基于最先进的生成式和搜索模型构建,完全私密运行。
    • 它集成了高级搜索、生成式 AI、工作流自动化、核心能力、安全性和合规性,更多详情请见 LinkedIn
  • 高级搜索增强洞察呈现: North 的高级搜索和检索能力可提供即时洞察,通过 Q&A 辅助复杂的决策制定。
    • 该技术能够即时呈现洞察
  • 生成式 AI 起草文档、表格并分析数据: 借助 North,企业可以使用生成式 AI 起草文档、生成表格并分析数据。
    • 该公司宣称能够瞬间完成这些任务。
  • 工作流自动化在组织中部署 AI agents: 工作流自动化允许在整个组织中创建和部署 AI agents,从而简化复杂流程并消除繁琐任务。
    • AI Agents 可以消除繁琐任务简化复杂流程
  • 具备细粒度访问控制和私有化部署的安全性: North 通过细粒度访问控制、系统可观测性和私有化部署确保安全性,符合 GDPR, SOC 2, ISO 27001 和 42001 等标准。
    • 公司可以获得完整的数据主权

Cohere ▷ #👋-introduce-yourself (6 条消息):

新成员介绍,结合 RL 和 AI agents 的交易系统,Transformers 和 GNNs

  • Vibe Coder 加入 Cohere 社区: 一位自称为 vibe coder 的 Cohere 用户介绍了自己,表达了对该平台的支持,并提到正在进行一个钱包项目
    • 该用户强调了作为付费客户的满意度,鼓励 Cohere 继续保持出色工作
  • Onebrain 开发者加入: 一位来自 Onebrain 的成员宣布加入,专注于利用强化学习 (RL)AI agents 开发交易系统
    • 他们表达了对 Transformers图神经网络 (GNNs) 的热情,并希望在社区内共同学习。

Cohere ▷ #🧭-status-feed (1 条消息):

Command-a-vision-07-2025,性能下降,Cohere 状态页面

  • Command-a-vision-07-2025 性能下降问题已解决!: 根据 Cohere 状态页面 的消息,此前报告的 command-a-vision-07-2025 性能下降事件已得到解决。
    • 受影响的组件 command-a-03-2025 现已恢复正常运行。
  • Cohere 状态页面报告修复情况: Cohere 状态页面显示,在 command-a-vision-07-2025 性能问题解决后,操作已恢复正常。
    • 更新确认 command-a-03-2025 现已完全恢复运行。

Cohere ▷ #🔬-research (1 条消息):

masaru.yamada: 太棒了


tinygrad (George Hotz) ▷ #general (6 messages):

tensor to mathtraits, unit tests failures, github actions

  • 寻求 Tensor 迁移:一名成员询问了关于将内容从 tensor 移出并移入 mathtraits 的项目进展,希望能有人接手这项任务。
    • 无人回应。
  • Master 分支上简单的 Matmul 测试失败:一位新成员报告称,在 master 分支上使用命令 PYTHONPATH=. DEBUG=2 EMULATE_AMD=1 FORWARD_ONLY=1 PYTHON=1 N=16 HALF=1 ACC_HALF=0 python3 ./extra/gemm/simple_matmul.py 时单元测试失败。
    • George Hotz 回应称 该命令在我的机器上运行正常,并质疑该成员为何在意,因为这是作为 GitHub Actions 的一部分运行的。
  • 尽管功能正常,异常仍困扰着测试:尽管命令可以运行,但一位用户报告了异常和测试失败,并附上了一张 截图

tinygrad (George Hotz) ▷ #learn-tinygrad (1 messages):

ShapeTracker Visualization Tool

  • ShapeTracker 可视化工具亮相:一名成员介绍了一个新的 ShapeTracker 可视化工具,旨在增强对 movement operations 的理解。
    • 该工具旨在提高对系统内 movement operations 的理解。
  • 工具的可用性:开发者向社区分享了该工具,希望其他人能发现它在理解 movement operations 方面的价值。
    • 虽然没有提供关于工具具体功能的更多细节,但从上下文中可以清楚其用途。

Nomic.ai (GPT4All) ▷ #general (6 messages):

GPT-5 Rumors, GPT-OSS-20B-GUFF Installation Issues, GPT4All Update Status, GPT-ASS Critique

  • GPT-5 的推测缺乏证据:一些用户推测了下次更新中可能出现的功能,而另一些人则声称 GPT-5 被做得比 GPT-4 更笨,并将其贴上 典型的美国式 标签。
  • GPT-OSS-20B-GUFF 安装受崩溃困扰:一位用户报告在安装 gpt-oss-20b-GUFF 时遇到崩溃,导致应用失效,需要完全卸载并清理数据才能恢复功能。
    • 该用户在遇到这些问题后寻求帮助,凸显了让软件正确运行所面临的挑战。
  • GPT4All 更新状态引发担忧:由于 GPT4All 长期缺乏更新,成员们对新功能是否能正常运行表示怀疑。
    • 这种担忧反映了人们对该平台在目前陈旧的状态下支持尖端模型能力的普遍怀疑。
  • GPT-ASS 遭到严厉批评:一位成员将 GPT-ASS 斥为 垃圾,对其质量和实用性给出了直截了当的评价。

MCP (Glama) ▷ #showcase (2 messages):

MCPOmni Connect, OmniAgent, AI agent builder

  • **MCPOmni Connect v0.1.19 正式上线!MCPOmni Connect** v0.1.19 现已发布,标志着如 YouTube 视频 所示,从 MCP 客户端向完整 AI 平台 的转型。
    • 该版本包含了 OmniAgent,这是一个旨在彻底改变智能 Agent 创建方式的 AI Agent 构建器,可在 GitHub 上获取。
  • **OmniAgent 彻底改变 AI Agent 的创建方式:随 **MCPOmni Connect v0.1.19 引入的 OmniAgent 是一款正在改变智能 Agent 创建方式的 AI Agent 构建器。
    • 该工具是更广泛更新的一部分,旨在将 MCP 客户端演进为一个全面的 AI 平台