ainews-shipping-and-dipping-inflection-stability
**发布与深潜:拐点 + 稳定篇** *(注:“Shipping” 在科技语境中指发布产品或功能,“Dipping” 通常指深入探讨或研究。)*
Inflection AI 和 Stability AI 最近发布了重大更新(Inflection AI 2.5 和 Stable Diffusion 3),但目前正面临核心高管的大量流失,这预示着在算力资源(GPU)密集的初创公司领域可能即将发生整合。
Mustafa Suleyman 已加入 微软 AI (Microsoft AI) 担任首席执行官,负责监管 Copilot、必应 (Bing) 和 Edge 等消费者 AI 产品。同时,Microsoft Azure 正在与 英伟达 (NVIDIA) 合作开发 Grace Blackwell 200 超级芯片。
谷歌 DeepMind (Google DeepMind) 发布了 TacticAI,这是一款与利物浦足球俱乐部合作开发的足球战术 AI 助手,它利用几何深度学习技术,在盲测中获得了 90% 专家的认可。
Anthropic 在 Google Cloud 的 Vertex AI 平台上推出了 Claude 3 Haiku 和 Claude 3 Sonnet,而 Claude 3 Opus 也即将上线。
此外,随着 英伟达 推出 AI 护士,人们对 AI 取代人工的担忧进一步加剧;据称这些 AI 护士在床边护理态度上优于人类,且成本降低了 90%。
2024年3月19日-3月20日 AI 新闻简报。我们为您查看了 358 个 Twitter 账号 和 21 个 Discord 社区(包含 337 个频道和 9841 条消息)。预计为您节省阅读时间(以 200wpm 计算):1033 分钟。
人们常说,初创公司走下坡路的一个关键信号是“发布即跑路(shipping and dipping)”——即那些决定离职的顶尖人才,倾向于在发布完某些成果后,在职业生涯的高光时刻离开。这种情况刚刚在以下两家公司同时发生:
- Inflection AI:两周前刚刚发布了 2.5 版本(性能达到 GPT-4 的 94%),现在两位执行联合创始人宣布加入 Microsoft;
- Stability AI:两周前刚刚发布了 Stable Diffusion 3,现在 Rombach 等人宣布离职。
高层离职在混乱的初创公司中是常态,但这两起事件确实比大多数情况更具震撼力。这可能是“热门”/“GPU-rich”初创领域整合/降温潮的开始,但我们现在下定论还为时过早。不过,请保持警惕。
目录
[TOC]
第一部分:AI Twitter 汇总
所有摘要由 Claude 3 Opus 完成,取 4 次运行中的最佳结果
Microsoft AI
- @mustafasuleyman: Mustafa Suleyman 加入 Microsoft 担任 Microsoft AI 的 CEO,领导 Copilot、Bing 和 Edge 等消费级 AI 产品和研究 (350万阅读量)
- @yusuf_i_mehdi: Microsoft Azure 和 NVIDIA 的 Grace Blackwell 200 Superchip 正在展开合作 (8千阅读量)
- @saranormous: Satya Nadella 收到了 Sara Norman 关于 Mustafa Suleyman 加入 Microsoft 的贺卡 (2.1万阅读量)
- @kylebrussell: Mustafa Suleyman 加入 Microsoft 看起来像是一场奇怪的收购,可能是出于监管或成本原因 (1.3万阅读量)
Inflection AI
- @inflectionAI: Inflection AI 宣布重要更新,公司开启新阶段 (50.5万阅读量)
- @vikhyatk: Inflection AI 在不到一年前以 40 亿美元的估值融资 13 亿美元 (7.8万阅读量)
- @kylebrussell: Inflection AI 的投资者和早期员工感觉被“过河拆桥”了 (3.8万阅读量)
- @inflectionAI: Inflection AI 2.5 很快将通过 API 提供,以加速其为每个人创建个人 AI 的使命 (3.6万阅读量)
Google DeepMind
- @GoogleDeepMind: Google DeepMind 发布 TacticAI,这是一款能为足球专家提供角球战术见解的 AI 助手,由利物浦足球俱乐部合作开发 (37.3万阅读量)
- @GoogleDeepMind: 八年前,AlphaGo 击败世界冠军李世石,成为首个在围棋比赛中战胜人类顶尖高手的 AI,创造了历史 (10.9万阅读量)
- @GoogleDeepMind: TacticAI 使用几何深度学习方法来解决英超联赛比赛中角球数据有限的问题 (3.1万阅读量)
- @GoogleDeepMind: 在一项盲测中,足球专家发现 TacticAI 的建议与真实的角球战术无法区分,并且在 90% 的情况下更倾向于它的战术建议 (2.1万阅读量)
Anthropic
- @AnthropicAI: Anthropic 的 Claude 3 Haiku 和 Claude 3 Sonnet 现已在 Google Cloud 的 Vertex AI 平台上全面开放,Claude 3 Opus 也即将推出 (10.2万阅读量)
- @abacaj: Anthropic 在 Claude 3 模型上表现惊艳 (3.1万阅读量)
- @abacaj: 与 GPT-4 不同,Claude 可以根据不在训练集中的新文档编写可运行的代码 (8千阅读量)
- @abacaj: 在去年的模型表现平平之后,Anthropic 凭借 Claude 3 模型完成了自我救赎 (4千阅读量)
AI 安全与风险
- @AISafetyMemes: NVIDIA 宣布推出 AI 护士,成本比人类低 90%,且在床边护理表现上优于人类,引发了对失业和 AI 进展的担忧 (7.7万次观看)
- @ClementDelangue: 权力集中是 AI 领域最大的风险 (6.2万次观看)
- @AISafetyMemes: Zvi Moshowitz 警告像 Devin 这样能够制定计划、处理障碍并可能导致递归自我改进 (recursive self-improvement) 的 AI 系统的风险 (2.5万次观看)
- @abacaj: AGI 掌握在单一组织手中正变得越来越有可能,这让 Aiden Gomez 彻夜难眠 (2.5万次观看)
AI 基准测试与评估
- @yanndubs: AlpacaEval 现在受长度控制 (length-controlled),与 Chat Arena 的相关性达 0.98,解释简单,且对长度博弈 (length gamification) 具有鲁棒性 (3万次观看)
- @deliprao: Grok 的表现似乎并不优于规模小一个数量级的 Mixtral (9千次观看)
- @yanndubs: AlpacaEval 默认使用长度控制,但仍会显示非 LC 指标 (547次观看)
- @deliprao: 由于对新型基准测试 (benchmarking) 方法投入不足,目前的 LLM 开发效率并未达到应有的水平 (894次观看)
AI 助手与 Agent
- @aryxnsharma: Induced AI 正在开放首个公开且免费的自主 Web Agent API 的早期访问 (1.5万次观看)
- @aryxnsharma: 浏览器 Agent 是构建完整数字远程员工的入口 (2千次观看)
- @yoheinakajima: Yohei Nakajima 的 Agent 会记录内部函数调用,包括时间、类型、名称、参数和结果 (1.4千次观看)
- @aryxnsharma: 一位 Induced AI 的早期用户使用他们的 Agent API 构建了一个 macOS 菜单栏 (497次观看)
AI 编程助手
- @svpino: 未来,编程可能会成为一种爱好,因为构建软件将更多地关乎解决问题和思考,而非编写代码 (9.3万次观看)
- @LangChainAI: LangChain 和 Modal 正在举办一场关于如何在生产环境中无痛构建代码 Agent 的网络研讨会 (8.5千次观看)
- @corbtt: 下一代编程助手将在亚马逊“六页纸 (six-pager)”详细设计文档的抽象层级上运行 (537次观看)
- @rameerez: Ramiro Berrelleza 通过下载 Markdown 格式的 Hotwire 文档并将其输入 GPT,制作了一个专门的 GPT (234次观看)
AI 数字人与视频
- @suno_ai_: Suno AI 正在发布其音频生成模型 V3 版本 (19.7万次观看)
- @AravSrinivas: Suno AI 是下一个 AI 独角兽,具有惊人的迭代速度和音质,且越来越多地被用来替代 Spotify (32.7万次观看)
- @synthesiaIO: Synthesia 因其 AI 视频和 Avatar 技术被《快公司》(Fast Company) 评为最具创新力的公司之一 (1千次观看)
- @AssemblyAI: 新的 AI 驱动内容创建工具层出不穷,涵盖视频、播客、Avatar 等领域 (812次观看)
迷因与幽默
- @nearcyan: 生活中未被充分利用的策略迷因 (41.7万次观看)
- @AISafetyMemes: 关于 AI 的“这就是魔法”迷因 (1.9万次观看)
- @DeepLearningAI: 关于 AI 生成视频看起来不酷的迷因,最初来自 Reddit 上的 /ProgrammerHumor 板块 (7千次观看)
- @AISafetyMemes: 关于根据 Claude 的消息生成的 AI 死亡金属歌曲的迷因 (7千次观看)
PART 0: 摘要之摘要之摘要
我们得出结论,Claude Opus 是顶级摘要的最佳模型,因此我们将停止 A/B/C 测试(有关我们的努力/记录,请参阅存档)。我们将为所有 3 个及更多模型(包括 Gemini 1.5!!)提供并行运行,因为这个问题在拓扑上与我们将要推出的个性化应用相似。
-
Grok-1 发布引发争论:xAI 在 Apache 2.0 许可证下开源发布了 Grok-1(一个 314B 参数的 Mixture-of-Experts 模型),这引发了广泛讨论。虽然一些人对其潜力感到兴奋,但也有人质疑其在巨大的 推理 GPU 需求 下的实用性。人们将其与 GPT-4 和 Claude 等其他大模型进行了比较,并对 Grok-1 的训练数据和架构选择进行了推测。
-
Nvidia 下一代 GPU 预示 AI 进展:有关 Nvidia 即将推出的 GeForce RTX 50 系列 “Blackwell” 显卡将采用 28 Gbps GDDR7 显存 的传闻引起了关注,详见 TechPowerUp 文章。讨论还涉及了 CEO 黄仁勋(Jensen Huang)的 GTC 主旨演讲,可能会确认 GPT-4 的 1.8 万亿参数 Mixture-of-Experts 架构。
-
显微镜下的 Attention 机制:对 Attention 机制进行了深入研究,特别是围绕 FlashAttention 和 RingAttention 中的 内存缩放特性。分享了一篇关于 Striped Attention 的论文,提出了一种改善因果 Transformer 模型工作负载平衡的方法。此外,还阐明了 Attention 背后的基本动机,例如克服固定长度编码的局限性。
-
Prompt Engineering 的进展:引入了用于 Prompt Engineering 的新工具,例如 Explosion 的 Prodigy 和开源的 PromptTools。讨论强调将 Prompt Engineering 视为数据标注问题,以及版本管理和模型响应比较功能的重要性。还分享了使用 GPT-3.5-turbo 通过不同 Persona 进行内容翻译的创新实验。
-
光子芯片有望实现更快的 AI:一段 YouTube 视频 强调了 光子芯片 的突破,声称其速度快 1000 倍,并包含了来自光子超级计算机公司 Lightmatter 的见解。讨论了其对 AI 加速和高性能计算的潜在影响。
PART 1: 高层级 Discord 摘要
Stability.ai (Stable Diffusion) Discord
-
与 Stability AI 一起推出 3D 未来:Stability.ai 宣布了 Stable Video 3D (SV3D),提升了生成模型领域的能力,能够从单个物体图像生成高质量的多视图图像和 3D 网格。发布了两个变体:SV3D_u 和 SV3D_p,其中 SV3D_u 专门用于生成轨道视频,而后者扩展了这些功能,详见 官方公告。
-
对 SD3 的期待与日俱增: 社区正在等待 SD3 邀请的发放,同时有推测称其将于 4 月发布;讨论涉及更新以及与区块链公司的 合作伙伴关系。
-
技术人员解决 AI 模型怪癖:参与者分享了运行不同 Stable Diffusion 模型的经验和技术挑战,提到了效率低下和需要 AVX 指令集的问题,并针对各种硬件设置进行了故障排除和优化。
-
序列化安全与保障:工程师们寻求关于将
.pt文件转换为 SAFETENSORS 格式的建议,参考了官方 Python 文档中关于使用 Pickle 进行对象序列化相关的安全担忧,详见 此处。 -
辩论 AI 许可的开放性:围绕 AI 模型的商业用途和开源许可展开了讨论,一些社区成员对项目开源后的所有权持自由放任的态度。
Perplexity AI Discord
- Perplexity 为 Pro 用户解除限制:Perplexity Pro 用户现在可以享受 Claude 3 Opus 的每日无限次查询,这引发了关于“无限”等营销术语是否具有误导性的辩论。
- “无限”是一个神话吗?:工程师们正在审视 Perplexity 的“无限”声明,认为其可能误导客户。关于实际使用限制的看法存在分歧,讨论还涉及法律影响以及与 Gemini Pro 1.5 的公司增长对比。
- AI 作为家庭教师:一些人正在探索使用 Claude 3 Opus 等 AI 模型为儿童进行简单的教育解释,而另一些人则分享了使用 ChatGPT Pro 等 AI 工具促进学习的经验。
- 技术不一致性与未来技术查询:Perplexity API 行为的不一致性(如不同的响应和对模型弃用的预期)引发了讨论。还有关于集成 Grok 等开源模型以及 API 中图像视觉支持的咨询。
- Perplexity 的多样化用例和可见性:Perplexity AI 被用于多种用途,包括创意写作、漏洞管理和技术调查。在 Discord 指南中,有人提醒要正确分享内容,以保持社区的可见性。
Unsloth AI (Daniel Han) Discord
-
Unsloth AI 在 GitHub 大放异彩:Unsloth AI 透露其本周在 GitHub 趋势榜有名,其 QLoRA 和 LoRA 微调功能具有显著的性能特征,承诺 2-5 倍的速度提升和 70% 的显存节省。社区被鼓励在 Unsloth GitHub 上为该项目点亮星标。
-
社区对 Grok-1 的评价:xAI 发布了拥有 3140 亿参数的 Grok-1,鉴于其推理对 GPU 需求极高,其实用性引起了人们的质疑。人们好奇这种庞大模型背后的动机是技术进步,还是受 Elon Musk 愿景影响的营销策略。
-
微调 Epochs 和模型大小讨论:Discord 讨论转向了微调 Epochs,特别是在语音神经网络与 LLM 的背景下,共识暗示 3 个 Epochs 可能是防止风格过拟合的标准。在将可训练参数与数据匹配时,对于约 800,000 行的数据集,建议 Rank 为 32 或 64。
-
Mistral 与 Gemma 在特定 AI 任务中的对比:对 Mistral-7b 和 Gemma 7b 进行了详细对比,指出了它们在特定领域分类任务中的熟练程度。还讨论了使用 Huggingface Inference API 进行 4-bit 量化时的技术问题,建议使用 Unsloth 的 Colab notebook 以成功执行。
-
探索 Unsloth AI 的能力与支持:社区积极讨论使用 Unsloth 进行模型微调、转换和部署的细节,重点关注 Mistral 等开源模型。会议确认,虽然全量微调目前不是 Unsloth 的重点,但在未来开发中仍有可能。此外,明确了
eval_steps参数会影响微调期间评估的频率,但不一定会影响结果。 -
社区中的诗意与哲学思考:在轻松的氛围中,Unsloth AI 公会分享了一首名为《致猴子的呼吁》(An Appeal to A Monkey) 的诗,探讨了复杂世界中的简单性主题,并保持了包括青少年直观学习案例和偶然发现用户名在内的对话动态。
LM Studio Discord
-
领域新秀 - Command-R 35B:LM Studio 预计很快将支持 Command-R 35B 模型,目前正等待 llama.cpp pull request #6033 的合并。然而,llama.cpp 尚不支持 c4ai 的兼容性问题仍未解决,详见 此处。
-
Grok-1 的开源争议:拥有 314B 参数的模型 Grok-1 的发布引发了关于其本地使用实用性的讨论,人们对其在没有进一步微调情况下的功能持怀疑态度。更多信息可以在 xAI blog 上找到。
-
GPU 拉锯战 - 预算 vs 性能:关于运行语言模型硬件的讨论范围广泛,从考虑二手 GPU(如 3090)到使用 MacBooks。有意购买 Epyc CPUs 和旧款 Tesla(如 K80)的用户讨论了其中涉及的技术细节和挑战。
-
AMD 的 ROCm 障碍:分享了针对 gfx1031 和 gfx1032 的 预构建 Windows ROCm 库 链接 (GitHub - brknsoul/ROCmLibs)。然而,AMD 6700 xt 缺乏对 ROCm 的官方支持,导致与 LM Studio 存在兼容性问题。
-
触手可及的 LM Studio 配置:寻求 LM Studio 模型配置预设 的用户可以在 GitHub - lmstudio-ai/configs 获取 JSON 文件集合。同时,关于不同 LM Studio 版本功能的讨论仍在继续,而在 Local Inference Server 上实现 JSON function-calling 的呼吁尚未得到解决。
Nous Research AI Discord
-
RTX 50 “Blackwell” 选用较慢的 GDDR7:NVIDIA 备受期待的 GeForce RTX 50 系列 “Blackwell” 显卡将使用 28 Gbps 的 GDDR7 显存,而非达到 32 Gbps 的极限性能。细节反映出一种类似于 RTX 20 系列显存速度的保守策略,详见 TechPowerUp 文章。
-
提升 AI 性能的人工魅力:讨论中包含了一些非常规方法,例如利用“特定倾向的 Claude”网络来改进 mermaid 图表,以及通过“话术诱导 (rizzing up)”模型来增强回答效果。复制其他 AI 模型功能的伦理问题也成为了热门话题。
-
显而易见的问题 —— 模型缩放成本:对话强调了将 AI 模型(如 llama-2 13b 扩展至 20b)进行缩放的巨大成本(300,000 美元)和实用性担忧。尽管成员们对 200 亿参数模型超越 Mistral 抱有期待,但对这种增量提升的收益持怀疑态度。
-
Grok-1 在 AI 巨头中的地位辩论:拥有 314B 参数的 Grok-1 引发了讨论,被认为仅比 GPT-3.5 略强,且与较小的 7B 参数模型相比竞争力不足。NVIDIA CEO 黄仁勋可能无意中确认了 GPT-4 拥有 1.8 万亿参数。与此同时,允许 Yi-9B 商业化的许可变更以及对 Mixtral 等模型进行持续预训练的价值,引发了关于 AI 演进实际策略的辩论。
-
开源 vs 商业 AI 模型:反思了商业限制巨头可能对开源 AI 造成的压制,暗示未来实体可能会定制大语言模型以体现其核心价值观。这一论述设想由开源模型提供坚实基础,以支持 AI 系统的持续开发和扩展。
-
模型困惑度与剪枝前景:技术交流包括计算 Llama2 困惑度 (Perplexity) 的复杂性,以及创建大型模型的剪枝 (Pruned) 版本,例如 Smallstral(Mistral-7B-v0.1 的缩减版)。Bittensor 等合作伙伴在链问题和追求用于网络活动的交易代币 (tao) 方面面临障碍。
-
RAG 的理想未来与模式:对 RAG (Retrieval-Augmented Generation) 模型的愿景建议采用类 Markdown 的输出和高级推理能力。成员们讨论了模型回答的平衡性,即在依赖内部知识与利用排他性外部上下文或“RAG 模式”之间切换。有人提议通过 Cohere 的跨度高亮 (span highlighting) 整合外部上下文,作为增强 RAG 效用的手段。
Eleuther Discord
-
触手可及的常春藤盟校课程:常春藤盟校的课程现在可以通过网络公开获取,其中特别提到了 斯坦福大学关于 NLP 的 CS 视频。技术社区对这种高端教育资源的民主化表示赞赏。
-
各种新奇工具与设备:讨论中重点介绍了引人注目的技术,如 Devin AI 软件工程师 和由 OpenAI 提供技术支持的机器人 Figure 01。此外,还提到了 AI ThoughtStream 概念 以及 Self-Taught Reasoner (STaR),更多见解可见于 相关论文。
-
了解 Grok:Grok-1 在 GitHub 上的发布引发了将其与 Claude 和 GPT-4 进行对比的辩论,强调了对独立 Benchmark 和微调(finetuning)见解的需求。会议还提出了对 AI 模型评估指标的担忧,并强调使用 EleutherAI 用于计算 TFLOPs 的 cookbook。
-
规模经济:公会内的讨论涉及了成本可负担性,例如向 TMLR 提交 AI 论文(这是一个免费的会议投稿选项),以及 Pythia-70M 等模型的经济化训练时间。普遍共识认为 NVIDIA 的性能数据和研究,如 Optimizing Distributed Training on Frontier for Large Language Models,为假设的时间估算提供了宝贵资源。
-
数据集复杂度对语言模型的影响:在 #scaling-laws 频道中,成员们讨论了语言模型的 Scaling Laws、数据集复杂度,以及内在熵(intrinsic entropy)和词汇密度等筛选标准对于高效预训练实践的重要性。
-
字符串采样服务:关于从 n-gram 分布中进行采样的咨询引出了对自回归和分层采样方法的解释,相关的工具和代码示例可以在 GitHub 链接 以及 关于 n-gram 语言模型的 Wikipedia 页面 中找到。
-
掌控 LLM 评估的混乱:在 #lm-thunderdome 频道中,解决了许多关于 lm-eval-harness 使用和集成的问题,包括默认模型选择行为、评估 Benchmark 的一致性以及死锁问题。用户获悉 lm-eval 0.4.2 版本已在 PyPI 上线,并被鼓励协助进行 PR 评审。
-
是否对 The Pile 进行打乱 (Shuffle):在 #gpt-neox-dev 中,有人寻求关于 The Pile 数据集打乱情况的澄清。虽然原始文件未进行打乱,但已明确 Pythia 所使用的 HF 上的预处理数据确实经过了打乱。然而,单个组件可能仍保持按时间顺序排列。
OpenAI Discord
-
AI 思考其自身的理解力:工程师们就 AI 是否具备某种形式的理解力,还是仅仅在预测词序展开了辩论。他们将 AI 的涌现行为(emergent behaviors)与人类的认知过程进行了类比,并质疑 AI 是否能产生与人类感官体验平行的认知。
-
辩论 AI 意识:在另一个哲学层面的讨论中,意识成为了 AI 关注的焦点。讨论者们剖析了一个观点,即 AI 可能需要更少的努力来解释,因为它缺乏人类对地位或财富的社会驱动力,这对情感交流具有深远影响。
-
GPT-4 vs. Claude-3 对决:在关于性能的讨论中,Claude-3 因其对话能力受到称赞,而 GPT-4 则在编程能力方面获得认可。工程师们还在等待新模型的发布或回滚到早期 GPT 版本的选项,同时一些人正在处理技术问题并在 help.openai.com 寻求帮助。
-
GPT-5 发布传闻与 API 进展:社区对 GPT-5 的发布以及在 GPT API 中启用网页搜索功能的方法感到好奇。他们还在探索在移动平台上创建 AI chatbots,并解决 GPT 过滤器敏感度过高的问题。
-
在 AI 中 Prompt 出更好的未来:工程师们正在分享对抗 AI 任务拒绝和优化 Prompt 结构的策略,特别是针对 GPT 模型的分类任务。对话内容包括如何处理来自 ChatGPT 等平台响应模式的重大转变,并鼓励对 Prompt 进行系统性测试,以平衡召回率(recall)与误报率(false positives)。
HuggingFace Discord
-
多 GPU 微调的折磨:一位工程师寻求关于使用多 GPU 微调 cross-encoder 模型的建议,思考在扩展硬件时必要的参数调整。
-
Aya 的杀手锏:Aya demo 增强了更高的重复惩罚(repetition penalty),并且有开发者呼吁为 Gradio 界面添加滑块功能。
-
H100 GPU 备受关注:NVIDIA 的 H100 GPU 凭借高达 850W 的巨额功耗以及在单板上集成服务器 CPU 和 GPU 的设计吸引了大量讨论,尽管人们对其漫长的交货周期以及在现代超级计算机机架中满足其电力需求的挑战感到担忧。
-
Grok-1 以规模和速度令人震惊:新发布的 Grok-1 是一个采用 Apache 2.0 许可证的 3140 亿参数 MoE 模型,其庞大的体量以及登陆 HuggingFace 的速度让许多人感到惊讶。
-
对 HuggingFace 知识的渴望:初学者和专家都在交流学习 HuggingFace 的资源,分享了该平台的 NLP 课程链接和广受好评的斯坦福 NLP 教科书,同时还有人询问关于可访问、可部署的免费 LLM API(如 ollama)以用于生产环境部署。
LlamaIndex Discord
- 以交互性重新思考检索:一则 推文 介绍了一种全新的 RAG 方法,将文档视为交互元素而非静态文本,以便在检索过程中优化响应。
- LlamaIndex 更新与集成:LlamaIndex 的 0.10.20 版本现在包含一个 Instrumentation 模块,通过与 @langfuse 的合作,为 RAG pipelines 增加了可观测性,详见此链接和示例 notebook。
- Search-in-the-Chain 增强问答:Shicheng Xu 等人的一篇论文建议使用 “Search-in-the-Chain” 来改进问答,通过将检索与规划及重新规划交织在一起,此推文对此进行了进一步讨论。
- 链接 OpenAI Agents 和查询工具:讨论集中在通过 LlamaIndex 链接多个 OpenAI agents,并引用了
FunctionTool和QueryEngineTool以及遇到的挑战,尽管没有透露错误消息等具体细节。 - RAG 与 HuggingFace 模型编排:用户寻求关于使用 Pinecone 进行 RAG 文档准备的建议,并讨论了将 RAPTOR pack 与 HuggingFace 模型(而非 OpenAI 模型)集成的方案,同时分享了来自
llama_indexGitHub 仓库的代码。
Latent Space Discord
Yann LeCun 关于视觉与语言推理的辩论升温:LeCun 理论化地认为,由于能够直接映射到动作,视觉模型可能比以语言为中心的模型更具优势。这一观点被归因于他在推文和一次采访中所提到的,他缺乏“内心独白”。
分辨率的新突破:Scene-scenario 开发的 UPSCALER 工具正以 10k 分辨率提升的承诺冲击图像增强市场,正如这篇推文所分享的,这可能会促使 Magnific 重新考虑其定价结构。
Grok-1 隆重登场:xAI 拥有 3140 亿参数的 Grok-1 以 Apache 2.0 协议发布,引发了关于其与其他模型相比潜力的讨论,详见 Grok-1 发布页面和多个 Twitter 线程。
Paper Club 深入探讨大语言模型:#llm-paper-club-west 频道的爱好者们讨论了 Transformer 中 Attention 机制的原理和效率,这有助于理解当前 LLM 的设计和可扩展性。
AI In Action Club 制定学习策略:#ai-in-action-club 展示了使用共享 Google 表格进行的结构化 AI 讨论,提供了关于对比嵌入(contrastive embeddings)的见解,并建议使用 LLM 来改进向量比较。
LAION Discord
-
Copilot 中的免费 Jupyter,DALL-E 数据集迁移:Microsoft Copilot Pro 订阅者现在可以免费访问带有 simpy 和 matplotlib 等库的 Jupyter Notebooks,类似于 ChatGPT Plus 的功能。DALL-E 3 数据集已迁移到新的 Hugging Face 仓库,可通过
load_dataset()函数使用,确保了可复现性。 -
PyTorch 与 xformers 协同:工程师们正在解决 xformers 与 PyTorch 之间的集成问题,讨论指向了使用虚拟环境以及从 PyTorch-index URL 安装兼容版本等解决方案。
-
元数据魔力提升 AI 字幕生成:在字幕提示中使用元数据被认为可以改善 AI 生成的文本,正如 GitHub 上的示例脚本 EveryDream2trainer’s caption_cog 所演示的那样。
-
Vast.AI 的安全性受到审查:关于 Vast.AI 的讨论集中在其缺乏对严格安全协议(如 HIPAA)的遵守。参与者建议对于敏感任务使用主流云服务商,因为 Vast.AI 的 SSH 容器设置存在固有的 root 访问风险。
-
突破免费 Colab 限制及澄清:澄清了 Colab 对 Web UI 的限制,指出仅免费版本不兼容。此外,还提到了一份详细介绍生成式音频视频文本世界模型的 Google 文档、关于 LLM 持续预训练的研究以及 Grok 开源仓库,但未详细说明具体的社区反应。关于 Nvidia 的 GPT-4 采用拥有 1.8 万亿参数的 MoE 架构的传闻也被讨论,但尚未确认其是否就是 GPT-4。
OpenAccess AI Collective (axolotl) Discord
-
Axolotl 推动 LLM 训练更进一步:工程师们讨论了 Axolotl,认为它是直接使用 transformers 代码进行模型微调的高效替代方案,支持使用 YAML 文件进行配置。目前人们对 ScatterMoE 优化 (ScatterMoE repo) 以及它如何与庞大的 Grok 模型权重相互作用表现出浓厚兴趣——尽管考虑到 Grok 宣称的体量,其性能表现平平,目前的关注点已转向潜在的 qLoRA FSDP 处理 (Grok GitHub)。
-
量化与下一代硬件引发关注:一场激烈的辩论强调了使用 AQML 进行极端模型压缩的应用 (AQML GitHub)。此外,传闻即将推出的 Nvidia RTX 5000 系列将带来 VRAM 和带宽增强,这可能会彻底改变 AI 训练 (TechPowerUp 文章)。
-
数据集困境与定制解决方案:LLM 用户遇到了 tokenizer 的小毛病以及由于路径指定错误导致的
HFValidationError。他们寻求关于构建自定义 completion 数据集的建议,并得到了使用jsonl文件的指导。此外,工程师们正在探索 NVIDIA NeMo-Curator(一个数据治理工具包 (NeMo-Curator GitHub)),同时正在评估 Mistral 等解决方案的模型合并潜力。 -
关于模型兼容性与性能的对话:该社区一直在解决配置问题,例如一位用户在指向本地数据集进行微调时遇到困难,同时发现了一个可能误导依赖 epoch 的验证过程的评估 bug。在模型开发中,兼容性是关键,这从探索合并具有统一训练格式的模型策略中可见一斑。
-
寻求基于 Adapter 的强化学习路径:有用户提出了关于使用不同的 LoRa adapter 在独立模型上进行 DPO(可微策略优化)的可行性问题,这表明了对更细致且针对特定模型的强化学习方法的探索。
CUDA MODE Discord
光子芯片开辟新路径:一段名为 “New Chip Breakthrough: x1000 faster” 的 YouTube 视频介绍了光子芯片,声称其性能提升了 1000 倍,并展示了 Lightmatter 在光子超级计算方面的进展。
Triton 攻克 CUDA 难题:发布了一套新的具有挑战性的 Triton Puzzles 以帮助用户磨练技能,并推出了一个用于 Triton 调试的可视化工具,以简化对复杂 load/store 函数的理解。
CUDA 社区追求优化:CUDA 频道的讨论深入涉及了 warp schedulers、active warps 和内存管理,表明了集体推动 CUDA 效率最大化的动力,并分享了关于项目结构以获得更好性能的见解。
机器学习硬件的新进展:康奈尔大学 Mohamed Abdelfattah 教授领导的研究小组因其在可重构计算和高效机器学习方面的工作而受到关注,并详细介绍了配套的硕士级课程 ECE 5545 (CS 5775),该课程深入探讨了针对硬件系统的 ML 优化。
Ring Flash Attention 拨云见日:围绕 FlashAttention 和 RingAttention 等注意力机制的内存需求进行了广泛讨论,包括知识共享以及对 Striped Attention 在实现更好工作负载方面的进展(详见 相关论文)。
MLSys 2024:机器学习与系统的交汇:对 5 月份举行的 MLSys 2024 会议 充满热情,该会议专注于机器学习与系统的融合,倡导通过跨学科方法来突破 AI 效率的界限。
OpenRouter (Alex Atallah) Discord
- Llama 模型提示词兼容性确认:一个简单的 “Yes!” 确认了 Llama 模型在与 OpenAI JavaScript 库交互时,可以使用包含 “system”、”user” 和 “assistant” 等键的 JSON 结构。
- AI 聊天机器人充值技巧:用户讨论了聊天机器人模型的支付方式,建议在未绑定信用卡的情况下“充值余额(topup your balance)”。
- Sonnet 在角色扮演中表现出色:Sonnet 被强调为角色扮演中最一致的 AI,通过避免重复和随机性,表现显著优于其他模型。
- 带有上下文的聊天:分享了有效构建提示词的最佳实践,包括通过在 user 或 assistant 消息中包含 system 上下文来对模型进行“越狱(jailbreaking)”。
- 将书籍拆解为提示词:提到使用脚本分析书籍片段时,lzlv 70B 能提供更好且更一致的提示词输出,超越了其他可能给出无关结果的模型。
相关链接:
- OpenRouter:LLM 和其他 AI 模型的路由服务。
- Groking GitHub:GitHub 上的一个开源发布仓库。
LangChain AI Discord
-
在
astream_log和astream_events之间明智选择:一名公会成员讨论了astream_log与astream_events的生命周期,担心astream_events仍处于 beta 阶段可能导致弃用。同时,宣布了一个利用 Claude 3 Opus 和 GPT-4 Turbo 等模型的先进研究助手和搜索引擎项目,为 Rubik’s AI 的 beta 测试人员提供两个月的免费高级访问权限。 -
LangChain 文档令新手困惑:针对 LangChain 文档的复杂性,像 namenot223_69478 这样的成员发现它对初学者来说很困难,因此建议在掌握基础知识后深入研究代码。目前正在征求具体反馈以优化文档体验。
-
RemoteRunnable 在 JavaScript 与 Python 中的差异:据报道,在 JavaScript 中使用 LangChain 的 RemoteRunnable 与 Python 相比结果不同,JavaScript 无法调用
/stream。尽管存在这一障碍,但尚未发现解决 JavaScript 流式传输问题的最新更新。 -
AI 爱好者发布聊天机器人和工具:公会讨论中涌现出一系列项目,例如名为 langchain-chatbot 的数据分析聊天机器人、用于管理书签的 Discord AI living-bookmarks、为健康和生产力数字顾问提供见解的邀请、名为 Scrapegraph-ai 的 AI Python 爬虫,以及名为 lyzr-automata 的销售和研究 AI。
-
值得关注的 AI 项目教程:Nutriheal 应用展示了 AI 与 Ollama 和 Pebblo 等工具结合的多功能性,如 15 分钟的 YouTube 演示 “Making an AI application in 15 minutes” 所示。同时,一篇名为 “Plan-and-Execute using Langgraph” 的 YouTube 教程详细介绍了如何构建计划与执行(plan-and-execute)风格的 Agent。
Interconnects (Nathan Lambert) Discord
-
Api-gate:揭秘泄露的 LLM 机密:研究人员透露,API 调用可能会暴露商业 LLM 的细节,利用 softmax bottleneck 来获取专有模型的见解。这些发现展示了估算 LLM hidden size 的可行方法,并再次引发了对 API 保护模型安全性的担忧。
-
十亿美元的问题:GPT-3.5 有多大?:一项研究估计 OpenAI 的 gpt-3.5-turbo 可能约为 7B 参数,引发了关于该数字准确性的辩论,特别是在 Mixture of Experts (MoE) 模型可能打破这种简单尺寸估算的背景下。
-
开源定义引发争议:Sebastian Raschka 发布的一篇帖子暗示机器学习领域即将出现争论,焦点集中在 OSS 社区标准和开源定义上,尤其是 Apache 2.0 与 GPLv3 许可证之间的对比。
-
巨兽 Grok-1 开源:在社区的惊叹声中,Grok-1 模型(一个 314B 参数的 MoE 模型)已在 Apache 2.0 协议下公开发布,引发了将其基准测试与其他模型(如 Falcon)进行对比的分析,以及对分发方式的讨论。
-
全球模型邮寄?:针对 Grok-1 非传统的模型分发方式,成员们开玩笑地讨论了通过物理硬盘邮寄模型权重与使用云服务的物流对比,反思了让大型模型广泛可用的挑战和成本。
Alignment Lab AI Discord
-
Aribus 的热情与困惑并存:一篇 Aribus 的 Twitter 帖子引发了关注和讨论,但成员们对其潜在应用也感到困惑。
-
寻找精通 HTTP 的 Embeddings:一场对话围绕寻找专门针对 HTTP 响应定制的 Embeddings 模型展开,以及 Transformer 模型是否能胜任这一利基角色。
-
征集定制微调的 Mistral:一份请求在流传,希望获得在特定数据集上进行微调的 Mistral 模型,包括
orca-math-word-problems-200k和nvidia/OpenMathInstruct-1。 -
Grok 1:耗资源的庞然大物:对话集中在训练和微调 Grok 1 所需的巨额资源要求,以及与 GPT-4 和 Claude 等领先模型相比,其高昂成本与性能产出之间的微妙界限。
-
MoE 训练效率创新高:有关于高效 MoE (Mixture of Experts) 训练基础设施的讨论,尽管受到计算资源可用性的限制。
LLM Perf Enthusiasts AI Discord
- 懒惰开发者的座右铭:一位公会成员引用 Devin 作为应用开发中极简主义方法的灵感,主张简单化,并对现有的开源选项在处理比具有文件系统控制的本地应用更复杂的任务时表示不满。
- 推特上的 Anthropic 指控:@tszzl 的一条推文引发了讨论,暗示 Anthropic 可能在扮演“受控反对派”的角色。成员们对这一争议性主张的动机和真实性进行了辩论。
- 对 KPU 与 GPT-4 对比的担忧:Maisa 宣布的 Knowledge Processing Unit (KPU) 引起了公会内部对其基准测试方法的怀疑,特别是将 KPU 增强的 GPT-4 与非 turbo 版本的 GPT-4 进行对比时。此外,还提出了实际应用中的延迟担忧。
- 解读 KPU 架构:关于 KPU 的功能和架构存在误解,一些人认为它包含创新的上下文窗口管理和自我评估技术。Maisa 的 CEO @davipar 在 Twitter 上澄清说,KPU 的作用类似于知识管理的 GPU,并提供了一个用于独立评估的 API key 和一个 notebook。
- Claude Sonnet 的规模化:提到了对 Claude Sonnet 在大规模运行下的性能查询,特别是涉及高 Token 量的项目,表明了对高效、大规模 LLM 的需求。
DiscoResearch Discord
-
DiscoLM 遭遇德语语言障碍:DiscoLM-mixtral-8x7b-v2 模型在生成德语响应时表现挣扎,在序列分类微调期间也出现了类似问题并导致 ValueError。这一现象延伸到了其他德语语言模型,Reddit 上的反馈强调了性能对比,例如 SauerkrautLM Una SOLAR Instruct 与 Starling LM 7B Alpha 之间的比较 (Reddit 反馈)。
-
DiscoLM-70b 运行受阻:尝试使用
vllm在本地运行 DiscoLM-70b 时遇到了问题,这表明尽管在资源丰富的机器上运行,仍可能存在兼容性问题。 -
领悟 Grok 的持久性:拥有 314B 参数的 Grok 模型在 GitHub 链接 中被分享,讨论围绕运行该模型的实用性展开,考虑到它仅需要 300GB 内存。
-
德语语言模型基准测试:对话涵盖了对更好的德语语言模型基准测试的需求,引用了一篇可能具有影响力的论文,题为 supergleber-german-language-evaluation-benchmark,并暗示了与大学研究的合作,提及了 维尔茨堡大学计算机学院 (Informatik Uni Würzburg)。
-
服务器迁移并非易事:将演示服务器从家庭环境迁移到专业设施的过程受到网络故障的困扰,希望能下周解决这些问题。相比之下,据说托管在家的机器遇到的问题更少,这为服务器可靠性争论增添了幽默色彩。
Datasette - LLM (@SimonW) Discord
-
Prompt Engineering 获得提升:Explosion 的 Prodigy 集成了用于 Prompt Engineering 的新工具,旨在为工程师简化流程。这些工具专注于将 Prompt Engineering 视为数据标注挑战,尽管实际应用可能会受到限制。
-
用于 Prompt 实验的开源工具和 SDK 辅助:工程师们讨论了各种用于 Prompt 测试的资源,如开源的 PromptTools 和 Vercel AI SDK,每种工具都提供不同的用户体验,但分别被指出在版本管理和模型响应对比便捷性方面存在不足。
-
Helicone AI 进入 Prompt 管理领域:Helicone AI 正在成为 Prompt 管理的潜在全方位解决方案,开始开发 Prompt 管理和分析工具,这些工具在处理复杂 AI 任务中可能起到关键作用。
-
探索基于多语言角色的内容翻译:一篇分享的 博客文章 详细介绍了一个利用 GPT-3.5-turbo 通过不同角色翻译内容的创新实验,为语言模型在内容创作中的灵活性提供了见解。
-
寻找 Seed:用户提出的一个查询涉及 OpenAI 模型在过去 API 请求中使用的 Seed 的可恢复性,表现出对模型输出的可复现性和随机性控制的兴趣。
Skunkworks AI Discord
-
新训练方法提升指日可待:baptistelqt 正在完成一篇关于新训练方法的论文,该方法增强了全局准确率和样本效率,VGG16 上的测试准确率在仅一个 epoch 内从 0.04 提高到 0.1 证明了这一点。由于资源限制,该方法在更大模型上的可扩展性目前尚未测试。
-
大模型困境遇到慷慨相助:baptistelqt 对在更大模型上测试其方法所需的计算能力的担忧得到了 far_el. 的回应,后者表达了兴趣并提议讨论资源分配。
-
合作开发“深思熟虑”的语言模型:satyum 对 “Quiet-STaR” 项目表现出兴趣,该项目提倡语言模型可以“三思而后行”的理念,欢迎在 PyTorch 和 Transformer 架构方面有资历的潜在合作者。
-
离题趣闻:成员们还分享了非技术内容,例如 pradeep1148 分享的一个 YouTube 视频,该视频对技术或工程讨论没有贡献。
[注:来自 #off-topic 频道的分享 YouTube 视频没有足够的上下文来评估其与技术讨论的相关性。]
第 2 部分:各频道详细摘要与链接
Stability.ai (Stable Diffusion) ▷ #announcements (1 条消息):
-
推出 Stable Video 3D:Stability.ai 发布了 Stable Video 3D (SV3D),这是一款生成式模型,是早期 Stable Video Diffusion 的进阶版。SV3D 能从单张物体图像创建高质量的多视角图像,并能生成 3D 网格(meshes),超越了之前的模型如 Stable Zero123 和 Zero123-XL。了解更多
-
发布了 SV3D 的两个变体:此次发布引入了两个变体,SV3D_u 和 SV3D_p。SV3D_u 根据单张图像输入生成轨道视频,而 SV3D_p 扩展了这些功能,尽管消息在提供更多细节前被截断了。
提到的链接:推出 Stable Video 3D:从单张图像进行高质量的新视角合成与 3D 生成 — Stability AI:当我们发布 Stable Video Diffusion 时,我们强调了视频模型在各种应用中的多功能性。在此基础上,我们很高兴发布 Stable Video 3D。这是一款…
Stability.ai (Stable Diffusion) ▷ #general-chat (988 条消息🔥🔥🔥):
-
Stability AI 新闻与 SD3 期待:用户正焦急等待 SD3 邀请函的发放,并分享了对 4 月份可能发布的预测。讨论集中在包括 Stable Video 3D 公告在内的更新、之前的模型以及与区块链公司的合作伙伴关系,正如 stability.ai/news 所提到的。
-
SD 中的技术挑战与修复:用户讨论了运行不同版本 AI 模型的技术问题,提到了低效的代码、AVX 指令集等特定需求,以及对某些模型行为的不满。他们还分享了在消费级硬件上运行 Stable Cascade 和 SDXL 等模型的经验。
-
Pickle、PT 文件与 SAFETENSORS:用户寻求将
.pt文件转换为 SAFETENSORS 的帮助。提到大多数.pt文件可以安全使用,并链接到了官方 Python 文档,警告与 Pickle(Python 中的一种对象序列化方法)相关的安全风险。 -
关于商业用途和开源许可的担忧:有一场关于各种模型相关许可的讨论,特别是商业使用权。一些用户对开源许可表示冷漠,暗示如果某样东西开源了,它就不再属于创作者。
-
生成 AI 艺术并在低端 PC 上运行:用户询问了如何使用 Stable Diffusion 执行特定任务,例如在不改变风格的情况下为线稿上色,以及如何在低 VRAM 的 PC 上运行 AI 模型。建议包括使用特定的 ControlNet 以及尝试像 Civitai 这样的云端生成服务。
- grok-1: Grok-1 是一个 314B 参数的 Mixture of Experts 模型 - Base model(未微调)- 8 个专家(2 个激活)- 86B 激活参数 - Apache 2.0 许可证 - 代码: - 祝编码愉快!另:我们正在招聘:
- Avatar Cuddle GIF - Avatar Cuddle Hungry - Discover & Share GIFs: 点击查看 GIF
- coqui/XTTS-v2 · Hugging Face: 未找到描述
- PollyannaIn4D (Pollyanna): 未找到描述
- Iron Man Mr Clean GIF - Iron Man Mr Clean Mop - Discover & Share GIFs: 点击查看 GIF
- Introducing Stable Video 3D: Quality Novel View Synthesis and 3D Generation from Single Images — Stability AI: 当我们发布 Stable Video Diffusion 时,我们强调了视频模型在各种应用中的多功能性。在此基础上,我们很高兴发布 Stable Video 3D。这个新...
- Yess GIF - Yess Yes - Discover & Share GIFs: 点击查看 GIF
- NVLink | pny.com: 未找到描述
- Stable Video Diffusion - SVD - img2vid-xt-1.1 | Stable Diffusion Checkpoint | Civitai: 查看我们的快速入门指南! https://education.civitai.com/quickstart-guide-to-stable-video-diffusion/ 基础 img2vid 模型经过训练用于生成...
- Reddit - Dive into anything: 未找到描述
- The Complicator's Gloves: 优秀的软件在多个方面不断受到攻击。首先是那些业余爱好者,尽管只读完了《傻瓜编程》,却不知何故设法拿到了那份巨额合同...
- pickle — Python object serialization: 源代码:Lib/pickle.py。pickle 模块实现了用于序列化和反序列化 Python 对象结构的二进制协议。“Pickling”是将 Python 对象层级结构转换为...的过程。
- Page Not Found | pny.com: 未找到描述
- WKUK - Anarchy [HD]: 最滑稽的经济无知。—— Murray Rothbard 的《自由、不平等、原始主义和分工》(http://mises.org/daily/3009)。—— Th...
- Vancouver, Canada 1907 (New Version) in Color [VFX,60fps, Remastered] w/sound design added: 我对这段 1907 年加拿大温哥华的视频进行了上色、修复,并添加了天空视觉效果和音效设计。这段视频是从有轨电车上拍摄的,这些...
- GitHub - DiffusionDalmation/pt_to_safetensors_converter_notebook: This is a notebook for converting Stable Diffusion embeddings from .pt to safetensors format.: 这是一个用于将 Stable Diffusion embeddings 从 .pt 转换为 safetensors 格式的 notebook。 - DiffusionDalmation/pt_to_safetensors_converter_notebook
- Proteus-RunDiffusion - withoutclip | Stable Diffusion Checkpoint | Civitai: 介绍 Proteus-RunDiffusion。在开发 Proteus-RunDiffusion 的过程中,我们的团队开展了一个探索性项目,旨在提升...的能力。
- Короткометражный мультфильм "Парк" (сделан нейросетями): 短篇动画《公园》——一部使用神经网络创作的极其引人入胜的短篇动画。
- GitHub - Stability-AI/generative-models: Generative Models by Stability AI: Stability AI 的生成模型。通过在 GitHub 上创建账号来为 Stability-AI/generative-models 的开发做出贡献。
- Install ComfyUI on Mac OS (M1, M2 or M3): 本视频是一个快速演示,展示如何在你的 M1, M2 或 M3 Mac 上本地安装 ComfyUI。了解更多关于 AI 动画的信息,并注册成为 AI ...
- ajectory">GitHub - GraftingRayman/ComfyUI-Trajectory: 通过在 GitHub 上创建账号,为 GraftingRayman/ComfyUI-Trajectory 的开发做出贡献。
- The Mushroom Motherboard: The Crazy Fungal Computers that Might Change Everything: 揭开真菌计算的秘密!探索真菌作为生物计算机的惊人潜力。从森林网络(wood-wide web)到非常规计算...
- GitHub - mix1009/sdwebuiapi: Python API client for AUTOMATIC1111/stable-diffusion-webui: 适用于 AUTOMATIC1111/stable-diffusion-webui 的 Python API 客户端 - mix1009/sdwebuiapi
- Home: Stable Diffusion web UI。通过在 GitHub 上创建账号,为 AUTOMATIC1111/stable-diffusion-webui 的开发做出贡献。
- GitHub - chaojie/ComfyUI-DragAnything: 通过在 GitHub 上创建账号,为 chaojie/ComfyUI-DragAnything 的开发做出贡献。
- Regional Prompter: Control image composition in Stable Diffusion - Stable Diffusion Art: 你知道可以为图像的不同区域指定提示词吗?你可以通过 Regional Prompter 扩展在 AUTOMATIC1111 上实现这一点。 </ul> </div> --- **Perplexity AI ▷ #[announcements](https://discord.com/channels/1047197230748151888/1047204950763122820/1219057096780419163)** (1 messages): - **Perplexity Pro 用户无限次查询**:Perplexity 已为 **Perplexity Pro 用户**取消了 **Claude 3 Opus** 的每日查询次数限制。庆祝这一增强的访问权限,它被认为是目前市场上最好的 LLM! --- **Perplexity AI ▷ #[general](https://discord.com/channels/1047197230748151888/1047649527299055688/1218100055626743851)** (795 messages🔥🔥🔥): - **对 Perplexity 产品服务的澄清请求**:用户正在寻求关于 **Perplexity AI** 对 Opus 上下文限制的澄清,特别是关于 PDF 如何被解析,以及如何确保模型遵循提示词以提供简洁回答的担忧。 - **对“无限”声明的意见分歧**:讨论涉及 Perplexity 声称的**“无限”使用**是否具有误导性。虽然一些用户因每日上限而认为该术语具有误导性,但其他人则认为该限制对大多数用户来说几乎是无法触及的。 - **教育中的 AI 模型**:关于像 **Claude 3 Opus** 这样的 AI 是否有能力用适合儿童的简单术语解释复杂话题,存在激烈的辩论,其中包含父母积极使用 AI 作为孩子教育工具的轶事。 - **Perplexity 业务与法律讨论**:在用户讨论中,有人对使用限制上误导性措辞的潜在**法律影响**表示担忧,并对 **Perplexity 的增长**以及与 **Gemini Pro 1.5** 等竞争对手的比较进行了推测。 - **育儿经验分享**:用户交流了关于**育儿和儿童学习能力**的经验和看法,提到了使用 Perplexity 的模型和带有语音界面的 **ChatGPT Pro** 等功能来培养孩子的好奇心和理解力。
- 未找到标题:未找到描述
- 来自 Aravind Srinivas (@AravSrinivas) 的推文:是的,感谢 @elonmusk 和 xAI 团队开源了 Grok 的基础模型。我们将针对对话式搜索对其进行微调并优化推理,并将其提供给所有 Pro 用户!↘️ Quoti...
- 来自 Aravind Srinivas (@AravSrinivas) 的推文:我们已将 Perplexity Pro 用户在 Claude 3 Opus(当今市场上最好的 LLM)上的每日查询次数设为无限!尽情享受吧!
- Apple 的 AI 雄心可能包括 Google 或 OpenAI:另一项重大的 Apple / Google 交易可能即将达成。
- 来自 Brivael (@BrivaelLp) 的推文:Zuck 刚刚对 Grok 的发布做出了反应,他并没有留下深刻印象。“3140 亿参数太多了。你需要一大堆 H100,而我已经把它们全买光了” 🤣
- Shikimori Shikimoris Not Just Cute GIF - Shikimori Shikimoris Not Just Cute Shikimoris Not Just A Cutie Anime - 发现并分享 GIF:点击查看 GIF
- Nothing Perplexity 优惠:在 Nothing,我们正在构建一个让科技再次变得有趣的世界。还记得每个新产品都让你兴奋不已的时光吗?我们正在带回那种感觉。
- 来自 Bloomberg Technology (@technology) 的推文:独家:Apple 正在洽谈将 Google 的 Gemini AI 引擎内置到 iPhone 中,这是一项潜在的重磅交易 https://trib.al/YMYJw2K
- ✂️ Sam Altman 谈 AI LLM 搜索:47 秒 · 由 Syntree 剪辑 · 原视频 "Sam Altman: OpenAI, GPT-5, Sora, Board Saga, Elon Musk, Ilya, Power & AGI | Lex Fridman Podcast #419" 作者 Le...
- 这些公司在隐藏什么?:关于 Rabbit R1 和 Humane Ai Pin 的想法。如果你想支持这个频道,可以考虑点击上面的“加入”按钮成为 Dave2D 会员!http://twit...
- Rabbit Inc. 的 FCC ID 2BFB4R1 AI Companion:Rabbit Inc. 为 AI Companion 提交的 FCC ID 申请,FCC ID 为 2BFB4R1。已批准的频率、用户手册、照片和无线报告。
- pplx-api:未找到描述
- pplx-api form:使用 Typeform 将数据收集转变为一种体验。创建精美的在线表单、调查、测验等等。免费试用。
- Lightning AI | Turn ideas into AI, Lightning fast:AI 开发的一站式平台。协同编程、原型设计、训练、扩展、服务。直接在浏览器中运行,无需设置。由 PyTorch Lightning 的创作者打造。
- Open Release of Grok-1:未找到描述
- Cosmic keystrokes:未找到描述
- Blog:未找到描述
- xai-org/grok-1 · Hugging Face:未找到描述
- 🦅 EagleX 1.7T : Soaring past LLaMA 7B 2T in both English and Multi-lang evals (RWKV-v5):一个 Linear Transformer 刚刚在英语和多语言评估中,以更少的训练 Token 跨越了 Transformer 模型的金标准 LLaMA 7B。这是历史性的首次。
- Crystalcareai/GemMoE-Beta-1 · Hugging Face:未找到描述
- Piper TTS Spanish - a Hugging Face Space by HirCoir:未找到描述
- About xAI:未找到描述
- Announcing Grok:未找到描述
- Mixtral of Experts:我们推出了 Mixtral 8x7B,一种稀疏混合专家 (SMoE) 语言模型。Mixtral 采用了与 Mistral 7B 相同的架构,不同之处在于每一层由 8 个前馈块组成 (...
- Qwen/Qwen1.5-72B · Hugging Face:未找到描述
- Unsloth Fixing Gemma bugs:Unsloth 正在修复 Google 的开源语言模型 Gemma。
- Introduction | AIKit:AIKit 是一个一站式平台,可快速开始托管、部署、构建和微调大语言模型 (LLMs)。
- Google Colaboratory:未找到描述
- damerajee/Llamoe-test · Hugging Face:未找到描述
- CodeFusion: A Pre-trained Diffusion Model for Code Generation:想象一下,如果一个开发者只能修改最后一行代码,那么在函数写对之前,他需要从头开始写多少次?用于代码生成的自回归模型...
- How to Fine-Tune an LLM Part 1: Preparing a Dataset for Instruction Tuning:学习如何在指令数据集上微调 LLM!我们将介绍如何格式化数据,并在这个(几乎)纯 PyTorch 的最小示例中训练 Llama2、Mistral 等模型。
- ISLR Datasets — 👐OpenHands documentation:未找到描述
- Tweet from Unsloth AI (@UnslothAI):Unsloth 本周在 GitHub 上非常热门!🙌🦥 感谢大家和所有 ⭐️Stargazers 的支持!查看我们的仓库:http://github.com/unslothai/unsloth
- Paper page - Simple linear attention language models balance the recall-throughput
- tradeoff: 未找到描述
- Sam Altman: OpenAI, GPT-5, Sora, 董事会风波, Elon Musk, Ilya, 权力与 AGI | Lex Fridman Podcast #419: Sam Altman 是 OpenAI 的 CEO,该公司是 GPT-4, ChatGPT, Sora 以及许多其他尖端 AI 技术的幕后推手。请通过...支持本播客。
- Mistral 微调入门(支持 16k, 32k, 128k+ 上下文): 在我们最新的教程视频中,探索使用自有数据轻松微调语言模型 (LLMs) 的秘诀。我们深入探讨了一种高性价比且...
- argilla (Argilla): 未找到描述
- transformers/src/transformers/models/mixtral/modeling_mixtral.py at main · huggingface/transformers: 🤗 Transformers: 为 Pytorch, TensorFlow 和 JAX 提供的尖端机器学习库。 - huggingface/transformers
- teknium/GPT4-LLM-Cleaned · Datasets at Hugging Face: 未找到描述
- GitHub - mistralai/mistral-src: Mistral AI 7B v0.1 模型的参考实现。: Mistral AI 7B v0.1 模型的参考实现。 - mistralai/mistral-src
- GitHub - jiaweizzhao/GaLore: 通过在 GitHub 上创建账号,为 jiaweizzhao/GaLore 的开发做出贡献。
- GitHub - xai-org/grok-1: Grok 开源发布: Grok 开源发布。通过在 GitHub 上创建账号,为 xai-org/grok-1 的开发做出贡献。
- GitHub - AI4Bharat/OpenHands: 👐OpenHands : 让手语识别变得触手可及。: 👐OpenHands : 让手语识别变得触手可及。 | **注意:** 不再积极维护。如果您有兴趣接手并推进该项目,请提交 issue - AI4Bharat/OpenHands
- 安装 requirements 时出错 · Issue #6 · xai-org/grok-1: 我已经安装了 python 3.10 和 venv。尝试执行 "pip install -r requirements.txt" 时报错:ERROR: Ignored the following versions that require a different python version: 1.6.2 Requires-Python >=3...
- GitHub - unslothai/unsloth: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA & LoRA 微调: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA & LoRA 微调 - unslothai/unsloth
- Falcon 180B 开源语言模型性能超越 GPT-3.5 和 Llama 2: 开源语言模型 FalconLM 提供了比 Meta 的 LLaMA 更好的性能,并且可以用于商业用途。如果收入超过 100 万美元,商业使用需支付版税。
- FEAT / Optim: 由 younesbelkada 添加 GaLore 优化器 · Pull Request #29588 · huggingface/transformers: 这个 PR 做了什么?如标题所示,添加了来自 https://github.com/jiaweizzhao/GaLore 的 GaLore 优化器。修复了:#29512。这是我目前测试 API 的方式:import torch import datasets from ...
- 实现 Phi-2 支持的暂存 PR。由 cm2435 提交 · Pull Request #97 · unslothai/unsloth: ….org/main/getting-started/tutorials/05-layer-norm.html]
提及的链接:--- **Unsloth AI (Daniel Han) ▷ #[help](https://discord.com/channels/1179035537009545276/1179777624986357780/1218104575022727230)** (568 条消息🔥🔥🔥): - **训练复杂性与评估 Mistral**:一位成员尝试了 [Mistral-7B Instruct v0.2](https://huggingface.co/unsloth/mistral-7b-instruct-v0.2-bnb-4bit) 等模型,并遇到了 Huggingface Inference API 无法工作的问题。另一位成员建议确保在推理时采用 4-bit 量化,并澄清了使用 Unsloth 的 Colab Notebook 和 `eval_steps` 参数的过程。 - **GGUF 转换的 Unsloth 参数**:一位成员讨论了将 Gemma 模型转换为 GGUF 时遇到的问题,并收到了在 Notebook 提供的单元格之外执行特定 Python 转换命令的建议。 - **保存与转换问题**:一位尝试使用 Gemma 模型运行 ChatML Notebook 的用户在保存过程中遇到了错误。他们得到了关于在 Kaggle 或本地环境中手动运行转换的替代命令的帮助。 - **关于全量微调(Full Fine-Tuning)支持的讨论**:用户询问了 Unsloth 进行全量微调的能力,目前已知其在 LoRA 和 QLoRA 方面表现出色。Unsloth 团队解释说,虽然未来可能会支持全量微调,但这目前不是 Unsloth 的重点,且需要手动修改代码库。 - **部署与微调查询**:讨论还包括使用 Unsloth 部署模型的指南,重点是那些属于开源领域的模型(如 Mistral),而非像 OpenAI 的 GPT-4 这样的专有模型。此外,还澄清了 `eval_steps` 对微调结果的影响,确认它仅决定评估频率,而不影响最终的微调性能。提及的链接:--- **Unsloth AI (Daniel Han) ▷ #[suggestions](https://discord.com/channels/1179035537009545276/1180144489214509097/1218239216975351928)** (21 条消息🔥): - **AI 速读**:一篇论文引起了成员们的注意,并被认为是“另一篇了不起的论文”,将被添加到阅读清单中。 - **微调 Epochs 辩论**:**Yahir9023** 和 **Flail_** 讨论了模型训练的最佳 Epochs;虽然 Yahir9023 考虑为语音神经网络增加更多 Epochs,但 Flail_ 建议对于 LLM,通常“3 个 Epochs 是标准”。 - **LLM 的学习与风格**:Flail_ 提到,微调 LLM 往往对其风格的影响大于对其知识的影响,并警告说**更多的 Epochs 可能会导致 LLM 对特定数据产生过拟合(overfit)**。 - **知识规模匹配**:**Flail_** 建议可训练参数的数量应与数据量匹配,对于 800,000 行数据,建议 Rank 为 **32 或 64**。 - **轻量级 AI 模型展示**:**Yahir9023** 分享了更小模型的链接,如 **Tiny Mistral**,这些模型可以集成到 Unsloth Repo 中,但社区反应不一。- ybelkada/Mixtral-8x7B-Instruct-v0.1-bnb-4bit · Hugging Face: 未找到描述
- Google Colaboratory: 未找到描述
- Kaggle Mistral 7b Unsloth notebook: 使用 Kaggle Notebooks 探索并运行机器学习代码 | 使用来自“无附加数据源”的数据
- TinyLlama/TinyLlama-1.1B-Chat-v1.0 · Hugging Face: 未找到描述
- Hugging Face – 构建未来的 AI 社区。: 未找到描述
- Google Colaboratory: 未找到描述
- DPO Trainer: 未找到描述
- unsloth/mistral-7b-instruct-v0.2-bnb-4bit · Hugging Face: 未找到描述
- Home: 速度快 2-5 倍,显存占用减少 70%,支持 QLoRA & LoRA 微调 - unslothai/unsloth
- Home: 速度快 2-5 倍,显存占用减少 70%,支持 QLoRA & LoRA 微调 - unslothai/unsloth
- Home: 速度快 2-5 倍,显存占用减少 70%,支持 QLoRA & LoRA 微调 - unslothai/unsloth
- qlora/qlora.py at main · artidoro/qlora: QLoRA: 量化 LLMs 的高效微调。通过在 GitHub 上创建账号来为 artidoro/qlora 的开发做出贡献。
- Home: 速度快 2-5 倍,显存占用减少 70%,支持 QLoRA & LoRA 微调 - unslothai/unsloth
- Generation - GPT4All Documentation: 未找到描述
- Home: 速度快 2-5 倍,显存占用减少 70%,支持 QLoRA & LoRA 微调 - unslothai/unsloth
- Google Colaboratory: 未找到描述
- Unsloth: Merging 4bit and LoRA weights to 16bit...Unsloth: Will use up to 5.34 - Pastebin.com: Pastebin.com 自 2002 年以来一直是排名第一的粘贴工具。Pastebin 是一个可以在线存储文本并设置存储期限的网站。
- GitHub - unslothai/unsloth: 2-5X faster 70% less memory QLoRA & LoRA finetuning: 速度快 2-5 倍,显存占用减少 70%,支持 QLoRA & LoRA 微调 - unslothai/unsloth
- GitHub - vllm-project/vllm: A high-throughput and memory-efficient inference and serving engine for LLMs: 一个高吞吐量且显存高效的 LLMs 推理和服务引擎 - vllm-project/vllm
- Does DPOTrainer loss mask the prompts? · Issue #1041 · huggingface/trl: 嗨,有个小问题,DataCollatorForCompletionOnlyLM 会通过对提示词进行损失掩码处理来仅针对回答进行训练。DPOTrainer (DPODataCollatorWithPadding) 也是这样工作的吗?
- Supervised Fine-tuning Trainer: 未找到描述
- Trainer: 未找到描述
- Reproducing of Lora Model Result on MT-Bench · Issue #45 · huggingface/alignment-handbook: 最近,我尝试在自己的数据集上拟合 DPO。最初,我尝试复现你们 LoRA 模型的结果(MT-Bench 上的 7.43)。然而,我遇到了一些问题。尽管使用了你们所有的...
- llama.cpp/examples/server/README.md at master · ggerganov/llama.cpp: 使用 C/C++ 进行 LLM 推理。通过在 GitHub 上创建账号来为 ggerganov/llama.cpp 的开发做出贡献。
- GitHub - abetlen/llama-cpp-python: Python bindings for llama.cpp: llama.cpp 的 Python 绑定。通过在 GitHub 上创建账号来为 abetlen/llama-cpp-python 的开发做出贡献。 通过在 GitHub 上创建账号来参与开发。
- HuggingFaceH4/zephyr-7b-alpha · 添加聊天模板:未找到描述
- HuggingFaceH4/zephyr-7b-alpha · Hugging Face:未找到描述
- unsloth/unsloth/chat_templates.py (main 分支) · unslothai/unsloth:速度提升 2-5 倍,显存占用减少 70% 的 QLoRA 和 LoRA 微调 - unslothai/unsloth
提到的链接:--- **LM Studio ▷ #[💬-general](https://discord.com/channels/1110598183144399058/1110598183144399061/1218098224586293319)** (301 条消息🔥🔥): - **在本地硬件上探索模型性能**:成员们讨论了在具有特定硬件配置(如配备 18GB 内存的 M3 Pro)的本地机器上运行哪些模型。各种模型建议包括用于编程的 CodeLlama、DeepSeek,以及用于其他任务的 TinyDolphin 和 WizardVicuna。 - **使用 LM Studio 的故障排除和技巧**:一些用户遇到了验证文件完整性循环和多 GPU 设置的问题,而其他用户分享了技巧,例如在使用 Docker 部署 Web UI 时使用本地 IP 地址而不是 localhost。 - **关于本地模型功能的查询**:一位成员询问 LM Studio 是否支持视频换脸或读取文件夹中的文件等功能。共识是 LM Studio 目前不支持这些功能,并推荐了替代方案。 - **关于模型能力和硬件要求的讨论**:用户对不同显卡的能力进行了广泛讨论,其中 Tesla K40 和 K80 是值得注意的提及。针对使用不同 GPU 配置运行 34GB LLM 等大型模型的查询得到了解答,强调了对大量 VRAM 的需求。 - **关于开源大模型实用性的辩论**:一个名为 Grok 的 316B 参数模型的开源引发了关于其本地使用实用性的辩论,鉴于其庞大的体积。一些用户对在典型硬件设置上运行此类大型模型的能力表示怀疑。提到的链接:--- **LM Studio ▷ #[🤖-models-discussion-chat](https://discord.com/channels/1110598183144399058/1111649100518133842/1218119135423234058)** (138 条消息🔥🔥): ```html- grok-1: Grok-1 是一个 314B 参数的 Mixture of Experts 模型 - Base model (未 finetuned) - 8 个专家 (2 个激活) - 86B 激活参数 - Apache 2.0 许可证 - 代码: - Happy coding! p.s. 我们正在招聘:
- Ratha GIF - Ratha - 发现并分享 GIF: 点击查看 GIF
- xai-org/grok-1 · 314B params has 297G file size ?: 未找到描述
- <a href="https://github.com/continuedev/continue/issues/713"">Issues · continuedev/continue</a>: ⏩ 使用任何 LLM 进行编码的最简单方法——Continue 是一个适用于 VS Code 和 JetBrains 的开源 autopilot - Issues · continuedev/continue
- [1hr Talk] Intro to Large Language Models: 这是一个面向普通观众的 1 小时 Large Language Models 介绍:它是 ChatGPT, Claude 和 Bard 等系统背后的核心技术组件。什么是...
- Mistral: Easiest Way to Fine-Tune on Custom Data: 本视频由 Gradient.ai 赞助,点击此处查看:https://gradient.1stcollab.com/engineerprompt 在本视频中,我们将学习如何对 Mistral 进行 fine-tune...
- Command-R 模型等待合并至 LM Studio: 一位成员提到,LM Studio 对 Command-R 35B 模型的支持即将推出,目前正等待 llama.cpp pull request #6033 的合并以及 LM Studio 的更新。一旦合并,CohereAI/Command-R 应该可以正常工作。
- 寻求本地使用的模型推荐: 多位成员讨论了根据个人系统限制寻找合适的本地运行模型。此类咨询的一个富有成效的来源包括访问 reddit 的 LocalLLaMA 社区以获取见解。
- Yi-9B-200K 是一个新的 Base Model: 澄清了 Yi-9B-200K 具有 200k 上下文限制,并且源自一个新的 Base model 系列,与 Llama 模型不同。更多详细信息可以在其 Hugging Face model card 上找到。
- Grok-1 发布引发辩论: 关于 xAI 发布 Grok-1 模型的讨论显示,人们对其在没有进一步 tuning 的情况下的即时效用持怀疑态度。Grok-1 是一个 314B 参数的 Mixture-of-Experts 模型,未针对任何特定任务进行 fine-tuned。关于 Grok-1 Base model 发布的详细信息可以在 xAI blog 上阅读,模型的原始权重在 Apache 2.0 许可证下共享。
- 在有限的硬件上运行 LLM: 成员们交流了在显存受限的 GPU(如具有 6GB VRAM 的 Nvidia 1660 Super)上运行语言模型的建议。其中一个建议包括运行较小的模型如 Gemma 2b,这通常需要操作上的妥协或硬件调整。
提及的链接:--- **LM Studio ▷ #[🧠-feedback](https://discord.com/channels/1110598183144399058/1113937247520170084/1218213037060657273)** (12 messages🔥): - **Command-R 35B 兼容性问题**:一位成员关于 Command-R 35B v1.0 模型与 llama.cpp 兼容性的说法被纠正,指出 *llama.cpp 尚不支持 c4ai*。尽管由于文件列表显示“为 Cohere 的 Command-R 模型添加了 llama.cpp GGUF”而产生了困惑,但[该问题尚未解决](https://huggingface.co/andrewcanis/c4ai-command-r-v01-GGUF)。 - **Linux AMD 用户也需要关注**:一位成员建议 **Linux 版本下载页面**应注明 AMD 用户需要 OpenCL 驱动程序才能在程序中使用 GPU,这对于用户引导是一个虽小但有帮助的改进。 - **LM Studio 的插件支持问题**:有人询问 **LM Studio** 是否允许用户与自己的文档聊天或添加类似 autogen 的插件。一位成员澄清说确实支持插件,并建议开启服务器模式以这种方式进行连接。 **提到的链接**:andrewcanis/c4ai-command-r-v01-GGUF · Hugging Face: 未找到描述 --- **LM Studio ▷ #[🎛-hardware-discussion](https://discord.com/channels/1110598183144399058/1153759714082033735/1218129474348912711)** (480 messages🔥🔥🔥): - **GPU 梦想与预算现实**:成员们讨论了在不同 GPU 上运行本地语言模型 (LMs) 的差异,包括对 Tesla **K80** 与现代显卡性能的推测。虽然有人建议购买二手 **3090**,但低廉价格的诱惑使一些人转向购买 K80,尽管存在潜在的限制和散热挑战。 - **基准测试的烦恼**:社区讨论了在不同硬件配置下寻找全面 **LM 基准测试**数据的困难。有人提议建立一个中心化资源或利用 LM Studio 进行标准化基准测试,并强调了来自他人个人配置的性能结果差异巨大。 - **史诗般的 Epyc 冒险**:随后是对构建多 GPU 配置的详细探讨,成员们讨论了 AMD **Ryzen** 与 **Epyc** CPU 在支持多个 NVLinked GPU 方面的优缺点。为了获得更好的 PCIe 通道支持而转向 **Epyc** 的高昂成本和性能回报是一个核心关注点,这表明在本地运行大型模型需要巨大的投入。 - **MacBook 也参与其中**:与自定义配置的讨论形成对比,一些人对使用高性能 **MacBook** 机型运行 LMs 表示满意。MacBook 的易用性、便携性和性能提供了一个更简单但更昂贵的自定义配置替代方案。 - **过去的采购与未来的计划**:成员们分享了从 eBay 采购二手 Tesla 等组件的计划,讨论了 **Epyc CPU** 安装的细节以及对扭矩螺丝刀的需求。在技术讨论之余,大家还分享了关于组装梦想中的 LM 运行机器的趣闻轶事和革命友谊,包括其中的起起落落。- Open Release of Grok-1: 未找到描述
- MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training: 在这项工作中,我们讨论了构建高性能多模态大语言模型 (MLLMs) 的方法。特别是,我们研究了各种架构组件和数据选择的重要性。通过仔细的...
- 01-ai/Yi-34B · Prompt template?: 未找到描述
- Reddit - Dive into anything: 未找到描述
- What are Parameters in Large Language Model?: 什么是大语言模型中的参数? 00:26 💡 像 GPT-3 这样的大语言模型中的参数是在训练过程中学习到的变量,用于最小化...
- 01-ai/Yi-9B-200K · Hugging Face: 未找到描述
- [1hr Talk] Intro to Large Language Models: 这是一个面向普通观众的 1 小时大语言模型入门介绍:它是 ChatGPT、Claude 和 Bard 等系统背后的核心技术组件。什么是...
- Add Command-R Model by acanis · Pull Request #6033 · ggerganov/llama.cpp: 关于 Command-R 35B 模型(128k 上下文)的信息可以在以下网址找到:https://huggingface.co/CohereForAI/c4ai-command-r-v01。基于 llama2 模型并进行了一些更改:新的超参数...
提到的链接:- 未找到标题: 未找到描述
- 👾 LM Studio - 发现并运行本地 LLMs: 查找、下载并实验本地 LLMs
- LM Studio Beta 版本发布: 未找到描述
- 带有双 Edge TPU 的 M.2 加速器 | Coral: 使用 M.2 (E key) 接口将两个 Edge TPUs 集成到旧系统和新系统中。
- 未找到标题: 未找到描述
- 404 页面: 未找到描述
- 未找到标题: 未找到描述
- 华擎 (Asrock Rack) ROMED8-2T ATX 服务器主板 AMD EPYC 7003 (搭载 AMD 3D V-Cache 技术)/7002 系列处理器 SP3 (LGA 4094) 双 10GbE - Newegg.com: 购买华擎 ROMED8-2T 服务器主板,支持 AMD EPYC 7003 (搭载 AMD 3D V-Cache 技术)/7002 系列处理器 SP3 (LGA 4094) 双 10GbE,享受快速发货和顶级客户服务。一旦您...
- 141.5SG$ |Epyc 7282 16 核心 32 线程 16x2.8Ghz 120W Socket SP3 CPU 9 纳米 Epyc 7282| | - AliExpress: 更明智的购物,更美好的生活!Aliexpress.com
- 戴尔 (Dell) T710 塔式服务器 双 6 核 X5650 **144Gb RAM** 240gb SSD +6X 600G SFF SAS | eBay: 未找到描述
- Intel Core i5-3470 规格: Ivy Bridge, 4 核心, 4 线程, 3.2 GHz, 77 W
- 新款 /Wave ®AI 服务器 NF5688M6 NVIDIA HGX TESLA A800 80G 八路 GPU 服务器/期货 | eBay: 未找到描述
- AMD EPYC 7232P CPU 处理器 8 核心 3.10GHz 32MB 缓存 120W - 100-000000081 | eBay: 未找到描述
- AMD EPYC 7F72 CPU 处理器 24 核心 3.20GHz 192MB 缓存 240W - 100-000000141 | eBay: 未找到描述
- 戴尔 (Dell) T710 塔式服务器 双 6 核 X5670 **24 核心** 64GB RAM | eBay: 未找到描述
- Nvidia Tesla K80 24GB GPU GDDR5 PCI-E GPU 加速器 12 个月保修 | eBay: 未找到描述
- AMD EPYC 7232P 8 核心 3.1GHz 32MB L3 处理器 - Socket SP3 - 100-000000081 | eBay: 未找到描述
- p_sortType=bestmatch_sort">Luckim 官方旗舰店 - AliExpress 上的惊喜产品与独家折扣:未找到描述
- Nvidia Tesla K80 24GB GPU GDDR5 PCI-E GPU 加速器 12 个月保修 | eBay:未找到描述
- 搜索 Thingiverse - Thingiverse:下载文件并使用您的 3D 打印机、激光切割机或 CNC 进行构建。
- Micro Center - 计算机与电子产品:Micro Center - 计算机与电子产品 - 数千种可供购买的产品:台式机、笔记本电脑、显示器、DIY 电脑零件、升级、数字成像、打印耗材、便携式设备、音频设备... </ul> </div> --- **LM Studio ▷ #[🧪-beta-releases-chat](https://discord.com/channels/1110598183144399058/1166577236325965844/1219065221327355974)** (4 条消息): - **寻求模型预设**:一位用户询问是否有适用于不同模型的预设列表。他们被引导至一个 [LM Studio JSON 配置文件 GitHub 仓库](https://github.com/lmstudio-ai/configs),其中包含一系列示例配置文件。 - **ROCm 用户社区呼吁**:一位用户询问是否有其他人在使用 ROCm。另一位用户建议他们在特定频道发布查询,以获得更好的可见性。 **提到的链接**:GitHub - lmstudio-ai/configs: LM Studio JSON configuration file format and a collection of example config files.:LM Studio JSON 配置文件格式及示例配置文件集合。- lmstudio-ai/configs --- **LM Studio ▷ #[langchain](https://discord.com/channels/1110598183144399058/1167546793656062063/1219051718172606537)** (1 条消息): - **关于 JSON 功能的咨询**:一位成员询问是否有人在 **Local Inference Server** 上成功实现了具有 **JSON function calling** 功能的模型。目前没有进一步的上下文或成功尝试的讨论。 --- **LM Studio ▷ #[avx-beta](https://discord.com/channels/1110598183144399058/1177047883237822536/1219383598193311744)** (5 条消息): - **AVX Beta 版本说明**:一位成员寻求澄清,想知道使用 AVX 的 Beta 版应用是否与主应用程序相同。确认了**这是一个较旧的版本**,且 AVX 支持不被视为高优先级功能。 - **Beta 版中的模型兼容性**:针对模型功能的咨询,一位成员表示虽然模型可以在 Beta 版中运行,但不支持 **starcoder2、gemma** 等较新的模型。 - **在 Beta 版上运行 Mistral**:澄清了尽管存在限制,**Mistral** 仍可以在该应用的 AVX Beta 版本上运行。 --- **LM Studio ▷ #[amd-rocm-tech-preview](https://discord.com/channels/1110598183144399058/1195858490338594866/1218206050495234070)** (5 条消息): - **适用于 AMD 的预构建 Windows ROCm 库已发布**:分享了一个 GitHub 链接,提供专为 gfx1031 和 gfx1032 显卡设计的预构建 Windows ROCm 库。该库可以在 [GitHub - brknsoul/ROCmLibs](https://github.com/brknsoul/ROCmLibs) 找到。 - **探索 LM Studio 中的多 GPU 支持**:一位用户表达了在 LM Studio 中同时使用多个 AMD GPU(特别是 *6700 xt* 与 *7800 xt* 搭配)的兴趣,并询问未来是否支持此类配置。 - **AMD 6700 xt 与 ROCm 的兼容性问题**:回复澄清说,AMD 官方并不支持 AMD *6700 xt* 运行 ROCm,这就是为什么依赖未经修改的 ROCm 库的 LM Studio 不支持 *6700 xt* 的原因。 - **LM Studio 中多 GPU 利用的潜力**:另一位用户建议,如果拥有另一块 7000 系列 GPU,LM Studio 可能会允许并行使用这些 GPU,这暗示了目前在特定硬件上已支持多 GPU。 **提到的链接**:GitHub - brknsoul/ROCmLibs: Prebuild Windows ROCM Libs for gfx1031 and gfx1032:专为 gfx1031 和 gfx1032 设计的预构建 Windows ROCM 库 - brknsoul/ROCmLibs --- **LM Studio ▷ #[crew-ai](https://discord.com/channels/1110598183144399058/1197374792668545034/1219265025487667200)** (1 条消息): - **选择合适的 Agent 系统**:一位成员询问了在选择用于深化和验证创意概念的 Agent 系统方面的进展,并对这一决策过程表示了共同兴趣。其查询中未提及具体的系统或标准。 --- **Nous Research AI ▷ #[off-topic](https://discord.com/channels/1053877538025386074/1109649177689980928/1218144997094723615)** (56 条消息🔥🔥): - **NVIDIA 下一代显存速度**:据传 NVIDIA 即将推出的 **GeForce RTX 50 系列 "Blackwell"** 将采用 28 Gbps 的 GDDR7 显存,尽管 GDDR7 本身具备 32 Gbps 的能力。这一选择延续了 RTX 20 系列的模式,当时也没有使用最快的可用显存速度。 - **Discord 用户探索 AI Agent 和界面**:关于对先进 AI 模型和界面的预期存在深入讨论,特别是讨论了 **OpenAI** 可能如何在 Agent 界面中集成自定义 AI 模型——这一策略旨在提高 AI 系统的可靠性和整体功能稳健性。 - **未来 AI 预测引发共鸣**:用户引用了 Sam Altman 在 2021 年的预测,指出他对 AI 技术进步时间表的准确性。讨论强调,最初预计在 2030 年以后出现的 **AI 伴侣** 正在比预期更早地成为现实。 - **社区对 AI 行业人物的反应**:成员们对他们认为的高知名度 AI 行业人物的空谈和缺乏行动表示沮丧。聊天反映了 AI 未来的宏伟愿景与当前需要关注的实际问题之间的差距。 - **互动式 AI 助手开发讨论**:参与者分享了编程 AI 助手的想法和资源,使其在被中断时能智能暂停,讨论重点围绕编辑对话历史和上下文操作。对话表明社区对优化 AI 系统交互性有共同兴趣。
- 来自 undefined 的推文:未找到描述
- 使用 Langgraph 进行计划与执行:如何创建一个“计划与执行”风格的 Agent。这在很大程度上受到 Plan-and-Solve 论文以及 Baby-AGI 项目的启发。核心思想是首先...
- NVIDIA GeForce RTX 50 系列 "Blackwell" 将使用 28 Gbps GDDR7 显存速度:据可靠爆料者 kopite7kimi 称,首批采用 GDDR7 显存的 NVIDIA GeForce RTX 50 系列 "Blackwell" 显卡传闻将配备 28 Gbps 的显存速度...
- 来自 j⧉nus (@repligate) 的推文:@xlr8harder 我没让它发展太远,但现在房间里有人跟我说他们创建了一个“好色的 Claude”网络,以及这些 Claude 如何创造更好的……
- Language Agents as Optimizable Graphs:为了改进基于 Large Language Models (LLMs) 的问题求解器,人们提出了各种人工设计的 Prompt Engineering 技术,从而产生了许多不同的代码库。我们将这些方法统一起来……
- 论文页面 - ORPO: Monolithic Preference Optimization without Reference Model:未找到描述
- 来自 Burny — Effective Omni (@burny_tech) 的推文:关于马斯克可能通过开源 Grok 来动摇智能战争中其他巨头玩家的想法。Grok 1 是一个 314B 参数的模型,采用了 Mixture-of-Experts 架构……
- GitHub - Oxen-AI/Self-Rewarding-Language-Models:这是 Oxen.ai 社区的工作,旨在复现 MetaAI 的 Self-Rewarding Language Model 论文。:这是 Oxen.ai 社区的工作,旨在复现 MetaAI 的 Self-Rewarding Language Model 论文。 - Oxen-AI/Self-Rewarding-Language-Models
- Grok-1 开源发布:未找到描述
- datas (shu nakamura):未找到描述
- 来自 interstellarninja (@intrstllrninja) 的推文:`
run world_sim.exe --epoch "Earth in 2500" --civilization_type "Type-II on Kardashev scale" ` ↘️ 引用 mephisto (@karan4d):我当然会开源 worldsim... - 来自 Parzival - 🌞/⏫ (@whyarethis) 的推文:现在我们正取得进展。
- Llamas 是用英文工作的吗?论多语言 Transformer 的潜在语言:我们探讨了在不平衡且以英文为主的语料库上训练的多语言语言模型是否将英文作为内部枢轴语言——这是一个对于理解语言模型如何运作至关重要的问题...
- anon8231489123/ShareGPT_Vicuna_unfiltered · Hugging Face 数据集:未找到描述
- 来自 Aravind Srinivas (@AravSrinivas) 的推文:是的,感谢 @elonmusk 和 xAI 团队开源 Grok 的基础模型。我们将针对对话式搜索对其进行微调,并优化推理,为所有 Pro 用户提供服务! ↘️ 引用...
- 来自 interstellarninja (@intrstllrninja) 的推文:@Cyndesama Claude 3 Opus 使用 python42 运行 AI 小镇模拟
- Replete-AI/Mistral-Evolved-11b-v0.1 · Hugging Face:未找到描述
- 来自 Lin Qiao (@lqiao) 的推文:我们很高兴能与 @NousResearch 合作开发 Hermes 2 Pro 多轮对话和 function calling 模型。该模型在超过 1.5 万个 function calls 和 500 个示例的 function calling DPO 数据集上进行了微调...
- MM1:多模态 LLM 预训练的方法、分析与见解:在这项工作中,我们讨论了构建高性能多模态大语言模型(MLLMs)。特别是,我们研究了各种架构组件和数据选择的重要性。通过仔细且持续的...
- 1-bit LLM 时代:所有大语言模型都是 1.58 Bits:最近的研究(如 BitNet)正在为 1-bit 大语言模型(LLMs)的新时代铺平道路。在这项工作中,我们引入了一个 1-bit LLM 变体,即 BitNet b1.58,其中每一个参数...
- NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO · 添加评估结果:未找到描述
- 来自 interstellarninja (@intrstllrninja) 的推文:Hermes 2 Pro function-calling 模型已与 @ExaAILabs 的搜索引擎集成👀 ↘️ 引用 Barton Rhodes 🦺 (@bmorphism):添加了 @ExaAILabs 支持,以便与 @NousResearch 新的 function-calling 模型配合使用...
- 来自 interstellarninja (@intrstllrninja) 的推文:`
sudo python3 akashic_records.py --entity ["sam altman", "elon musk"] --mode "email thread" --topic "superintelligence scenarios" ` - 稀疏分布式内存是持续学习者:持续学习(Continual learning)是人工神经网络面临的一个问题,而其生物对应物则擅长解决这一问题。基于使用稀疏分布式内存(SDM)连接核心神经的工作...
- migtissera/Tess-70B-v1.6 · Hugging Face:未找到描述
- 持续预训练大语言模型的简单且可扩展策略:大语言模型(LLMs)通常在数千亿个 token 上进行预训练,一旦有新数据可用,就不得不重新开始这一过程。一个更有效的解决方案是持续预训练...
- openchat/openchat_sharegpt4_dataset at main:未找到描述
- 来自 Andrew Kean Gao (@itsandrewgao) 的推文:我认为 grok-4bit 对一块 H100 GPU 来说还是稍微太大了 :( ↘️ 引用 Andrew Kean Gao (@itsandrewgao):天哪,@grok 有 3140 亿参数,8 专家混合模型(MoE),未经过 RLHF/道德化处理... zed THIS IS ...
- Abstractions/abstractions/goap/causality.ipynb at main · furlat/Abstractions: 一组用于抽象 IRL 的 Pydantic 模型。通过在 GitHub 上创建账号来为 furlat/Abstractions 的开发做出贡献。
- Language models scale reliably with over-training and on downstream tasks: 语言模型在过度训练和下游任务中能够可靠地扩展:缩放定律(Scaling laws)是开发语言模型的有用指南,但目前的缩放研究与语言模型最终的训练和评估方式之间仍存在差距。例如,缩放...
- 01-ai/Yi-9B-200K · Hugging Face: 未找到描述
- JSON Schema - Pydantic: 未找到描述
- Abstractions/abstractions/goap/system_prompt.md at main · furlat/Abstractions: 一组用于抽象 IRL 的 Pydantic 模型。通过在 GitHub 上创建账号来为 furlat/Abstractions 的开发做出贡献。
- Abstractions/abstractions/goap/gridmap.ipynb at main · furlat/Abstractions: 一组用于抽象 IRL 的 Pydantic 模型。通过在 GitHub 上创建账号来为 furlat/Abstractions 的开发做出贡献。
- 01-ai/Yi-9B · Hugging Face: 未找到描述
- 来自 Andriy Burkov (@burkov) 的推文: 我们尚未看到 Grok 与 GPT-4 相比有多出色,但可以肯定的是,如果你今天要训练一个 OpenAI/Anthropic 的竞争对手,你不再需要从头开始了...
- HD/VSA:
- Liam Johnson DESTROYS Heckler | New York Stand-up: 上周末 Liam Johnson 决定最终在 Giggle Nerd 首次亮相。他在周日 23:00 到 23:25 进行了表演,我们的观众非常喜欢...
- Accelerationism Accelerationism (Acc/Acc): 加速主义加速主义(Acc/Acc)是指当你加速加速主义,将加速主义应用于那些过于前卫的加速主义部分时:https://www.patre...
- Cosma Shalizi - Why Economics Needs Data Mining: Cosma Shalizi 敦促经济学家停止他们正在做的事情:将大型复杂模型拟合到一小组高度相关的序列数据中。一旦你...
- Let's build the GPT Tokenizer: 让我们构建 GPT Tokenizer:Tokenizer 是 Large Language Models (LLMs) 中一个必要且普遍存在的组件,它在字符串和 tokens(文本块)之间进行转换。Tokenizer...
- GTC March 2024 Keynote with NVIDIA CEO Jensen Huang: 观看 NVIDIA 首席执行官 Jensen Huang 的 GTC 主旨演讲,了解塑造我们未来的 AI 进展的所有公告。深入了解这些公告并发现...
- 来自 Grok (@grok) 的推文: @elonmusk @xai ░W░E░I░G░H░T░S░I░N░B░I░O░
- GitHub - PrismarineJS/mineflayer: Create Minecraft bots with a powerful, stable, and high level JavaScript API.: 使用强大、稳定且高级的 JavaScript API 创建 Minecraft 机器人。 - PrismarineJS/mineflayer
- Prismarin - Overview: Prismarin 有 3 个可用的代码仓库。在 GitHub 上关注他们的代码。
- HacksTokyo: 东京的 AI x 数字娱乐黑客松!
- Whole-body simulation of realistic fruit fly locomotion with deep reinforcement learning: 基于深度强化学习的真实果蝇运动全身模拟:动物的身体决定了神经系统如何产生行为。因此,对感觉运动行为的神经控制进行详细建模需要一个详细的身体模型。在这里,我们...
- Calculating the Perplexity of 4-bit Llama 2:使用 Kaggle Notebooks 探索和运行机器学习代码 | 使用来自多个数据源的数据
- GitHub - xai-org/grok-1: Grok open release:Grok 开源发布。通过在 GitHub 上创建账户为 xai-org/grok-1 的开发做出贡献。
- AlexWortega/smallstral · Hugging Face:未找到描述
- alexwortega:Weights & Biases,机器学习开发者工具
- Maisa (@maisaAI_) 的推文:介绍 Maisa KPU:AI 推理能力的下一次飞跃。知识处理单元(Knowledge Processing Unit)是针对 LLMs 的推理系统,它利用了它们所有的推理能力并克服了其固有的...
- KPU - Maisa:AI 驱动的知识处理平台。一个用于执行业务任务的简单 API。为软件和应用开发者抽象化了使用最新 AI 架构的复杂性。
- Wikipedia: 数据库报告/上个月编辑次数最多的文章 - Wikipedia:未找到描述
- Quiet-STaR: 语言模型可以教自己在说话前思考:在写作和交谈时,人们有时会停下来思考。虽然以推理为中心的工作通常将推理框架化为回答问题或完成 Agent 任务的方法,但推理对于...
- 发布 Grok:未找到描述
- Excited Fuego GIF - Excited Fuego - 发现并分享 GIF:点击查看 GIF
- Block-Recurrent Transformers:我们介绍了 Block-Recurrent Transformer,它沿序列以循环方式应用 Transformer 层,并且相对于序列长度具有线性复杂度。我们的循环单元...
- 通过反馈记忆解决 Transformer 的一些局限性:尽管 Transformer 是前馈网络,但已成功应用于序列、自回归任务。与循环神经网络不同,Transformer 使用 Attention 来捕获时间关系...
- 在 Frontier 上优化大语言模型的分布式训练:大语言模型 (LLMs) 作为基础模型取得了显著成功,通过微调使各种下游应用受益。最近关于 Loss Scaling 的研究表明...
- GitHub - trevorpogue/algebraic-nnhw: 使用乘法次数减半的矩阵乘法进行 AI 加速:使用乘法次数减半的矩阵乘法进行 AI 加速 - trevorpogue/algebraic-nnhw
- Figure 状态更新 - OpenAI 语音到语音推理:未找到描述
- EleutherAI/cookbook 中的 cookbook/calc/calc_transformer_flops.py:深度学习入门。包含处理真实模型时的所有实践细节和实用工具。 - EleutherAI/cookbook
- NPR.org 现提供免费转录文本:NPR 上喜爱的、错过的或令人着迷的故事的转录文本以前每份售价 3.95 美元,但现在在 NPR.org 上免费提供。
- Issues · pytorch/pytorch:Python 中具有强大 GPU 加速的张量和动态神经网络 - Issues · pytorch/pytorch
- GitHub - xai-org/grok-1: Grok 开源发布:Grok 开源发布。通过在 GitHub 上创建账户为 xai-org/grok-1 的开发做出贡献。
- AI 会议截止日期:未找到描述
- RT-2:新模型将视觉和语言转化为行动:介绍机器人 Transformer 2 (RT-2),这是一种新型的视觉-语言-行动 (VLA) 模型,它从网络和机器人数据中学习,并将这些知识转化为通用的指令...
- David P. Woodruff:未找到描述
- Transformers Get Stable: An End-to-End Signal Propagation Theory for Language Models:尽管取得了巨大成功,Transformer 模型在深度扩展方面仍然面临挑战。在这项工作中,我们开发了一套统一的信号传播理论,并提供了控制...矩的公式。
- Announcing Grok:未找到描述
- Construction of Arithmetic Teichmuller Spaces IV: Proof of the abc-conjecture:这是我在本系列论文中开发的算术 Teichmuller 空间工作的延续。在本文中,我展示了算术 Teichmuller 空间理论如何利用 Shinic...
- Logits of API-Protected LLMs Leak Proprietary Information:大语言模型 (LLM) 的商业化导致了仅通过高级 API 访问专有模型的普遍做法。在这项工作中,我们展示了即使在保守的假设下...
- MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training:在这项工作中,我们讨论了构建高性能多模态大语言模型 (MLLM) 的方法。特别是,我们研究了各种架构组件和数据选择的重要性。通过仔细且持续的...
- The pitfalls of next-token prediction:仅仅一个 next-token 预测器能否忠实地模拟人类智能?我们将文献中零散的直觉担忧具体化。作为起点,我们认为这两个经常混淆的...
- Adding NVMe SSDs to Enable and Accelerate 100B Model Fine-tuning on a Single GPU:大语言模型的最新进展为世界带来了巨大价值,其卓越能力源于其使用的海量参数。然而,即使是拥有...的 GPU
- Common 7B Language Models Already Possess Strong Math Capabilities:此前人们认为数学能力只会在超大规模的普通语言模型中出现,或者需要大量的数学相关预训练。本文展示了 LLaMA-2 7B 模型...
- GiT: Towards Generalist Vision Transformer through Universal Language Interface:本文提出了一个简单而有效的框架,称为 GiT,仅使用原生 ViT 即可同时适用于各种视觉任务。受多层 Transformer 通用性的启发...
- Accelerating Generative AI with PyTorch II: GPT, Fast:本文是专注于如何使用纯原生 PyTorch 加速生成式 AI 模型的系列博客的第二部分。我们很高兴分享一系列新发布的 PyTorch 性能...
- Rephrasing the Web: A Recipe for Compute and Data-Efficient Language Modeling:大语言模型是在海量的网络抓取数据上训练的,这些数据通常是无结构的、多噪声且表述不佳的。目前的 Scaling laws 表明,从这类数据中学习需要大量的...
- Tweet from Aaditya Singh (@Aaditya6284):我们研究了 GPT-3.5 和 GPT-4 中这一选择的影响——具体来说,我们研究了由逗号等分隔符强制执行的从左到右 (L2R) 与从右到左 (R2L) 分词的效果。我们...
- RNNs are not Transformers (Yet): The Key Bottleneck on In-context Retrieval:本文研究了循环神经网络 (RNN) 和 Transformer 在解决算法问题背景下表示能力的差距。我们专注于理解 RNN 是否...
- Comparative Study of Large Language Model Architectures on Frontier:大语言模型 (LLM) 在 AI 社区及其他领域引起了极大关注。其中,生成式预训练 Transformer (GPT) 已成为主导架构...
- Open Release of Grok-1:未找到描述
- GitHub - xai-org/grok-1: Grok open release:Grok 开源发布。通过在 GitHub 上创建账户为 xai-org/grok-1 的开发做出贡献。
- Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews:我们提出了一种方法,用于估算大型语料库中可能被大语言模型 (LLM) 大幅修改或生成的文本比例。我们的最大... likelihood model leve...
- Bytez: Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews: 本研究探讨了在科学同行评审中使用大型语言模型(LLMs,如 ChatGPT)的情况。作者开发了一种方法来估计同行评审文本中生成的百分比...
- GitHub - enfiskutensykkel/ssd-gpu-dma: Build userspace NVMe drivers and storage applications with CUDA support: 构建支持 CUDA 的用户空间 NVMe 驱动程序和存储应用程序 - enfiskutensykkel/ssd-gpu-dma
- GitHub - bigscience-workshop/bloom-dechonk: A repo for running model shrinking experiments: 一个用于运行模型收缩实验的仓库。通过在 GitHub 上创建账户为 bigscience-workshop/bloom-dechonk 的开发做出贡献。
- Model & API Providers Analysis | Artificial Analysis: AI 模型和 API 托管提供商的比较与分析。涵盖质量、价格、性能和速度(吞吐量和延迟)等关键指标的独立基准测试。
- Word n-gram language model - Wikipedia: 无描述
- features-across-time/scripts/generate_bigrams.py at main · EleutherAI/features-across-time: 了解神经网络学习到的特征在整个训练过程中是如何演变的 - EleutherAI/features-across-time
- Perplexity of fixed-length models: 未找到描述
- GitHub: Let’s build from here: GitHub 是超过 1 亿开发者共同塑造软件未来的地方。在这里贡献开源社区,管理你的 Git 仓库,像专家一样审查代码,追踪 bug 和功能...
- lm-evaluation-harness/docs/model_guide.md at main · EleutherAI/lm-evaluation-harness: 一个用于语言模型 few-shot 评估的框架。 - EleutherAI/lm-evaluation-harness
- `wmt14-en-fr` deadlock issue · Issue #1485 · EleutherAI/lm-evaluation-harness: 在此任务上运行评估时,在计算 ter 指标期间,程序会永久卡住。命令:lm_eval --model hf --model_args pretrained=microsoft/phi-2,trust_remote_code=True ...
- Release v0.4.2 · EleutherAI/lm-evaluation-harness: lm-eval v0.4.2 版本说明。我们为 PyPI 用户发布了 lm-eval 的新次要版本!我们很高兴看到 lm-evaluation-harness 的持续使用,包括作为标准测试...
- evaluate/metrics/perplexity/perplexity.py at 8dfe05784099fb9af55b8e77793205a3b7c86465 · huggingface/evaluate: 🤗 Evaluate: 一个用于轻松评估机器学习模型和数据集的库。 - huggingface/evaluate
- grok-1:Grok-1 是一个 314B 参数的 Mixture of Experts 模型 - 基础模型(未微调)- 8 个专家(2 个激活)- 86B 激活参数 - Apache 2.0 许可证 - 代码:- 祝编码愉快!另:我们正在招聘:
- Grok-1 开源发布:未找到描述
- Whisper Large V3 - ivrit-ai 创建的 Hugging Face Space:未找到描述
- Weyaxi (@Weyaxi) 的推文:🤔你是否好奇我们在 @huggingface 上托管了多少数据?在看到 @TheBlokeAI 的模型数量和平台上闲置的 120B 模型后,我也产生了好奇 😅 📊 所以我抓取了所有仓库...
- Linux 性能、基准测试和开源新闻推文 - Phoronix:未找到描述
- Tonic/Aya · 将 repetition_penalty 常数设置为 1.8:未找到描述
- GitHub - moritztng/fltr: 类似于 grep 但用于自然语言问题。基于 Mistral 7B 或 Mixtral 8x7B。:类似于 grep 但用于自然语言问题。基于 Mistral 7B 或 Mixtral 8x7B。- moritztng/fltr
- Video-LLaVA demo api 在 Gradio-Client 中无法工作 · Issue #7722 · gradio-app/gradio:描述错误:我尝试在 Hugging Face Spaces 上为 Video-LLaVA 模型 demo 使用 python api,但遇到了错误:Traceback (most recent call last): File "/Users/kamakshiramamurthy/Deskt...
- 未找到标题:未找到描述
- MLOps:使用 Hub 和 SageMaker Pipelines 构建端到端 Hugging Face Transformers:了解如何使用 Amazon SageMaker 构建从训练到生产的 Hugging Face Transformers 端到端 MLOps 流水线。
- Medusa: Simple LLM Inference Acceleration Framework with Multiple Decoding Heads:Large Language Models (LLMs) 的推理过程通常由于自回归解码过程中缺乏并行性而受到限制,导致大多数操作受限于...
- Paper page - MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training:未找到描述
- Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews:我们提出了一种方法,用于估计大型语料库中可能被 Large Language Model (LLM) 大幅修改或生成的文本比例。我们的极大似然模型利用...
- Bytez: Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews:本研究探讨了 Large Language Models (LLMs)(如 ChatGPT)在科学同行评审中的应用。作者开发了一种方法来估计同行评审中生成的文本百分比...
- llama_index/docs/examples/instrumentation/basic_usage.ipynb at main · run-llama/llama_index:LlamaIndex 是适用于 LLM 应用的数据框架 - run-llama/llama_index
- llama_index/docs/examples/instrumentation/observe_api_calls.ipynb at main · run-llama/llama_index:LlamaIndex 是适用于 LLM 应用的数据框架 - run-llama/llama_index
- 未找到标题: 未找到描述
- )">未找到标题: 未找到描述
- Prompt Engineering 指南: Prompt Engineering 全面概述
- 定义并自定义文档 - LlamaIndex 🦙 v0.10.20.post1: 未找到描述
- Prompt Engineering 指南: Prompt Engineering 全面概述
- CodeSplitter - LlamaIndex 🦙 v0.10.20.post1: 未找到描述
- 使用 LlamaIndex 实现多租户 - Qdrant: Qdrant 是一个用 Rust 编写的开源向量数据库和向量搜索引擎。它通过便捷的 API 提供快速且可扩展的向量相似度搜索服务。
- 结构化数据提取 - LlamaIndex 🦙 v0.10.20.post1: 未找到描述
- LlamaCloud: 未找到描述
- 工具 - LlamaIndex 🦙 v0.10.20.post1: 未找到描述
- <a href="http://localhost:{port}",>">未找到标题</a>: 未找到描述
- llama_index/docs/examples/vector_stores/Qdrant_using_qdrant_filters.ipynb at 5c53f41712785e5558156372bdc4f33a6326fa5f · run-llama/llama_index: LlamaIndex 是一个用于 LLM 应用程序的数据框架 - run-llama/llama_index
- hof/flow/chat/prompts/dm.cue at _dev · hofstadter-io/hof: 连接数据模型、Schema、代码生成和任务引擎的框架。与语言和技术无关。 - hofstadter-io/hof
- 使用 CLIP 嵌入进行图像到图像检索,并使用 GPT4V 进行图像相关性推理 - LlamaIndex 🦙 v0.10.20.post1: 未找到描述
- [问题]: 自定义 llm 但被阻止 · Issue #12034 · run-llama/llama_index: 问题验证:我已在文档和 Discord 中搜索过答案。问题代码来自 typing import Optional, List, Mapping, Any from llama_index.core import SimpleDirecto...
- llama_index/llama-index-integrations/llms/llama-index-llms-ollama/llama_index/llms/ollama/base.py at main · run-llama/llama_index: LlamaIndex 是一个用于 LLM 应用程序的数据框架 - run-llama/llama_index
- Grok-1 开源发布:未找到描述
- 来自 Burny — Effective Omni (@burny_tech) 的推文:关于 Sam Altman 透露的 GPT-5 新细节。他基本上承认了 GPT-5 将是 GPT-4 的巨大升级,因此我们可以期待类似于从 3 到 4 的跨越。“如果你忽视了进步的速度...”
- 来自 KZ (@kzSlider) 的推文:这非常有道理。Yann 一直在寻找能够进行视觉推理或利用规划而非纯语言推理的模型 ↘️ 引用 Teknium (e/λ) (@Teknium1) 的话:这解释了为什么 Yann 是...
- 来自 Champagne Joshi (@JoshWalkos) 的推文:这是一段与一位缺乏内心独白的女孩的精彩对话。她很好地表达了这种体验。
- 来自 Open Interpreter (@OpenInterpreter) 的推文:百年磨一剑,最后 100 小时倒计时。
- 来自 xlr8harder (@xlr8harder) 的推文:我想我代表了这里所有人的心声:3140 亿参数,搞什么鬼
- 来自 Teortaxes▶️ (@teortaxesTex) 的推文:@aidan_mclau 0) 火箭人很糟 1) 并没有差很多 2) 正如你所见,这是一个稀疏升级版的 Grok-0。它还没开发完全。在 2023 年,持续预训练(continual pretraining)已基本解决,并且拥有验证...
- 🦅 EagleX 1.7T:在英语和多语言评估中超越 LLaMA 7B 2T (RWKV-v5):一个线性 Transformer 模型刚刚超越了 Transformer 模型的金标准 LLaMA 7B,且在英语和多语言评估中使用的训练 Token 更少。这是历史性的第一次。
- 来自 swyx (@swyx) 的推文:怎么可能和 sama 聊了 2 个小时却一点干货(alpha)都没捞到,不过嘿,我们又聊到了外星人,挺有意思的。
- 来自 Yao Fu (@Francis_YAO_) 的推文:前沿模型都至少有 100k 的上下文长度,Gemini 1.5 甚至有 1m 上下文。那么研究领域和开源界呢?介绍 Long Context Data Engineering,一种实现...的数据驱动方法。
- 来自 Emm (@emmanuel_2m) 的推文:🚨 今天,我们很高兴推出 Scenario #UPSCALER!将您的 AI 创作提升至高达 10k 分辨率。🚀 为无与伦比的 #CreativeControl 和引导式工作流而构建。💰 起售价仅为每月 15 美元...
- 来自 Alex Volkov (Thursd/AI) (@altryne) 的推文:Sora 团队出现在伯克利讨论 SORA
- 来自 Grant♟️ (@granawkins) 的推文:“在 2024 年第一季度到 2025 年第四季度之间,算力将增长 14 倍。然后,如果考虑到算法效率每 9 个月翻一番,明年年底的有效算力将几乎...”
- 来自 Teknium (e/λ) (@Teknium1) 的推文:这解释了为什么 Yann 对 LLM 如此看空... 😲
- 来自 Yao Fu (@Francis_YAO_) 的推文:Grok 的 MMLU 仅与 Mixtral 持平,尽管它的规模大了一个数量级。我相信它有巨大的潜力,但尚未完全释放,良好的持续预训练数据可能会大幅提升其...
- 来自 Teknium (e/λ) (@Teknium1) 的推文:这解释了为什么 Yann 对 LLM 如此看空... 😲
- 来自 AI Is Like Water 的推文:生成式 AI 就像水。这句话源于挫败感,但它开启了 AI 策略的新世界。
- Sam Altman:OpenAI、GPT-5、Sora、董事会风波、Elon Musk、Ilya、权力与 AGI | Lex Fridman Podcast #419:Sam Altman 是 OpenAI 的 CEO,该公司是 GPT-4、ChatGPT、Sora 以及许多其他最先进 AI 技术的幕后推手。请通过查看...来支持本播客
- 将语言模型扩展到 128K 上下文的数据工程:我们研究了持续... 将语言模型的上下文长度扩展到 128K 的持续预训练方案,重点关注数据工程。我们假设长上下文建模,特别是 \textit{t...
- 观看:Jensen Huang 的 Nvidia GTC 主旨演讲 - 直播:在太平洋时间下午 1:00 / 东部时间下午 4:00 收看 Nvidia CEO Jensen Huang 开启两年一度的 GTC 大会。不再错过任何优惠!查看 CNET 的浏览器扩展 👉 ...
- 超越 Transformers - RWKV 架构与 World Tokenizer 简介 - Eugene Cheah & Harrison Vanderbyl:超越 Transformers - RWKV 架构与 World Tokenizer 简介 - Eugene Cheah & Harrison Vanderbyl, Recursal AI。Transformers 之后会是什么?在...
- #51 FRANCOIS CHOLLET - 智能与泛化:在今天的节目中,我们邀请到了 Francois Chollet。自从读了他的《Deep Learning with Python》一书并开始使用 th... 以来,我一直深受 Francois 的启发。
- GitHub - FranxYao/Long-Context-Data-Engineering:论文《Data Engineering for Scaling Language Models to 128K Context》的实现:论文《Data Engineering for Scaling Language Models to 128K Context》的实现 - FranxYao/Long-Context-Data-Engineering
- 来自 GitHub 的推文 - FixTweet/FxTwitter:修复损坏的 Twitter/X 嵌入!在 Discord、Telegram 等平台上使用多张图片、视频、投票、翻译等功能:修复损坏的 Twitter/X 嵌入!在 Discord、Telegram 等平台上使用多张图片、视频、投票、翻译等功能 - FixTweet/FxTwitter
- 来自 Daniel Han (@danielhanchen) 的推文:看了下 @Grok 的代码:1. Attention 按 30/tanh(x/30) 缩放?! 2. 使用了类似 Gemma 的近似 GELU 3. 4 层 Layernorm,而不像 Llama 是 2 层 4. RMS Layernorm 在最后进行下转型,而不像 Llama...
- 解释 SDXL 潜在空间:未找到描述
- 来自 j⧉nus (@repligate) 的推文:这是在 Claude 的后台导航到 ../../microsoft/bing/bing_chat 目录,然后让 Claude 自行使用命令查看,接着运行:
... 的结果。</li> - [AINews] MM1:Apple 的首个大型多模态模型:2024/3/14-2024/3/15 的 AI 新闻。我们为您检查了 358 个 Twitter 和 20 个 Discord(332 个频道,2839 条消息)。预计节省的阅读时间(以 200wpm 计算):...
- Bark - suno 集合:未找到描述
- GTC 2024:排名第一的 AI 大会:立即注册。在线直播。2024 年 3 月 18-21 日。
- NVIDIA & Harpreet Sahota GTC 2024:未找到描述
- Llama 是用英语工作的吗?论多语言 Transformers 的潜在语言:我们探究在不平衡且以英语为主的语料库上训练的多语言语言模型是否将英语作为内部中转语言——这是一个对于理解语言模型如何... 至关重要的问题。
- Bytez:Llama 是用英语工作的吗?论多语言 Transformers 的潜在语言:在这项研究中,科学家们想知道语言模型(可以生成文本的模型)在内部是否使用英语作为“中转”语言,即使是在使用其他语言提示时。他们发现 ...
- Multilingual - stereoplegic 集合:未找到描述
</ul> </div> --- **Latent Space ▷ #[ai-announcements](https://discord.com/channels/822583790773862470/1075282504648511499/1218137415068422164)** (2 条消息): - **论文俱乐部环节提醒**:社区目前正在论文俱乐部环节中深入研读 "A Comprehensive Summary Of Large Language Models" 论文。欢迎所有感兴趣的人加入并参与讨论。 - **社区表彰**:一位成员的作品在 [Hacker News](https://news.ycombinator.com/item?id=39746163) 上引起了关注,正如另一位社区参与者所强调的那样。 **提到的链接**:未找到标题:未找到描述 --- **Latent Space ▷ #[llm-paper-club-west](https://discord.com/channels/822583790773862470/1197350122112168006/1218135292574306328)** (20 messages🔥): - **Attention 机制基础阐明**:一位成员询问了 Attention 机制的发展原因,另一位成员解释说,**Attention** 的创建是为了解决传统模型中固定长度编码向量的局限性,允许解码器**访问输入序列的所有相关部分**。 - **理解使用 Attention 的动机**:一位成员表达了对 Transformer 模型**设计选择背后直觉**的理解匮乏。另一位参与者回应并澄清,Attention 允许解码器**专注于输入序列中最相关的部分**。 - **Transformer 架构的并行化优势**:在**并行化**背景下,一位成员阐明了 Transformer 中的 Attention 机制允许**独立且并发地**处理不同的 tokens,从而实现更高效的计算和更快的训练。 - **认可 Transformer 中的高效计算**:强调了**缩放点积运算 (scaled dot product operations)** 的重要性,它消除了顺序计算中常见的“等待”需求,从而增强了 GPT 等模型的效率。 - **感谢 LLM 教育会议**:参与者感谢了会议主持人,指出他们的见解让人对**大语言模型 (LLMs)** 的演进脉络有了更深入的理解,并帮助揭示了该技术背后的概念基础。 --- **Latent Space ▷ #[ai-in-action-club](https://discord.com/channels/822583790773862470/1200548371715342479/1218287754715201638)** (36 messages🔥): - **被动参与**:一位成员提到由于正在参加线下会议,只能被动参与。 - **加载界面的体验**:一位个人报告说,在遇到加载界面时,有类似于 RAG (Retrieval-Augmented Generation) 的体验。 - **RAG 讨论**:分享了一篇[关于高级 RAG 的文章](https://towardsdatascience.com/advanced-rag-01-small-to-big-retrieval-172181b396d4),解释了从“小到大”检索 (small to big retrieval) 的概念。 - **交流研究想法**:参与者讨论了向量空间模型中余弦相似度的替代方法,引用了对比嵌入 (contrastive embeddings),并建议使用 LLM 进行向量比较。 - **AI 主题共享资源表格**:分享了一个包含 AI 相关讨论主题、日期、主持人和资源的 [Google 表格](https://docs.google.com/spreadsheets/d/1q5rwO4wleMTLXr1z58c2UC03QsDsGwbJY1v4UG7eEOs/edit#gid=0),突显了小组讨论的结构化方法。 **提到的链接**:AI In Action: Weekly Jam Sessions: 2024 Topic,Date,Facilitator,Resources,@dropdown UI/UX patterns for GenAI,1/26/2024,nuvic,<a href="https://maggieappleton.com/squish-structure">https://maggieappleton.com/squish-struct... --- **LAION ▷ #[general](https://discord.com/channels/823813159592001537/823813160075132991/1218220293865345024)** (168 messages🔥🔥): - **Copilot 中 Jupyter Notebooks 的可用性**:Microsoft Copilot Pro 订阅提供了对带有 simpy 和 matplotlib 等库的 Jupyter Notebooks 的免费访问,类似于 ChatGPT Plus 提供的功能。 - **DALL-E 3 数据集更新**:DALL-E 3 数据集并未从 Hugging Face 中移除;它被迁移到了新位置,可以在 [Hugging Face 的 dalle-3-dataset 仓库](https://huggingface.co/datasets/OpenDatasets/dalle-3-dataset)中找到。用户可以使用带有特定修订版本的 `load_dataset()` 函数以实现可复现性,正如 [Hugging Face 文档](https://huggingface.co/docs/datasets/en/loading)所述。 - **关于 PyTorch 兼容性的 Xformers 讨论**:成员们讨论了将 xformers 与 PyTorch 集成的解决方案,包括使用虚拟环境、特定的安装顺序以及保证 xformers 兼容版本的 PyTorch index URL。 - **在标注提示词中利用元数据**:一位成员分享了关于在标注提示词 (captioning prompts) 中使用元数据提示以提高 AI 生成文本准确性的见解。提到了一段使用 cog 标注的示例脚本,可以通过 [EveryDream2trainer 的 caption_cog GitHub 脚本](https://github.com/victorchall/EveryDream2trainer/blob/main/caption_cog.py)访问。 - **关于 Vast.AI 及其安全性的问题**:用户讨论了在 Vast.AI 上运行容器的操作和安全方面,指出它不符合 HIPAA 等严格的安全标准。Vast.AI 的运作方式是提供对宿主机上运行的容器的 SSH 访问权限,但最终宿主机拥有 root 权限,因此敏感任务应改用主流云服务提供商。提到的链接:--- **LAION ▷ #[research](https://discord.com/channels/823813159592001537/824374369182416994/1218181910669295716)** (13 条消息🔥): - **关于 Colab 上 Web UI 的误解**:一位成员担心 **Web UI** 被视为有风险,但另一位成员澄清说,只是不能在免费版 **Colab** 上使用它们。 - **跨频道混淆**:有一段简短的交流,一名参与者误以为关于 **Web UI** 的讨论与前沿研究有关。 - **分享了关于多模态世界模型的文档**:发布了一个指向 [Google 文档](https://docs.google.com/document/d/1f6CpVjdApmQl3nXsUACGtSd9nML3CypI1iE889i4JbM/edit?usp=drivesdk)的链接,描述了一个“生成式音频视频文本世界模型”,但没有进一步的背景或讨论。 - **LLM 持续预训练的探索**:分享了一篇[研究论文](https://arxiv.org/abs/2403.08763),讨论了持续预训练**大语言模型 (LLM)** 的高效方法,重点在于克服分布偏移(distribution shift)挑战。 - **介绍了 Grok 开源发布的代码库**:分享了 [xai-org/grok-1](https://github.com/xai-org/grok-1) 的 GitHub 链接,引用了 **Grok** 的开源发布,没有额外的评论或讨论。 - **关于 Nvidia 泄露 GPT-4 架构的传闻**:讨论围绕着 Nvidia 确认 **GPT-4** 采用混合专家 (**MoE**) 架构且拥有 **1.8 万亿参数**的传闻展开,但也有人指出这并不一定是指 **GPT-4**。[一张来自 Twitter 的图片](https://pbs.twimg.com/media/GI-reRIW0AAZpMC?format=jpg&name=large)被提及以支持该说法。- 为什么中国公司正涌向墨西哥:该国提供了进入美国的后门
- Silicon Valley Yes GIF - Silicon Valley Yes Cheer - Discover & Share GIFs:点击查看 GIF
- 来自 imgnAI (@imgn_ai) 的推文:猫娘出现在 NVIDIA GTC ✨ 为你的创作自由而鸣 👊 这是一个需要被听到的信息 🐱💕
- Load:未找到描述
- Load:未找到描述
- EveryDream2trainer/caption_cog.py at main · victorchall/EveryDream2trainer:通过在 GitHub 上创建账号来为 victorchall/EveryDream2trainer 的开发做出贡献。
- GitHub - xai-org/grok-1: Grok open release:Grok 开源发布。通过在 GitHub 上创建账号来为 xai-org/grok-1 的开发做出贡献。
- Reddit - 探索一切:未找到描述
- OpenDatasets/dalle-3-dataset · Hugging Face 数据集:未找到描述
提到的链接:--- **OpenAccess AI Collective (axolotl) ▷ #[general](https://discord.com/channels/1104757954588196865/1104757955204743201/1218118852454383667)** (99 messages🔥🔥): - **Llama Chat 模型的训练困境**:讨论了在 *llama chat model* 上进行 LoRa 训练的局限性,成员们担心使用补全数据(completion data)进行训练可能不会显著影响聊天行为,因为从原始格式转换为问答(Q/A)格式时会存在信息丢失。提议使用 axolotl 转换为 sharedGPT 格式,随后再进行 llama-2 chat 格式的 tokenization。 - **Axolotl 作为训练工具**:Axolotl 作为一个用于模型微调(fine-tuning)的工具,被强调为直接设置 transformers 代码的一个有用替代方案,允许用户通过传递一个 YAML 文件来完成配置。讨论中还涉及了 Axolotl 相比 LoRa 在内存优化方面的疑问,以及它是否封装了 HF (Hugging Face) 训练生态系统以实现便捷配置。 - **探索量化方法**:围绕最有效的量化方法展开了辩论,其中提到 AQLM 可能优于 AWQ。讨论中包含了一个 [AQLM 的 GitHub 仓库](https://github.com/Vahe1994/AQLM),强调了其在极端模型压缩(extreme model compression)方面的用途。 - **对 NVIDIA 下一代 RTX 5000 系列的期待**:对于 NVIDIA 即将推出的 RTX 5000 系列充满期待,泄露消息暗示其在 VRAM 和带宽方面有显著提升。一篇 [TechPowerUp 文章](https://www.techpowerup.com/320185/nvidia-geforce-rtx-50-series-blackwell-to-use-28-gbps-gddr7-memory-speed) 详细介绍了潜在的规格参数,引发了关于其对 AI 训练影响的讨论。 - **Grok-1 权重发布与 Sequoia 框架亮相**:分享了 Grok-1 模型权重的发布,引发了对其潜在 MoE 设置以及与 Mixtral 等模型进行基准测试(benchmarking)需求的询问。重点介绍了 *Sequoia*,这是一个旨在加速 LLM 推理的推测解码(speculative decoding)框架,并附带了 [Together AI 的 Sequoia 博客文章](https://www.together.ai/blog/sequoia) 链接,讨论了其在消费级 GPU 上的性能表现。- MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training:在这项工作中,我们讨论了构建高性能的多模态大语言模型 (MLLM)。特别是,我们研究了各种架构组件和数据选择的重要性。通过仔细的...
- Simple and Scalable Strategies to Continually Pre-train Large Language Models:大语言模型 (LLM) 通常在数千亿 token 上进行预训练,一旦有新数据可用,就必须重新开始该过程。一个更有效的解决方案是持续预训练...
- Generative Audio Video Text world model:未找到描述
- GitHub - xai-org/grok-1: Grok open release:Grok 开源发布。通过在 GitHub 上创建账号来为 xai-org/grok-1 的开发做出贡献。
提到的链接:--- **OpenAccess AI Collective (axolotl) ▷ #[axolotl-dev](https://discord.com/channels/1104757954588196865/1104758010959634503/1218207901873606667)** (24 messages🔥): - **ScatterMoE 优化引发开发者关注**:讨论了一种新的 **ScatterMoE 模型优化**,其性能显著优于 Huggingface 实现和 MegaBlocks。该仓库可以在 [GitHub](https://github.com/OpenAccess-AI-Collective/axolotl/tree/scatter_moe) 上找到。 - **计划中:使用 ScatterMoE 进行训练**:一名成员询问了使用 ScatterMoE 进行训练的具体配置,表示希望能获得运行测试以检查 Loss 行为是否正常的指导。 - **考虑升级 Torch**:关于将 **Axolotl** 的 **PyTorch** 版本升级到至少 **2.2** 的讨论,原因是新内核与 **torch 2.0.1** 不兼容。一名成员确认他们正在使用 **torch 2.2.1**。 - **对 Grok 权重的评价褒贬不一**:对于在 **Axolotl** 中使用 Grok 权重存在好奇和怀疑,成员们提到了一次使用 314B Grok 权重的尝试,但指出考虑到模型大小,其性能并不理想。 - **对 Grok 使用 qLoRA 的雄心**:讨论了 Axolotl qLoRA FSDP 是否能处理大型 Grok 模型,而另一名成员指出发布的 Grok 可能只是 int8 检查点,并引用了 [GitHub 链接](https://github.com/xai-org/grok-1)。- Brivael (@BrivaelLp) 的推文:扎克伯格刚刚对 Grok 的发布做出了反应,他似乎并不以为然。“3140 亿参数太多了。你需要一堆 H100,而我已经把它们都买光了” 🤣
- Sequoia:可扩展、稳健且硬件感知的推测解码:未找到描述
- Wizard Cat Magus Cat GIF - Wizard Cat Magus Cat Witch Cat - 发现并分享 GIF:点击查看 GIF
- 2024 年 3 月 GTC 主旨演讲,NVIDIA CEO 黄仁勋:观看 NVIDIA CEO 黄仁勋的 GTC 主旨演讲,了解所有关于塑造我们未来的 AI 进展的公告。深入了解这些公告并发现...
- GitHub - Vahe1994/AQLM:通过加法量化实现大型语言模型极端压缩的官方 Pytorch 仓库 https://arxiv.org/pdf/2401.06118.pdf:通过加法量化实现大型语言模型极端压缩的官方 Pytorch 仓库 https://arxiv.org/pdf/2401.06118.pdf - Vahe1994/AQLM
- GitHub - xai-org/grok-1:Grok 开源发布:Grok 开源发布。通过在 GitHub 上创建一个账号来为 xai-org/grok-1 的开发做出贡献。
- GeForce RTX 5000:关于 Nvidia 下一代显卡的传闻:Nvidia 的下一代大型游戏 GPU 可能会获得更多、更快的显存,以及更多的着色器核心。
- NVIDIA GeForce RTX 50 系列 "Blackwell" 将使用 28 Gbps GDDR7 显存速度:据可靠爆料者 kopite7kimi 称,首批采用 GDDR7 显存的 NVIDIA GeForce RTX 50 系列 "Blackwell" 显卡传闻将拥有 28 Gbps 的显存速度...
- NVIDIA GeForce RTX 50 系列 "Blackwell" 将使用 28 Gbps GDDR7 显存速度:据可靠爆料者 kopite7kimi 称,首批采用 GDDR7 显存的 NVIDIA GeForce RTX 50 系列 "Blackwell" 显卡传闻将拥有 28 Gbps 的显存速度...
提到的链接:--- **OpenAccess AI Collective (axolotl) ▷ #[general-help](https://discord.com/channels/1104757954588196865/1110594519226925137/1218257987445981234)** (35 messages🔥): - **排查 Tokenizer 的奇特问题**:在处理 Tokenizer 问题时,一位参与者正在微调一个用于文档摘要的 Instruct 模型,但遇到了模型生成 `- 由 ehartford 实现后训练 · Pull Request #1407 · OpenAccess-AI-Collective/axolotl:这看起来正确吗?
- GitHub - xai-org/grok-1: Grok 开源发布:Grok 开源发布。通过在 GitHub 上创建一个账号来为 xai-org/grok-1 的开发做出贡献。
- 由 ehartford 实现后训练 · Pull Request #1407 · OpenAccess-AI-Collective/axolotl:这看起来正确吗?
- GitHub - OpenAccess-AI-Collective/axolotl 的 scatter_moe 分支:尽管向 axolotl 提问。通过在 GitHub 上创建一个账号来为 OpenAccess-AI-Collective/axolotl 的开发做出贡献。
` 标签不一致的问题,有时标签前会出现意外的空格。建议检查空格字符等潜在原因。 - **本地数据集和模型配置的困扰**:一位 LLM 新手正在学习如何将微调配置指向本地数据集和模型,而不是从 Hugging Face 拉取。正确的方法是指定完整的文件路径而非相对路径,并确保其格式不是会导致 `HFValidationError` 的仓库标识符。 - **数据集困境与 JSON 结构**:一名成员在尝试对话数据集的不同数据类型时遇到了 'index out of range' 错误。建议检查是否存在空行,仔细核对 README 中的对话选项,并确保数据集数组中的 'role' 字段不为空。 - **漏洞排查:评估角色映射(Role Mapping)和样本打包(Sample Packing)**:一位用户报告称其测试数据集中缺少 "bard"、"bing" 和 "chatgpt" 的角色映射。另一位用户发现了一个问题,即在 2-epoch 运行期间,评估集被认为太小而不适合进行样本打包,但在 10-epoch 运行期间则没有此问题;这可能是一个与 Epoch 无关的验证 Bug。 - **构建自定义补全(Completion)数据集**:对于构建自定义补全数据集,成员们得到的建议是,只需创建一个 `jsonl` 文件,每行包含一个带有 text 属性(包含补全文本)的 JSON 对象即可。README 文件中包含了如何实现这一点的说明。 --- **OpenAccess AI Collective (axolotl) ▷ #[datasets](https://discord.com/channels/1104757954588196865/1112023441386778704/1218770755920072767)** (8 messages🔥): - **NVIDIA NeMo-Curator 介绍**:一位成员分享了 [NVIDIA's NeMo-Curator](https://github.com/NVIDIA/NeMo-Curator) 的链接,这是一个 GitHub 上的可扩展数据清洗(data curation)工具包,并询问是否有人尝试过。 - **寻找混合 Mistral 模型**:一位参与者询问是否有专门针对 *orca-math-word-problems-200k* 数据集和 *nvidia/OpenMathInstruct-1* 数据集进行训练的 **Mistral FT** 模型。 - **注意到缺乏组合 Mistral 模型**:一位成员表示,他们认为目前不存在这种组合模型,并提到 NVIDIA 数据集的规模可能是原因之一。 - **评估模型合并的潜力**:围绕 mergekit 展开了讨论,探讨了使用模型合并(model merging)作为在 orca-math-word-problems-200k 数据集上进行训练的替代方案的可能性。 - **探索模型合并策略**:在讨论使用 mergekit 时,建议确保待合并的模型使用相同的 chat format 进行训练,并开启了关于为实现兼容性而进行进一步 fine-tuning 的讨论。 **提到的链接**:GitHub - NVIDIA/NeMo-Curator: Scalable toolkit for data curation:可扩展的数据清洗工具包。通过在 GitHub 上创建账号为 NVIDIA/NeMo-Curator 的开发做出贡献。 --- **OpenAccess AI Collective (axolotl) ▷ #[rlhf](https://discord.com/channels/1104757954588196865/1112023522039058553/)** (1 messages): duh_kola: Is it possible to use different lora adapter to do dpo on another model --- **CUDA MODE ▷ #[general](https://discord.com/channels/1189498204333543425/1189498205101109300/1218310691103178803)** (43 messages🔥): - **光子芯片见解分享**:分享了一段讨论光子芯片突破的视频,声称其速度快 1000 倍,来源是 YouTube 上 Anastasia 的技术更新视频,以及来自光子超级计算机公司 **Lightmatter** 的相关信息。标题为 "New Chip Breakthrough: x1000 faster" 的视频可以在 [Photonics Chips YouTube Intro](https://youtu.be/8ohh0cdgm_Y) 找到。 - **替代 GPU Profiling 服务讨论**:用户讨论了用于 profiling CUDA kernel 的云端 GPU 服务。**RunPod.io** 和 **LambdaLabs** 被推荐,但有用户在 RunPod 上遇到了 NVIDIA GPU Performance Counters 的权限问题,并计划反馈 LambdaLabs 的服务情况。 - **模型编排查询**:在这个以机器学习为核心的群体中,有人询问了 Flyte 在 ML pipeline 编排中的普及程度,但没有进一步的讨论或回答。 - **PyTorch Tensor 管理详解**:讨论了 PyTorch 显式 tensor 设备管理背后的理念,强调了在设备处理方面没有意外行为或“魔法”的哲学,这与 TensorFlow 的隐式设备放置及其成本形成对比。 - **关于 LLM 访问和介绍的问题**:询问了关于免费 LLM API、易于部署的开源模型,以及社区内进行自我介绍和长提问的正确频道。目前尚未提供具体的建议或导向指南。 Links mentioned:--- **CUDA MODE ▷ #[triton](https://discord.com/channels/1189498204333543425/1189607595451895918/1218241351582482493)** (7 messages): - **Triton 调试可视化工具发布**:推出了一款用于 Triton 调试的新型可视化工具,旨在方便在实现复杂函数期间查看 load/store 的空间结构。未提供视觉效果或链接。 - **用于练习的 Triton Puzzles**:创建了一套 [Triton Puzzles](https://colab.research.google.com/drive/1AJc8RFsDeJ3Vx3gRq5dUqmcb-Cy1G8qh?usp=sharing) 以帮助用户熟悉 Triton,据称比 GPU puzzles 更具挑战性。该可视化工具目前存在 2 个已知 Bug:偶尔出现重复可视化以及段错误(segmentation faults)。 - **学习 Triton 的资源请求**:一名成员询问了适合已精通 CUDA 的人学习 Triton 的指南或资源,并被引导尝试新分享的 Triton Puzzles 和 [官方网站教程](https://triton-lang.org/)。 - **新的 Triton Puzzle 解释器功能**:提到了一项在 CPU 上运行 Triton 的新解释器功能,表明这些 puzzles 不需要 GPU。此外还指出了一处细微的文本修正:说明中的 **"sense"** 应替换为 **"since"**。 - **对 Triton Puzzles 的积极反响**:Triton Puzzles 的推出受到了其他成员的热烈欢迎,纷纷表示有兴趣尝试。 **提到的链接**:Google Colaboratory:未找到描述 --- **CUDA MODE ▷ #[cuda](https://discord.com/channels/1189498204333543425/1189607726595194971/1218467001450627072)** (68 messages🔥🔥): - **理解 Warp 调度器和线程优化**:一名成员询问了 **warp schedulers** 的配置及其控制的线程数量,试图通过理解同步线程执行能力来优化 **CUDA 效率和占用率 (occupancy)**。 - **澄清 CUDA 中 'Active Warp' 的含义**:讨论围绕 CUDA 中什么构成“活动 warp”展开。一个 "active warp" 被初步定义为至少包含一个活动线程,尽管关于由于条件代码跳过而导致活动 warp 可能没有活动线程的技术可能性存在一些争论。 - **管理生产者和消费者内存**:对话中对 CUDA 环境下生产者(producers)和消费者(consumers)的内存管理进行了广泛讨论。澄清了 **ProducerProvides** 和 **ConsumerTakes** 与内存分配无关,而是与数据处理迭代中的所有权和使用权有关。 - **内存管理器的优势**:提议使用 **memory manager** 来简化跨各种硬件和执行场景的复杂内存处理,从而使代码更清晰、显式细节更少,并可能避免 GPU 空闲时间。 - **分享 CUDA 项目结构最佳实践**:出现了关于 **CUDA 项目结构** 的疑问,特别是关于 `main()` 函数应该放在 **cpp** 还是 **cu** 文件中,以及如何从 **cu** 文件中包含 kernel 函数的方法。这引发了关于将项目拆分为 `.cuh`、`.cu` 和 `.cpp` 文件的更广泛讨论。- Rent Cloud GPUs from $0.2/hour: 未找到描述
- Product - Chip - Cerebras: 未找到描述
- torch.set_default_device — PyTorch 2.2 documentation: 未找到描述
- GPU Cloud, Clusters, Servers, Workstations | Lambda: 为深度学习和 AI 提供的 GPU 云、GPU 工作站、GPU 服务器和 GPU 笔记本电脑。提供 RTX 4090, RTX 3090, RTX 3080, RTX A6000, H100 和 A100 选项。预装 Ubuntu, TensorFlow 和 PyTorch。
- New Chip Breakthrough: x1000 faster: 立即获取 TypeAI PREMIUM!点击此处链接开始免费试用:https://bit.ly/Mar24AnastasiInTech 论文地址:https://www.nature.com/articles/s41586...
- Lightmatter®: 未找到描述
- GTC March 2024 Keynote with NVIDIA CEO Jensen Huang: 观看 NVIDIA CEO 黄仁勋的 GTC 主旨演讲,了解所有关于塑造未来的 AI 进展的发布。深入探索这些发布并发现...
- Silicon Photonics: The Next Silicon Revolution?: 衷心感谢频道之友、来自 MIT 的 Alex Sludds 建议了这个话题并为我提供了关键资源。在这里关注他:https://a...
- Running Neural Networks on Meshes of Light: 我要感谢 Alex Sludds 在帮助我研究和制作此视频方面所做的努力。在这里查看他的工作:https://alexsludds.github.io 链接:- The As...
提到的链接:--- **CUDA MODE ▷ #[suggestions](https://discord.com/channels/1189498204333543425/1189868872887705671/1219091487455711414)** (5 messages): - **探索可重构计算与 ML**:一位成员分享了康奈尔大学 Mohamed Abdelfattah 教授研究小组的 [YouTube 链接](https://www.youtube.com/@mabdelfattah88),重点介绍了他们在可重构计算和高效机器学习方面的工作。同时还提供了该研究小组网站以获取更多信息:[www.mohsaied.com](https://www.mohsaied.com/)。 - **以硬件为中心的 ML 课程 - ECE 5545 揭晓**:分享了另一个链接,详细介绍了硕士级课程 **ECE 5545 (CS 5775)**,该课程从硬件角度关注机器学习系统,包括剪枝(pruning)和量化(quantization)等优化,以及硬件和软件组件的设计。课程目标是鼓励理解并针对各种硬件平台优化 ML 算法。感兴趣的人可以查看完整的教学大纲:[请阅读教学大纲](https://abdelfattah-class.github.io/ece5545/)。 - **ML 课程大纲中的教科书之谜**:有人对 **ECE 5545** 课程网站上提到的未指明的“教科书”表示困惑,因为它没有被直接列出。 - **在讲座视频中定位课程教科书**:关于 **ECE 5545** 课程缺失教科书名称的谜团已通过一个提示解决,即第一节讲座视频中提到了它。- GitHub - tspeterkim/flash-attention-minimal: Flash Attention in ~100 lines of CUDA (forward pass only):约 100 行 CUDA 代码实现的 Flash Attention(仅前向传递)- tspeterkim/flash-attention-minimal
- GTC March 2024 Keynote with NVIDIA CEO Jensen Huang:观看 NVIDIA CEO 黄仁勋的 GTC 主旨演讲,了解塑造我们未来的 AI 进展的所有发布。深入探索这些发布并发现...
提到的链接:--- **CUDA MODE ▷ #[jobs](https://discord.com/channels/1189498204333543425/1190208177829068860/)** (1 messages): vim410: 取决于具体情况。但确实如此。 --- **CUDA MODE ▷ #[beginner](https://discord.com/channels/1189498204333543425/1191300313928433664/1219389682241110147)** (5 messages): - **为 ML 转型打下坚实的 CUDA 基础**:一位计算流体力学专业的博士生,具备初级到中级的 CUDA 技能,表达了转向 ML 领域 CUDA 计算的意图。他们列出了自己在各种 CUDA 概念上的熟练程度,并计划将服务器的讲座和 Andrej Karpathy 的 Zero to Hero 系列作为学习路径。 - **推荐尝试 DL 框架**:一位成员建议该博士生从尝试 **torch** 等 DL 框架开始,并解释说 ML/DL 优化很大程度上围绕矩阵乘法、非线性、softmax 和归一化函数展开。 - **进阶 CUDA 学习的书籍推荐**:同一位成员推荐了 **Programming Massively Parallel Processors** 一书,作为深化该博士生 CUDA 知识的资源,并分享了该书的 [Amazon 链接](https://www.amazon.de/-/en/Wen-mei-W-Hwu/dp/0323912311)。 - **针对通用 CUDA 专业知识的准备**:有人指出,虽然 **Programming Massively Parallel Processors** 有一些 DL 内容,但它主要是一本关于通用 CUDA 编程的优秀资源。重点在于该书对 CUDA 的全面性,而非其 ML/DL 内容。 **提到的链接**:未找到标题:未找到描述 --- **CUDA MODE ▷ #[pmpp-book](https://discord.com/channels/1189498204333543425/1194427148656721970/1218146385942286407)** (6 messages): - **CUDA 索引困惑已解决**:一名成员对**第 2 章第 2 题**中的索引计算提出了疑问,特别是为什么不使用 `i = blockIdx.x * blockDim.x + threadIdx.x * 2`。会议澄清了这种方法会导致索引重复计算,并提供了一个示例来演示该问题。 - **关于博客发布练习题解答的咨询**:一位参与者考虑将他们的练习题解答发布到博客上,但由于作者未就分享可能仅限教师的内容做出回应,因此表示不确定。他们还担心没有教育邮箱来联系作者。 - **可能向权威人士核实**:针对博客发布练习题解答的担忧,一名成员提议向 Wen-mei(推测是作者之一或与内容相关的权威人物)核实,以获得适当的指导。 --- **CUDA MODE ▷ #[ring-attention](https://discord.com/channels/1189498204333543425/1208496482005549086/1218239914542366790)** (14 条消息🔥): - **关于 Attention 矩阵实例化的讨论**:一位博客作者询问了 blockwise attention 方法中 Attention 矩阵的**内存需求**,理由是 Liu 的论文中关于 Ring Attention 的部分可能存在混淆。文中提到 Liu 指出内存随 block size *c* 线性扩展的优势,但在将其与 **FlashAttention** 中提到的平方级 chunklength 内存需求进行比较时产生了疑问。 - **寻求内存扩展性的澄清**:展开了关于 Attention 机制内存扩展特性的讨论,特别是在 **FlashAttention** 和 **RingAttention** 下。成员们承认,感知的线性内存扩展与 SRAM 限制下的实际实现之间可能存在差异,这表明了 chunk size 管理的复杂性。 - **Striped Attention 改进的工作负载**:一名成员提供了一个[论文链接](https://arxiv.org/abs/2311.09431),该论文介绍了 **Striped Attention**,它通过均匀分布 token 并实现更好的吞吐量,解决了 causal Transformer 模型中的工作负载不平衡问题。 - **剖析 FlashAttention 优化**:成员们深入研究了 FlashAttention 的计算和内存节省机制,认为在 q-output 对上使用 kv-blocks 进行顺序更新可能避免形成 c^2 矩阵。大家共同致力于深入理解并力争成为 FlashAttention 专家。 - **Ring Attention 内存需求中潜在的误解**:在试图理解内存需求声明时,成员们推测对“线性扩展”一词可能存在误解。建议暗示线性扩展可能是相对于 block 的数量,而不是 block size 本身。- ML Hardware and Systems:未找到描述
- Prof. Mohamed Abdelfattah:这是康奈尔大学 Mohamed Abdelfattah 教授研究小组的频道。我们正在研究可重构计算和高效机器学习。欲了解更多信息,请查看...
提到的链接:--- **CUDA MODE ▷ #[off-topic](https://discord.com/channels/1189498204333543425/1215328286503075953/1218332053032927322)** (5 条消息): - **MLSys 2024 即将到来**:成员们正在为 5 月举行的 [MLSys 2024 会议](https://mlsys.org/)做准备,这是 **Machine Learning** 与 **Systems** 交叉领域的一个重要活动。该会议强调**跨学科关注**和 **AI 系统优化**,认为这是开发高效且有效的 AI 不可或缺的一部分。 - **富有诗意的会议标题**:一条评论幽默地观察到,MLSys 会议描述中的短语 "The Conference for the Era of AI" 符合**抑扬五步格**(iambic pentameter),这是诗歌中常见的一种节拍。 - **智能手机的烦恼**:一名成员对一部未达预期的手机开了个简短的玩笑,嘲讽地称其为“不那么智能的手机”。 - **智能手机上的数学谜题**:关于如何正确解释智能手机上的数学运算展开了讨论,一名成员断言**乘法/除法**的顺序应该是从左到右。 - **计算器难题已解决**:阐明了计算器上数学表达式的正确处理方式,指出科学计算器会区分像 `ax` 和 `a×x` 这样的表达式。 **提到的链接**:MLSys 2024:未找到描述 --- **CUDA MODE ▷ #[gtc-meetup](https://discord.com/channels/1189498204333543425/1218444432588800010/1218444664315711498)** (9 messages🔥): - **Marksaroufim 将于周一前往 GTC**:Marksaroufim 宣布计划于周一早上到达 GTC,并提议分享联系方式以便聚会。 - **Neurondeep 延长的 GTC 之旅**:Neurondeep 计划在 3 月 14 日至 25 日期间停留,并打算参加活动的每一天。 - **_t_vi_ 关注 GTC 聚会**:_t_vi_ 也将参加,并期待与其他成员见面。 - **Marksaroufim 可能待上一整周**:Marksaroufim 最初计划待 1-2 天,但最终可能会在 GTC 待满一整周,希望能有“不错的 wifi”。 - **Mr.osophy 探讨 GTC Meme 文化**:Mr.osophy 幽默地建议应该制作一些关于无法参加 GTC 的 Meme,并分享了过去尝试申请志愿者以换取免费门票但失败的经历。 - **iron_bound 分享潜入灵感**:针对讨论,iron_bound 发布了一个 YouTube 视频链接,幽默地建议可以潜入像 GTC 这样的活动:["我潜入了一个秘密军火商会议"](https://www.youtube.com/watch?v=Sfrjpy5cJCs)。 **提到的链接**:I Snuck Into A Secret Arms-Dealer Conference:每月在 https://www.patreon.com/Boy_Boy 获取独家视频。我们与传奇的澳大利亚政治讽刺团体 The C... 合作制作了这段视频。 --- **OpenRouter (Alex Atallah) ▷ #[general](https://discord.com/channels/1091220969173028894/1094454198688546826/1218183723200155748)** (159 messages🔥🔥): - **Llama 模型的 Prompt 结构说明**:一位用户询问在使用 OpenAI JavaScript 库时,是否可以将包含 "system"、"user" 和 "assistant" 键的特定 JSON 格式用于 Llama 模型。另一位参与者用简单的 “Yes!” 确认了这一询问。 - **充值支付**:当被问及由于没有绑定信用卡而如何支付聊天机器人模型的使用费用时,用户被建议只需 “充值(topup)你的余额”。 - **角色扮演一致性的模型偏好**:在讨论哪种 AI 模型在角色扮演中表现最一致、能避免重复和随机性时,**Sonnet** 被赞誉为最佳,并被确认其优势“无可撼动”。 - **聊天模型的有效 Prompt 构建**:在关于聊天模型忽略系统消息的讨论中,有人建议将系统消息放在首位。一位用户分享了见解,认为系统的上下文通常可以在用户或助手消息中建立,并最终建议遵循对模型进行 “jailbreaking” 的原则。 - **通过自动化分析书籍片段以生成 Prompt**:一位用户提到正在运行一个脚本,该脚本会将书籍拆解并向模型查询相应的 Prompt,使用 JSON 格式输出。他们指出,与其他有时会产生无关数据的模型相比,**lzlv 70B** 的效果更好且更一致,不会出现错误。- Striped Attention: Faster Ring Attention for Causal Transformers:为了帮助满足 Transformer 模型对超长序列长度日益增长的需求,Liu 等人最近提出了 Ring Attention,这是一种能够克服单设备内存限制的精确 Attention 算法...
- flash-attention/csrc/flash_attn/src/flash_fwd_kernel.h at main · Dao-AILab/flash-attention:快速且内存高效的精确 Attention。通过在 GitHub 上创建账户为 Dao-AILab/flash-attention 的开发做出贡献。
- add naive triton kernel for varlen · zhuzilin/ring-flash-attention@10d992c:未找到描述。
提到的链接:--- **LangChain AI ▷ #[general](https://discord.com/channels/1038097195422978059/1038097196224086148/1218212402127175711)** (95 messages🔥🔥): - **寻求 API 未来发展方向的澄清**:一位成员询问是该使用 `astream_log` 还是 `astream_events`,并质疑其中一个是否会为了另一个而弃用,因为他们注意到 `astream_events` 目前处于 beta 阶段。 - **即将推出的高级研究助手和搜索引擎**:*paul16307* 宣布了一个高级研究助手和搜索引擎项目,邀请成员成为 beta 测试人员,并提供 2 个月的免费高级访问权限。该服务包含托管在 Groq 服务器上的 Claude 3 Opus、GPT-4 Turbo 和 Mistral Large 等模型,加入等候名单请访问 [Rubik's AI](https://rubiks.ai/)。 - **文档深入探讨**:社区成员讨论了 LangChain 文档的复杂性,*namenot223_69478* 表示文档对初学者来说具有挑战性。*evolutionstepper* 建议在熟悉基础知识后阅读代码和 API reference,而 *.bagatur* 则征求关于具体令人困惑的页面或新页面建议的反馈。 - **AI 驱动导师的 Beta 测试招募**:*theoneandonly414* 为一款 AI 驱动的导师和 AI 白板做广告,邀请成员加入 [Bloon AI](https://bloon.ai) 的等候名单。虽然他们属于运营团队,但创始人正在负责开发,目前正在筹集资金。 - **关于 LLM 结构化输出的查询**:*gryhkn* 请求帮助使用 LangChain 从 LLM 生成结构化输出,促使 *widium* 提供了一个利用 Pydantic 输出城市数据的完整 Python 示例,该演示得到了 *gryhkn* 的赞赏。- OpenRouter:LLM 和其他 AI 模型的路由
- GitHub - xai-org/grok-1: Grok open release:Grok 开源发布。通过在 GitHub 上创建账户,为 xai-org/grok-1 的开发做出贡献。
提到的链接:--- **LangChain AI ▷ #[langserve](https://discord.com/channels/1038097195422978059/1170024642245832774/1219304272244510741)** (45 messages🔥): - **RemoteRunnable 的流式传输问题**:一位成员在 JavaScript 中使用 **RemoteRunnable 时面临无法流式传输输出**的问题。代码预期调用 `/stream`,但即使同样的方法在 Python 中运行正常,它也只会调用 `/invoke`。 - **寻找解决方案**:他们已经验证了 RemoteRunnable 的 Python 实现可以正常进行流式传输,并尝试使用 LangChain.js 在 JavaScript 中编写等效代码。 - **寻求帮助**:该成员得到了关于如何联系 LangChain 团队寻求支持的建议,包括在 GitHub 上提交 issue 以及通过电子邮件联系。 - **近期更改中没有已知的修复**:最后,该成员询问过去一个月内是否有任何可能解决流式传输问题的更改;然而,目前没有关于可能解决该问题的最新更新信息。- Rubik's AI - Waitlist:未找到描述
- Bloon AI:重新定义智能学习
- 无标题:未找到描述
- 功能请求:在相似度搜索中支持负向嵌入 (Negative Embeddings) · langchain-ai/langchain · Discussion #19239:已检查我搜索了现有的想法,没有发现类似的。我添加了一个非常描述性的标题,并清楚地描述了功能请求及其动机。功能请求我建议添加...
- 使用自然语言通过 LLM 查询 Teradata VantageCloud | Teradata:学习将您的英语查询翻译成 SQL,并以通俗易懂的英语从您的分析数据库接收响应。
提到的链接:--- **LangChain AI ▷ #[share-your-work](https://discord.com/channels/1038097195422978059/1038097372695236729/1218223379690029179)** (11 条消息🔥): - **用于数据分析的 AI 聊天机器人**: 推出了一个新的 GitHub 仓库 [langchain-chatbot](https://github.com/Haste171/langchain-chatbot),其特点是专为以对话形式分析和提取数据信息而设计的 AI 聊天机器人。 - **个人书签助手诞生**: 宣布开发了一款用于管理 Raindrop.io 书签的 Discord AI 聊天机器人,该项目已在 [GitHub 上开源](https://github.com/uogbuji/living-bookmarks)。 - **征求健康与生产力数字顾问的意见**: 邀请在科技或专业服务领域工作的人士参加 30 分钟的电话会议,为开发 **数字顾问 (digital advisor)** 提供见解,可通过 [Calendly](https://calendly.com/neurofusion/30min) 进行预约。 - **Scrapegraph-ai**: 一款由 AI 和 LangChain 驱动的 Python 爬虫工具已发布,能够使用 API 密钥抓取内容。该工具目前已有超过 2300 次安装,可以在 [GitHub](https://github.com/VinciGit00/Scrapegraph-ai) 上找到。 - **利用 AI 自动化销售和研究**: 挑战构建一个能够取代 SDR/AE 角色的 AI,从而促成了一个利用 **Lyzr Automata** 和 **OpenAI** 并托管在 AWS 上的多 Agent 自动化框架。该项目可以在 [GitHub](https://github.com/LyzrCore/lyzr-automata) 上探索。- Security | 🦜️🔗 Langchain: LangChain 拥有庞大的集成生态系统,可与各种外部资源(如本地和远程文件系统、API 和数据库)进行集成。这些集成允许开发人员创建多功能的应用程序...
- RemoteRunnable | LangChain.js - v0.1.28: 未找到描述
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用程序。通过在 GitHub 上创建账户,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用程序。通过在 GitHub 上创建账户,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用程序。通过在 GitHub 上创建账户,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用程序。通过在 GitHub 上创建账户,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用程序。通过在 GitHub 上创建账户,为 langchain-ai/langchain 的开发做出贡献。
- langchain_core.runnables.config.RunnableConfig — 🦜🔗 LangChain 0.1.4: 未找到描述
- langchain_core.runnables.base — 🦜🔗 LangChain 0.1.4: 未找到描述
提到的链接:--- **LangChain AI ▷ #[tutorials](https://discord.com/channels/1038097195422978059/1077843317657706538/1218824643436085321)** (2 条消息): - **Nutriheal - AI 驱动的个性化营养**: 一个为患者提供的个性化营养 AI 应用 **Nutriheal** 受到关注,展示了由 **Daxa AI** 提供的 **Ollama**、**Open-webui** 和 **Langchain** 的 **Pebblo 集成**。在 YouTube 上的 ["Making an AI application in 15 minutes"](https://youtu.be/vHjc5CEoIJE) 中观看创建过程,并在 [navvy.co](https://navvy.co/) 探索更多。 - **使用 Langgraph 进行 Plan-and-Execute**: 一段名为 ["Plan-and-Execute using Langgraph"](https://www.youtube.com/watch?v=ZlJbaYQ2hm4) 的 YouTube 视频分享了关于创建 plan-and-execute 风格 Agent 的见解,灵感来自 Plan-and-Solve 论文和 Baby-AGI 项目。该方法涉及在环境中执行计划之前先生成计划。- 用户访谈 🔎 - NEUROFUSION Research, Inc.:嘿,我正在构建一个数字顾问,以帮助改善你在工作和生活其他领域的表现。我很想与你交流,了解你在生产力、身体和...方面的需求。
- GitHub - Haste171/langchain-chatbot: AI Chatbot for analyzing/extracting information from data in conversational format.:用于以对话格式分析/从数据中提取信息的 AI Chatbot。- Haste171/langchain-chatbot
- GitHub - VinciGit00/Scrapegraph-ai: Python scraper based on AI:基于 AI 的 Python 爬虫。通过在 GitHub 上创建账号为 VinciGit00/Scrapegraph-ai 的开发做出贡献。
- 来自 Siva Surendira (@siva_1gc) 的推文:这比我们想象的要多花一点时间.. 但它来了.. 😎 使用 @lyzrai Automata 和 @OpenAI 自动化 SDR 和 AE 职能... 运行在 @awscloud 上 - 安全且私密.. 它是如何工作的?👇 Agent 1:...
- GitHub - LyzrCore/lyzr-automata: low-code multi-agent automation framework:低代码 multi-agent 自动化框架。通过在 GitHub 上创建账号为 LyzrCore/lyzr-automata 的开发做出贡献。
- 在 15 分钟内制作一个 AI 应用:技术栈 - 自定义 UI 和 RAG:Open-webui 的调整版本 - 本地 LLM 托管:用于本地托管 LLM 的 Ollama。- 数据隐私:集成 DaxaAI 的 Pebblo 以...
- 首页:我对 AI 充满热情。让我们建立联系,释放 AI 的潜力,并在创新项目上进行合作!
- 未找到标题:未找到描述
- 未找到标题:未找到描述
- 未找到标题:未找到描述
提到的链接:--- **Interconnects (Nathan Lambert) ▷ #[other-papers](https://discord.com/channels/1179127597926469703/1179142630517518397/1218217772765544448)** (8 条消息🔥): - **破译受 API 保护的 LLM**: [arXiv 论文](https://arxiv.org/abs/2403.09539)中概述的一项新研究表明,通过 API 调用提取商用 LLM 的大量非公开信息是可能的。该研究依赖于现代 LLM 的 **softmax bottleneck** 特性,这表明模型 **输出被限制在一个线性子空间内**,从而允许各种分析优势,包括估计 LLM 的 hidden size。 - **GPT-3.5 规模的估算引起轰动**: 频道中的讨论围绕最近的发现展开,这些发现估计 OpenAI 的 **gpt-3.5-turbo** 大小约为 **7B**。一位用户对这个数字表示惊讶,而其他人则对这种估算的准确性持怀疑态度。 - **对模型大小准确性的质疑**:对话参与者 Nathan Lambert 认为,**gpt-3.5-turbo** 为 7B 大小的估算可能是不准确的。这意味着如果推断 **gpt-3.5** 是一个 **Mixture of Experts (MoE)** 模型,那么该估算就站不住脚。 - **蒸馏技术可能带来的颠覆**:质疑声仍在继续,有一种假设认为,除非存在某种“超级蒸馏秘方(mega distillation sauce)”,否则 **gpt-3.5-turbo** 的大小估算很可能是错误的。这表明,在给定的估算大小下,需要依赖先进技术来证明该模型的能力。 - **通过模型混合策略提升性能**:一位用户提到了去年一篇论文中提到的策略,建议通过在开始时使用更强大的模型(如 **GPT-4**)的输出,然后继续使用另一个模型(如 **llama**)来处理数学问题,可以显著增强性能。这可能表明 **turbo models** 可能也采用了类似的方法。 **提到的链接**:Logits of API-Protected LLMs Leak Proprietary Information:大语言模型(LLMs)的商业化导致了仅通过高级 API 访问专有模型的普遍做法。在这项工作中,我们展示了即使在保守的假设下…… --- **Interconnects (Nathan Lambert) ▷ #[ml-drama](https://discord.com/channels/1179127597926469703/1181746144821387334/1219339209270362135)** (19 条消息🔥): - **Twitter 争议预判**:一名成员链接了 [Sebastian Raschka 的一条 Twitter 帖子](https://twitter.com/rasbt/status/1769779229263065184),暗示这可能会在机器学习社区引发争议。 - **开源定义辩论**:关于开源软件(OSS)社区是否可能就什么是开源达成明确立场进行了讨论,特别是关于是否应包含数据。 - **对开源的共同理解**:进行了另一场关于开源许可中需要共同理解的对话,强调了 Apache 2.0 和 GPLv3 许可证之间的区别。 - **Twitter 上的争议展开**:该成员引用了 [@BlancheMinerva 的一条推文](https://x.com/BlancheMinerva/status/1769792488091353099),指出正在进行的意见分歧似乎加剧了这场争议。 - **对 Twitter 的沮丧与退出**:一名成员对 EleutherAI 处理在线讨论的方式表示沮丧,提到在一次压力巨大的互动后,他们将限制自己的 Twitter 活动,并更多地关注博客。 **提到的链接**:来自 Stella Biderman (@BlancheMinerva) 的推文:@natolambert @felix_red_panda 但你错了 :P --- **Interconnects (Nathan Lambert) ▷ #[random](https://discord.com/channels/1179127597926469703/1183121795247779910/1219005089826607185)** (63 条消息🔥🔥): - **xAI 发布 Grok-1 模型权重**:由 xAI 训练的 [314B 参数 Mixture-of-Experts 模型 Grok-1 的权重](https://x.ai/blog/grok) 已根据 Apache 2.0 许可证作为开源发布。此次发布仅包含基础模型,未经过微调,可以在 [GitHub](https://github.com/xai-org/grok) 上找到。 - **Grok-1 的体量令社区震惊**:社区对 Grok-1 模型 **314B** 的体量表示惊讶;讨论围绕其潜在的训练数据集大小展开,考虑到该模型的巨大规模及其与 Chinchilla 原则的可能联系。 - **Grok 与其他模型的对比**:将 Grok-1 的指标与另一个模型 **Falcon** 进行了对比,用户注意到 Grok 在 GSM8K 和 MMLU 等基准测试上确实有更好的表现。 - **发布机制引发关注**:通过磁力链接分发 Grok-1 引发了关于发布模型的正确方式的讨论,涉及政策考量和“开放”团队的可信度。这突显了对于应该如何向公众提供强大模型的普遍关注。 - **新颖的分发思路**:关于邮寄带有模型权重的物理硬盘的可行性出现了一种幽默的推测,并将其与云服务的成本进行了比较,从而引发了关于模型分发实际操作的更广泛对话。- Plan-and-Execute using Langgraph:如何创建一个 "plan-and-execute" 风格的 Agent。这在很大程度上受到 Plan-and-Solve 论文以及 Baby-AGI 项目的启发。核心思想是首先...
- Making an AI application in 15 minutes:技术栈 - 自定义 UI 和 RAG:Open-webui 的调整版本 - 本地 LLM 托管:用于本地托管 LLM 的 Ollama。- 数据隐私:集成 DaxaAI 的 Pebblo 以...
- Home:我对 AI 充满热情。让我们建立联系,释放 AI 的潜力,并在创新项目上进行合作!
提到的链接:--- **Alignment Lab AI ▷ #[general-chat](https://discord.com/channels/1087862276448595968/1095458248712265841/1218732428462395502)** (6 条消息): - **探索 Aribus 应用**:一位成员分享了指向 Aribus 的 Twitter [链接](https://twitter.com/alignment_lab/status/1758949148143841379),引发了关于可以用它构建什么的讨论。后续消息显示对该帖子的内容存在一些困惑。 - **寻找基于 HTTP 响应训练的 Embeddings 模型**:一位成员询问是否有专门针对 HTTP 响应训练的 Embeddings 模型,并表示不确定从哪里开始寻找。 - **Transformer 作为 Embeddings 模型**:同一位成员思考是否任何经过相应训练的 Transformer 模型都可以作为 Embeddings 模型。 - **请求在特定数据集上微调的 Mistral 模型**:一位成员询问是否有人拥有在 orca-math-word-problems-200k 数据集和 nvidia/OpenMathInstruct-1 数据集上同时进行过微调的 **Mistral** 模型版本。 - **友好的问候**:一位用户在聊天中简短地打了个招呼 "hi"。 --- **Alignment Lab AI ▷ #[oo](https://discord.com/channels/1087862276448595968/1118217717984530553/1219081302683422851)** (32 条消息🔥): - **驯服 Grok 1 需要大量资源**:一位成员提到 **Grok 1** 是一个“庞然大物”,目前只有 OpenAI 和 XAI 尝试过驾驭它。他们指出需要大量资源,包括极高的算力、数据以及投入实验的时间。 - **高效的 MoE 训练基础设施已就绪**:提到了现有的能够以近乎 100% 效率训练 MoE (Mixture of Experts) 模型的基础设施,但目前迫切需要计算资源。 - **对训练 Grok 1 的不同看法**:虽然一些成员愿意为微调 **Grok 1** 做出贡献,但其他人质疑其相对于成本的性能表现,并建议其他模型可能在投资回报率上提供更好的效率。 - **对 Grok 1 性能和数据质量的担忧**:讨论强调了 **Grok 1** 面临的挑战,特别是 mmlu 基准测试和表现不佳的 MoE 模型。关于最佳数据组合、达成结果的时间表,以及谁将从推进该模型中受益等问题被提出。 - **与高性能模型的比较**:**Grok 1** 被拿来与行业领先的模型如 **GPT-4** 和 **Claude** 进行比较,指出虽然它可能无法超越 GPT-4,但它有潜力成为最优秀的开源大语言模型,甚至可能超越 Claude 2。 **提到的链接**:keirp/hungarian_national_hs_finals_exam · Hugging Face 数据集:未找到描述 --- **LLM Perf Enthusiasts AI ▷ #[general](https://discord.com/channels/1168579740391710851/1168579740391710855/1218226914322415677)** (1 条消息): - **懒惰开发者的信条**:一位成员表示 *Devin* 激发了一种极简主义的应用开发方法,倾向于使用能避免手动操作(如粘贴到终端)的工具。他们认为,任何比具有文件系统控制权的本地应用更复杂的东西都是不必要的复杂,这暗示了对当前开源方案的不满。 --- **LLM Perf Enthusiasts AI ▷ #[claude](https://discord.com/channels/1168579740391710851/1168582222194933860/1218206756031955006)** (7 条消息): - **推文引发争议**:@tszzl 最近的推文暗示 **Anthropic** 可能在扮演“受控反对派”的角色,以在技术人员中制造恐惧。讨论了这一说法的确切动机和准确性,一位成员确认了该推文的真实性。 - **内容审核的烦恼**:一位成员报告了在处理包含人物的图像时内容审核遇到的困难,提到系统有时*就是拒绝*正常运行。 - **对 Claude 的好奇**:有人询问了 **Claude Sonnet** 在大规模使用中的效果,特别是针对一个每月可能涉及数千万 token 的项目。 **Link mentioned**: 来自 roon (@tszzl) 的推文:Anthropic 是受控的反对派,旨在让技术人员心生敬畏。 --- **LLM Perf Enthusiasts AI ▷ #[reliability](https://discord.com/channels/1168579740391710851/1169378117865963580/1218241222347460619)** (16 messages🔥): - **介绍知识处理单元 (KPU)**:Maisa 发布了 KPU,这是一个声称通过分离推理和数据处理来增强 LLM 的新框架,旨在解决复杂任务。据 [Maisa 的博客文章](https://maisa.ai/blog/kpu) 报道,KPU 的表现优于 GPT-4 和 Claude 3 Opus 等知名模型。 - **基准测试引发质疑**:成员们对 Maisa 的基准测试对比表示怀疑。他们质疑为什么将 KPU + GPT-4-turbo 与非 turbo 版的 GPT-4 进行比较,而不是比较同版本。 - **剖析 KPU 架构**:KPU 背后的技术被认为包括自我评估技术和创新的 context window 管理。然而,成员们对该技术的具体细节仍感困惑。 - **回报率存疑**:对 KPU 缺乏延迟信息的担忧,强调了在 MATH 等任务上提升性能与可能增加延迟(影响产品实际应用)之间的权衡。 - **CEO 澄清 KPU 功能**:Maisa 的 CEO 在 Twitter 上解释说,KPU 是一种增强 LLM 的 AI 架构,充当知识管理的 GPU,无需 chunking 或 embeddings。此外,CEO 为希望进行独立评估的研究人员提供 API key 和 notebook,详情见 [@davipar 的推文](https://x.com/davipar/status/1768683151780683919?s=20)。- Grok-1 开源发布: 未找到描述
- 我们是否已达到 AI 巅峰?: 上周,《华尔街日报》发布了一段对 OpenAI CTO Mira Murati 的 10 分钟采访,记者 Joanna Stern 提出了一系列深刻且直接的问题,而 Murati...
- 来自 Grok (@grok) 的推文: @elonmusk @xai ░W░E░I░G░H░T░S░I░N░B░I░O░
- 来自 Xeophon (@TheXeophon) 的推文: Chinchilla 定律并不直接适用于 MoE,对吧?如果适用,我们可以推断出 Grok 的训练数据集大小。它大得出乎意料,所以我猜在时间有限的情况下,他们优先考虑了最优性...
提到的链接:--- **LLM Perf Enthusiasts AI ▷ #[openai](https://discord.com/channels/1168579740391710851/1171903046612160632/)** (1 messages): res6969: https://x.com/leopoldasch/status/1768868127138549841?s=46 --- **DiscoResearch ▷ #[general](https://discord.com/channels/1178995845727785010/1182877486854451271/1218132499150934157)** (21 messages🔥): - **DiscoLM 在德语回答方面表现不佳**:*DiscoResearch/DiscoLM-mixtral-8x7b-v2* 模型即使在特定数据集上进行了指令微调(instruction fine-tuning),仍无法生成德语回答。该问题还延伸到了在序列分类微调过程中遇到的 ValueError。 - **本地部署的技术困难**:一位用户在通过 `vllm` 运行 *DiscoLM-70b* 时遇到问题,并在资源充足的机器上出现挂起现象。提供的示例服务器设置和响应代码可能表明存在潜在的兼容性问题。 - **德语语言模型的见解**:一篇 Reddit 帖子提供了关于各种德语语言模型的反馈,观察了 *SauerkrautLM Una SOLAR Instruct*、*Starling LM 7B Alpha* 等模型的表现。来自 Reddit 线程的图片展示了用户对上述模型的使用体验 ([Reddit 反馈](https://www.reddit.com/r/LocalLLaMA/comments/1bfce18/still_didnt_found_a_better_small_german_llm_anyone/))。 - **Grok 模型讨论**:一位成员分享了 Grok 模型的 [GitHub 链接](https://github.com/xai-org/grok/blob/main/model.py),讨论其 314B parameters 的规模,并思考谁能运行它,另一位成员注意到它仅需 300GB。 - **德语 LLM 基准测试探索**:讨论包括德语语言模型的潜在改进、名为 *supergleber-german-language-evaluation-benchmark* 的潜在德语基准论文,以及与大学研究资源互动的建议。分享了相关基准测试的链接,暗示了合作机会 ([维尔茨堡大学计算机学院](https://www.informatik.uni-wuerzburg.de/datascience/news/single/news/our-paper-supergleber-german-language-understanding-evaluation-benchmark-was-accepted-at-the-naacl-2024/), [OpenReview](https://openreview.net/pdf?id=sWRVWp6B0d))。- 来自 David Villalón (@davipar) 的推文:很高兴回答!它不是一个新模型,事实上 KPU 与智能提供商(OpenAI, Anthropic...)无关。它是一种与 LLM 协同工作的新 AI 架构,利用了它们的推理能力...
- KPU - Maisa:AI 驱动的知识处理平台。一个用于执行业务任务的简单 API。为软件和应用程序开发人员抽象了使用最新 AI 架构的复杂性。
提到的链接:--- **DiscoResearch ▷ #[discolm_german](https://discord.com/channels/1178995845727785010/1197630242815213618/1218111377495949322)** (4 条消息): - **Disco Bot 严格执行脚本**: 一位成员指出,该模型旨在遵循 system prompt,但可能会测试不同的变体以获得最佳结果。演示版没有使用特殊设置,运行在 **fastchat/vllm** 上。 - **服务器迁移喜忧参半**: 演示版的服务器进行了迁移,从家庭厨房环境搬到了更稳健的地点。然而,过渡过程中遇到了网络问题,希望在下周初解决。 - **厨房托管 vs 专业托管 —— 一个冷幽默的观察**: 一位用户幽默地评论道,厨房里的业余服务器可能会运行得顺风顺水,而专业托管服务器则更容易出现网络问题和硬件故障等麻烦。 --- **Datasette - LLM (@SimonW) ▷ #[ai](https://discord.com/channels/823971286308356157/1097032579812687943/1218229369680695428)** (20 条消息🔥): - **Explosion 开发的 Prompt Engineering 工具**: 一位成员提到开发了辅助 Prompt Engineering 的工具,并集成到了 Explosion 的 Prodigy 产品中,建议该设置对其他对 Prompt Engineering 感兴趣的人有启发,详见 [Prodigy Features](https://prodi.gy/features/prompt-engineering)。 - **Prompt Engineering 即数据标注**: 同一位成员将 Prompt Engineering 描述为一个数据标注问题,承认其局限性,但也认可这种方法在某些语境下的实用性。 - **开源 Prompt 测试工具**: 另一位成员讨论了尝试在 GitHub 上找到的开源工具 [PromptTools](https://github.com/hegelai/prompttools),该工具允许进行 Prompt 测试和实验,但缺乏版本管理。 - **Vercel 的 Prompt 对比界面**: 提到了 [Vercel AI SDK](https://sdk.vercel.ai/),因为它具有用户友好的界面,可以对比单个 Prompt 的不同模型响应,随后的观察指出它与 PromptTools 的 playground 类似。 - **Helicone AI 用于梦幻般的 Prompt 管理**:Helicone AI 被介绍为最接近某位成员心目中理想的全面 Prompt 管理系统的解决方案,尽管在讨论时它才刚刚开始开发 Prompt 管理和分析功能。 - **内容翻译的创新实验**:一位成员分享了一个使用不同 Persona 进行内容翻译的实验,其概念验证(PoC)基于 GPT-3.5-turbo。他们提供了一个示例博客文章的链接,底部附有翻译实验:[How to Build a Buzzword](https://www.dbreunig.com/2020/02/28/how-to-build-a-buzzword.html)。- Reddit - Dive into anything: 未找到描述
- Reddit - Dive into anything: 未找到描述
- grok-1/model.py at e50578b5f50e4c10c6e7cff31af1ef2bedb3beb8 · xai-org/grok-1: Grok 开源发布。通过在 GitHub 上创建账号,为 xai-org/grok-1 的开发做出贡献。
- grok-1/model.py at main · xai-org/grok-1: Grok 开源发布。通过在 GitHub 上创建账号,为 xai-org/grok-1 的开发做出贡献。
- 我们的论文 "SuperGLEBer: German Language Understanding Evaluation Benchmark" 被 NAACL 2024 接收: 在我们的论文中,我们为德语构建了一个广泛的自然语言理解(NLU)基准测试套件,并随后评估了一系列现有的德语模型,以创建一个...
- Reddit - Dive into anything: 未找到描述
- ChuckMcSneed/WolframRavenwolfs_benchmark_results · Hugging Face 数据集: 未找到描述
- GitHub - KLUE-benchmark/KLUE: 📖 韩语 NLU 基准测试: 📖 韩语 NLU 基准测试。通过在 GitHub 上创建账号,为 KLUE-benchmark/KLUE 的开发做出贡献。
- GitHub - facebookresearch/belebele: Belebele 数据集仓库,一个大规模多语言阅读理解数据集。: Belebele 数据集仓库,一个大规模多语言阅读理解数据集。 - facebookresearch/belebele
- GitHub - google-research/xtreme: XTREME 是一个用于评估预训练多语言模型跨语言泛化能力的基准测试,涵盖了 40 种类型各异的语言,并包含九个任务。: XTREME 是一个用于评估预训练多语言模型跨语言泛化能力的基准测试,涵盖了 40 种类型各异的语言,并包含九个任务。 - goo...
提到的链接:--- **Datasette - LLM (@SimonW) ▷ #[llm](https://discord.com/channels/823971286308356157/1128504153841336370/)** (1 messages): obra: 是否有可能找回 OpenAI 模型在之前的 API 请求中使用的 Seed? --- **Skunkworks AI ▷ #[general](https://discord.com/channels/1131084849432768614/1131084849906716735/1218193382669549568)** (17 messages🔥): - **待发布的极具前景的方法**:*baptistelqt* 提到正在准备一篇关于**提高全局准确率**和模型训练样本效率的方法的论文/文章。他们正在完善图表和结果结构,随后发布。 - **扩展到大模型的挑战**:成员 *baptistelqt* 表示需要测试其方法在大模型上的有效性,并提到**缺乏资源**来在大规模情况下进行实证。 - **寻求扩展所需的计算资源**:*far_el.* 对 *baptistelqt* 的工作表示感兴趣,并提议讨论分配潜在的计算资源,以**扩展这一尚未验证的方法**。 - **Quiet-STaR 协作邀请**:*satyum* 询问如何加入 "Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking" 项目,*far_el.* 回复并询问其在 **PyTorch** 和 **Transformer** 架构方面的熟练程度。 - **该方法对 VGG16 影响的证据**:*baptistelqt* 分享了初步结果,对比了其方法与在 CIFAR100 子集上对 VGG16 进行的基础训练,显示仅经过 1 个 Epoch 后,**测试准确率**就从 0.04 提高到了 0.1。 --- **Skunkworks AI ▷ #[off-topic](https://discord.com/channels/1131084849432768614/1140423597454807179/)** (1 messages): pradeep1148: https://www.youtube.com/watch?v=ZlJbaYQ2hm4- How to Build a Buzzword:以及为什么它们如此强大
- Helicone:开发者如何构建 AI 应用。开箱即用的可观测性、工具链、微调和评估。
- Vercel AI SDK:使用最新的 AI 语言模型构建 AI 驱动的应用
- GitHub - hegelai/prompttools: 用于 Prompt 测试和实验的开源工具,支持 LLMs(如 OpenAI, LLaMA)和向量数据库(如 Chroma, Weaviate, LanceDB)。
- GitHub - promptfoo/promptfoo: 测试你的 Prompt、模型、RAG。评估并对比 LLM 输出,捕捉回归问题,并提升 Prompt 质量。支持 OpenAI/Azure GPT, Anthropic Claude, VertexAI Gemini, Ollama, 以及 Mistral/Mixtral/Llama 等本地和私有模型的 LLM 评估,支持 CI/CD
提到的链接:--- **Nous Research AI ▷ #[interesting-links](https://discord.com/channels/1053877538025386074/1132352574750728192/1218108265854926899)** (16 条消息🔥): - **Horny Claudes 生成更好的 Mermaid 图表**:一个名为 **Repligate** 的聊天机器人建议,由“horny claudes”组成的网络似乎能生成更有效的 Mermaid 图表。这种奇特的策略与一些显式示例一起被分享。 - **具有感染力的魅力攻势**:讨论围绕“rizzing up”模型以获得更好答案的概念展开,其中一条评论建议通过施展魅力来增强模型表现。 - **克隆战争**:成员们讨论了复制 AI 模型功能的伦理和影响,其中一人将其称为“反向 Sydney”,指的是克隆模型的行为。 - **用于语言模型偏好对齐的 ORPO**:**Huggingface** 发表了一篇关于无模型单阶段优势比偏好优化算法 **ORPO** 的论文。它提出了一种微调 Phi-2 和 Llama-2 等语言模型的方法,无需额外的偏好对齐阶段即可获得更对齐的输出。 - **开源智能战争升温**:分享了关于 Elon Musk 凭借 **Grok**(一个 314B 参数模型)可能颠覆 AI 格局的详细概述。讨论包括对各种模型性能的推测,包括 OpenAI 的 GPT 系列,以及由 Musk 战略举措塑造的行业动态。提到的链接:--- **Nous Research AI ▷ #[general](https://discord.com/channels/1053877538025386074/1149866623109439599/1218105907615895562)** (656 条消息🔥🔥🔥): - **Hermes 2.5 依然占据主导地位**:在 Nous Research 的讨论中,人们承认尽管 Grok-1 拥有 314B 的庞大参数量,但其表现仅勉强超过 GPT-3.5,而一些 7B 参数的模型已经超越了 GPT-3.5 的能力。Grok-1 的实用性受到质疑,人们在推测当 LLaMA 和更小的模型表现良好时,是否有必要使用它。 - **Yi 许可协议明朗化**:讨论暗示 Yi-9B 的许可证现在允许商业用途,且似乎采用了自动审批流程。然而,存在一些怀疑声音,有人认为这种自动审批可能只是一种营销策略。 - **Jensen Huang 意外泄密?**:NVIDIA CEO Jensen Huang 在 GTC 主旨演讲中可能证实了关于 GPT-4 架构和规模的传闻,提到了 1.8 万亿参数和 Mixture-of-Experts (MoE) 设置,而 OpenAI 尚未正式确认这一点。 - **持续预训练(Continual Pretraining)辩论**:频道中讨论了持续预训练模型的可行性、益处和困难,特别是像 Mixtral 这样的 MoE 模型。虽然被认为对低资源语言有用,但大家一致认为,如果没有高质量的数据集,这种方法可能会降低模型的整体性能。 - **开源 vs 商业巨头**:人们意识到,如果资金充足的实验室继续限制其模型和方法,开源 Large Language Models (LLMs) 的努力可能会受到抑制。一些人设想未来每个国家或大型实体都将维护自己定制的、符合其宪法价值观(Constitutional values)的 LLM,而开源模型将作为持续开发的宝贵基础。提到的链接:--- **Nous Research AI ▷ #[ask-about-llms](https://discord.com/channels/1053877538025386074/1154120232051408927/1218205298729156648)** (25 条消息🔥): - **令人困惑的 Perplexity 问题**:一位成员在计算 **Llama2** 的 Perplexity 时遇到困难,使用 [基于 HF 指南的 Kaggle notebook](https://www.kaggle.com/code/philculliton/calculating-the-perplexity-of-4-bit-llama-2/notebook) 得到的 Perplexity (ppl) 为 90.3。他们正在寻求社区的见解来解决这个问题。 - **高志向,高成本**:有成员渴望看到一个 20b 基础模型超越 **Mistral**,但在提到此类尝试可能耗资 300,000 美元后,这一想法变得冷静下来。 - **扩缩梦想破灭**:关于模型扩缩(特别是从 **llama-2 13b 到 20b**)的实际讨论。成员们对扩缩模型的有效性表示怀疑,并估算了持续预训练(pretraining)相关的成本。 - **探索模型合并**:对话涉及了在寻求利用 20b 规模 AI 模型取得重大成果的过程中,调研模型合并(model merging)技术的潜力。 - **剪枝进行时**:一位成员分享了他们在通过持续预训练(continuous pretraining)进行模型降级(downscaling)方面的工作,并提供了 **Mistral-7B-v0.1** 与其被称为 [Smallstral](https://huggingface.co/AlexWortega/smallstral) 的剪枝版本之间的详细对比。提及的链接:--- **Nous Research AI ▷ #[bittensor-finetune-subnet](https://discord.com/channels/1053877538025386074/1213221029359657021/1218181932853104720)** (18 messages🔥): - **避免链接混淆**:一位用户询问一个可能**损坏的链接**,但很快得到另一位成员的确认,该链接确实有效。 - **对某个想法的敬畏与尊重**:成员 **fullstack6209** 对一个未指明的想法表达了长期的敬畏和钦佩。 - **Bittensor 链故障**:用户讨论了 **bittensor chain** 最近的问题,指出它“坏了(broked)”,且修复工作未能及时实施。 - **需要更新 Subtensor**:提到 **bittensor chain** 已恢复运行,但需要更新 **subtensor**,而并非所有用户都完成了更新。 - **获取用于 Bittensor 注册的 Tao**:一位用户寻求关于在哪里获取 **tao** 以进行注册的建议,得到的建议是在 **MEXC 交易所**使用 **USDT**。后续讨论包括由于提现问题使用 **Kucoin** 的挑战,以及使用 **3090 显卡**入门的硬件要求。 --- **Nous Research AI ▷ #[rag-dataset](https://discord.com/channels/1053877538025386074/1218682416827207801/1218682432610373703)** (100 messages🔥🔥): - **辩论 RAG 的未来**:成员们讨论了 RAG(Retrieval-Augmented Generation)模型不断变化的需求,集中在低延迟响应、上下文理解和知识多样性等理想特性上。一位成员提供了一份详细的 [RAG 模型属性愿望清单](https://github.com/EveryOneIsGross/scratchTHOUGHTS/blob/main/commanDUH.py),包括类 Markdown 输出和高级推理能力。 - **在模型响应中取得平衡**:对话转向了一个两难选择:模型应该严格使用外部上下文,还是应该与其自身知识进行插值。一种观点认为,模型应该有一个依赖其自身知识的**默认模式**,并具备仅根据指令使用外部上下文的 **"RAG 模式"** 的灵活性。 - **审视模型输出**:成员们批评了模型对 Markdown 格式等输出要求的需求。有人认为,虽然结构化输出(如行内引用)很有用,但应保留响应风格的灵活性。 - **整合外部上下文专业知识**:小组讨论了 Cohere 模型通过提供**片段高亮(span highlighting)和引用**来改进 RAG 功能的潜力,尽管大家承认许多当前模型(如 GPT-4)在长上下文上已经拥有近乎完美的召回率(recall)。 - **RAG 增强模型即将到来?**: 用户探讨了创建专门的小型模型在 RAG 流水线中运行的想法,例如“相关信息提取器”,以更高效地处理复杂的信息检索任务。这些专门的模型可以作为**大型计算框架中的中间层**。 **提到的链接**: scratchTHOUGHTS/commanDUH.py at main · EveryOneIsGross/scratchTHOUGHTS: 第二大脑临时记忆,以避免 self 的溢出错误。 - EveryOneIsGross/scratchTHOUGHTS --- **Eleuther ▷ #[general](https://discord.com/channels/729741769192767510/729741769738158194/1218167767379742813)** (273 条消息🔥🔥): - **公开课程访问量激增**: 成员们对常春藤盟校在线免费课程的可用性表示惊讶和赞赏,并指出即使是非在校生也经常观看来自 MIT 等知名机构的讲座。在共同的热情中,人们称赞了获取高质量教育材料的便利性,例如 [Stanford 的 NLP 计算机科学视频](https://www.cs.cmu.edu/~dwoodruf/) 以及托管详细课程内容的平台。 - **探索独特的框架和 AI 增强**: 讨论涉及了一些引人注目的项目,如 **[Devin AI 软件工程师](https://www.cognition-labs.com/introducing-devin)**,它拥有浏览文档和调试代码等能力,以及由 Figure 与 OpenAI 合作开发的机器人 **[Figure 01](https://www.youtube.com/watch?v=Sq1QZB5baNw)**,在自然语言交互方面展示了令人期待的结果。同时,一位成员提到了模型中 **AI ThoughtStream 概念**的潜在实现,并将其与 [这篇相关论文](https://arxiv.org/abs/2403.09629) 中的 *Self-Taught Reasoner (STaR)* 进行了比较。 - **Grok 的发布引发热议**: 关于 **Grok-1** 在 GitHub 上发布的讨论非常盛行,成员们试图了解它与 Claude 和 GPT-4 等现有大语言模型相比的地位。由于对特定微调的不确定性以及模型在基准测试(benchmarks)上表现的比较,引发了围绕其预训练过程和规模的辩论。 - **评估 AI 模型的挑战**: 成员们辩论了 AI 模型的评估指标,重点关注 [EleutherAI 计算 TFLOPs 的指南](https://github.com/EleutherAI/cookbook/blob/main/calc/calc_transformer_flops.py),并建议利用更新的英语书面语来源,以避免法律问题并保持基准测试基础模型的最新标准。 - **关注会议和训练时间**: 有人询问了关于 AI 论文投稿的经济型会议,**TMLR** 被推荐为一个免费选项。同时,关于 Pythia-70M 等大型模型在不同 GPU 上的**训练时间讨论**,结合了 NVIDIA 的性能数据和[一篇研究论文](https://arxiv.org/pdf/2304.01433.pdf)来估算假设的持续时间。提到的链接:--- **Eleuther ▷ #[research](https://discord.com/channels/729741769192767510/747850033994662000/1218100666493304852)** (245 条消息🔥🔥): - **讨论了基准测试性能的混淆**:通过对比发现,在 GSM8k 和 CQA 等基准测试上,报告的性能值与预期值之间存在差异,这表明基准测试的评估方式缺乏清晰度。深入的提问强调了在评估过程中需要最佳参数和采样方法。 - **对 Grok 训练和使用的推测**:关于 Grok 模型背后的质量和训练策略存在争议,有观点认为 Grok 的开发是由 Elon Musk 的指令驱动的,并针对 Twitter 的内部硬件规格进行了优化。分析师们正等待独立的 finetuning 和 benchmarks,以便对其能力进行清晰的评估。 - **Speculative Sampling 的效率受到质疑**:关于 speculative sampling 及其在 Mamba 和 RNNs 等不同模型架构中应用的讨论表明,虽然它可能会节省内存带宽,但对于某些架构的实用性和效率仍存在疑问。 - **Label Smoothing 和 Benchmarks 受到审视**:关于目前在语言模型训练中使用 label smoothing 的疑问,引发了对 benchmarks 可靠性的批判性观点,强调了对更好 benchmarks 的需求,并质疑了人员决策在模型效能中的价值。 - **大型模型的 Scaling 和成本效益考量**:关于 LLMs scaling 的对话集中在运行像 Grok 这样庞大模型的成本上,推测了其开发背后的经济和技术决策,并建议替代的训练和模型选择可能会带来成本节省。提到的链接:--- **Eleuther ▷ #[scaling-laws](https://discord.com/channels/729741769192767510/785968841301426216/1218832533517766666)** (11 messages🔥): - **语言模型对数据集复杂度的敏感性**:一位成员分享道,语言模型 scaling laws 似乎受到数据集复杂度和句法属性的影响。gzip 的使用被强调为数据集特定 scaling 行为的良好预测指标。 - **寻求关于 Scaling Laws 研究的反馈**:关于数据复杂度对 scaling laws 影响的初步结果已经分享,全面的实验正在进行中。他们期待使用特定的包来获取更多定量数据和拟合的 scaling laws。 - **关于数据标签的澄清**:针对某些数据可视化中额外标签的问题,澄清了这些标签是用于生成数据集的概率上下文无关文法(PCFG)的句法规范。 - **关于图表可读性的担忧**:讨论了由于刻度不适用于较小模型而导致图表难以解读的问题,并确认并提到了替代的对数刻度图(log scale plots)。 - **困惑度(Perplexity)与固有熵(Intrinsic Entropy)的讨论**:成员们讨论了困惑度如何与数据集的固有熵相关联,以及这如何影响跨数据集的比较。有人建议,数据的词汇密度处于最佳范围可能会带来更高效的预训练实践。 --- **Eleuther ▷ #[interpretability-general](https://discord.com/channels/729741769192767510/1052314805576400977/1218288738728284241)** (13 messages🔥): - **询问关于采样字符串的问题**:一位成员询问是否存在一种规范的方法,从词表上预定义的 1-gram, 2-gram, ..., n-gram 统计集中采样字符串。讨论转向了理解 n-gram 统计与采样之间的关系。 - **澄清 N-gram 的层级性质**:另一位成员澄清说,指定 n-gram 的统计数据决定了所有低阶的统计数据,指出了 n-gram 语言模型的层级性质。 - **采样的自回归方法**:解释说,可以自回归地从指定的 n-gram 分布中进行采样,这将产生与这些统计数据相匹配的最大熵分布。 - **逐步采样技术详解**:该方法包括首先从第一个 token 的 unigram 分布中采样,然后从第二个 token 的 bigram 条件分布中采样,依此类推。 - **N-gram 模型实现的参考**:为了实际参考,提供了一个该采样过程实现的 [GitHub 链接](https://github.com/EleutherAI/features-across-time/blob/main/scripts/generate_bigrams.py),以及对 n-gram 语言模型 [Wikipedia 页面](https://en.wikipedia.org/wiki/Word_n-gram_language_model)的简要访问。提到的链接:--- **Eleuther ▷ #[lm-thunderdome](https://discord.com/channels/729741769192767510/755950983669874798/1218143473916575765)** (31 messages🔥): - **新手关于 lm-eval-harness 集成的咨询**:一位初次接触 *lm-eval-harness* 的成员询问了如何将其与自己的 LLM 模型集成,特别是寻求在 Gaudi2 上使用 Megatron-DeepSpeed 运行 Llama 的示例代码。他们还询问了函数继承以及参数中传递的字典固定格式,并指出缺乏直接的命令行覆盖(overrides)功能。 - **lm-eval-harness 中误导性的模型行为**:一位用户报告了一个问题,即在 *lm-eval* 中指定要使用的模型时,即使指明了不同的模型,它也会默认使用 GPT-2-small。经过调查发现,命令行中存在双重 `model_args` 会导致 harness 默认选择 GPT-2-small。 - **Open LLM Leaderboard 报告分数的不一致性**:一位成员质疑 Open LLM Leaderboard 上报告的 Llama2-70b MMLU 分数的准确性,因为该分数与其自身的实验结果不同。得到的澄清是,这种差异可能是由于 MMLU 子任务的平均计算方法不同导致的。 - **请求集成 Apple 的新型多模态模型**:一位成员建议将 Apple 的新型 MM1 多模态模型集成到 *lm-evaluation-harness* 中,以便出现在 Open LLM Leaderboard 上。 - **lm-evaluation-harness 中的评估死锁及解决方法**:用户讨论了 GitHub ([#1485](https://github.com/EleutherAI/lm-evaluation-harness/issues/1485)) 上关于 *lm-evaluation-harness* 死锁的问题。文中提到了一种涉及避免并发数据集访问的解决方法,以及该问题可能与评估 harness 代码中的多进程(multiprocessing)有关。 - **lm-harness 中下载模型的存放位置**:用户询问并分享了 *lm-eval* 下载模型的存放位置,通常位于 Huggingface 缓存目录中,并受 HF_HOME、TRANSFORMERS_CACHE 和 HF_DATASETS_CACHE 等环境变量控制。 - **lm-eval v0.4.2 发布及 PR 评审协助**:宣布 *lm-eval* 的 0.4.2 版本现已在 PyPI 上发布,并呼吁更多人参与贡献和协助 PR 评审。鼓励用户对需要关注的待处理 PR 评审进行提醒(ping)。 - **关于在 lm-eval-harness 中表示翻译任务的讨论**:进行了一场关于将通过机器翻译得到的多语言评估(Multilingual evals)纳入 *lm-eval-harness* 的对话。提议的一种可能方法是将此类任务收集在一个目录下,并清晰地将其标记为翻译。 - **lm_harness 中 likelihood 与 likelihood_rolling 的解释**:对 *lm_harness* 中的 `likelihood` 和 `likelihood_rolling` 进行了区分。`loglikelihood_rolling` 用于无条件对数似然计算,而 `loglikelihood` 用于一个字符串相对于另一个字符串的有条件对数似然,可用于多项选择评估。 - **困惑度(Perplexity)评估中的步幅(Stride)方法与上下文长度考量**:指出 *lm-evaluation-harness* 使用非重叠滑动窗口计算困惑度,并计划增加暴露自定义步幅滑动窗口选项的功能。此外还提到,模型中更大的上下文长度会降低步幅选择带来的影响。Links mentioned:--- **Eleuther ▷ #[gpt-neox-dev](https://discord.com/channels/729741769192767510/730090096287547444/1219336845310038047)** (3 messages): - **关于 The Pile 打乱状态的澄清**:一位成员询问了 The Pile 数据集的打乱(shuffling)状态。另一位成员澄清说,**分发的原始文件没有被打乱**,但 **HF 上预处理和预分词(pretokenized)的数据**是开箱即用的,并已被 Pythia 使用。 - **Pile 组件的打乱细节**:补充提到,The Pile 的单个组件肯定没有被打乱,有些是按时间顺序组织的。然而,原始的 train/test/validation 划分预计是经过打乱的,以确保整个数据集的良好混合。 --- **OpenAI ▷ #[ai-discussions](https://discord.com/channels/974519864045756446/998381918976479273/1218173412522852483)** (193 messages🔥🔥): - **理解 AI 对语言的“理解”**:成员们讨论了 AI 是真正理解语言,还是仅仅在不理解的情况下预测下一个词。对话涵盖了 AI 的涌现属性(emergent properties)、与人类认知的比较,以及关于 AI 是否有潜力发展出与人类相当的感官保真度的推测。 - **AI 与意识的概念**:辩论继续围绕意识展开,一些人认为人类的大部分认知是关于阅读和诱导情绪的,而在与 AI 互动时,这项任务所需的努力较少,因为它不会竞争社会地位或财富。 - **DALL-E 3 因精准度受到赞扬**:一位用户赞扬了 **DALL-E 3** 对详细提示词(prompts)的精准响应以及对负面提示词(negative prompts)的遵守能力,称 OpenAI 在该模型上做得非常出色。 - **Claude 与 GPT-4 性能对比**:用户对比了较新的 **Claude-3** 与 **GPT-4**,指出 Claude 可能是更好的对话者,而 GPT-4 在编程等某些任务中仍然表现良好。有人呼吁 OpenAI 发布更新的模型或提供恢复到早期 GPT-4 版本的选项。 - **Sora 的访问权限与 AI 支持问题**:一位成员询问了 **Sora** 的访问权限,solbus 提供了当前访问状态的链接。还有人对联系 OpenAI 支持的困难表示不满,并就如何浏览帮助网站和提交 ticket 提供了建议。 **Link mentioned**: Enterprise privacy: 未找到描述 --- **OpenAI ▷ #[gpt-4-discussions](https://discord.com/channels/974519864045756446/1001151820170801244/1218428016573812888)** (34 messages🔥): - **好奇者想了解 GPT-5**:多位成员询问了 **GPT-5** 的发布日期,表现出对 OpenAI 语言模型未来的好奇。 - **在 GPT API 中集成网页搜索**:一位成员询问如何将网页搜索功能添加到 **GPT API** 中,类似于 **ChatGPT-4** 中的功能。 - **寻求移动端机器人构建协助**:一位用户表达了想在手机上创建并自定义 **OpenAI 聊天机器人**(特别是针对 **Discord**)的愿望,并寻求使用 BotGhost 和 OpenAI 的帮助。 - **在 Playwright 中定位元素**:一位成员讨论了 **ChatGPT Turbo 3.5** 的问题,该模型未能遵循他们偏好的 **Playwright 测试** 元素定位方法。 - **技术故障与报告**:用户注意到 GPT 响应的技术问题,包括无法触发响应和持续加载。一位成员询问在哪里报告 bug 并联系 **Chat GPT 作者**,回复将其引导至特定频道和 [help.openai.com](https://help.openai.com/)。 - **对 GPT 过滤器敏感度的担忧**:用户敦促修订 **GPT 的内容过滤器**,认为其过于严格,通过标记儿童卡通中常见的内容来阻碍创意写作。 --- **OpenAI ▷ #[prompt-engineering](https://discord.com/channels/974519864045756446/1046317269069864970/1218207072064114718)** (79 messages🔥🔥): - **分类任务的 Prompt Engineering 挑战**:一位成员正在寻找一种方法论,用于测试分类用例的各种 Prompt 架构。他们正在实验 Prompt 中的上下文信息量,以提高召回率并减少误报,同时考虑了另一位用户建议的总 Context Window 限制。 - **GPT-3.5 Turbo 的 Playwright 定位器问题**:讨论涉及 GPT-3.5 Turbo 无法生成合适的 Playwright 测试代码,特别是未使用正确的 Locator 语法。建议使用 GPT-4 等替代方案以获得更好的输出。 - **对拒绝执行任务的沮丧**:几位成员对模型拒绝任务表示沮丧,并寻求如何减少拒绝的建议。成员们分享了诸如 Meta-prompting 等技术,以绕过导致任务拒绝的 AI 自我审核,并请求提供存在问题的具体示例以提供具体帮助。 - **应对 ChatGPT 响应模式的变化**:用户注意到 ChatGPT 算法处理任务方式的变化,日益激进的偏见最小化导致更频繁的“我不能这样做”响应。讨论了模型如何产生贯穿对话的拒绝立场,从而影响工作流。 - **利用 GPT 网页搜索进行多重查询的指导**:一位成员寻求关于如何提示 GPT 使用多个查询进行网页搜索,以访问广泛的来源并收集更全面的信息的建议。对话强调了引导模型搜索多个来源与用户直接控制特定查询之间的区别。 --- **OpenAI ▷ #[api-discussions](https://discord.com/channels/974519864045756446/1046317269069864970/1218207072064114718)** (79 messages🔥🔥): - **Prompt 优化挑战**:一位成员正在使用 **OpenAI** 进行分类用例实验,尝试不同的 **Prompt 架构** 以在保持召回率的同时减少误报。他们寻求测试不同架构的方法论,并考虑使用 **Custom GPT**。 - **Playwright 测试的模型选择**:一位用户难以让 **GPT-3.5 turbo** 输出可执行的 Playwright 测试代码,并询问 **GPT-4** 是否对最新的库更熟练。他们讨论了尝试在多次 API 调用中纠正代码格式但未获成功。 - **处理 AI 任务拒绝**:成员们交流了关于如何处理 AI 拒绝完成某些任务的沮丧情绪和建议。示例和策略各不相同,从进行编辑和使用 Meta-prompting 到接受 AI 的局限性并开启新对话。 - **AI 行为随时间的变化**:讨论了 **ChatGPT 行为** 的显著变化,特别是拒绝执行以前可以完成的任务的倾向增加。用户正在通过澄清 Prompt 和“五个为什么”技术来应对模型不断演变的内容政策。 - **利用 GPT 进行多次网页搜索**:成员们辩论了如何最好地提示 **GPT** 使用网页搜索,通过多个查询收集信息以获得更全面的搜索结果。尽管存在一些困惑,但分享了一种示例方法,通过编写详细且指令性的 Prompt 来引导 **GPT** 搜索多个来源。 --- **HuggingFace ▷ #[general](https://discord.com/channels/879548962464493619/879548962464493622/1218106794698739782)** (96 messages🔥🔥): - **Cross-Encoder 多 GPU 微调咨询**:有成员询问关于使用多 GPU 微调 Cross-Encoder 模型的指导,想知道为适应硬件变化需要进行哪些特定的参数修改。 - **Aya Demo 增强**:得益于社区贡献,Aya demo 增加了极高的重复惩罚 (repetition penalty)。目前正在征集贡献者在 Gradio 界面中实现一个滑动条。 - **NVIDIA 强大的新型 GPU**:讨论围绕 NVIDIA 新型 H100 GPU 展开,包括其功耗(高达 850W)和漫长的采购周期。值得关注的点包括在同一块板卡上集成了服务器 CPU 和 GPU、芯片直接液冷技术,以及现代超级计算机的机架功率分配。 - **HuggingFace 数据托管排行榜**:一位成员分享了他们创建的排行榜,显示了 HuggingFace 仓库中托管的数据量,展示了该平台巨大的模型和数据托管能力。 - **xAI 发布 Grok-1 模型**:讨论了拥有 3140 亿参数的 Mixture-of-Experts 模型 Grok-1。在其以 Apache 2.0 协议发布后,用户对其规模以及被快速上传到 HuggingFace 的速度感到惊叹。提到的链接:--- **HuggingFace ▷ #[today-im-learning](https://discord.com/channels/879548962464493619/898619964095860757/1218115205553324112)** (12 messages🔥): - **探索优化技术**:一位成员分享了关于 **GridSearch**、**RandomSearch** 和 **Bayesian Optimization** 的心得,并坦言对 Bayesian Optimization 的应用感到困惑。 - **需要 Hugging Face 入门指导**:有成员寻求关于如何使用 **Hugging Face** 的帮助,并请求对其基本概念进行简单解释。 - **AI 合唱遇到瓶颈**:AI 音乐生成领域的新手在创作和谐的合唱时遇到困难,寻求关于如何制作多艺人翻唱(如 Harry Styles 和 Taylor Swift 的合唱)且不让 AI 生成的声音听起来“沙哑”的建议。 - **使用 Hugging Face 和 SageMaker Pipelines 的 MLOps**:用户分享了一个研讨会笔记本链接 ([Workshop 3: MLOps: End-to-End Hugging Face Transformers with the Hub & SageMaker Pipelines](https://www.philschmid.de/mlops-sagemaker-huggingface-transformers)),解释了如何使用 **Hugging Face Inference DLCs** 和 **Amazon SageMaker** 构建端到端的 MLOps 流水线。 - **模型访问故障排除**:一位成员在遇到 `404` 错误后需要协助访问 **Hugging Face Model** (`Mistral-7B-Instruct-v0.2.GGUF`),这表明在 Hugging Face 模型中心找不到或无法访问指定的仓库。提到的链接:--- **HuggingFace ▷ #[reading-group](https://discord.com/channels/879548962464493619/1156269946427428974/1218346001421570138)** (12 messages🔥): - **语言学与 ML 的融合引人入胜**:成员们讨论了将语言学与 Machine Learning 相结合的令人印象深刻的特性,特别是在处理英语和中文这两种被认为截然不同的语言的模型中。 - **深入探讨 Medusa 的潜力**:分享了关于 [Medusa](https://arxiv.org/abs/2401.10774) 的论文,它通过使用多个解码头并行预测多个 token,为 LLM 推理提供了一种新颖的方法,理论上可以创建更高效的模型。 - **多模态 LLM 的设计经验**:发布了一篇[论文摘要](https://huggingface.co/papers/2403.09611),强调了多模态 Large Language Models 的设计见解,其中包含关于架构组件和数据选择的关键发现,这些对于获得 state-of-the-art 结果至关重要。 - **LLM 中主导语言的复杂性**:一位成员推测,语料库中严重的英语偏向可能会无意中导致模型在语言和思维中复制英语或欧洲模式。 - **LLM 在同行评审中的渗透**:引用了 [arXiv](https://arxiv.org/abs/2403.07183) 的一项研究,显示 AI 会议同行评审中 6.5% 到 16.9% 的文本可能已被 LLM 显著修改,揭示了评审员中的某些行为趋势。提到的链接:--- **HuggingFace ▷ #[NLP](https://discord.com/channels/879548962464493619/922424173916196955/1218158991570636900)** (18 messages🔥): - **寻求 NL2SQL 流水线增强**:一位成员正在使用 **BAAI/llm-embedder** 进行 embedding,使用 **TheBloke/nsql-llama-2-7B-GGUF** 作为 NL2SQL 模型,并使用 **FAISS** 作为向量库构建 NL2SQL 流水线,寻求关于提高其应用中 embedding 模型和 NL2SQL 模型准确性的建议。 - **发起 Grace Hopper 超级芯片讨论**:发布了关于 **NVIDIA Grace Hopper Superchip** 的公告,强调了其在高性能计算 (HPC)、AI 和数据中心应用方面的潜力,但随后没有进一步的细节或相关讨论。 - **寻求 NLP 学习资源指导**: - 对于那些好奇如何开始学习 NLP 的人,成员们推荐了 [HuggingFace 的 NLP 课程](https://huggingface.co/learn/nlp-course/chapter1/1)和 [斯坦福大学的 NLP 教科书](https://web.stanford.edu/~jurafsky/slp3/)作为有用的学习资源。 - 此外,斯坦福大学的课程 CS224N 被提及为推荐教科书的**精简版**。 - **寻找 Conformer ASR 训练教程**:一位成员询问了关于训练用于自动语音识别 (ASR) 的 conformer 模型的教程,但在对话线程中没有提供任何建议或链接。 - **咨询可部署的免费 LLM API**: - 一位成员询问是否有适合部署到生产环境的**免费 LLM API**,并被引导尝试 **ollama**,但没有后续确认其适用性或提供其他选项。 **提到的链接**:Introduction - Hugging Face NLP Course:未找到描述 --- **LlamaIndex ▷ #[blog](https://discord.com/channels/1059199217496772688/1187460979064324127/1218217429868478474)** (7 条消息): - **重新构想检索增强 (Retrieval Augmentation)**:一条推文介绍了一种在 RAG 管道中处理复杂查询的新方法,建议将文档视为交互式工具而非静态文本,以实现更动态的交互。该概念旨在检索过程中提供更复杂的响应,更多讨论见[此处](https://twitter.com/llama_index/status/1768658182308794421)。 - **Instrumentation 工具升级**:LlamaIndex 发布了 0.10.20 版本,推出了全新的 Instrumentation 模块,旨在增强 RAG 管道的可观测性。用户可以在[此处](https://twitter.com/llama_index/status/1768730443921396220)推文中详细列出的链接 Notebook 中查看基础可观测性和 API 调用观测的示例。 - **使用 Search-in-the-Chain 进行高级问答**:团队重点介绍了 Shicheng Xu 等人的一篇论文,该论文提出了 "Search-in-the-Chain" 作为 RAG 在问答领域的演进,其中检索与规划交织在一起,并在必要时可以触发重新规划。关于这一创新方法的更多细节可以在[此处](https://twitter.com/llama_index/status/1769035278063399208)找到。 - **利用 RAG 和 LlamaParse 导航就业市场**:Kyosuke Morita 的博客文章展示了如何结合 LlamaParse 和 LlamaIndex 创建一个基于 RAG 的职位助手,利用从简历中提取的数据将候选人与职位进行匹配。该博客在[此处](https://twitter.com/llama_index/status/1769147791002264008)提供了关于文本提取和职位匹配解决方案的见解。 - **宣布与 @langfuse 的可观测性集成**:LlamaIndex 宣布与 @langfuse 建立合作伙伴关系,提供两行代码的解决方案为 RAG 管道添加可观测性,结合了追踪、提示词管理和评估等功能。此次集成旨在为 RAG 应用提供更强大的监控能力,详情请访问[此处](https://twitter.com/llama_index/status/1769790083564208218)。提到的链接:--- **LlamaIndex ▷ #[general](https://discord.com/channels/1059199217496772688/1059201661417037995/1218113300764819488)** (303 条消息 🔥🔥): - **探索多 Agent 链式调用**:一位用户讨论了如何使用 LlamaIndex 链接多个 OpenAI Agent,并引用了 [LlamaIndex 关于使用工具部署 Agent 的文档](https://docs.llamaindex.ai/en/stable/module_guides/deploying/agents/tools/root.html)。文中提到了在此背景下使用 `FunctionTool` 和 `QueryEngineTool`,尽管他们遇到了需要进一步澄清的错误。 - **Xinference 支持咨询**:两位参与者交流了 LlamaIndex 中 Xinference 的 CPU 支持情况,分享了[本地部署指南](https://docs.llamaindex.ai/en/latest/examples/llm/xinference_local_deployment.html)和 GitHub 链接。一位成员寻求关于在集群中安装以提高推理时间的建议,并参考了 Xinference 与 LlamaIndex 的集成。 - **在 LlamaIndex 中高效使用 BM25**:一位用户寻求关于如何在 LlamaIndex 中使用基于 BM25 的模型进行 Embedding 的帮助,并链接到了相关的[文档示例](https://docs.llamaindex.ai/en/latest/examples/retrievers/relative_score_dist_fusion.html)。对话演变为讨论将 BM25 作为 `HuggingFaceEmbedding` 模型的适当设置。 - **寻求 LlamaCloud 访问权限**:一位个人询问如何访问 LlamaCloud,并获得了在 [https://cloud.llamaindex.ai](https://cloud.llamaindex.ai) 注册的指导,通过简单的注册流程即可获得访问权限。 - **关于 Embedding 模型及其兼容性的讨论**:一位成员提出了关于 ChatGPT 性能随 Embedding 模型变化而波动的担忧,并思考使用 LlamaIndex 手动设置 Embedding 模型是否可以防止此类问题。他们建议客户重新上传文件,以可能提高 ChatGPT 的性能一致性。提到的链接:提到的链接: