ainews-to-be-named-9615
世界模拟.exe
以下是为您翻译的中文内容:
英伟达 (NVIDIA) 发布了 Project GR00T,这是一个旨在让人形机器人通过多模态指令进行学习的通用基础模型,该模型构建于其 Isaac Lab、OSMO 和 Jetson Thor 等技术栈之上。英伟达还展示了拥有超过 1 exaflop(百亿亿次) 算力的 DGX Grace-Blackwell GB200 系统,仅需 2000 块 Blackwell 芯片即可在 90 天内完成拥有 1.8 万亿参数的 GPT-4 的训练。黄仁勋证实了 GPT-4 确实拥有 1.8 万亿参数。新款 GB200 GPU 支持 float4/6 精度(每个参数约 3 位),在开启 2 倍稀疏性的情况下,其 fp4 算力可达 40,000 TFLOPs。
开源领域的亮点包括:拥有 3400 亿参数 的 Grok-1 模型正式发布;Stability AI 推出了开源文本转视频生成方案 SV3D;Nous Research 合作在 Llama.CPP 中实现了转向向量 (Steering Vectors)。
在检索增强生成 (RAG) 方面,一个全新的 5.5 小时教程 演示了如何利用开源 Hugging Face 模型构建流水线;LangChain 发布了关于查询路由的视频,并宣布与 NVIDIA NIM 集成,以实现 GPU 优化的 LLM 推理。
重要观点包括:杨立昆 (Yann LeCun) 将语言能力与其他认知能力进行了区分;山姆·奥特曼 (Sam Altman) 预测 AGI 将在 6 年内到来,并认为从 GPT-4 到 GPT-5 的跨越将与 GPT-3 到 GPT-4 的飞跃相当;此外还有关于 Claude 等大语言模型哲学地位的讨论。同时,专家建议大多数公司不要尝试从零开始训练模型。
2024年3月18日至3月19日的 AI 新闻。我们为您检查了 358 个 Twitter 账号 和 21 个 Discord 服务端(337 个频道,9841 条消息)。预计节省阅读时间(以 200wpm 计算):1033 分钟。
市面上有很多 Nvidia GTC 的回顾 —— YouTube 做得比我们更好。
我们昨天意外地成为了新闻周期的一部分,Karan(Nous Research 的 CEO)演示了他的 world_sim.exe 探索。这纯粹是为了好玩,但对于 Roleplay Prompt Engineering 能带你走向何方,是一个非常有趣的探索。
目录
[TOC]
第一部分:AI Twitter 综述
所有综述由 Claude 3 Opus 完成,从 4 次运行中选取最佳。
NVIDIA GTC 发布会公告
- NVIDIA 宣布了 Project GR00T,这是一项旨在为人型机器人学习创建 Foundation Model 的计划,该模型可以理解多模态指令并执行有用任务。它诞生于 NVIDIA 的技术栈,包括 Isaac Lab、OSMO 和 Jetson Thor。(49.5万次观看)
- NVIDIA 揭晓了 DGX Grace-Blackwell GB200,单个机架的计算能力超过 1 exaflop。它可以在 90 天内使用 2000 个 Blackwell 训练具有 1.8T 参数的 GPT-4。(29.1万次观看)
- 黄仁勋宣布 GPT-4 拥有 1.8 万亿参数。(3.6万次观看)
- NVIDIA 的新 GPU GB200 具有 float4/6 精度。它每个参数使用约 3 bits,类似于 1.58bit 论文。fp4 的 40,000 TFLOPs 是在 2x Sparsity 下实现的。在 fp8 上,它达到 20 PFLOPs,而 H100 为 8 PFLOPs。它拥有 384 GB VRAM。(1.9万次观看)
开源 LLM 与实现
- Grok-1,一个 340B 参数的开源模型发布。 该仓库正在变得流行。(20.8万次观看)
- Nous 与 @voooooogel 合作,根据 @jam3scampbell 的原始论文在 Llama.CPP 中实现了 Steering Vectors/Control Vectors。(1.3万次观看)
- Stability AI 发布了 SV3D,这是一个用于 Text-to-Video 生成的开源解决方案,包含了完整的训练过程。(1千次观看)
检索增强生成 (RAG)
- 一个新的长篇(5.5 小时)RAG 教程已上线,从零开始构建一个 Pipeline,使用一份 1200 页的营养学 PDF 创建 “NutriChat”。它使用免费的开源 HF 模型,无需 API。(6千次观看)
- LangChain 发布了其 RAG From Scratch 系列的第 10 个视频,重点关注使用 LLM 的逻辑推理或语义相似性进行查询路由。(3.5万次观看)
- LangChain 宣布与 NVIDIA NIM 集成,用于 RAG 应用中 GPU 优化的 LLM 推理。(1.5万次观看)
新兴趋势与观点
- Yann LeCun 分享了观点,认为语言与规划、推理、共情等其他认知能力是截然不同的。认知的绝大部分似乎与语言无关。(15.1万次观看)
- Sam Altman 在 Lex Fridman 的采访中暗示 AGI 可能会在 6 年内到来。他表示从 GPT-4 到 GPT-5 的跨越将类似于 GPT-3 到 GPT-4。与其他公司相比,OpenAI 较少卷入文化战争。(6.6万次观看)
- 关于像 Claude 这样的 LLM 是否在某种哲学意义上“活着”存在讨论,这标志着一种新的文化分歧。(6千次观看)
- 有观点认为 大多数公司不应该从头开始训练模型,因为这通常没有意义。(1.3万次观看)
第 0 部分:总结的总结的总结
鉴于 Claude 3 Haiku 最近发布,我们将其加入到本次综述运行中供您对比。在构建 AINews 平台以提供更好 UX 的期间,我们将继续并排运行这些模型。
Claude 3 Haiku (3B?)
-
AI 硬件优化:成员们积极分享了关于构建高效运行 LLM 的硬件设置的策略和经验,包括关于利用 EPYC CPU、冷却 Tesla K80 GPU 以及评估不同 GPU 选项的成本效益权衡的讨论。
-
光子计算的进展:社区对光子计算机芯片的潜力表示兴奋,成员们分享了教育资源,如 Asianometry 关于硅光子学和光网格的视频 以及 关于新芯片突破的视频。
-
探索检索增强生成 (RAG):讨论深入探讨了优化 RAG 模型、设计专门的“RAG 模式”以及利用 Cohere 模型的鲁棒性,成员们分享了资源,如 实现 RAG 的逐步指南 和一篇 关于使用 RAG 赋能 AI 助手的 Medium 文章。
-
大型语言模型(LLM)的基准测试与评估:社区对当前的 LLM 基准测试系统表示怀疑,质疑其可靠性和可复现性,特别是对于像 GPT-4 和 Grok-1 这样的大型模型。成员们讨论了对更强大、更标准化的评估方法的需求。
-
AI 推理与推断的进展:讨论强调了增强 LLM 推理能力的新方法,例如 Maisa 知识处理单元 (KPU) 和关于教导 LLM “三思而后行”的 Quiet-STaR 项目。
Claude 3 Sonnet (14B?)
-
大型语言模型 (LLM) 创新与发布:
- Stability AI 发布了 Stable Video 3D,可从单张图像创建 3D 网格。
- xAI 发布了 Grok-1,一个拥有 314B 参数的 Mixture-of-Experts 模型,引发了关于性能和资源需求的讨论。
- NVIDIA GTC 主旨演讲 中传闻的 GPT-4 1.8T 参数引起了多个社区的兴趣。
-
模型性能比较与基准测试:
- 用户比较了 Stable Cascade 和 SDXL,Cascade 在处理复杂提示词方面表现更好,但运行速度较慢 (Stability.ai)。
- 关于 Grok-1 的性能存在争议,尽管其规模庞大,但对其真实世界能力的怀疑依然存在 (Nous Research AI, Latent Space)。
- 人们对 LLM 基准测试系统的可靠性以及 openLLM 排行榜结果的可复现性表示担忧 (Eleuther)。
-
微调与模型优化技术:
- Unsloth AI 仓库 因其更快且显存高效的 QLoRA 和 LoRA 微调而走红 (Unsloth AI)。
- 讨论涵盖了 Gemma 7b 与 Mistral-7b 的性能对比以及 Mixtral 分支支持 (Unsloth AI)。
- 一种旨在提高模型准确性和样本效率的有前景的方法被预告,并计划进行更大规模的测试 (Skunkworks AI)。
-
硬件与基础设施讨论:
- NVIDIA 即将推出的采用 GDDR7 显存且带宽提升 55% 的 GeForce RTX 50 系列 “Blackwell” 受到关注 (Nous Research AI, OpenAccess AI Collective)。
- 讨论了 LM Studio 中的 ROCm 兼容性问题和多 GPU 支持 (LM Studio)。
- 探索了优化 LLM 硬件的策略,包括 DIY EPYC 系统和 GPU 冷却 (LM Studio)。
-
API 与模型集成:
- 用户期待 LM Studio 中的 Command-R 模型集成。
- 讨论了 Perplexity AI 的 API 不一致性和 Token 限制问题 (Perplexity AI)。
- OpenAI 的 API 被用于个性化博客文章翻译的实验 (Datasette - LLM)。
-
开源定义与许可:
- Grok-1 在 Apache 2.0 许可下的发布引发了关于大型模型开源影响的讨论 (Interconnects)。
- 社区辩论了是否需要一个清晰、实用的开源定义以避免争议 (Interconnects)。
Claude 3 Opus (>220B?)
-
Stable Video 3D 彻底改变内容创作:Stability AI 发布了 Stable Video 3D,它可以从单个物体图像创建 3D 网格(meshes)和新颖的多视角,超越了之前的 Stable Zero123 及其开源替代方案的技术能力。
-
Cascade 在复杂性上超越 SDXL:在用户基准测试中,Stable Cascade 在处理复杂 Prompt 方面超过了 SDXL,尽管其生成速度较慢——大约需要 90 秒,而 SDXL 仅需 30 秒。
-
Claude 3 Opus 表现出色但“无限”查询存在误导:Perplexity Pro 用户在 Claude 3 Opus 上可以获得“无限”每日查询,但 600 次的查询上限让一些人感到被误导。与此同时,Claude 3 Opus 在创意写作任务和对比测试中给人留下了深刻印象,例如手机对比实验。
-
Unsloth AI 冒充者警报:用户警告称,有一个冒充 Unsloth 开发者 Daniel Han (starsupernova0) 的诈骗账号正在发送好友请求。Unsloth AI repository 正在 GitHub 上流行,它提供了一个用于更快速、更节省显存的 QLoRA 和 LoRA 微调工具包。
-
Grok-1 发布引发辩论:Grok-1(一个 314B 参数的 MoE 模型)的发布让 AI 社区反应不一,既有兴奋,也有对其真实性能的怀疑。讨论涉及该模型在 GitHub 上的开源发布 以及 NVIDIA GTC 主旨演讲期间潜在的 GPT-4 泄露。
-
光子学引起 CUDA 社区兴趣:光子计算机芯片的进展成为热门话题,例如 NVIDIA 即将推出的 GeForce RTX 50 系列 “Blackwell”,配备 28 Gbps GDDR7 显存。社区还分享了诸如 Asianometry 关于硅光子学的视频等教育资源。
-
Triton Puzzles 挑战 GPU 爱好者:一套全新的 Triton Puzzles 被推出,用于教育性的 GPU 问题解决,尽管最初存在一些 Bug。CUDA 社区正在积极讨论诸如 “Producer Provides” 和 “Consumer Takes” 等内存管理策略,以优化 LLM 推理的流水线并行(pipeline parallel)实现。
-
Axolotl 通过 ScatterMoE 提升性能:Axolotl 开发团队推出了 ScatterMoE,这是一种优化方案,承诺比 Huggingface 的 MoE 实现有显著的吞吐量提升,代码可在其 GitHub 分支上获取。建议使用 PyTorch 2.2 或更高版本以确保兼容性。
-
API 泄露 LLM 机密:研究人员发现,API 可能会无意中泄露有关专有 LLM 的信息,包括架构细节,而在 OpenAI 的 GPT-3.5-turbo 上进行实验的成本不到 1,000 美元。人们对被低估的 LLM 规模以及 Mixture of Experts (MoE) 架构的潜在使用感到担忧。
-
Maisa 的 KPU 承诺推理能力的飞跃:Maisa 展示了其全新的 Knowledge Processing Unit (KPU),它与 LLM 集成以增强复杂任务的解决能力。KPU 白皮书和博客详细介绍了其架构和潜力,但一些人在没有更多实质性证据以及与 GPT-4-turbo 进行对比的情况下表示怀疑。
ChatGPT (GPT4T)
-
AI 内容创作演进:Stability AI 的 Stable Video 3D 标志着 AI 驱动的 3D 内容生成领域的一次重大飞跃,展示了 AI 从单张图像创建复杂多视图内容能力的快速演进。这一进步不仅展示了技术的发展,还引发了关于内容创作未来的讨论,推向了 AI 可能性的边界。
-
区块链对 AI 的影响:Stability AI 对区块链合作伙伴关系的涉足,反映了 AI 社区内部关于区块链技术在 AI 发展中作用的更广泛张力。虽然一些人看到了创新的潜力,但另一些人则对可访问性、开放性以及 AI 平台的未来方向表示担忧,突显了在平衡技术进步与社区价值观及可访问性方面的关键辩论。
-
模型性能与伦理考量:围绕 Perplexity AI 的 Claude 3 Opus 和 Stability AI 合作伙伴关系的期待与怀疑,强调了 AI 社区对模型性能、伦理考量和透明度持续存在的关注。这些讨论反映了关于 AI 技术伦理影响、AI 公司透明沟通需求以及使 AI 发展与伦理标准和用户期望保持一致重要性的更广泛辩论。
-
AI 优化中的技术增强与社区参与:社区对 Unsloth AI 的 GitHub 项目的支持,突显了对旨在提高 AI 效率和减少资源消耗的技术增强的浓厚兴趣。这种参与标志着社区在优化 AI 技术以获得更好性能和更低准入门槛方面的动力,反映了推动 AI 优化和应用边界的集体努力。
-
AI 伦理、开放性与可访问性辩论:围绕 AI 在科学同行评审中作用的讨论(如 Nous Research AI 的考察)以及由 Latent Space 引发的关于 LLM 的辩论,突显了关于 AI 技术伦理考量、开放性和可访问性的持续对话。这些辩论涵盖了对 AI 对科学诚信影响、AI 在内容创作中的伦理使用,以及专有进步与开放创新之间平衡的担忧,强调了在伦理和可访问框架内引导 AI 发展的复杂性。
-
AI 训练方法论与数据管理:Eleuther 中关于优化语言模型 scaling laws 的对话,以及 LAION 关于 DALL-E 3 数据集迁移至新 Hugging Face repository 的更新,体现了 AI 训练和数据处理实践中的持续创新。这些讨论强调了 AI 社区在确保数据可访问性和可重复性的同时,专注于增强模型效率、准确性和通用能力,展示了为更广泛的应用和影响而完善 AI 技术的持续努力。
这些主题共同捕捉了 AI 领域的动态和多面性,其特点是快速的技术进步、伦理和政策辩论、社区在优化工作中的参与,以及对增强 AI 训练和数据管理实践的持续追求。
PART 1: 高层级 Discord 摘要
Stability.ai (Stable Diffusion) Discord
-
Stable Video 3D 彻底改变内容创作:Stability AI 发布了 Stable Video 3D,它可以从单个物体图像创建 3D meshes 和新颖的多视图,超越了之前的 Stable Zero123 及其开源替代方案的能力。
-
Cascade 在复杂性上超越 SDXL:在用户基准测试中,Stable Cascade 在处理复杂 prompts 方面优于 SDXL,尽管生成时间较慢——大约 90 秒,而 SDXL 为 30 秒。
-
区块链热潮破坏氛围:用户对 Stability AI 与区块链实体的合作伙伴关系表示担忧,担心这可能会对备受期待的 Stable Diffusion 3 (SD3) 等模型的未来开放性和可访问性产生负面影响。
-
SD3 Beta 的等待升温:用户社区正翘首以盼,急切期待 Stable Diffusion 3 的 Beta 版本发布,传闻该版本将结合高质量输出与高效 runtime。
-
Safetensor 转换困惑:关于将 PyTorch .pt 文件转换为 safetensors 的咨询引发了讨论,令人欣慰的是,大多数用户界面会阻止从 .pt 文件执行脚本,从而降低了安全风险,尽管文中未提及直接的解决方案。
Perplexity AI Discord
-
并非真正的无限:Perplexity Pro 用户被承诺在 Claude 3 Opus 上享有无限次每日查询,但发现“无限”一词具有误导性,因为显然存在 600 次查询的上限。担忧指向了可能的虚假陈述和法律后果。
-
创意显微镜下的 Claude 3 Opus:用户深入探讨了 Claude 3 Opus 在创意写作方面的能力,使用了一个关于智力升级的 Prompt,提醒他人分享 Thread 以增加曝光度,并进行了手机对比实验。
-
Midjourney 与 Stability AI 划清界限:在针对 AI 开发者的关键讨论中,Midjourney 对 Stability AI 的立场引发了关于 AI 社区内政策和伙伴关系的对话。
-
API 模型的命运悬而未决:工程师们讨论了一个原定停用的模型意外继续服务的情况,并注意到 Sonar API 在涉及 Donald Trump 的新闻响应中存在差异,突显了内容一致性的不可预测性。
-
通过 API 进行职位搜索和 Token 限制:虽然 Perplexity 的 API 以其检索职位发布的潜力吸引了用户,但结果的不一致令人沮丧,用户也对 max token 设置如何影响响应质量感到好奇。
Unsloth AI (Daniel Han) Discord
-
警惕冒充者:针对冒充 Daniel Han (starsupernova0) 并试图通过好友请求诈骗 Unsloth AI 用户的行为发布了警报。敦促用户举报此类账户以维护社区安全。
-
Unsloth AI 在 GitHub 上大放异彩:Unsloth AI 仓库正处于 Trending 状态,它提供了一个在 QLoRA 和 LoRA 微调期间提速 2-5 倍且减少 70% 内存占用的工具包。感谢社区对该仓库的点赞(Star)支持。
-
微调和模型讨论持续升温:辩论集中在针对特定领域任务的 Gemma 7b 与 Mistral-7b 之争,Unsloth AI 修复了 Gemma 中的 Bug。此外,还分享了 Mixtral 的分支支持,以及像 Uiverse.io 这样提供 CSS 或 Tailwind 开源 UI 元素的资源。
-
微调的磨难与挑战:用户在 Colab 上微调 Mistral 7b 以及区分 LoRA 和 QLoRA 时遇到了问题。困难包括将模型保存到 Hugging Face 等平台时出错,以及关于 Unsloth 不支持的模型(如 OpenAI 的 GPT-4)的部署咨询。
-
Epochs vs 知识与模型集成见解:关于有效模型训练所需的 Epoch 数量的讨论,对于像 Tiny Mistral 这样的 LLM 进行更长时间训练的益处尚无明确共识。讨论包括对配置设置的发现(Hugging Face 上的 Tiny Mistral 模型),并针对处理大数据集的理想 Rank 和 Alpha 值提出了建议。
LM Studio Discord
-
工程师们热切关注新模型集成:在 Pull Request #6033 合并后,用户们正热烈讨论即将集成到 LM Studio 的 Command-R 模型。同时,拥有 314B 参数的巨型模型 Grok 引起了许多人的兴趣,但由于巨大的资源需求,在本地运行似乎并不现实。
-
硬件优化热潮:关于优化硬件的讨论非常火热。拥有 RTX 2070 Super 和 1660 Super GPU 的用户正在寻找最适合其配置的模型,而另一些人则考虑以 150 欧元的价格购买 Tesla K80,并使用 3D 打印导风罩进行散热。DIY 玩家们在争论构建 EPYC 系统的优劣,权衡充足的 PCIe 通道与成本之间的关系。
-
模型管理之谜:模型兼容性引起了社区的困惑。据澄清,llama.cpp 尚未完全支持 Cohere 的 Command-R 模型,需要 2024 年 3 月 16 日之后的更新以及 b2440 版本才能配合 GGUF 文件运行。不过对于 AVX beta 用户来说有个好消息,像 Mistral 这样成熟的模型应该可以平稳运行,尽管还不支持像 starcoder2 或 gemma 这样最新的模型。
-
ROCm 之谜:一位 ROCm 用户发出了求助信号,寻找同道中人;而另一位用户指出 AMD Radeon 6700 XT 与 ROCm 不兼容,且 LM Studio 目前仅限于使用主 GPU。
-
插件追求与配置探索:LM Studio 的爱好者们正在 lmstudio-ai/configs 中寻找模型预设的“圣杯”,而另一位勇敢的探索者正在寻求关于在 Local Inference Servers 上通过 JSON function calling 调用模型的指导。
-
AI Agent 愿景:一条简短的消息透露了对合适 Agent 系统的渴望,以实现某种创意构想,这暗示了在表面之下涌动着好奇心与算法艺术的结合。
Nous Research AI Discord
-
NVIDIA 加速迈向未来:即将推出的 NVIDIA GeForce RTX 50 系列 “Blackwell” 将采用 28 Gbps 的 GDDR7 显存,有望比 GDDR6 提升高达 55% 的带宽。
-
AI 的“色情 Claude”引发争论:一个声称“色情 Claude”能增强 AI 输出的聊天机器人实验引发了激烈讨论,有人将其比作“反向 Sydney”,而其他人则关注实质性话题,如 Apple 的 AI 工作以及 Hugging Face 上的新型 ORPO 算法。
-
Grok-1 的发布引发争论:AI 社区对拥有 3140 亿参数的模型 Grok-1 反应不一,一些人对其真实性能持怀疑态度。同时,在 NVIDIA CEO 可能在 GTC 主旨演讲中失言后,关于 GPT-4 拥有 1.8 万亿参数的传闻引发了关注,相关视频可在 YouTube 上观看。
-
Perplexity 困扰 Llama-2 用户:使用 Kaggle notebook 计算 Llama-2 的 Perplexity(困惑度)实验引起了混乱,而关于 Mistral 和 Llama 等 LLM 的扩展与缩减讨论成为了焦点,重点在于财务和技术可行性。
-
RAG 团队深入探讨:RAG(retrieval-augmented generation)社区内的讨论深入到了优化 RAG 模型属性、设计专门的“RAG 模式”,并利用 Cohere 模型的鲁棒性,旨在改进上下文处理和多样化输出结构等功能。此外,一段 Python 脚本方法已在 GitHub 上分享。
Eleuther Discord
-
免费获取常春藤盟校秘籍!:工程师们讨论了访问免费常春藤盟校课程的价值,例如来自 MIT 和 Stanford 的讲座,并分享了 Carnegie Mellon University 一位教授的网页,展示了其在算法和 Machine Learning 方面的贡献。这个包含近 7 年内容的页面可以在这里找到。
-
利用 KPU 挑战 AI 推理极限:一个专注于矩阵乘法的 AI 加速项目 以及 Maisa 的 Knowledge Processing Unit (Maisa KPU) 成为分享的热点,旨在提升 Large Language Model (LLM) 任务的复杂性。讨论还涉及了 LLM 中的 “ThoughtStream” token 和 pause token 的概念,以增强推理和推断能力。
-
Grok 的抱怨与 GPU 的炫耀:在关于模型性能和基准测试的辩论中,xAI 的 Grok(一个 3140 亿参数的 Mixture-of-Experts 模型)面临关于其实际效用的审查,人们对 Mamba 等不同架构中的投机采样(speculative sampling)持怀疑态度。此外,目前的 LLM 基准测试系统也受到了显著批评,特别是关于 Llama2-70b 等模型在 openLLM 排行榜结果的可复现性存疑。
-
规模至关重要:数据复杂度对 Scaling Laws 的影响:成员们讨论了语言模型 Scaling Laws 如何随数据复杂度而变化,以及句法属性和可压缩性对扩展特性的影响。使用 gzip 等压缩指标,可能通过识别具有有利词汇密度的数据集,为创建最佳训练数据混合物提供参考。
-
Bigram 入门与 N-Gram 细节:在 n-gram 统计领域,社区交流了如何自回归地采样具有特定 n-gram 统计特性的字符串。一个辅助该过程的脚本 generate_bigrams.py 表明,高阶 n-gram 规范本质上决定了低阶统计特性。
-
Gaudi2 上的 Llama 以及对 Harness 更新的追求:用户分享了使用 lm-eval-harness 在 Gaudi2 上为 Llama 实现功能的经验,面临了工具中的模型选择问题,并讨论了新发布的 0.4.2 版本,可在这里获取。社区仔细研究了在
wikitext等任务中进行困惑度(perplexity)评估的方法差异,如loglikelihood_rolling。 -
是否对 The Pile 进行洗牌:围绕 the Pile 训练前的准备工作展开了讨论。会议澄清了虽然原始文件没有经过洗牌,但 Hugging Face 上的预分词(pretokenized)数据是开箱即用的,已被 Pythia 成功采用,且原始 Pile 中的训练/测试/验证集划分可能是经过洗牌的。
OpenAI Discord
-
AI 模型在处理 Playwright 代码时遇到困难:一些用户遇到 GPT-3.5 Turbo 无法生成正确的 Playwright 测试代码的问题,这表明模型可能不熟悉最新的库更新。建议尝试使用 GPT-4,并考虑将任务拆分为更小的块以提高性能。
-
关于 AI 拒绝执行任务的大讨论:社区注意到模型拒绝完成任务的情况有所增加,引发了关于 meta-prompting 等策略的讨论。担忧还涉及当前的内容政策,用户希望 OpenAI 能够解决并放宽这些政策。
-
分类难题与上下文窗口:在 Prompt Engineering 的讨论中,关于优化分类提示词以获得更好的召回率和更少的误报的建议正在流传。关键建议包括测试提示词在总上下文窗口(Context Window)中的位置影响,以及考虑迁移到更强大的模型。
-
对 GPT-5 的期待与 GPT-4 网页搜索技能:用户们急切地询问 GPT-5 的发布时间,但目前尚无定论。同时,人们对如何将 GPT-4 的网页搜索功能集成到 API 中感到好奇,该功能因其增强的对话能力而受到赞赏。
-
OpenAI API 使用技巧与隐私政策:围绕 API Key 管理和数据隐私的担忧引导用户查阅 OpenAI 企业隐私政策 以了解详情。此外,有关 GPT 无响应的报告促使人们参考 OpenAI 的支持页面 help.openai.com 以寻求帮助。
HuggingFace Discord
-
渴望 NL2SQL 终极方案的技术热衷者:一名正在开发 NL2SQL pipeline 的成员对使用 BAAI/llm-embedder 和 TheBloke/nsql-llama-2-7B-GGUF 配合 FAISS 的准确性表示担忧,并寻求关于更精确模型和 Embeddings 的建议。
-
Hugging Face 聚会:人们对新的 Hugging Face 计划表现出极大的热情,包括模型和数据排行榜。此外还讨论了平台的容量、针对新手的务实使用指南,以及 Hugging Face NLP Course 等学习资源的链接。
-
惊叹于 NVIDIA 的计算实力:Nvidia GH200 Grace Hopper Superchip 成为热议话题,象征着计算效率的进步;然而,文中未讨论进一步的技术细节。
-
开创 Medusa 的并行 Token 预测:Medusa 引起了广泛关注,这是一种创新的并行 Token 预测方法,旨在增强 Large Language Model (LLM) 的推理能力,有望打破受限的顺序 Token 生成模式。
-
AI 悄然进入科学同行评审:一项研究揭示了同行评审文本中潜在的 LLM 修改痕迹,发现某些评审特征可能与 AI 修改的内容相关。这引发了关于 LLM 改变科学讨论的跨学科关注 (研究链接)。
LlamaIndex Discord
旧文档的新技巧:提出了将文档视为 Retrieval-Augmented Generation (RAG) 流水线中动态实体的交互技术,可能通过更复杂的交互提高 RAG 性能。讨论包括一份分步指南,涵盖了使用 LlamaParse 和 Qdrant 等工具实现高效 RAG 的方法。
LlamaIndex 0.10.20 对工程师至关重要:LlamaIndex v0.10.20 的发布带来了全新的 Instrumentation module,提供了增强的可观测性功能和 API 调用监控,并在共享的 Notebook 中进行了演示。发布公告和资源可以通过其 Twitter 更新找到。
搜索之旅:展示了一种名为 Search-in-the-Chain 的新方法,它集成了检索和规划,以实现终极的问答能力——这可能会彻底改变 QA pipeline 中的实时调整能力。一篇关于该主题的论文受到了关注,社区对这篇 推文 表现出浓厚兴趣。
简历路由革命:一篇博客文章展示了一个结合了 LlamaParse 和 LlamaIndex 的新模型,旨在促进高效的职位匹配,能够相对轻松地解析复杂的简历格式。Kyosuke Morita 关于该主题的文章可以在此 Twitter 线程中找到。
Agentic Memory 架构登场:MemGPT 的出现(一种旨在增强 AI Agent 记忆功能的架构)有望显著改进 Assistant API,重点在于可靠的记忆操作。工程师们可以参考 网络研讨会推文 以获取更多启发。
Latent Space Discord
-
Yann LeCun 的内心独白困境:Yann LeCun 关于 LLM 的争议性观点引发了关于语言是主要辅助推理,还是视觉空间处理更为基础的辩论。“wordcels”(文字细胞)与“shape rotators”(形状旋转者)的概念并列出现,这源于 LeCun 据称没有内心独白(inner monologue)的爆料。
-
对 GPT-5 的猜测升温:对 GPT-5 能力潜在飞跃的期待日益高涨,这主要受到 Sam Altman 对重大改进的暗示以及 OpenAI 被推测处于开发前沿的推动。讨论内容包括与 Nvidia GTC 活动相关的“万亿参数聊天机器人”的预期,以及 LLM 进展中出现量子跃迁的可能性。
-
Grok-1 的圆周率日惊喜:科技界对 xAI 在圆周率日发布的 Grok-1 做出反应,这是一个拥有 314B 参数的 MoE 模型,引发了将其能力与其他顶级 LLM 进行对比的评估。对话范围涵盖了性能、开源发布的可能动机,以及关于其体量和并行计算策略的笑话。
-
Lex 乏善可陈的 OpenAI 访谈:Sam Altman 在 Lex Fridman Podcast 上的亮相让社区渴望获得更多实质性的收获。对话指出,访谈缺乏对 OpenAI 策略和 Ilya Sutskever 参与情况的深入见解,其中还穿插了对 Lex 播客风格的戏谑。
-
深入理解 Transformer 范式:Paper Club 环节对 Transformer 的魅力提供了宝贵的见解;其 Attention 机制解决了过去模型的编码限制,并允许训练中的并行处理,澄清了关于 LLM 计算效率的疑虑。活动暗示即将发布一篇博客文章,承诺进行详细回顾。
-
90 年代嘻哈 AI 奏响反思节拍:由 Suno 开发的 AI 创作了一首具有 90 年代嘻哈风格的歌曲,思考了 AI 在创意领域中具有挑战性的角色,并引发了关于机器生成艺术边界的讨论。
-
AI 在行动:公会集结:一场内容丰富且多样的对话,包括成员对一篇详细博客文章的预告、关于高级 RAG 技术的资源分享,以及引用了该俱乐部的协作学习文档。
LAION Discord
-
DALL-E 3 数据集迁移:DALL-E 3 数据集已迁移,并非此前认为的被删除,工程师现在可以通过其新的 Hugging Face 仓库进行访问。
-
为你的数据集提交 Commit:Hugging Face 数据集可以使用特定的 commit id 进行加载,从而增强 AI 实验的可复现性;该功能已在 Hugging Face 的数据集加载指南中列出。
-
领悟 Grok 模型:Grok 是由 xai-org 开发的 314B 参数模型,目前处于性能讨论的中心,工程师们将其与较小的 Mixtral 进行对比;Grok-1 的 GitHub 仓库可以在此处找到。
-
利用 Cog 增强标注:元数据正被用于提高 Cog 模型中描述(caption)的准确性,一些用户分享了他们的策略和脚本,其中一个可以在 GitHub 上获取。
-
GPT-4 架构推测:关于 GPT-4 潜在架构的传闻甚嚣尘上,泄露消息暗示其为一个 1.8 万亿参数的 MoE 模型,但尚未得到证实;可以通过这张推文图片进一步了解相关推测。
OpenAccess AI Collective (axolotl) Discord
Axolotl 提升模型优化水平:Axolotl 开发者推出了 ScatterMoE,这是一项旨在提升 Huggingface 吞吐量的优化技术,用户可前往其 GitHub 分支了解更多详情。为了确保兼容性,必须升级到 PyTorch 2.2 或更高版本,部分用户已经在使用 PyTorch 2.2.1。
探讨 Grok 的庞大体量:拥有 3140 亿参数的 Grok-1 模型权重的发布引发了热议。有成员评论其性能并非最优,且运行所需的资源极高。虽然目前仅发布了 int8 版本,但根据 Grok GitHub 页面,有人推测可以利用 Axolotl 的 qLoRA FSDP 来进行管理。
NVIDIA 硬件热度再创新高:预计于 2025 年左右推出的 NVIDIA RTX 5000 系列可能会带来 50% 的 VRAM 提升和 78% 的带宽增幅;具体细节可见 Heise 和 TechPowerUp 的文章。
模型训练与转换难题:在使用 <summary> 标签时发现了 Tokenizer 问题,导致识别出分词不一致。另一位用户在本地模型和数据设置中遇到了困难,引发了 HFValidationError 挑战。对话数据微调错误通过参考 Axolotl 的 readme 得到解决,通过映射额外角色并排除简短对话来处理空数据集的 “role” 数组。
数据集对话推动新发现:一位用户对在数学和代码数据集上微调的 Mistral 模型表现出兴趣,并有人建议利用 mergekit 等合并策略来处理海量数据,而无需单独训练。合并过程中不同模型聊天格式的兼容性也受到了质疑,但尚未得到明确解决。
CUDA MODE Discord
-
光子技术的未来大放异彩:成员们讨论了光子计算机芯片的进展,分享了一个关于突破的视频,并建议通过两段关于硅光子学和光网格的 Asianometry 教育视频进行深入学习。NVIDIA CEO 还在 GTC 2024 上暗示了 AI 的未来,讨论了一个拥有 1.8 万亿参数的新 Sota 模型以及配备 192GB HBM 的 B100 硬件。
-
Triton 获得新拼图与可视化工具:发布了一个新的 Triton 可视化工具 以帮助调试复杂函数,同时还有一套用于 GPU 编程教学的 Triton Puzzles,尽管目前还存在一些 bug,如偶尔的双重可视化和段错误(segmentation faults)。
-
CUDA 爱好者挑战内存与效率:以 CUDA 为核心的讨论在 warp 调度器参与和定义活跃 warp 方面缺乏共识,但对内存管理策略(如 “Producer Provides” 和 “Consumer Takes”)提供了更深入的见解,将这些策略应用于 LLM 推理的流水线并行(pipeline parallel)实现引起了浓厚兴趣。
-
ML 系统与硬件融合:建议参考 Prof. Mohamed Abdelfattah 的研究小组频道和 ECE 5545 (CS 5775) 课程页面来探索 ML 与硬件优化之间的联系。社区积极参与了关于 ring-attention 和 flash-attention 实现的讨论,并通过研究链接和 GitHub 仓库解决了内存缩放问题。
-
CUDA 与 ML 知识交流:一位成员在 memory coalescing 和 warp divergence 等领域的 CUDA 背景被认为是学习 ML 的良好基础,并推荐了 《Programming Massively Parallel Processors》 一书以及 Andrej Karpathy 的 Zero to Hero ML 系列。关于分享 Programming Massively Parallel Processors 书中练习答案的辩论,呼吁明确教育分享的伦理。
-
花絮交流与 GTC 期待:社区分享了关于 MLSys 2024 口号的诗意笔记、关于智能手机问题的幽默,并澄清了数学中的运算顺序。成员们协调了 GTC 线下聚会,其中一人对无法参加表示遗憾。
OpenRouter (Alex Atallah) Discord
- Llama 格式获准使用:”system”、”user” 和 “assistant” 格式已获准用于 Llama 模型,支持结构化对话。
- 通过充值实现模型变现:针对支付查询,明确了用户需要充值余额 (top up their balance) 而不是直接绑定信用卡,这影响了模型交互的变现方式。
- Sonnet 赢得角色扮演之战:Sonnet 成为用户在追求一致角色扮演 (roleplay) 体验时的首选模型,在维持叙事且不产生重复或无关输出方面表现优于其他模型。
- Prompt 技巧导航:关于引导 Large Language Models (LLMs) 的讨论显示,通常只有第一条 system 消息被用作 Prompt,后续指令可能需要嵌入到 user 消息中。
- API 开发与模型市场:对话涉及了多个技术点,如公共 API 的集成、在平台上线以及联盟计划,同时考虑了成本、效率以及 OpenRouter API 对 Sonnet 等模型的灵活性。
讨论中相关的链接包括 OpenRouter 和 xai-org 在 GitHub 上的 Grok 开源发布。
LangChain AI Discord
LangChain 世界中的 API 困惑:成员们讨论了 LangChain 的 astream_log 与 astream_events 的优劣,担心后者处于 beta 阶段且可能被弃用。然而,对于哪种 API 更受青睐,或者它们是否旨在服务于不同的目的,尚未达成明确共识。
社区助力文档救援:由于用户在导航方面面临挑战,并发现材料(特别是对平台新手而言)有些匮乏,要求对 LangChain 文档 进行澄清和贡献的呼声引起了共鸣。
Rubik’s AI 组建其 Beta 测试团队:发出了对名为 Rubik’s AI 的强大研究助手的 beta 测试邀请,承诺可以访问 Claude 3 Opus、GPT-4 Turbo 和 Mistral Large 等高性能模型。感兴趣的参与者请前往其 waitlist。
LangChain AI 展示:从用于数据分析的 AI 聊天机器人到动态书签和个性化营养应用,成员们向社区分享了他们基于 LangChain 的创新。这些项目展示了高级功能的集成,并在 GitHub 上提供了仓库,通过 YouTube 进行了演示。
流式传输陷入停滞:在使用 LangChain 的 RemoteRunnable 尝试在 JavaScript 中进行流式输出时出现了技术问题,它会转向 /invoke 调用,而不是预期的 /stream。此事看起来很复杂,目前还没有针对 JavaScript 特定流式传输难题的最新文档或更改。
Interconnects (Nathan Lambert) Discord
-
API 可能会泄露 LLM 的秘密:研究人员发现,API 可能会无意中泄露专有大语言模型(LLM)的信息,包括架构细节,而在 OpenAI 的 GPT-3.5-turbo 上进行实验的花费不到 1,000 美元。人们对低估 LLM 规模的担忧日益增加,对 70 亿参数的估算持怀疑态度,并认为 Mixture of Experts (MoE) 架构可能会虚增真实规模。
-
对模糊开源定义的苦恼:关于开源定义的争论正在酝酿,@rasbt 的推文预示了 OSS 社区内部可能出现的分歧。成员们认识到需要对什么是开源达成明确共识,考虑到从 Apache 2.0 到 GPLv3 的各种许可证,目前正在努力创建一个实用定义以减少潜在争议。
-
巨兽降临:Grok-1 亮相:xAI 宣布推出 Grok-1,这是一个拥有 3140 亿参数的巨型 Mixture-of-Experts 模型,采用 Apache 2.0 协议发布,在社区中引起了轰动。Grok-1 的性能指标表明它可能会使 Falcon 等竞争模型相形见绌,其非传统的种子(torrent)分发方式引发了关于开源 AI 政策和声誉问题的讨论。
-
数据量推测与 Chinchilla 关系:鉴于 Grok-1 出色的性能,社区推测其训练数据集的大小,并思考 Chinchilla 研究的结论如何与 MoE 模型相关联,反映了数据规模与模型最优性之间的权衡。
-
模型交付的幽默折射出带宽困境:在关于 Grok-1 的讨论中,一个关于通过物理运输 AI 模型以规避云端流出流量费用的笑话,凸显了传输海量数据相关的现实挑战和成本。
Alignment Lab AI Discord
- Alignment Lab 中的空中客车(Airbus)疑云:Alignment Lab 分享的一条关于空中客车的推文引发了成员们的困惑,有人寻求澄清到底在构建什么。
- 寻找精通 HTTP 的 Embeddings 模型:有人询问是否存在专门针对 HTTP 响应训练的 embeddings 模型,并建议经过适当训练的 Transformer 可能会胜任这一角色。
- 缺失的双重微调 Mistral 模型:关于是否存在同时在 orca-math-word-problems-200k 数据集和 nvidia/OpenMathInstruct-1 上进行微调的 Mistral 模型的问题浮出水面,这表明在可获取的组合训练方面存在空白。
- Grok-1 微调动员:有人呼吁合作微调 Grok-1,强调了所需的巨大计算资源和专业知识(如 64-128 块 H100 GPU),同时强调了现有的具有极高效率的 MoE 训练基础设施。
- Grok-1:是瑰宝还是玻璃?:围绕 Grok-1 性能的怀疑论已经出现,但一些成员指出了其令人印象深刻的能力,并提到它在匈牙利国家高中毕业考试数据集上的表现可与 GPT-4 和 Claude 媲美。
LLM Perf Enthusiasts AI Discord
- AI 的受控反对派还是真实的恐惧?:在公会中分享的一条 tweet 引发了关于 Anthropic 真实动机的辩论,暗示它可能在充当受控反对派,以向技术人员施加压力。
- 挣扎中的 AI 内容审核:公会成员注意到内容审核系统在有效审核包含人物的图像方面表现不佳,引发了对这些算法在实际应用中可靠性的担忧。
- Claude Sonnet 的扩展困境:Claude Sonnet 在每月处理数千万个 tokens 的项目中的可扩展性受到质疑,公会成员正在寻求关于该模型在大业务量下表现的反馈。
- KPU:突破还是炒作?:Maisa 新推出的 Knowledge Processing Unit (KPU) 在一篇 博客文章和白皮书 中进行了描述,引发了关于其真实潜力以及与 GPT-4 等当前模型对比的讨论。成员们强调在任何直接对比中包含 GPT-4-turbo 的重要性,并在没有更多实质性证据的情况下表示怀疑。
- 持怀疑态度的工程师嘲讽 AI 初创公司趋势:随着 Maisa 推出 KPU,公会成员对 AI 初创公司典型的通过令人印象深刻的图表和 waitlists 进行技术炒作的模式进行了调侃,同时也批判性地思考了实际的缺点,如潜在的 latency 问题。@davipar 的一条推文 进一步阐明了 KPU 与 LLMs 协同工作的能力。
DiscoResearch Discord
-
DiscoLM 的德语困扰:用户报告称 DiscoLM-mixtral-8x7b-v2 在 fine-tuning 后难以生成德语,且 LeoLM 模型表现出不一致性。当 DiscoLM 对英语 prompts 返回德语响应时,也出现了 API 问题,并且在分类任务的 fine-tuning 过程中出现了 ValueError。
-
服务器迁移的紧急求助:演示服务器从家庭厨房搬迁到专业环境导致了意外的网络问题;解决该问题的努力将于下周开始。与此同时,成员们对模型训练和 prompt 遵循方面的指导表示感谢,并幽默地提到了业余爱好者设置中奇特的可靠性。
-
基准测试的忧郁与合作呼吁:Discord 聊天显示了对德语语言模型 benchmarks 的担忧,不同的性能与 templates 和 end token 约定有关。讨论中回响着合作建立更好的 benchmarks 和高质量 datasets 的呼吁,以及通过学术界参与或私有渠道获取 benchmarks 的俏皮建议。
-
GitHub 及更多:成员们分享了 GitHub 链接,如 grok 模型代码 以及各种 benchmarks,如 SuperGLEBer 和 XTREME。Reddit 帖子也出现在关于寻找最佳德语语言模型的讨论中。
Datasette - LLM (@SimonW) Discord
-
Explosion 让 Prompt Engineering 变得轻而易举:工程师们强调了来自 Explosion 的 Prodigy Prompt Engineering 工具,指出将 Prompt Engineering 转化为数据标注任务的进步,从而提高了精确度。
-
使用 PromptTools 进行跨模型 Prompt 测试:开源资源 PromptTools 因其在不同 LLM 和向量数据库(vector databases)之间进行 Prompt 测试和实验的实用性而被提及,尽管它目前缺少版本管理功能。
-
Helicone 进军 Prompt 管理领域:Helicone 因其生成式 AI 应用构建能力而受到赞誉,目前正因整合了 Prompt 管理工具、版本控制和分析功能而受到关注,旨在提供更集成的 AI 开发体验。
-
PromptFoo 加入 CI/CD 阵营:PromptFoo 因其允许用户测试和比较 LLM 输出、管理 Prompt 质量并与 CI/CD 流水线集成的功能而受到关注,支持包括 OpenAI 和 Azure GPT 在内的各种平台的模型。
-
个性化翻译定制读者体验:一位工程师分享了他们使用 gpt-3.5-turbo 个性化博客文章翻译的实验,尝试针对不同角色(personas)定制内容以获得更好的理解和参与度,展示在 How to Build a Buzzword。
遗憾的是,关于恢复 OpenAI 模型在之前 API 请求中使用的 seed 的查询由于缺乏足够细节,未包含在此摘要中。
Skunkworks AI Discord
- 模型准确率突破即将来临:一位成员正在准备一篇关于提高 AI 模型全局准确率(global accuracy)并增强样本效率的新方法的文章,计划在完善结果和视觉图表后分享。
- 寻求超算英雄:该成员正在寻求资源以在更大的 AI 模型上测试其方法,此前已在 CIFAR100 上使用 VGG16 证明了一个 epoch 内测试准确率从 0.04 显著提升至 0.1。
- 资源驰援:有人提供了算力和资源,以协助该新方法的验证和测试阶段。
- 为 Quiet-STaR 招募:目前正公开招募具备 PyTorch 和 Transformer 知识的人员,参与 “Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking” 项目。
- 无关话题:在无关频道中有一条指向 YouTube 视频 的消息,未提供与技术讨论相关的背景或关联。
PART 2: 频道详细摘要与链接
Stability.ai (Stable Diffusion) ▷ #announcements (1 条消息):
- Stable Video 迈向 3D:Stable Video 3D 已发布,基于现有的 Stable Video Diffusion 技术。它以单个物体图像作为输入,输出全新的多视角,从而允许生成 3D 网格(3D meshes)。
- 将 3D 技术提升到新高度:Stable Video 3D 模型在质量和多视角能力上比 Stable Zero123 有了极大提升。它的表现也优于 Zero123-XL 等开源替代方案。
- 发布两个变体:此次发布包含两个变体:
SV3D_u可从单张图像生成轨道视频,无需相机调节(camera conditioning);SV3D_p扩展了功能,允许进行更复杂的视频生成。
提到的链接:Introducing Stable Video 3D: Quality Novel View Synthesis and 3D Generation from Single Images — Stability AI:当我们发布 Stable Video Diffusion 时,我们强调了视频模型在各种应用中的多功能性。在此基础上,我们很高兴发布 Stable Video 3D。这是一款…
Stability.ai (Stable Diffusion) ▷ #general-chat (988 条消息🔥🔥🔥):
-
Stable Diffusion Cascade 对比 SDXL:一位用户分享了他们的经验,认为 Stable Cascade 在执行复杂 Prompt 方面比 SDXL 更好,尽管在他们的硬件上运行速度较慢。Cascade 每次生成大约需要 90 秒,而 SDXL 只需要 30 秒。
-
对开源和加密货币的担忧:有讨论对 Stability AI 与各种区块链公司合作表示失望。用户推测了这对 SD3 未来的影响,以及在 SD3 发布后可能向专有模型转型的趋势。
-
对 SD3 的期待:用户正热切期待 Stable Diffusion 3 的公开发布,预计测试版(beta)邀请将很快发出。有人推测 SD3 将提供与其他工具相当的质量,同时运行效率更高。
-
将 .pt 转换为 Safetensors:一位用户询问了在不涉及复杂编码的情况下,将 PyTorch 文件(.pt)转换为 safetensors 的替代方法。另一位用户提到大多数 UI 不会执行 .pt 文件中的脚本,从而降低了安全担忧,但并未提供替代工具。
-
Stable Video 3D 发布公告:Stability AI 宣布发布 Stable Video 3D (SV3D),这是一个可以从单张图像输入创建 3D 网格(meshes)的模型。该公告强调了相比于 Stable Zero123 等早期模型的改进,以及它在创建轨道视频和适应姿态调节(pose conditioning)方面的多功能性。
- grok-1: Grok-1 是一个 314B 参数的 Mixture of Experts 模型 - Base model (未 finetuned) - 8 个 experts (2 个 active) - 86B active parameters - Apache 2.0 许可证 - Code: - Happy coding! p.s. we re hiring:
- Iron Man Mr Clean GIF - Iron Man Mr Clean Mop - Discover & Share GIFs: 点击查看 GIF
- coqui/XTTS-v2 · Hugging Face: 未找到描述
- Yess GIF - Yess Yes - Discover & Share GIFs: 点击查看 GIF
- Introducing Stable Video 3D: Quality Novel View Synthesis and 3D Generation from Single Images — Stability AI: 当我们发布 Stable Video Diffusion 时,我们强调了视频模型在各种应用中的多功能性。在此基础上,我们很高兴发布 Stable Video 3D。这个新...
- Avatar Cuddle GIF - Avatar Cuddle Hungry - Discover & Share GIFs: 点击查看 GIF
- The Complicator's Gloves: 优秀的软件在多个方面不断受到攻击。首先是 The Amateurs(业余爱好者),他们尽管只读完了《傻瓜编程》,却不知何故设法拿到了那份巨额合同...
- pickle — Python object serialization: 源代码:Lib/pickle.py。pickle 模块实现了用于对 Python 对象结构进行 serialization 和 de-serialization 的二进制协议。“Pickling” 是将 Python 对象层级结构转换为...的过程。
- Proteus-RunDiffusion - withoutclip | Stable Diffusion Checkpoint | Civitai: 介绍 Proteus-RunDiffusion。在开发 Proteus-RunDiffusion 的过程中,我们的团队开展了一个探索性项目,旨在提升...的能力。
- WKUK - Anarchy [HD]: 最滑稽的经济无知。—— Murray Rothbard 的《Freedom, Inequality, Primitivism, and the Division of Labor》(http://mises.org/daily/3009)。—— "Th...
- NVLink | pny.com: 未找到描述
- Page Not Found | pny.com: 未找到描述
- Vancouver, Canada 1907 (New Version) in Color [VFX,60fps, Remastered] w/sound design added: 我为这段 1907 年加拿大温哥华的视频进行了上色、修复,并添加了天空 VFX 效果和音效设计。这段视频是从有轨电车上拍摄的,这些...
- Install ComfyUI on Mac OS (M1, M2 or M3): 这段视频是一个快速演练,展示如何在 M1 或 M2 Mac 上本地安装 ComfyUI。了解更多关于 AI Animation 的信息,并注册成为 AI ...
- The Mushroom Motherboard: The Crazy Fungal Computers that Might Change Everything: 揭开真菌计算的秘密!发现真菌作为生物计算机的惊人潜力。从 wood-wide web 到 Unconventional Computing...
- Reddit - Dive into anything: 未找到描述
- Stable Video Diffusion - SVD - img2vid-xt-1.1 | Stable Diffusion Checkpoint | Civitai: 查看我们的快速入门指南!https://education.civitai.com/quickstart-guide-to-stable-video-diffusion/ 基础 img2vid 模型经过训练可以生成...
- PollyannaIn4D (Pollyanna): 未找到描述
- Короткометражный мультфильм "Парк" (сделан нейросетями): 短篇动画片《公园》 - 一部使用神经网络创作的极其引人入胜的短篇动画片。
- GitHub - GraftingRayman/ComfyUI-Trajectory: 通过创建 GitHub 账号为 GraftingRayman/ComfyUI-Trajectory 的开发做出贡献。
- GitHub - DiffusionDalmation/pt_to_safetensors_converter_notebook: This is a notebook for converting Stabl 将 Stable Diffusion embeddings 从 .pt 转换为 safetensors 格式。:这是一个用于将 Stable Diffusion embeddings 从 .pt 格式转换为 safetensors 格式的 notebook。 - DiffusionDalmation/pt_to_safetensors_converter_notebook
- GitHub - mix1009/sdwebuiapi: AUTOMATIC1111/stable-diffusion-webui 的 Python API 客户端:AUTOMATIC1111/stable-diffusion-webui 的 Python API 客户端 - mix1009/sdwebuiapi
- GitHub - chaojie/ComfyUI-DragAnything:通过在 GitHub 上创建账号来为 chaojie/ComfyUI-DragAnything 的开发做出贡献。
- Home:Stable Diffusion web UI。通过在 GitHub 上创建账号来为 AUTOMATIC1111/stable-diffusion-webui 的开发做出贡献。
- GitHub - Stability-AI/generative-models: Stability AI 的生成模型:Stability AI 的生成模型。通过在 GitHub 上创建账号来为 Stability-AI/generative-models 的开发做出贡献。
- Regional Prompter:在 Stable Diffusion 中控制图像构图 - Stable Diffusion Art:你知道可以为图像的不同区域指定提示词吗?你可以通过 Regional Prompter 扩展在 AUTOMATIC1111 上实现这一点。 </ul> </div> --- **Perplexity AI ▷ #[announcements](https://discord.com/channels/1047197230748151888/1047204950763122820/1219057096780419163)** (1 条消息): - **Claude 3 Opus 无限制查询**:公告透露,**Perplexity Pro 用户**现在可以对 Claude 3 Opus 进行**无限制的每日查询**,该模型被誉为当今市场上最好的 LLM。Pro 用户现在可以享受无查询限制的扩展访问。 --- **Perplexity AI ▷ #[general](https://discord.com/channels/1047197230748151888/1047649527299055688/1218100055626743851)** (795 条消息🔥🔥🔥): - **对“无限制”使用条款的困惑**:用户对 Perplexity.ai 使用“无限制”一词感到困惑,认为考虑到每天 600 次的实际上限,这具有误导性。令人担忧的是,这种措辞可能会误导服务说明,并可能导致法律挑战。 - **关于教育幼儿的讨论**:针对儿童(尤其是五岁儿童)理解复杂概念的能力引发了辩论。一些人认为,如果解释得当(通常使用类比或 AI 辅助),儿童可以掌握高级主题,而另一些人则对其认知能力表示怀疑。 - **Pro 订阅的用户体验**:用户对 Perplexity 最新集成的 Claude 3 Opus 表示出兴趣和满意,热切讨论其在包括角色扮演在内的不同任务中的效率和适用性,其中一名用户成功测试了它对敏感话题的响应。 - **AI 的家庭使用**:家长们分享了他们如何使用 ChatGPT Pro 和 Perplexity.ai 等 AI 工具来回答孩子的好奇心,这表明孩子们会提出各种深刻的问题,而 AI 可以帮助解决这些问题,从而培养他们的求知欲。 - **用于职业和喜剧的 AI**:一名用户幽默地声称利用 Perplexity 的 Claude 3 Opus 获得了一份麦当劳的工作,但后来拒绝了,这引发了关于 AI 在日常生活中的各种应用以及对快餐等行业潜在影响的有趣调侃。
- 未找到标题:未找到描述
- 来自 Aravind Srinivas (@AravSrinivas) 的推文:我们已经为 Perplexity Pro 用户取消了 Claude 3 Opus(当今市场上最好的 LLM)的每日查询次数限制,现在是无限次!尽情享受吧!
- Apple 的 AI 雄心可能包括 Google 或 OpenAI:另一项重大的 Apple / Google 交易可能即将达成。
- Shikimori Shikimoris Not Just Cute GIF - Shikimori Shikimoris Not Just Cute Shikimoris Not Just A Cutie Anime - Discover & Share GIFs:点击查看 GIF
- Nothing Perplexity 优惠:在 Nothing,我们正在构建一个让科技再次变得有趣的世界。还记得每一个新产品都让你兴奋不已的时光吗?我们正在带回那种感觉。
- 来自 Aravind Srinivas (@AravSrinivas) 的推文:是的,感谢 @elonmusk 和 xAI 团队开源了 Grok 的基础模型。我们将针对对话式搜索对其进行微调并优化推理,并将其提供给所有 Pro 用户!↘️ Quoti...
- 来自 Bloomberg Technology (@technology) 的推文:独家:Apple 正在洽谈将 Google 的 Gemini AI 引擎内置到 iPhone 中,这可能是一项重磅交易 https://trib.al/YMYJw2K
- 来自 Brivael (@BrivaelLp) 的推文:Zuck 刚刚对 Grok 的发布做出了反应,他似乎并不以为然。“3140 亿参数太多了。你需要一大堆 H100,而我已经把它们都买光了” 🤣
- 这些公司在隐藏什么?:关于 Rabbit R1 和 Humane Ai Pin 的看法。如果你想支持本频道,请点击上方的“加入”按钮考虑成为 Dave2D 会员!http://twit...
- ✂️ Sam Altman 谈 AI LLM 搜索:47 秒 · 由 Syntree 剪辑 · 原视频 "Sam Altman: OpenAI, GPT-5, Sora, Board Saga, Elon Musk, Ilya, Power & AGI | Lex Fridman Podcast #419" 由 Le...
- FCC ID 2BFB4R1 Rabbit Inc. 的 AI 伴侣:Rabbit Inc. 为其 AI 伴侣提交的 FCC ID 申请,ID 为 2BFB4R1。包含批准的频率、用户手册、照片和无线报告。
- pplx-api:未找到描述
- pplx-api 表单:使用 Typeform 将数据收集转化为一种体验。创建精美的在线表单、调查、测验等等。免费试用。
- Lightning AI | 将创意转化为 AI,闪电般的速度:AI 开发的一站式平台。协作编码、原型设计、训练、扩展、提供服务。直接在浏览器中运行,无需安装。由 PyTorch Lightning 的创作者打造。
- Cosmic keystrokes:未找到描述
- Crystalcareai/GemMoE-Beta-1 · Hugging Face:未找到描述
- Grok-1 开源发布:未找到描述
- 🦅 EagleX 1.7T:在英语和多语言评估中超越 LLaMA 7B 2T (RWKV-v5):一个 Linear Transformer 模型刚刚在英语和多语言评估中,以更少的训练 Token 数量超越了 Transformer 模型的黄金标准 LLaMA 7B。这是历史性的第一次。
- 关于 xAI:未找到描述
- xai-org/grok-1 · Hugging Face:未找到描述
- 博客:未找到描述
- Mixtral of Experts:我们推出了 Mixtral 8x7B,这是一种稀疏混合专家(SMoE)语言模型。Mixtral 具有与 Mistral 7B 相同的架构,不同之处在于每一层由 8 个前馈块组成 (...
- 宣布推出 Grok:未找到描述
- Google Colaboratory:未找到描述
- Piper TTS Spanish - 由 HirCoir 创建的 Hugging Face Space:未找到描述
- Unsloth 修复 Gemma Bug:Unsloth 正在修复 Google 的开源语言模型 Gemma。
- damerajee/Llamoe-test · Hugging Face:未找到描述
- ISLR 数据集 — 👐OpenHands 文档:未找到描述
- 来自 Unsloth AI (@UnslothAI) 的推文:Unsloth 本周在 GitHub 上非常热门!🙌🦥 感谢大家以及所有 ⭐️Stargazers 的支持!查看我们的仓库:http://github.com/unslothai/unsloth
- 简介 | AIKit:AIKit 是一个一站式商店,可以快速开始托管、部署、构建和微调大语言模型(LLMs)。
- 论文页面 - 简单的线性注意力语言模型平衡了召回率与吞吐量
- tradeoff: 未找到描述
- Qwen/Qwen1.5-72B · Hugging Face: 未找到描述
- CodeFusion: 用于代码生成的预训练扩散模型: 想象一下,如果一个开发者只能修改最后一行代码,那么在函数正确之前,他们需要从头开始编写多少次?用于代码生成的自回归模型从...
- Sam Altman: OpenAI, GPT-5, Sora, 董事会风波, Elon Musk, Ilya, 权力与 AGI | Lex Fridman Podcast #419: Sam Altman 是 OpenAI 的 CEO,该公司开发了 GPT-4, ChatGPT, Sora 以及许多其他最先进的 AI 技术。请通过查看...来支持本播客
- 如何微调 LLM 第一部分:准备指令微调数据集: 学习如何在指令数据集上微调 LLM!我们将介绍如何格式化数据并训练像 Llama2, Mistral 等模型。这是(几乎)纯 PyTorch 的最小示例。
- transformers/src/transformers/models/mixtral/modeling_mixtral.py at main · huggingface/transformers: 🤗 Transformers: 适用于 Pytorch, TensorFlow 和 JAX 的最先进机器学习框架。 - huggingface/transformers
- Mistral 微调入门(支持 16k, 32k, 128k+ 上下文): 在我们最新的教程视频中,探索如何使用自己的数据轻松微调语言模型 (LLMs)。我们深入探讨了一种具有成本效益且...
- GitHub - xai-org/grok-1: Grok 开源发布: Grok 开源发布。通过在 GitHub 上创建账号来为 xai-org/grok-1 的开发做出贡献。
- GitHub - jiaweizzhao/GaLore: 通过在 GitHub 上创建账号来为 jiaweizzhao/GaLore 的开发做出贡献。
- GitHub - AI4Bharat/OpenHands: 👐OpenHands : 让手语识别普及化。 | **注意:** 不再积极维护。如果您有兴趣接管并推进此项目,请提交 issue: 👐OpenHands : 让手语识别普及化。 | **注意:** 不再积极维护。如果您有兴趣接管并推进此项目,请提交 issue - AI4Bharat/OpenHands
- GitHub - mistralai/mistral-src: Mistral AI 7B v0.1 模型的参考实现。: Mistral AI 7B v0.1 模型的参考实现。 - mistralai/mistral-src
- teknium/GPT4-LLM-Cleaned · Hugging Face 数据集: 未找到描述
- argilla (Argilla): 未找到描述
- GitHub - unslothai/unsloth: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA & LoRA 微调: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA & LoRA 微调 - unslothai/unsloth
- 安装 requirements 时出错 · Issue #6 · xai-org/grok-1: 我已经安装了 python 3.10 和 venv。尝试执行 "pip install -r requirements.txt" 错误:忽略了以下需要不同 python 版本的版本:1.6.2 需要 Python >=3...
- Falcon 180B 开源语言模型性能超越 GPT-3.5 和 Llama 2: 开源语言模型 FalconLM 提供了比 Meta 的 LLaMA 更好的性能,并且可以用于商业用途。如果收入超过 100 万美元,商业使用需支付版税。
- 实现 Phi-2 支持的暂存 PR。由 cm2435 提交 · Pull Request #97 · unslothai/unsloth: ….org/main/getting-started/tutorials/05-layer-norm.html]
- FEAT / Optim: 添加 GaLore 优化器,由 younesbelkada 提交 · Pull Request #29588 · huggingface/transformers: 这个 PR 做了什么?如标题所示,添加了来自 https://github.com/jiaweizzhao/GaLore 的 GaLore 优化器。修复了:#29512 这是我目前测试 API 的方式:import torch import datasets from ... </ul> </div> --- **Unsloth AI (Daniel Han) ▷ #[announcements](https://discord.com/channels/1179035537009545276/1179039782681202829/1218580567453470860)** (1 条消息): - **Unsloth AI 星数上升**:**Unsloth AI** 仓库本周在 GitHub 上表现活跃,感谢社区和点星者的支持。团队鼓励更多人在 [GitHub](https://github.com/unslothai/unsloth) 上为该仓库点星,这有助于推广更快、更节省显存的 QLoRA & LoRA 微调。 **提到的链接**:GitHub - unslothai/unsloth: 2-5X faster 70% less memory QLoRA & LoRA finetuning:速度提升 2-5 倍,显存减少 70% 的 QLoRA & LoRA 微调 - unslothai/unsloth --- **Unsloth AI (Daniel Han) ▷ #[random](https://discord.com/channels/1179035537009545276/1179039861576056922/1218112720994308122)** (25 messages🔥): - **巧合沙皇**:一位用户讨论了想到某事后不久便遇到它的现象——这是一种关于用户名和浏览体验的奇妙同步性。 - **运动中的诗篇**:Abhiabhi 分享了一篇名为《向猴子呼吁》(An Appeal to A Monkey)的诗作片段,思考了与人类创造的系统相比,生命原始而生动的本质。 - **微调性能对比**:Goutham_city 在尝试过 **Mistral-7b** 后,就针对特定领域分类任务是否应使用 **Gemma 7b** 寻求建议。Starsupernova 提到 Unsloth 已修复所有 bug,并建议 Gemma 与 Mistral 的对比结果各异。 - **寻找 Mixtral 分支**:Dogsofwarren 被引导至 GitHub 上一个他们正在寻找的、难以找到的 "Mixtral 分支" 的 PR。提供的链接指向了 [tohrnii 的 Unsloth AI 仓库分支](https://github.com/unslothai/unsloth/pull/145)。 - **在地图上分享 Pokemon RL Agent & 开源 UI 元素**:Iron_bound 展示了在单个地图上分享的人们在 *Pokemon RL* 环境中训练的可视化效果,而 Yahir9023 分享了 [Uiverse.io](https://uiverse.io/elements),这是一个展示使用 CSS 或 Tailwind 制作的开源 UI 元素的网站。
- Pokemon Red Map RL Visualizer: no description found
- 4203 UI elements: CSS & Tailwind: no description found
- [WIP] add support for mixtral by tohrnii · Pull Request #145 · unslothai/unsloth: Mixtral WIP
- Google Colaboratory: 未找到描述
- ybelkada/Mixtral-8x7B-Instruct-v0.1-bnb-4bit · Hugging Face: 未找到描述
- Kaggle Mistral 7b Unsloth notebook: 使用 Kaggle Notebooks 探索并运行机器学习代码 | 使用来自“无附加数据源”的数据
- Google Colaboratory: 未找到描述
- TinyLlama/TinyLlama-1.1B-Chat-v1.0 · Hugging Face: 未找到描述
- Hugging Face – 构建未来的 AI 社区。: 未找到描述
- unsloth/mistral-7b-instruct-v0.2-bnb-4bit · Hugging Face: 未找到描述
- 主页: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA 和 LoRA 微调 - unslothai/unsloth
- 主页: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA 和 LoRA 微调 - unslothai/unsloth
- artidoro/qlora 项目 main 分支下的 qlora/qlora.py: QLoRA: 量化 LLM 的高效微调。通过在 GitHub 上创建账号来为 artidoro/qlora 的开发做出贡献。
- 主页: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA 和 LoRA 微调 - unslothai/unsloth
- 主页: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA 和 LoRA 微调 - unslothai/unsloth
- Google Colaboratory: 未找到描述
- Unsloth: 将 4bit 和 LoRA 权重合并为 16bit...Unsloth: 将使用高达 5.34 - Pastebin.com: Pastebin.com 是自 2002 年以来排名第一的文本粘贴工具。Pastebin 是一个可以在线存储文本并设置有效期的网站。
- 主页: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA 和 LoRA 微调 - unslothai/unsloth
- DPO Trainer: 未找到描述
- GitHub - vllm-project/vllm: 一个高吞吐量且显存高效的 LLM 推理和服务引擎: 一个高吞吐量且显存高效的 LLM 推理和服务引擎 - vllm-project/vllm
- GitHub - unslothai/unsloth: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA 和 LoRA 微调: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA 和 LoRA 微调 - unslothai/unsloth
- 生成 - GPT4All 文档: 未找到描述
- DPOTrainer 的损失函数会屏蔽提示词(prompts)吗?· Issue #1041 · huggingface/trl: 嗨,有个小问题,DataCollatorForCompletionOnlyLM 会通过屏蔽提示词的损失来仅对回答进行训练。DPOTrainer (DPODataCollatorWithPadding) 也是这样工作的吗?看起来...
- Supervised Fine-tuning Trainer: 未找到描述
- HuggingFaceH4/zephyr-7b-alpha · 添加聊天模板: 未找到描述
- HuggingFaceH4/zephyr-7b-alpha · Hugging Face: 未找到描述
- unslothai/unsloth 项目 main 分支下的 unsloth/unsloth/chat_templates.py: 速度提升 2-5 倍,显存占用减少 70% 的 QLoRA 和 LoRA 微调 - unslothai/unsloth
- Trainer: 未找到描述
- 在 MT-Bench 上复现 LoRA 模型结果 · Issue #45 · huggingface/alignment-handbook: 最近,我尝试在自己的数据集上拟合 DPO。最初,我尝试复现你的结果... 你的 LORA 模型(MT-Bench 评分为 7.43)。然而,我遇到了一些问题。尽管使用了你所有的...
- llama.cpp/examples/server/README.md at master · ggerganov/llama.cpp: C/C++ 中的 LLM 推理。通过在 GitHub 上创建账号来为 ggerganov/llama.cpp 的开发做出贡献。
- GitHub - abetlen/llama-cpp-python: llama.cpp 的 Python 绑定: llama.cpp 的 Python 绑定。通过在 GitHub 上创建账号来为 abetlen/llama-cpp-python 的开发做出贡献。
- grok-1: Grok-1 是一个 314B 参数的 Mixture of Experts 模型 - 基础模型(未微调)- 8 个专家(2 个激活)- 86B 激活参数 - Apache 2.0 许可证 - 代码: - 祝编码愉快!另:我们正在招聘:
- Ratha GIF - Ratha - 发现并分享 GIF:点击查看 GIF
- [1小时演讲] Large Language Models 简介:这是一个面向普通观众的 1 小时 Large Language Models 介绍:它是 ChatGPT、Claude 和 Bard 等系统背后的核心技术组件。什么是...
- xai-org/grok-1 · 314B 参数有 297G 文件大小?:未找到描述
- <a href="https://github.com/continuedev/continue/issues/713"">Issues · continuedev/continue</a>:⏩ 使用任何 LLM 进行编码的最简单方法——Continue 是适用于 VS Code 和 JetBrains 的开源自动驾驶工具 - Issues · continuedev/continue
- Mistral:在自定义数据上进行微调的最简单方法:本视频由 Gradient.ai 赞助,请在此处查看:https://gradient.1stcollab.com/engineerprompt 在本视频中,我们将学习如何微调 Mistr...
- 未找到标题:未找到描述
- Grok-1 开源发布:未找到描述
- MM1:来自多模态 LLM 预训练的方法、分析与见解:在这项工作中,我们讨论了构建高性能的多模态大语言模型 (MLLMs)。特别是,我们研究了各种架构组件和数据选择的重要性。通过仔细和...
- 01-ai/Yi-34B · Prompt 模板?:未找到描述
- 01-ai/Yi-9B-200K · Hugging Face:未找到描述
- Reddit - 深入探索一切:未找到描述
- 什么是 Large Language Model 中的参数?:什么是 Large Language Model 中的参数?00:26 💡 像 GPT-3 这样的 Large Language Models 中的参数是在训练期间学习的变量,用于最小化...
- [1小时演讲] Large Language Models 简介:这是一个面向普通观众的 1 小时 Large Language Models 介绍:它是 ChatGPT、Claude 和 Bard 等系统背后的核心技术组件。什么是...
- 由 acanis 添加 Command-R 模型 · Pull Request #6033 · ggerganov/llama.cpp:关于 Command-R 35B 模型(128k 上下文)的信息可以在以下网址找到:https://huggingface.co/CohereForAI/c4ai-command-r-v01 基于 llama2 模型,并进行了一些更改:新的超参数...
- 未找到标题: 未找到描述
- 👾 LM Studio - 发现并运行本地 LLM: 查找、下载并试用本地 LLM
- LM Studio Beta 版本发布: 未找到描述
- 未找到标题: 未找到描述
- M.2 Accelerator with Dual Edge TPU | Coral: 使用 M.2 (E key) 接口将两个 Edge TPU 集成到现有系统和新系统中。
- 404 页面: 未找到描述
- Dell T710 塔式服务器 双 6 核 X5650 **144Gb RAM** 240gb SSD + 6X 600G SFF SAS | eBay: 未找到描述
- Asrock Rack ROMED8-2T ATX 服务器主板 AMD EPYC 7003 (支持 AMD 3D V-Cache 技术)/7002 系列处理器 SP3 (LGA 4094) 双 10GbE - Newegg.com: 购买 Asrock Rack ROMED8-2T 服务器主板 AMD EPYC 7003 (支持 AMD 3D V-Cache 技术)/7002 系列处理器 SP3 (LGA 4094) 双 10GbE,享受快速发货和顶级客户服务。一旦您...
- 未找到标题: 未找到描述
- 全新 /Wave ®AI 服务器 NF5688M6 NVIDIA HGX TESLA A800 80G 八路 GPU 服务器/期货 | eBay: 未找到描述
- AMD EPYC 7232P 8 核 3.1GHz 32MB L3 处理器 - Socket SP3 - 100-000000081 | eBay: 未找到描述
- AMD EPYC 7F72 CPU 处理器 24 核 3.20GHz 192MB 缓存 240W - 100-000000141 | eBay: 未找到描述
- AMD EPYC 7232P CPU 处理器 8 核 3.10GHz 32MB 缓存 120W - 100-000000081 | eBay: 未找到描述
- Dell T710 塔式服务器 双 6 核 X5670 **24 核** 64GB RAM | eBay: 未找到描述
- Nvidia Tesla K80 24GB GPU GDDR5 PCI-E GPU 加速器 12 个月保修 | eBay: 未找到描述
- Nvidia Tesla K80 24GB GPU GDDR5 PCI-E GPU 加速器 12 个月保修 | eBay: 未找到描述
- 搜索 Thingiverse - Thingiverse: 下载文件并使用您的 3D 打印机、激光切割机或 CNC 进行制造。
- 使用 Advanced Vector Extensions 的程序,针对计算密集型应用的性能... cations.">Intel Core i5-3470 Specs</a>: Ivy Bridge, 4 核心, 4 线程, 3.2 GHz, 77 W
- Micro Center - Computers and Electronics: Micro Center - 计算机与电子产品 - 数千种可购买的产品:台式机、笔记本电脑、显示器、DIY PC 零件、升级、数字成像、打印耗材、便携式设备、音频设备...
- Luckim Official Store - Amazing products with exclusive discounts on AliExpress: 未找到描述
- no title found: 未找到描述
- 来自 undefined 的推文:未找到描述
- 使用 Langgraph 进行 Plan-and-Execute:如何创建一个 "plan-and-execute"(计划与执行)风格的 Agent。这在很大程度上受到了 Plan-and-Solve 论文以及 Baby-AGI 项目的启发。核心思想是首先...
- NVIDIA GeForce RTX 50 系列 "Blackwell" 将使用 28 Gbps GDDR7 显存速度:据可靠爆料者 kopite7kimi 称,首批采用 GDDR7 显存的 NVIDIA GeForce RTX 50 系列 "Blackwell" 显卡传闻将配备 28 Gbps 的显存速度...
- 来自 j⧉nus (@repligate) 的推文:@xlr8harder 我没让它发展太远,但现在房间里有人跟我说,他们创建了一个“好色的 Claude”网络,以及这些 Claude 如何创造更好的...
- Language Agents as Optimizable Graphs:为了改进基于 Large Language Models (LLMs) 的问题求解器,人们提出了各种人工设计的 prompt engineering 技术,导致了许多互不兼容的代码库。我们将这些方法统一起来...
- 来自 Burny — Effective Omni (@burny_tech) 的推文:关于马斯克可能通过 Grok 引领开源,从而动摇情报战争中其他巨头玩家的看法。Grok 1 是一个拥有 314B 参数的模型,采用 mixture of experts 架构...
- 论文页面 - ORPO: Monolithic Preference Optimization without Reference Model:未找到描述
- GitHub - Oxen-AI/Self-Rewarding-Language-Models:这是由 Oxen.ai 社区完成的工作,旨在复现来自 MetaAI 的 Self-Rewarding Language Model 论文。:这是由 Oxen.ai 社区完成的工作,旨在复现来自 MetaAI 的 Self-Rewarding Language Model 论文。 - Oxen-AI/Self-Rewarding-Language-Models
- 来自 Aravind Srinivas (@AravSrinivas) 的推文:是的,感谢 @elonmusk 和 xAI 团队开源了 Grok 的基础模型。我们将针对对话式搜索对其进行微调并优化推理,并将其提供给所有 Pro 用户! ↘️ 引用...
- 来自 interstellarninja (@intrstllrninja) 的推文:Hermes 2 Pro 函数调用模型已与 @ExaAILabs 的搜索引擎集成👀 ↘️ 引用 Barton Rhodes 🦺 (@bmorphism) 增加了对 @ExaAILabs 的支持,以便与 @NousResearch 的新函数调用模型配合使用...
- MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training:在这项工作中,我们讨论了构建高性能多模态大语言模型(MLLMs)的方法。特别是,我们研究了各种架构组件和数据选择的重要性。通过仔细且...
- The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits:最近的研究(如 BitNet)正在为 1-bit 大语言模型(LLMs)的新时代铺平道路。在这项工作中,我们引入了一个 1-bit LLM 变体,即 BitNet b1.58,其中每一个参数...
- Simple and Scalable Strategies to Continually Pre-train Large Language Models:大语言模型(LLMs)通常在数十亿个 tokens 上进行预训练,而一旦有新数据可用,该过程就会重新开始。一个更有效的解决方案是持续预...
- Open Release of Grok-1:未找到描述
- 来自 interstellarninja (@intrstllrninja) 的推文:
<cmd> run world_sim.exe --epoch "Earth in 2500" --civilization_type "Type-II on Kardashev scale" </cmd>↘️ 引用 mephisto (@karan4d) 我当然会开源 worldsim... - Do Llamas Work in English? On the Latent Language of Multilingual Transformers:我们探讨了在不平衡、以英语为主的语料库上训练的多语言语言模型是否将英语作为内部枢纽语言——这是一个对于理解语言模型如何...
- Replete-AI/Mistral-Evolved-11b-v0.1 · Hugging Face:未找到描述
- anon8231489123/ShareGPT_Vicuna_unfiltered · Datasets at Hugging Face:未找到描述
- 来自 interstellarninja (@intrstllrninja) 的推文:@Cyndesama Claude 3 Opus 使用 python42 运行 AI 小镇模拟
- datas (shu nakamura):未找到描述
- 来自 Parzival - 🌞/⏫ (@whyarethis) 的推文:现在我们正步入正轨。
- 来自 Andrew Kean Gao (@itsandrewgao) 的推文:我觉得 Grok-4bit 对一块 H100 GPU 来说还是稍微太大了 :( ↘️ 引用 Andrew Kean Gao (@itsandrewgao) 天哪 @grok 有 3140 亿参数,Mixture of 8 Experts,未经 RLHF/道德化处理,这太...
- 来自 Andriy Burkov (@burkov) 的推文:我们还有待观察 Grok 与 GPT-4 相比有多出色,但可以肯定的是,如果你今天要训练一个 OpenAI/Anthropic 的竞争对手,你不再需要从头开始了...
- migtissera/Tess-70B-v1.6 · Hugging Face:未找到描述
- openchat/openchat_sharegpt4_dataset at main:未找到描述
- 来自 Lin Qiao (@lqiao) 的推文:我们很高兴能与 @NousResearch 合作开发 Hermes 2 Pro 多轮对话和函数调用模型。Hermes 在超过 1.5 万个函数调用和 500 个示例的函数调用 DPO 数据集上进行了微调...
- Sparse Distributed Memory is a Continual Learner:持续学习是人工神经网络面临的一个问题,而它们的生物对应物则非常擅长解决。基于使用稀疏分布式存储(SDM)连接核心神经...
- NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO · 添加评估结果(Adding Evaluation Re...) sults: 未找到描述
- 来自 interstellarninja (@intrstllrninja) 的推文: <cmd> sudo python3 akashic_records.py --entity ["sam altman", "elon musk"] --mode "email thread" --topic "superintelligence scenarios" </cmd>
- 01-ai/Yi-9B · Hugging Face: 未找到描述
- Abstractions/abstractions/goap/causality.ipynb (main 分支) · furlat/Abstractions: 一组用于抽象 IRL 的 Pydantic 模型。通过在 GitHub 上创建账号来为 furlat/Abstractions 的开发做出贡献。
- HD/VSA:
- 语言模型通过过度训练和在下游任务上可靠地扩展: Scaling laws 是开发语言模型的有用指南,但目前的扩展研究与语言模型最终的训练和评估方式之间仍存在差距。例如,scal...
- NVIDIA CEO 黄仁勋 GTC 2024 年 3 月主题演讲: 观看 NVIDIA CEO 黄仁勋的 GTC 主题演讲,了解所有关于塑造我们未来的 AI 进展的公告。深入了解这些公告并发现...
- 加速主义加速主义 (Acc/Acc): 加速主义加速主义是指当你加速加速主义,以便将加速主义应用于加速主义中那些过于激进的部分:https://www.patre...
- JSON Schema - Pydantic: 未找到描述
- Liam Johnson 击败起哄者 | 纽约脱口秀: 上周末 Liam Johnson 决定终于在 Giggle Nerd 首次亮相。他在周日 23:00 到 23:25 进行了表演,我们的观众非常喜欢...
- Abstractions/abstractions/goap/gridmap.ipynb (main 分支) · furlat/Abstractions: 一组用于抽象 IRL 的 Pydantic 模型。通过在 GitHub 上创建账号来为 furlat/Abstractions 的开发做出贡献。
- Cosma Shalizi - 为什么经济学需要数据挖掘: Cosma Shalizi 敦促经济学家停止他们正在做的事情:将大型复杂模型拟合到一小组高度相关的时间序列数据中。一旦你...
- Abstractions/abstractions/goap/system_prompt.md (main 分支) · furlat/Abstractions: 一组用于抽象 IRL 的 Pydantic 模型。通过在 GitHub 上创建账号来为 furlat/Abstractions 的开发做出贡献。
- 让我们构建 GPT Tokenizer: Tokenizer 是 Large Language Models (LLMs) 中一个必要且普遍存在的组件,它在字符串和 tokens(文本块)之间进行转换。Tokenizer...
- 01-ai/Yi-9B-200K · Hugging Face: 未找到描述
- GitHub - PrismarineJS/mineflayer: 使用强大、稳定且高级的 JavaScript API 创建 Minecraft 机器人。: 使用强大、稳定且高级的 JavaScript API 创建 Minecraft 机器人。 - PrismarineJS/mineflayer
- 来自 Grok (@grok) 的推文: @elonmusk @xai ░W░E░I░G░H░T░S░I░N░B░I░O░
- 基于深度强化学习的真实果蝇运动全身模拟: 动物的身体决定了神经系统如何产生行为。因此,对感觉运动行为的神经控制进行详细建模需要一个详细的身体模型。在这里我们...
- HacksTokyo: 东京 AI x 数字娱乐黑客松!
- Prismarin - 概览: Prismarin 有 3 个可用的仓库。在 GitHub 上关注他们的代码。 </ul> </div> --- **Nous Research AI ▷ #[ask-about-llms](https://discord.com/channels/1053877538025386074/1154120232051408927/1218205298729156648)** (25 条消息🔥): - **Llama-2 的困惑度难题**:一位成员参考 [Kaggle notebook 指南](https://www.kaggle.com/code/philculliton/calculating-the-perplexity-of-4-bit-llama-2/notebook) 计算 **Llama-2** 的困惑度(Perplexity),但最终结果为 90.3,正在寻求他人的经验以获取潜在解决方案。 - **雄心勃勃的扩增梦想被现实击碎**:成员们讨论了将 **Llama-2 13b** 扩增至 20b 以超越 **Mistral** 性能的可行性。据推测,为一个 20b 模型筹集 300,000 美元的资金似乎非常困难;另一位成员建议投入更经济的 30,000 美元进行持续预训练(Continued Pretraining)。 - **模型小型化成为新趋势**:一位成员分享了他们目前在通过持续预训练缩减模型规模方面的工作,并提供了其项目 *Smallstral* 的链接。这是一个经过层剪枝(Layer-pruned)的 Mistral 版本,并重点展示了与 [Mistral-7B](https://huggingface.co/AlexWortega/smallstral) 的性能对比指标。 - **对更大模型前提的探索**:讨论参与者对未来生产大型模型(如 70b 的 **genstruct 70b** 或 **openhermes 2.5**)进行了理论推演,考虑了财务和技术限制。 - **Open-hermes Grok 推测及持续 LoRA 预训练咨询**:提到了 xai-org 发布 **Grok** 的消息,并推测 **Open-hermes** 可能会采用 **Grok**。此外,还有关于尝试使用 **LoRA** 技术在特定领域数据上进行持续预训练的咨询。
- Calculating the Perplexity of 4-bit Llama 2:在 Kaggle Notebooks 中探索并运行机器学习代码 | 使用来自多个数据源的数据
- GitHub - xai-org/grok-1: Grok open release:Grok 开源发布。通过在 GitHub 上创建账号为 xai-org/grok-1 的开发做出贡献。
- AlexWortega/smallstral · Hugging Face:未找到描述
- alexwortega:Weights & Biases,机器学习开发者工具
- Maisa (@maisaAI_) 的推文:介绍 Maisa KPU:AI 推理能力的下一次飞跃。知识处理单元(Knowledge Processing Unit)是一个针对 LLM 的推理系统,它利用了它们所有的推理能力并克服了其固有的...
- 宣布 Grok:未找到描述
- Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking:在写作和交谈时,人们有时会停下来思考。虽然以推理为中心的工作通常将推理框架化为回答问题或完成 Agent 任务的方法,但推理对于...
- Excited Fuego GIF - Excited Fuego - 发现并分享 GIF:点击查看 GIF
- KPU - Maisa:AI 驱动的知识处理平台。一个用于执行业务任务的简单 API。为软件和应用程序开发人员抽象化了使用最新 AI 架构的复杂性。
- Addressing Some Limitations of Transformers with Feedback Memory:尽管 Transformer 是前馈网络,但已成功应用于序列化、自回归任务。与循环神经网络不同,Transformer 使用 Attention 来捕捉时间上的...
- Block-Recurrent Transformers:我们介绍了 Block-Recurrent Transformer,它在序列中以循环方式应用 Transformer 层,并且在序列长度上具有线性复杂度。我们的循环单元...
- Wikipedia:Database reports/Most edited articles last month - Wikipedia:未找到描述
- Optimizing Distributed Training on Frontier for Large Language Models:大语言模型(LLM)作为基础模型已取得显著成功,通过微调使各种下游应用受益。最近关于 Loss Scaling 的研究表明...
- NPR.org 现提供免费转录文本:NPR 上喜爱、错过或令人抓狂的故事转录文本以前每份售价 3.95 美元,但现在在 NPR.org 上免费提供。
- Figure 状态更新 - OpenAI 语音到语音推理:未找到描述
- Issues · pytorch/pytorch:Python 中的 Tensor 和动态神经网络,具有强大的 GPU 加速 - Issues · pytorch/pytorch
- AI 会议截止日期:未找到描述
- EleutherAI/cookbook 项目 main 分支下的 cookbook/calc/calc_transformer_flops.py:深度学习入门指南。包含处理真实模型所需的所有实践细节和实用工具。- EleutherAI/cookbook
- GitHub - trevorpogue/algebraic-nnhw: AI acceleration using matrix multiplication with half the multiplications:使用乘法次数减半的矩阵乘法进行 AI 加速 - trevorpogue/algebraic-nnhw
- GitHub - xai-org/grok-1: Grok open release:Grok 开源发布。通过在 GitHub 上创建账户为 xai-org/grok-1 的开发做出贡献。
- RT-2: New model translates vision and language into action:介绍 Robotic Transformer 2 (RT-2),这是一种新型的视觉-语言-动作 (VLA) 模型,它从网络和机器人数据中学习,并将这些知识转化为通用的指令,用于...
- David P. Woodruff:未找到描述
- 来自 Aaditya Singh (@Aaditya6284) 的推文:我们研究了 GPT-3.5 和 GPT-4 中这种选择的影响——具体来说,我们研究了通过使用逗号等分隔符强制执行的从左到右 (L2R) 与从右到左 (R2L) 进行 Tokenization 的效果。我们 ...
- 发布 Grok:未找到描述
- The pitfalls of next-token prediction:仅仅一个 Next-token predictor 就能忠实地模拟人类智能吗?我们将这种在文献中零散分布的直觉担忧具体化。作为起点,我们认为这两个经常混淆的...
- Adding NVMe SSDs to Enable and Accelerate 100B Model Fine-tuning on a Single GPU:LLM 的最新进展为世界带来了巨大价值,其卓越的能力源于它们使用的海量参数。然而,即使是拥有...的 GPU
- Logits of API-Protected LLMs Leak Proprietary Information:LLM 的商业化导致了仅通过高级 API 访问专有模型的普遍做法。在这项工作中,我们展示了即使在保守的假设下...
- MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training:在这项工作中,我们讨论了构建高性能的多模态大语言模型 (MLLMs)。特别是,我们研究了各种架构组件和数据选择的重要性。通过仔细和...
- RNNs are not Transformers (Yet): The Key Bottleneck on In-context Retrieval:本文研究了 RNNs 和 Transformers 在解决算法问题背景下表示能力的差距。我们专注于理解 RNNs 是否...
- Rephrasing the Web: A Recipe for Compute and Data-Efficient Language Modeling:LLM 是在海量的网络抓取数据上训练的,这些数据通常是无结构的、多噪声的且表述不佳。目前的 Scaling Laws 表明,从这类数据中学习需要大量的...
- Construction of Arithmetic Teichmuller Spaces IV: Proof of the abc-conjecture:这是我在本系列论文中开发的算术 Teichmuller 空间工作的延续。在本文中,我展示了算术 Teichmuller 空间理论如何利用 Shinic...
- GiT: Towards Generalist Vision Transformer through Universal Language Interface:本文提出了一个简单而有效的框架,称为 GiT,仅使用原生 ViT 即可同时适用于各种视觉任务。受 Multi-layer Transformer 通用性的启发...
- Transformers Get Stable: An End-to-End Signal Propagation Theory for Language Models:尽管取得了巨大成功,Transformer 模型在深度扩展方面仍然困难。在这项工作中,我们开发了一个统一的信号传播理论,并提供了控制...矩的公式。
- Common 7B Language Models Already Possess Strong Math Capabilities:数学能力以前被认为只有在极大规模的通用语言模型中才会出现,或者需要广泛的数学相关预训练。本文展示了 LLaMA-2 7B 模型...
- Accelerating Generative AI with PyTorch II: GPT, Fast:本文是专注于如何使用纯原生 PyTorch 加速生成式 AI 模型的系列博客的第二部分。我们很高兴能分享一系列新发布的 PyTorch 性能...
- Comparative Study of Large Language Model Architectures on Frontier:LLM 在 AI 社区及其他领域引起了极大关注。其中,GPT 已成为主导架构...
- Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews:我们提出了一种方法,用于估计大型语料库中可能被 LLM 大幅修改或生成的文本比例。我们的最大似然模型利用...
- Bytez: Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews:本研究探讨了在科学...中使用 LLM(如 ChatGPT)的情况。 科学同行评审。作者开发了一种方法来估计同行评审中生成的文本百分比...
- Grok-1 开源发布: 未找到描述
- GitHub - xai-org/grok-1: Grok 开源发布: Grok 开源发布。通过在 GitHub 上创建账户为 xai-org/grok-1 的开发做出贡献。
- GitHub - enfiskutensykkel/ssd-gpu-dma: 构建支持 CUDA 的用户空间 NVMe 驱动程序和存储应用: 构建支持 CUDA 的用户空间 NVMe 驱动程序和存储应用 - enfiskutensykkel/ssd-gpu-dma
- GitHub - bigscience-workshop/bloom-dechonk: 一个用于运行模型收缩实验的仓库: 一个用于运行模型收缩实验的仓库。通过在 GitHub 上创建账户为 bigscience-workshop/bloom-dechonk 的开发做出贡献。
- 模型与 API 提供商分析 | Artificial Analysis: AI 模型和 API 托管提供商的比较与分析。涵盖质量、价格、性能和速度(吞吐量与延迟)等关键指标的独立基准测试。
- Word n-gram language model - Wikipedia: 未找到描述
- features-across-time/scripts/generate_bigrams.py at main · EleutherAI/features-across-time: 了解神经网络学习到的特征在整个训练过程中是如何演变的 - EleutherAI/features-across-time
- 固定长度模型的困惑度 (Perplexity):未找到描述
- lm-evaluation-harness/docs/model_guide.md at main · EleutherAI/lm-evaluation-harness:一个用于语言模型 few-shot 评估的框架。- EleutherAI/lm-evaluation-harness
- GitHub: Let’s build from here:GitHub 是超过 1 亿开发者共同塑造软件未来的地方。通过开源社区进行贡献、管理 Git 仓库、像专家一样审查代码、跟踪错误和功能...
- `wmt14-en-fr` 死锁问题 · Issue #1485 · EleutherAI/lm-evaluation-harness:在运行此任务的评估时,在计算 ter 指标期间,程序会永远卡住。命令:lm_eval --model hf --model_args pretrained=microsoft/phi-2,trust_remote_code=True ...
- Release v0.4.2 · EleutherAI/lm-evaluation-harness:lm-eval v0.4.2 发行说明。我们正在为 PyPI 用户发布一个新的 lm-eval 次要版本!我们很高兴看到 lm-evaluation-harness 的持续使用,包括作为标准测试...
- evaluate/metrics/perplexity/perplexity.py at 8dfe05784099fb9af55b8e77793205a3b7c86465 · huggingface/evaluate:🤗 Evaluate:一个用于轻松评估机器学习模型和数据集的库。- huggingface/evaluate
- Open Release of Grok-1: 未找到描述
- grok-1: Grok-1 是一个 314B 参数的 Mixture of Experts 模型 - 基础模型(未微调) - 8 个专家(2 个激活) - 86B 激活参数 - Apache 2.0 许可证 - 代码: - 祝编码愉快!另:我们正在招聘:
- Tweet from Linux Performance, Benchmarks & Open-Source News - Phoronix: 未找到描述
- Whisper Large V3 - a Hugging Face Space by ivrit-ai: 未找到描述
- Tweet from Weyaxi (@Weyaxi): 🤔你是否曾好奇我们在 @huggingface 上托管了多少数据?好吧,在看到 @TheBlokeAI 的模型数量以及平台上闲置的 120B 模型后,我确实好奇了 😅 📊 所以我抓取了所有的仓库...
- Tonic/Aya · Set a repetition_penalty constant as 1.8: 未找到描述
- Video-LLaVA demo api not working with Gradio-Client · Issue #7722 · gradio-app/gradio: 描述错误:我尝试在 Hugging Face Spaces 上为 Video-LLaVA 模型演示使用 Python API,但遇到了错误:Traceback (most recent call last): File "/Users/kamakshiramamurthy/Deskt...
- GitHub - moritztng/fltr: Like grep but for natural language questions. Based on Mistral 7B or Mixtral 8x7B.: 类似于 grep,但针对自然语言问题。基于 Mistral 7B 或 Mixtral 8x7B。 - moritztng/fltr
- 无标题: 未找到描述
- MLOps: End-to-End Hugging Face Transformers with the Hub & SageMaker Pipelines: 了解如何使用 Amazon SageMaker 构建从训练到生产的 Hugging Face Transformers 端到端 MLOps 流水线。
- Medusa: Simple LLM Inference Acceleration Framework with Multiple Decoding Heads:大语言模型 (LLMs) 的推理过程通常由于自回归解码过程中缺乏并行性而受到限制,导致大多数操作受限于内存带宽...
- Paper page - MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training:未找到描述
- Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews:我们提出了一种方法,用于估算大型语料库中可能被大语言模型 (LLM) 大幅修改或生成的文本比例。我们的极大似然模型利用...
- Bytez: Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews:本研究探讨了大语言模型 (LLMs)(如 ChatGPT)在科学同行评审中的应用。作者开发了一种方法来估算同行评审中生成的文本百分比...
- llama_index/docs/examples/instrumentation/basic_usage.ipynb at main · run-llama/llama_index:LlamaIndex 是适用于你的 LLM 应用程序的数据框架 - run-llama/llama_index
- llama_index/docs/examples/instrumentation/observe_api_calls.ipynb at main · run-llama/llama_index:LlamaIndex 是适用于你的 LLM 应用程序的数据框架 - run-llama/llama_index
- 未找到标题: 未找到描述
- )">未找到标题: 未找到描述
- Prompt Engineering 指南: Prompt Engineering 全面概述
- Prompt Engineering 指南: Prompt Engineering 全面概述
- 定义与自定义文档 - LlamaIndex 🦙 v0.10.20.post1: 未找到描述
- 使用 LlamaIndex 实现多租户 - Qdrant: Qdrant 是一个用 Rust 编写的开源向量数据库和向量搜索引擎。它通过便捷的 API 提供快速且可扩展的向量相似度搜索服务。
- 结构化数据提取 - LlamaIndex 🦙 v0.10.20.post1: 未找到描述
- CodeSplitter - LlamaIndex 🦙 v0.10.20.post1: 未找到描述
- 使用 CLIP 嵌入进行图像到图像检索,并使用 GPT4V 进行图像相关性推理 - LlamaIndex 🦙 v0.10.20.post1: 未找到描述
- LlamaCloud: 未找到描述
- llama_index/docs/examples/vector_stores/Qdrant_using_qdrant_filters.ipynb at 5c53f41712785e5558156372bdc4f33a6326fa5f · run-llama/llama_index: LlamaIndex 是适用于你的 LLM 应用程序的数据框架 - run-llama/llama_index
- <a href="http://localhost:{port}",>">未找到标题</a>: 未找到描述
- Tools - LlamaIndex 🦙 v0.10.20.post1: 未找到描述
- llama_index/llama-index-integrations/llms/llama-index-llms-ollama/llama_index/llms/ollama/base.py at main · run-llama/llama_index: LlamaIndex 是适用于你的 LLM 应用程序的数据框架 - run-llama/llama_index
- hof/flow/chat/prompts/dm.cue at _dev · hofstadter-io/hof: 连接数据模型、Schema、代码生成和任务引擎的框架。与语言和技术无关。 - hofstadter-io/hof
- [问题]:自定义 LLM 但被阻塞 · Issue #12034 · run-llama/llama_index: 问题验证 我已在文档和 Discord 中搜索过答案。问题代码来自 typing import Optional, List, Mapping, Any from llama_index.core import SimpleDirecto...
- Grok-1 开源发布:未找到描述
- 来自 Teknium (e/λ) (@Teknium1) 的推文:这解释了为什么 Yann 对 LLM 如此看空…… 😲
- 将语言模型扩展至 128K 上下文的数据工程:我们研究了将语言模型上下文长度扩展到 128K 的持续预训练方案,重点关注数据工程。我们假设长上下文建模,特别是 \textit{t...
- 来自 Teortaxes▶️ (@teortaxesTex) 的推文:@aidan_mclau 0) 火箭人很糟 1) 并没有差多少 2) 如你所见,这是一个稀疏上采样的 Grok-0。它还没准备好。在 2023 年,持续预训练已基本解决,并且验证了……
- 解释 SDXL 潜空间:未找到描述
- 来自 Alex Volkov (Thursd/AI) (@altryne) 的推文:Sora 团队出现在伯克利讨论 SORA
- Bark - 一个 suno 集合:未找到描述
- 🦅 EagleX 1.7T:在英语和多语言评估中超越 LLaMA 7B 2T (RWKV-v5):一个线性 Transformer 刚刚在英语和多语言评估中,以更少的训练 Token 数量超越了 Transformer 模型的金标准 LLaMA 7B。这是历史性的第一次。
- 来自 swyx (@swyx) 的推文:怎么可能和 sama 聊了 2 小时却没得到任何内幕消息(alpha),但嘿,我们又聊到了外星人,这很有趣
- 来自 Open Interpreter (@OpenInterpreter) 的推文:百年磨一剑,最后 100 小时倒计时。
- 来自 j⧉nus (@repligate) 的推文:这是在 Claude 的后台导航到 ../../microsoft/bing/bing_chat 目录,然后让 Claude 自行使用命令查看,接着运行:
... 的结果。</li> - 来自 Yao Fu (@Francis_YAO_) 的推文:前沿模型都有至少 100k 的上下文长度,Gemini 1.5 甚至有 1m 上下文。研究和开源界情况如何?介绍长上下文数据工程,一种实现……的数据驱动方法。
- 来自 Burny — Effective Omni (@burny_tech) 的推文:来自 Sam Altman 关于 GPT-5 的新细节。他基本上承认了 GPT-5 将是 GPT-4 的巨大升级,所以我们可以期待类似于从 3 到 4 的跨越。“如果你忽视了改进的速度……”
- 来自 xlr8harder (@xlr8harder) 的推文:我想我代表了这里的所有人:3140 亿参数,搞什么鬼
- 来自 Grant♟️ (@granawkins) 的推文:“在 24 年第一季度到 25 年第四季度之间,算力将增加 14 倍。然后,如果考虑到算法效率每 9 个月翻一番,明年年底的有效算力将几乎……”
- 来自 AI Is Like Water 的推文:生成式 AI 就像水。这句话源于挫败感,但它开启了 AI 策略的新世界。
- 来自 Champagne Joshi (@JoshWalkos) 的推文:这是一段与一个缺乏内心独白的女孩的精彩对话。她把这种体验表达得非常好。
- 来自 Teknium (e/λ) (@Teknium1) 的推文:这解释了为什么 Yann 对 LLM 如此看空…… 😲
- 来自 KZ (@kzSlider) 的推文:这非常有道理。Yann 一直在寻找能够进行视觉推理或使用规划,而非纯语言推理的模型 ↘️ 引用 Teknium (e/λ) (@Teknium1):这解释了为什么 Yann……
- 来自 Yao Fu (@Francis_YAO_) 的推文:Grok 的 MMLU 仅与 Mixtral 持平,尽管……
数量级更大。我相信它有巨大的潜力,但尚未完全释放,良好的持续预训练数据可能会大幅提升...</li>- 观看:Jensen Huang 的 Nvidia GTC 主旨演讲 - 直播:太平洋时间下午 1:00 / 东部时间下午 4:00,Nvidia CEO Jensen Huang 将开启每两年举办一次的 GTC 大会。再也不会错过任何优惠!查看 CNET 的浏览器扩展程序 👉 ...
- 来自 Emm (@emmanuel_2m) 的推文:🚨 今天,我们很高兴推出 Scenario #UPSCALER!将您的 AI 创作提升至 10k 分辨率。🚀 专为无与伦比的 #CreativeControl 和引导式工作流而构建。💰 起售价仅为每月 15 美元 ...
- Sam Altman:OpenAI、GPT-5、Sora、董事会风波、Elon Musk、Ilya、权力与 AGI | Lex Fridman Podcast #419:Sam Altman 是 OpenAI 的 CEO,该公司是 GPT-4、ChatGPT、Sora 以及许多其他最先进 AI 技术的幕后推手。请通过以下方式支持本播客...
- 超越 Transformers - RWKV 架构与 The World Tokenizer 简介 - Eugene Cheah & Harrison Vanderbyl:超越 Transformers - RWKV 架构与 The World Tokenizer 简介 - Eugene Cheah & Harrison Vanderbyl,Recursal AI。Transformers 之后会是什么?在...
- #51 FRANCOIS CHOLLET - 智能与泛化:在今天的节目中,我们邀请到了 Francois Chollet。自从读了他的《Deep Learning with Python》一书并开始使用...以来,我一直深受 Francois 的启发。
- GitHub - FranxYao/Long-Context-Data-Engineering:论文《Data Engineering for Scaling Language Models to 128K Context》的实现:论文《Data Engineering for Scaling Language Models to 128K Context》的实现 - FranxYao/Long-Context-Data-Engineering
- 来自 GitHub 的推文 - FixTweet/FxTwitter:修复损坏的 Twitter/X 嵌入!在 Discord、Telegram 等平台上使用多张图片、视频、投票、翻译等功能:修复损坏的 Twitter/X 嵌入!在 Discord、Telegram 等平台上使用多张图片、视频、投票、翻译等功能 - FixTweet/FxTwitter
- GTC 2024:排名第一的 AI 大会:立即注册。在线直播。2024 年 3 月 18-21 日。
- NVIDIA & Harpreet Sahota GTC 2024:未找到描述
- [AINews] MM1:Apple 的首个大型多模态模型:2024/3/14-2024/3/15 的 AI 新闻。我们为您检查了 358 个 Twitter 账号和 20 个 Discord(332 个频道,2839 条消息)。预计节省的阅读时间(以 200wpm 计算):...
- Llama 是用英语工作的吗?论多语言 Transformers 的潜在语言:我们探讨了在不平衡且以英语为主的语料库上训练的多语言语言模型是否使用英语作为内部中转语言——这对于理解语言模型如何...至关重要。
- Bytez:Llama 是用英语工作的吗?论多语言 Transformers 的潜在语言:在这项研究中,科学家们想知道语言模型(可以生成文本的模型)是否在内部使用英语作为“中转”语言,即使是在使用其他语言进行提示时。他们发现 ...
- Multilingual - stereoplegic 收藏集:未找到描述
- 来自 Daniel Han (@danielhanchen) 的推文:查看了 @Grok 的代码:1. Attention 按 30/tanh(x/30) 缩放?! 2. 使用了类似 Gemma 的近似 GELU 3. 4 层 Layernorm,而不像 Llama 是 2 层 4. RMS Layernorm 在最后进行下转型,而不像 Llama...
</ul> </div> --- **Latent Space ▷ #[ai-announcements](https://discord.com/channels/822583790773862470/1075282504648511499/1218137415068422164)** (2 条消息): - **论文俱乐部会议提醒**:关于“大型语言模型综合总结”的 **Paper Club** 会议将在两分钟后开始。欢迎大家加入并参与。 - **人工智能旋律生成器**:由 [Suno](https://app.suno.ai/song/83680b6f-db37-44de-adf9-3f7fff6b79d9) 驱动的 AI 创作了一首模仿 90 年代嘻哈风格的歌曲,其歌词反映了 AI 模型如何通过在海量数据集上进行训练来挑战人类艺术家。歌词对 AI 在创意领域日益增长的影响力进行了元评论(meta-commentary)。 **提及的链接**:Suno, an AI music generator | Hacker News:未找到描述 --- **Latent Space ▷ #[llm-paper-club-west](https://discord.com/channels/822583790773862470/1197350122112168006/1218135292574306328)** (20 条消息🔥): - **解码 Attention 的起源**:一位成员澄清说,**Attention 机制**的创建是为了解决模型访问输入序列中所有信息的问题,这与以往具有固定长度编码向量的模型不同。 - **并行化优势解析**:会议解释了 **Transformer Attention 机制**通过允许独立处理不同的 tokens 来促进并行化,从而实现更高效的计算和更快的训练。 - **计算效率的澄清**:一位成员表示,他们对**并行化**的困惑已得到解决,现在理解了 Transformer 中的缩放点积(scaled dot product)操作消除了处理过程中的顺序“等待”。 - **对见解的总结致谢**:参与者对本次会议表示感谢,会议让他们对 **Large Language Models (LLMs)** 的发展和背后的直觉有了更深入的理解。 --- **Latent Space ▷ #[ai-in-action-club](https://discord.com/channels/822583790773862470/1200548371715342479/1218287754715201638)** (36 条消息🔥): - **在 AI 俱乐部旁听**:一位俱乐部成员提到正在参加一个线下(IRL)会议,并正在旁听正在进行的讨论。 - **成员交流问候**:几位用户在聊天中互致简短的问候,显示出活跃的参与度。 - **即将发布深度博客**:一位用户暗示稍后将在其个人博客上发布他们讨论内容的详细版本。 - **分享实用的 RAG 技术资源**:一位用户分享了一个 [Towards Data Science 博客文章](https://towardsdatascience.com/advanced-rag-01-small-to-big-retrieval-172181b396d4)的链接,讨论了高级 RAG 技术。 - **引用协作学习文档**:提到了一个 [Google 表格](https://docs.google.com/spreadsheets/d/1q5rwO4wleMTLXr1z58c2UC03QsDsGwbJY1v4UG7eEOs/edit#gid=0),详细列出了 AI-in-action 俱乐部会议即将讨论的主题和资源。提及的链接:--- **LAION ▷ #[general](https://discord.com/channels/823813159592001537/823813160075132991/1218220293865345024)** (168 条消息🔥🔥): - **DALL-E 3 数据集位置更新**:曾被询问从 Huggingface 移除的一个数据集实际上已移动到新位置;DALL-E 3 数据集可以在[这里](https://huggingface.co/datasets/OpenDatasets/dalle-3-dataset)访问。 - **关于通过 Huggingface 加载数据集**:重点介绍了如何通过 `load_dataset()` 函数指定 commit id 来加载数据集,[详见 Hugging Face 文档](https://huggingface.co/docs/datasets/en/loading#hugging)。 - **关于 Grok 模型及其与 Mixtral 对比的讨论**:有很多关于 Grok(一个 314B 参数模型)的讨论,包括对其相对于其庞大体量的性能看法,以及与较小但能力强大的 Mixtral 模型的对比。分享了 Grok-1 GitHub 仓库的链接,[点击此处查看](https://github.com/xai-org/grok-1)。 - **使用 Cog 模型进行 Captioning 的创新**:用户正在分享在使用 Cog 模型时,通过将元数据合并到 prompts 中来提高标注(caption)准确性的策略。一位用户分享了来自 GitHub 仓库的一个脚本,[在此处查看脚本](https://github.com/victorchall/EveryDream2trainer/blob/main/caption_cog.py)。 - **围绕 LLaMA 1.6 34b 模型和 COG VLM 的讨论**:用户正在讨论各种 AI 模型,特别是 LLaMA 和 COG,重点关注它们的标注能力、推理速度以及在 RTX 3090 等消费级 GPU 上的实际可用性。- Advanced RAG 01: Small-to-Big Retrieval:使用 LlamaIndex 的子父级递归检索器(RecursiveRetriever)和句子窗口检索(Sentence Window Retrieval)
- AI In Action: Weekly Jam Sessions:2024 主题、日期、主持人、资源、@dropdown GenAI 的 UI/UX 模式,2024/1/26,nuvic,<a href="https://maggieappleton.com/squish-structure">https://maggieappleton.com/squish-struct...
提及的链接:--- **LAION ▷ #[research](https://discord.com/channels/823813159592001537/824374369182416994/1218181910669295716)** (13 messages🔥): - **在错误的频道讨论了 Web UI**:成员们简要提到了使用 Web UI 的风险,指出它们不能在免费版的 Colab 中使用。 - **分享了生成式音频视频文本世界模型文档**:发布了一个标题为 "Generative Audio Video Text world model" 的 Google Doc 链接,但未提供有关文档内容的详细信息或进一步讨论。[在此访问文档。](https://docs.google.com/document/d/1f6CpVjdApmQl3nXsUACGtSd9nML3CypI1iE889i4JbM/edit?usp=drivesdk) - **分享了关于 LLM 高效持续学习的论文**:分享了一个关于大语言模型(LLM)持续预训练的 arXiv 论文链接,讨论了在保留旧数据性能的同时适应新数据的方法。[阅读摘要或下载论文](https://arxiv.org/abs/2403.08763)。 - **Grok-1 在 GitHub 上开源发布**:分享了一个名为 Grok-1 项目的 GitHub 链接;这似乎是 xai-org 对该命名软件的开源发布。[在此查看 GitHub 仓库。](https://github.com/xai-org/grok-1) - **关于 GPT-4 架构的推测**:关于 GPT-4 架构的讨论非常多,有说法引用 Nvidia 消息源称其为拥有 1.8 万亿参数的 MoE 模型。目前尚未确认这是 GPT-4 还是另一个模型。[查看推测性的推文图片。](https://pbs.twimg.com/media/GI-reRIW0AAZpMC?format=jpg&name=large)- 来自 imgnAI (@imgn_ai) 的推文:猫娘们出现在 NVIDIA GTC ✨ 为你的创作自由而鸣 👊 这是一个需要被听到的消息 🐱💕
- Silicon Valley Yes GIF - Silicon Valley Yes Cheer - 发现并分享 GIF:点击查看 GIF
- 为什么中国公司正涌向墨西哥:该国提供了进入美国的后门
- Load:未找到描述
- Load:未找到描述
- EveryDream2trainer/caption_cog.py at main · victorchall/EveryDream2trainer:通过在 GitHub 上创建账号来为 victorchall/EveryDream2trainer 的开发做出贡献。
- GitHub - xai-org/grok-1: Grok open release:Grok 开源发布。通过在 GitHub 上创建账号来为 xai-org/grok-1 的开发做出贡献。
- Reddit - 深入探索一切:未找到描述
- OpenDatasets/dalle-3-dataset · Hugging Face 上的数据集:未找到描述
提到的链接:--- **OpenAccess AI Collective (axolotl) ▷ #[general](https://discord.com/channels/1104757954588196865/1104757955204743201/1218118852454383667)** (99 messages🔥🔥): - **处理聊天格式和转换**:一次交流讨论了在聊天数据上进行训练的效果,重点在于是否保留聊天格式或转换为 Q/A 结构。该成员获知了关于使用 sharegpt 格式,并随后在训练期间通过 Axolotl 使用特定属性将其转换为 llama chat model 的方法。 - **Axolotl 简化模型 Finetuning 流程**:Axolotl 因其通过 yaml 文件而非编写脚本来简化 Finetuning 过程而受到关注,并且它支持使用 LoRA。尽管有人担心与传统方法相比会失去部分控制权,但 Axolotl 提供了一个用户友好且设置开销更少的替代方案。 - **NVIDIA RTX 5000 系列的前景**: - 传闻称即将于 2025 年左右发布的 NVIDIA RTX 5000 系列将有显著的性能提升,包括 VRAM 增加 50% 和带宽提升 78% 等显著改进,这可能有利于 AI 模型训练。 - 分享了一个讨论 RTX 5000 系列的[新闻文章](https://www.heise.de/news/GeForce-RTX-5000-Geruechte-zu-Nvidias-naechster-Grafikkartengeneration-9655220.html)链接,推测其对消费级训练的重要性。 - 辩论了关于潜在显存配置的更多细节,并参考了 [TechPowerUp 文章](https://www.techpowerup.com/320185/nvidia-geforce-rtx-50-series-blackwell-to-use-28-gbps-gddr7-memory-speed)中关于新系列 GDDR7 显存速度的见解。 - **量化技术与模型集成的比较**:讨论涉及了现有的量化方法(如 AQML)及其与各种模型的集成。分享了 AQML GitHub 仓库的链接 ([GitHub - AQLM](https://github.com/Vahe1994/AQLM)),并对其与其他方法的效率进行了评论。 - **探索 Grok-1、MoE 和推理策略**: - 社区对 Grok-1 模型权重的发布做出了反应,思考运行这一大规模 MoE 模型的能力和潜在硬件需求。讨论涉及了其 MoE 架构对 VRAM 占用和推理速度的影响,并提到 Sequoia 是优化消费级 GPU 推理的潜在解决方案。 - 提出了关于 Offloading 或缓存系统作为处理 Grok-1 等模型巨大资源需求策略的可能性。 - 通过该活动的 YouTube 链接 ([GTC March 2024 Keynote with NVIDIA CEO Jensen Huang](https://www.youtube.com/watch?v=Y2F8yisiS6E)) 分享了对 NVIDIA GTC 发布会的见解,包括关于 GPT-4 模型 1.8T 参数量的预告。- Simple and Scalable Strategies to Continually Pre-train Large Language Models:大语言模型(LLM)通常在数十亿个 token 上进行预训练,一旦有新数据可用,就必须重新开始整个过程。一种更有效的解决方案是持续预训练...
- MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training:在这项工作中,我们讨论了构建高性能多模态大语言模型(MLLM)。特别是,我们研究了各种架构组件和数据选择的重要性。通过仔细和持续的...
- GitHub - xai-org/grok-1: Grok open release:Grok 开源发布。通过在 GitHub 上创建账号来为 xai-org/grok-1 的开发做出贡献。
- Generative Audio Video Text world model:未找到描述
提到的链接:--- **OpenAccess AI Collective (axolotl) ▷ #[axolotl-dev](https://discord.com/channels/1104757954588196865/1104758010959634503/1218207901873606667)** (24 条消息🔥): - **ScatterMoE 优化 MoE 模型**:Axolotl 开发团队对 **ScatterMoE** 的潜力感到兴奋,这是对 Huggingface 实现的一种优化,有望显著提高吞吐量。更多细节和代码可以在他们的 [GitHub 分支](https://github.com/OpenAccess-AI-Collective/axolotl/tree/scatter_moe)上查看。 - **澄清使用 ScatterMoE 进行训练**:一位成员澄清说,要使用新的 ScatterMoE 进行训练,需要使用 **mixtral** 模型类型,但强调该系统尚未针对训练正确性进行彻底测试。 - **需要升级到 PyTorch 2.2**:讨论了需要将 **axolotl** 升级到 PyTorch **2.2** 或更高版本,以受益于新的 kernel 并解决兼容性问题;一些成员确认正在使用或测试 PyTorch **2.2.1**。 - **Grok 权重性能受到关注**:在 Axolotl 中尝试了 **Grok** 模型的权重(**3140 亿参数**),但一位用户评论说,相对于模型的大小,其性能并不理想。人们很好奇考虑到其资源需求,谁会运行这样的模型。 - **将 Grok 引入 Axolotl**:鉴于 **Grok** 模型发布的讨论,一位用户开玩笑说 Axolotl 的 **qLoRA FSDP** 是否最终能处理这个“怪物”,而另一位用户指出,根据 [Grok GitHub 页面](https://github.com/xai-org/grok-1),目前仅发布了该模型的 **int8 版本**。- 来自 Brivael (@BrivaelLp) 的推文:Zuck 刚刚对 Grok 的发布做出了反应,他并没有留下深刻印象。“3140 亿参数太多了。你需要一堆 H100,而我已经把它们都买光了” 🤣
- Sequoia:可扩展、鲁棒且硬件感知的 Speculative Decoding:未找到描述
- 巫师猫 Magus 猫 GIF - 巫师猫 Magus 猫 女巫猫 - 发现并分享 GIF:点击查看 GIF
- NVIDIA GeForce RTX 50 系列 "Blackwell" 将使用 28 Gbps GDDR7 显存速度:据可靠爆料人 kopite7kimi 称,首批采用 GDDR7 显存的 NVIDIA GeForce RTX 50 系列 "Blackwell" 显卡传闻将拥有 28 Gbps 的显存速度...
- 2024 年 3 月 GTC 主旨演讲,NVIDIA CEO 黄仁勋:观看 NVIDIA CEO 黄仁勋的 GTC 主旨演讲,了解所有关于塑造我们未来的 AI 进展的发布。深入了解这些发布并发现...
- GeForce RTX 5000:关于 Nvidia 下一代显卡的传闻:Nvidia 的下一代大型游戏 GPU 可能会拥有更多、更快的显存,以及更多的 Shader 核心。
- GitHub - xai-org/grok-1: Grok 开源发布:Grok 开源发布。通过在 GitHub 上创建账号为 xai-org/grok-1 的开发做出贡献。
- GitHub - Vahe1994/AQLM:通过 Additive Quantization 实现大语言模型极端压缩的官方 Pytorch 仓库 https://arxiv.org/pdf/2401.06118.pdf:通过 Additive Quantization 实现大语言模型极端压缩的官方 Pytorch 仓库 https://arxiv.org/pdf/2401.06118.pdf - Vahe1994/AQLM
- NVIDIA GeForce RTX 50 系列 "Blackwell" 将使用 28 Gbps GDDR7 显存速度:据可靠爆料人 kopite7kimi 称,首批采用 GDDR7 显存的 NVIDIA GeForce RTX 50 系列 "Blackwell" 显卡传闻将拥有 28 Gbps 的显存速度...
提及的链接:--- **OpenAccess AI Collective (axolotl) ▷ #[general-help](https://discord.com/channels/1104757954588196865/1110594519226925137/1218257987445981234)** (35 messages🔥): - **Tokenizer 混淆导致标签问题**:一位成员遇到了微调模型经常遗漏第一个 `- 由 ehartford 实现 post training · Pull Request #1407 · OpenAccess-AI-Collective/axolotl: 这样看起来对吗?
- 由 ehartford 实现 post training · Pull Request #1407 · OpenAccess-AI-Collective/axolotl: 这样看起来对吗?
- GitHub - xai-org/grok-1: Grok 开源发布: Grok 开源发布。通过在 GitHub 上创建账号来为 xai-org/grok-1 的开发做出贡献。
- GitHub - OpenAccess-AI-Collective/axolotl at scatter_moe: 尽管提出 axolotl 问题。通过在 GitHub 上创建账号来为 OpenAccess-AI-Collective/axolotl 的开发做出贡献。
` 标签或在插入时带有前导空格的问题。他们检查了 Tokenization 行为,预期得到 ` ` 但观察到的是 `▁ `,并担心这可能是 Tokenizer 的问题。 - **本地模型与数据不匹配**:一位 LLM 新手希望调整其配置文件,以使用本地模型和训练数据,而不是从 Huggingface 拉取,这导致他们在路径规范方面经历了一系列尝试和错误,并面临 `HFValidationError` 问题。 - **训练数据对话导致混乱**:另一位成员在微调对话数据时正苦于“索引超出范围”错误,由于其数据集中的“role”数组为空,导致 `one_shot` 和 `alpaca` 等配置无法按预期工作。 - **Readme 救场解决配置困惑**:在处理上述问题时,他们被建议验证 Readme 中提到的 Prompt 策略,并发现数据集中空的 “from” 和 “value” 字段是导致问题的原因,通过映射额外的角色并忽略长度小于 2 的对话解决了该问题。 - **评估集大小不一致**:一个被标记的 Bug 显示,Axolotl 在 2-epoch 运行时称评估集太小无法进行样本打包(sample packing),但在 10-epoch 运行时却认为没问题,尽管评估集是独立的,不应随 epoch 数量变化。 --- **OpenAccess AI Collective (axolotl) ▷ #[datasets](https://discord.com/channels/1104757954588196865/1112023441386778704/1218770755920072767)** (8 messages🔥): - **NVIDIA NeMo Curator 介绍**:一位成员分享了 **NVIDIA NeMo-Curator** 的 [GitHub 链接](https://github.com/NVIDIA/NeMo-Curator),这是一个可扩展的数据整理工具包。然而,目前还没有关于该工具包的进一步讨论或个人经验分享。 - **寻找特定的 Mistral FT**:有人询问是否有人拥有或了解在 *orca-math-word-problems-200k* 数据集和 *nvidia/OpenMathInstruct-1* 上同时进行过微调的 **Mistral** 模型,强调了对结合推理与代码能力的兴趣。 - **考虑使用 mergekit 进行模型合并**:针对是否可以使用合并工具来避免在海量数据集上单独训练 **Mistral** 的问题,另一位成员肯定了 mergekit 是一个不错的选择,前提是对话格式(chat formats)保持一致。 - **对合并时模型格式兼容性的好奇**:对话演变为关于是否可以微调一个模型的子部分以对齐对话格式的问题,展现了对模型合并策略中适应性的兴趣。 **提到的链接**:GitHub - NVIDIA/NeMo-Curator: 可扩展的数据整理工具包:可扩展的数据整理工具包。通过在 GitHub 上创建账号来为 NVIDIA/NeMo-Curator 的开发做出贡献。 --- **OpenAccess AI Collective (axolotl) ▷ #[rlhf](https://discord.com/channels/1104757954588196865/1112023522039058553/)** (1 messages): duh_kola: 是否可以使用不同的 lora adapter 在另一个模型上进行 dpo? --- **CUDA MODE ▷ #[general](https://discord.com/channels/1189498204333543425/1189498205101109300/1218310691103178803)** (43 messages🔥): - **聚焦光子学 (Photonics)**:一位成员分享了一个题为“新芯片突破:利用光和无线电波实现 1000 倍提升”的 [YouTube 视频](https://youtu.be/8ohh0cdgm_Y),并提到了 Lightmatter 公司,该公司专注于研发光子计算机芯片,旨在更高效地为 AI 提供动力。 - **Asianometry 的光子学见解**:在关于光子技术的讨论中,一位成员推荐了来自 Asianometry 的两个教育视频(可在 [YouTube](https://www.youtube.com/watch?v=29aTqLvRia8) 和 [YouTube](https://www.youtube.com/watch?v=t0yj4hBDUsc) 观看),内容涵盖了硅光子学和用于神经网络的光网格。 - **PyTorch 的显式张量管理设计**:成员们对 PyTorch 中的显式张量内存管理进行了辩论,讨论了 TensorFlow 中隐藏内存复制所带来的复杂性。一个 [GitHub gist](https://gist.github.com/robieta/4c6e94f25a2ab87330bb6bd8026074a6) 展示了 TensorFlow 处理跨设备张量时的行为。 - **寻找最新的 GPU 设施**:建议使用 [RunPod](https://www.runpod.io/) 和 [Lambda Labs](https://lambdalabs.com/) 等云端 GPU 服务来对新一代 GPU 上的 kernel 操作进行 profiling,尽管成员们提到了在这些平台上进行 profiling 的权限问题。 - **GTC 2024 预示新前景**:NVIDIA CEO Jensen Huang 在 GTC 2024 上的主题演讲引发了关于 AI 模型和硬件未来的讨论,涉及拥有 1.8 万亿参数的 SOTA 模型以及配备 192GB HBM 的新 B100 硬件。 提及的链接:--- **CUDA MODE ▷ #[triton](https://discord.com/channels/1189498204333543425/1189607595451895918/1218241351582482493)** (7 条消息): - **推出 Triton 调试可视化工具 (Debugging Visualizer)**:一位成员宣布创建了一个可视化工具,旨在通过展示 load/store 的空间结构来简化 Triton 中的调试过程。该工具旨在辅助实现复杂函数,尽管消息中未提供可视化界面的预览。 - **新发布:用于学习和测试的 Triton Puzzles**:分享了一套 [Triton Puzzles](https://colab.research.google.com/drive/1AJc8RFsDeJ3Vx3gRq5dUqmcb-Cy1G8qh?usp=sharing),旨在为熟悉 GPU puzzles 的用户提供具有挑战性且兼具教育意义的体验。目前已知有两个 bug:偶尔出现的重复可视化和段错误 (segmentation faults)。 - **Triton 新手指南**:针对 Triton 学习资源的咨询,成员们建议除了官方教程外,新的 Triton Puzzles 也会有所帮助,并建议研究和注释社区中流行的 Triton kernel 以加深理解。 - **鼓励使用 Triton CPU 调试**:一位成员对在 CPU 上运行 Triton 的解释器 (interpreter) 表示热烈欢迎,强调这对于无法立即使用 GPU 的用户来说是一个非常有用的功能。 - **社区参与 Triton Puzzles**:社区成员表现出参与新 Triton Puzzles 的浓厚兴趣,认可其潜在的实用性,并有一位成员对文本进行了细微修正,建议为了清晰起见进行编辑。 **提到的链接**:Google Colaboratory:未找到描述 --- **CUDA MODE ▷ #[cuda](https://discord.com/channels/1189498204333543425/1189607726595194971/1218467001450627072)** (68 条消息🔥🔥): - **深入探讨 Warp Schedulers 和线程效率**:一位成员询问了如何配置 Warp Schedulers 的数量,并了解每个调度器在 CUDA 中可以控制多少个线程,以优化执行效率和占用率(occupancy),但消息中未提供具体的答案或资源。 - **寻求关于 Active Warps 的澄清**:一位成员询问了 CUDA 中 "active warp" 的定义,以及没有活跃线程的 Warp 是否仍可被视为 active。建议在练习中,"active warp" 应指至少包含一个活跃线程的 Warp。 - **解码 CUDA 中的内存管理器**:成员 [@morousg#cudapassion](https://link.to.morousgprofile) 澄清了在 CUDA 中提供多种内存管理选项的意图,强调了如 "Producer Provides" 和 "Consumer Takes" 等策略,以促进不同内存空间之间的高效数据管理。 - **理解内存管理中的 Provide-Take 语义**:成员们就使用 "Produces" 和 "Takes" 时的内存管理语义进行了详细讨论,探讨了这些选项如何影响内存分配,以及在 CUDA 应用程序中可能需要的 streamSynchronization。 - **对流水线并行推理的内存管理表现出浓厚兴趣**:在一次演讲结束时,一位成员表示对应用内存管理策略来改进大语言模型 (LLM) 推理的流水线并行(pipeline parallel)实现深感兴趣,并与 [@morousg#cudapassion](https://link.to.morousgprofile) 讨论了潜在的解决方案,包括异步拷贝和优化 GPU 利用率。- 产品 - 芯片 - Cerebras:未找到描述
- 以每小时 0.2 美元起的价格租用云端 GPU:未找到描述
- NVIDIA CEO Jensen Huang 主持的 2024 年 3 月 GTC 主题演讲:观看 NVIDIA CEO Jensen Huang 的 GTC 主题演讲,了解塑造我们未来的 AI 进展的所有发布信息。深入了解这些发布并发现...
- GPU 云、集群、服务器、工作站 | Lambda:用于深度学习和 AI 的 GPU 云、GPU 工作站、GPU 服务器和 GPU 笔记本电脑。提供 RTX 4090, RTX 3090, RTX 3080, RTX A6000, H100 和 A100 选项。预装 Ubuntu, TensorFlow 和 PyTorch。
- 新芯片突破:利用光和无线电波实现 1000 倍提升:立即获取 TypeAI PREMIUM!点击此处链接开始免费试用:https://bit.ly/Mar24AnastasiInTech 论文地址:https://www.nature.com/articles/s41586...
- Lightmatter®:未找到描述
- 硅光子学:下一次硅革命?:衷心感谢频道的好友、来自 MIT 的 Alex Sludds 建议了这个话题并为我提供了关键资源。在这里关注他:https://a...
- 在光网格上运行神经网络:我要感谢 Alex Sludds 在帮助我研究和制作此视频方面所做的努力。在这里查看他的工作:https://alexsludds.github.io 链接:- The As...
提到的链接:--- **CUDA MODE ▷ #[suggestions](https://discord.com/channels/1189498204333543425/1189868872887705671/1219091487455711414)** (5 条消息): - **探索硬件与 ML 的交汇点**:一位用户分享了康奈尔大学 [Prof. Mohamed Abdelfattah 研究小组](https://www.youtube.com/@mabdelfattah88) 的 YouTube 链接,该小组专注于可重构计算和高效机器学习。 - **深入探讨针对硬件优化 ML**:[ECE 5545 (CS 5775) 课程](https://abdelfattah-class.github.io/ece5545/) 页面被重点推荐,该课程提供了从微控制器到多 GPU 系统的机器学习系统及其优化的硬件视角。 - **课程教科书之谜**: - 一位用户指出课程网站提到“教科书”但未说明具体是哪一本,这很奇怪。 - 另一位用户澄清说,教科书的详细信息在第一个讲座视频中提供。- 2024 年 3 月 GTC 主旨演讲,NVIDIA CEO 黄仁勋 (Jensen Huang):观看 NVIDIA CEO 黄仁勋的 GTC 主旨演讲,了解塑造我们未来的 AI 进展的所有发布。深入了解这些发布并发现...
- GitHub - tspeterkim/flash-attention-minimal:约 100 行 CUDA 代码实现 Flash Attention(仅前向传播):约 100 行 CUDA 代码实现 Flash Attention(仅前向传播) - tspeterkim/flash-attention-minimal
提到的链接:--- **CUDA MODE ▷ #[jobs](https://discord.com/channels/1189498204333543425/1190208177829068860/)** (1 条消息): vim410:取决于具体情况。但确实如此。 --- **CUDA MODE ▷ #[beginner](https://discord.com/channels/1189498204333543425/1191300313928433664/1219389682241110147)** (5 条消息): - **扎实的 CUDA 技能作为 ML 的基础**:该成员在用于 GPU 计算的 CUDA 方面拥有深厚背景,包括内存合并 (memory coalescing)、线程束分歧 (warp divergence) 和 kernel profiling 的经验,这似乎是转向使用 CUDA 进行机器学习的**坚实基础**。 - **深入 ML/DL 的建议**:建议开始尝试使用像 **PyTorch** 这样的深度学习框架,因为 ML 本质上涉及优化技术,例如矩阵乘法和归一化。 - **《Programming Massively Parallel Processors》——必读书籍**:推荐使用名为 **"Programming Massively Parallel Processors"** 的特定书籍来深化 CUDA 知识,并被赞誉为极佳的资源,尽管书中关于深度学习的内容较少。 - **向泰斗学习**:提到跟随 **Andrej Karpathy 的 Zero to Hero 系列**是学习 ML 概念以及探索专注于 CUDA 讲座的良好路径。 **提到的链接**:未找到标题:未找到描述 --- **CUDA MODE ▷ #[pmpp-book](https://discord.com/channels/1189498204333543425/1194427148656721970/1218146385942286407)** (6 条消息): - **理解 CUDA 索引中的跨步乘法**:一位成员最初对第 2 章第 2 题中用于 CUDA 索引的 `i = blockIdx.x * blockDim.x + threadIdx.x * 2` 表示疑问。另一位成员解释说,这种方法会导致索引 `i` 的重复计算,并举例说明了两个不同的线程会产生相同的索引值。 - **建议谨慎分享教师内容**:一位成员担心某些内容可能仅限教师使用。这是针对讨论在博客上发布练习答案是否合适而提出的。 - **博客发布练习答案:一个两难境地**:一位成员表示打算在博客上发布练习答案,因为作者没有回应,并强调了没有教育机构联系地址进行沟通的困境。 - **等待作者关于分享答案的指导**:有人建议,在博客上发布练习答案是否合适尚不确定,将进一步寻求 Wen-mei(推测是相关内容的作者或权威人士)的指导。 --- **CUDA MODE ▷ #[ring-attention](https://discord.com/channels/1189498204333543425/1208496482005549086/1218239914542366790)** (14 条消息🔥): - **成员本周很忙**:一位成员简要表示他们本周**非常忙**,等时间充裕后会更新。 - **寻找代码**:一位用户正在寻找代码,并在 GitHub 上找到了一个 **Triton kernel**,并提供了 **[Ring-Flash-Attention commit](https://github.com/zhuzilin/ring-flash-attention/commit/10d992c3c84a2ee1a2e47dd596615d9aad46f7d5)** 的链接。 - **博客文章难题**:一位正在撰写关于 **ring-attention** 博客文章的成员寻求澄清:为什么相关论文中提到内存需求随块大小 (block size) 线性扩展,尽管 SRAM 中需要平方级别的分块大小 (chunk size) 内存。 - **寻找答案**:针对内存扩展的困惑,另一位成员建议查看 **[flash-attention 源代码](https://github.com/Dao-AILab/flash-attention/blob/main/csrc/flash_attn/src/flash_fwd_kernel.h)**,特别是 FlashAttention 是如何在不形成大小为 c^2 的矩阵的情况下实现的。 - **关于内存需求表述的澄清**:其他成员加入了讨论,其中一人建议内存需求可能是指随块的数量线性扩展,而不是随块大小本身扩展。- ML 硬件与系统:未找到描述
- Prof. Mohamed Abdelfattah:这是康奈尔大学 Prof. Mohamed Abdelfattah 研究小组的频道。我们正在研究可重构计算和高效机器学习。欲了解更多信息,请查看...
提到的链接:--- **CUDA MODE ▷ #[off-topic](https://discord.com/channels/1189498204333543425/1215328286503075953/1218332053032927322)** (5 条消息): - **MLSys 2024 Conference Alert**:一位成员分享了关于 5 月举行的 MLSys 2024 会议的信息,强调其关注 Machine Learning 与 Systems 交叉领域的跨学科协作。该会议被认为在 AI 时代具有重要意义,特别是在开发高效 AI 系统方面。[查看会议](https://mlsys.org/)。 - **会议标语的诗意视角**:有人观察到“The Conference for the Era of AI”这一短语符合五步抑扬格(iambic pentameter)的节奏。 - **智能手机的烦恼**:一位用户幽默地将智能手机称为“不那么智能的手机(Not so smart phone)”,可能暗示对设备存在某些挫败感或问题。 - **数学运算顺序澄清**:讨论中纠正了数学表达式中的运算顺序,强调乘法和除法应从左到右进行。 - **科学计算器争论**:关于数学运算的对话延伸到了科学计算器如何以不同方式解释某些表达式,表明计算结果可能因计算器设计而异。 **提到的链接**:MLSys 2024:未找到描述 --- **CUDA MODE ▷ #[gtc-meetup](https://discord.com/channels/1189498204333543425/1218444432588800010/1218444664315711498)** (9 messages🔥): - **早起的鸟儿有虫吃**:*marksaroufim* 提到计划从周一早上开始参加活动,并愿意进行线下聚会,提供私信电话号码以便协调。 - **长期参会者**:*neurondeep* 表示他们将在 3 月 14 日至 25 日参加 GTC,并计划全程参与。 - **聚会爱好者**:*_t_vi_* 表达了他们在现场,并有兴趣与其他成员见面。 - **行程排满**:*marksaroufim* 原计划参加 1-2 天 GTC,但受精彩议程和良好 Wi-Fi 的吸引,决定留满整周。 - **GTC FOMO**:*mr.osophy* 幽默地表达了无法参加 GTC 的遗憾,以及过去曾尝试申请志愿者以换取免费门票但失败的经历。 **提到的链接**:I Snuck Into A Secret Arms-Dealer Conference:每月在 https://www.patreon.com/Boy_Boy 获取独家视频。这是我们与传奇的澳大利亚政治讽刺团体 The C... 合作制作的。 --- **OpenRouter (Alex Atallah) ▷ #[general](https://discord.com/channels/1091220969173028894/1094454198688546826/1218183723200155748)** (159 messages🔥🔥): - **Llama 消息格式获批**:一位用户询问包含 "system"、"user" 和 "assistant" 的格式是否适用于 Llama 模型,得到了肯定的答复。 - **探索支付方式**:当被问及是否必须绑定信用卡以及如何支付时,明确了用户需要进行 *topup their balance*(余额充值)。 - **讨论角色扮演一致性的模型选择**:用户讨论了哪种模型在角色扮演中表现最好且不会重复或胡言乱语,**Sonnet** 最终因其一致性被推举为首选。 - **模型的提示词格式指南**:在询问如何使用系统消息引导 LLM(除第一条消息外)后,成员们讨论了局限性,指出通常只有第一条系统消息生效,后续指令可能需要嵌入在用户消息中。 - **开发意图与关联**:用户讨论了从设置公共 API、在平台列出,到联盟计划和模型选择等多样化话题,同时讨论了各种模型的成本和效率,以及 OpenRouter API 的灵活性。- Striped Attention: Faster Ring Attention for Causal Transformers:为了帮助满足 Transformer 模型对超长序列长度日益增长的需求,Liu 等人最近提出了 Ring Attention,这是一种能够克服单设备内存限制的精确注意力算法...
- flash-attention/csrc/flash_attn/src/flash_fwd_kernel.h at main · Dao-AILab/flash-attention:快速且内存高效的精确注意力机制。通过在 GitHub 上创建账号为 Dao-AILab/flash-attention 的开发做出贡献。
- add naive triton kernel for varlen · zhuzilin/ring-flash-attention@10d992c:未找到描述
提到的链接:--- **LangChain AI ▷ #[general](https://discord.com/channels/1038097195422978059/1038097196224086148/1218212402127175711)** (95 messages🔥🔥): - **LangChain Agent 的 API 选择**:一位成员询问 **astream_log** 是否优于 **astream_events**,以及后者处于 beta 阶段是否意味着即将被弃用,或者它们仅仅是不同的 API。 - **研究助手招募 Beta 测试人员**:一位成员正在为其构建的高级研究助手和搜索引擎招募 Beta 测试人员。该工具提供对 **Claude 3 Opus**、**GPT-4 Turbo** 和 **Mistral Large** 等模型的付费访问权限。感兴趣的人员可前往名为 **Rubik's AI** 服务的 [候补名单页面](https://rubiks.ai/)。 - **LangChain 文档的协作与反馈**:几位成员表示 **LangChain 文档**(特别是针对初学者的部分)难以导航,其他成员则提议帮助澄清内容或补充缺失的页面。 - **使用 LangChain 进行结构化输出解析**:成员们讨论了如何结合 **LangChain 和 pydantic** 获取结构化输出,并提供了解析复杂数据结构的代码示例。用户分享了代码片段,并向尝试在项目中实现类似功能的其他人提供帮助。 - **新服务 Beta 测试呼吁**:一位成员正在为一项新服务招募 Beta 测试人员,该服务为应用程序或个人文档提供快速访问生成器(RAG),并承诺将进行为期一周的密集开发以完成平台建设。- OpenRouter:LLM 和其他 AI 模型的路由服务
- GitHub - xai-org/grok-1: Grok open release:Grok 开源发布。通过创建账户为 xai-org/grok-1 的开发做出贡献。
提到的链接:--- **LangChain AI ▷ #[langserve](https://discord.com/channels/1038097195422978059/1170024642245832774/1219304272244510741)** (45 条消息🔥): - **RemoteRunnable 的流式传输问题**:一位成员在 LangChain 中使用 `RemoteRunnable` 的**流式输出时遇到问题**。该成员指出,从 Python 调用时流式传输正常工作,但**等效的 JavaScript 代码总是触发 `/invoke` 调用**而不是 `/stream`。 - **流式序列中潜在的继承问题**:该成员质疑问题是否源于 `RunnableSequence` 从 `Runnable` 继承了默认的 `_streamIterator`,从而触发了 `invoke` 调用。该成员认为这可能导致 JavaScript 中的流式传输功能失败。 - **寻求 LangChain 团队的帮助**:当被问及如何向 LangChain 团队报告此问题时,AI 指示在 **GitHub** 上提交 issue 或**发送电子邮件给团队**以寻求支持。 - **未发现近期更改**:**未提及**过去一个月内有任何可能解决 JavaScript 流式传输问题的近期更改。建议成员查看 LangChain 的 GitHub 提交记录和发布说明以获取更新。- Rubik's AI - Waitlist: 未找到描述
- 未找到标题: 未找到描述
- Bloon AI: 重新定义智能学习
- 功能请求:在相似度搜索中支持负向嵌入 (Negative Embeddings) · langchain-ai/langchain · Discussion #19239: 已检查,我搜索了现有想法,未发现类似想法。我添加了一个非常详细的标题,并清楚地描述了功能请求及其动机。功能请求:我建议增加...
- 使用自然语言通过 LLM 查询 Teradata VantageCloud | Teradata: 学习将您的英语查询翻译成 SQL,并从您的分析数据库中接收纯英语的响应。
提到的链接:--- **LangChain AI ▷ #[share-your-work](https://discord.com/channels/1038097195422978059/1038097372695236729/1218223379690029179)** (11 条消息🔥): - **对话式数据分析 AI 聊天机器人发布**:Haste171 发布了一个 [GitHub 项目](https://github.com/Haste171/langchain-chatbot),其特色是使用 AI 聊天机器人以对话格式分析和从数据中提取信息。 - **AI 让书签焕发生机**:Codegriot 创建了一个 Discord AI 聊天机器人,用于管理 Raindrop.io 书签,目标是方便日后查找相关内容。该机器人以开源形式提供,可在 [GitHub](https://github.com/uogbuji/living-bookmarks) 上获取。 - **AI 网页抓取变得更简单**:VinciGit00 使用 langchain 开发了一个基于 AI 的爬虫,它使用 OpenAI 密钥运行,并计划兼容其他模型。在不到一个月的时间里安装量已超过 2300 次,他们鼓励通过在 [GitHub 仓库](https://github.com/VinciGit00/Scrapegraph-ai) 点赞(star)来支持。 - **个性化营养 AI 应用展示**:Esxr_ 分享了一段 [YouTube 视频](https://youtu.be/vHjc5CEoIJE),演示了 Nutriheal,这是一款用于个性化患者护理的 AI 应用,利用工具进行本地托管并保护数据隐私。更多见解可在其网站 [navvy.co](https://navvy.co/) 上获得。 - **AI 驱动的销售开发代表 (SDR)**:Sivasurend 接受了一项 Twitter 挑战,使用 Lyzr Automata 框架自动化 SDR/AE 的角色。详细方法已在 Twitter 上演示,源代码可在其 [GitHub 页面](https://github.com/LyzrCore/lyzr-automata) 获取。- RemoteRunnable | LangChain.js - v0.1.28: 未找到描述
- Security | 🦜️🔗 Langchain: LangChain 拥有庞大的集成生态系统,可与本地和远程文件系统、API 及数据库等各种外部资源进行集成。这些集成允许开发者创建多功能的应用程序...
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
提到的链接:--- **LangChain AI ▷ #[tutorials](https://discord.com/channels/1038097195422978059/1077843317657706538/1218824643436085321)** (2 条消息): - **AI 应用开发变得轻而易举**:一位成员展示了一个名为 *Nutriheal* 的个性化营养 AI 应用的创建过程,该应用利用了 **Ollama**、**Open-webui** 以及 Daxa AI 的 **Langchain Pebblo 集成**。该成员通过一段 [教程视频](https://youtu.be/vHjc5CEoIJE) 强调了创建 AI 应用的简便性,并在 [navvy.co](https://navvy.co/) 分享了他们的作品集。 - **本地 AI 部署揭秘**:关于如何在本地设置和运行复杂 AI 模型的教程打破了 AI 专属于科技巨头的神话,正如 [在本地构建和部署 GenAI 解决方案](//build-and-deploy-genai-solutions-locally) 和 [本地 LLMs - 为自定义 LLM 助手制作通用 UI](/generic-ui-for-custom-llm-assistants) 等博客文章所展示的那样。 - **使用 Langgraph 进行计划与执行**:分享了一个视频教程,演示了如何使用 **Langgraph** 创建一个“计划与执行”风格的 Agent,灵感来自 Plan-and-Solve 论文和 Baby-AGI 项目。观众可以通过提供的 [YouTube 视频](https://www.youtube.com/watch?v=ZlJbaYQ2hm4) 进行观看和学习。- 用户访谈 🔎 - NEUROFUSION Research, Inc.:嘿,我正在构建一个数字顾问,旨在帮助改善你在工作和生活其他领域的表现。我很想与你交流,了解你在生产力、身体素质等方面的需求...
- 利用 AI 紧跟 AI 在金融行业应用的最新进展:利用 AI 自动化分析最新的科学论文,以关注该领域的最新进展。
- GitHub - Haste171/langchain-chatbot: 用于以对话形式分析/提取数据信息的 AI 聊天机器人。:用于以对话形式分析/提取数据信息的 AI 聊天机器人。 - Haste171/langchain-chatbot
- GitHub - VinciGit00/Scrapegraph-ai: 基于 AI 的 Python 爬虫:基于 AI 的 Python 爬虫。通过在 GitHub 上创建账号来为 VinciGit00/Scrapegraph-ai 的开发做出贡献。
- 在 15 分钟内制作一个 AI 应用:技术栈 - 自定义 UI 和 RAG:Open-webui 的调整版本 - 本地 LLM 托管:用于本地托管 LLM 的 Ollama。- 数据隐私:集成了 DaxaAI 的 Pebblo 以...
- 首页:我对 AI 充满热情。让我们建立联系,释放 AI 的潜力,并在创新项目上进行合作!
- 来自 Siva Surendira (@siva_1gc) 的推文:这比我们预想的要多花一点时间.. 但它来了.. 😎 使用 @lyzrai Automata 和 @OpenAI 实现 SDR 和 AE 功能的自动化... 运行在 @awscloud 上 - 安全且私密.. 它是如何工作的?👇 Agent 1:...
- GitHub - LyzrCore/lyzr-automata: 低代码多 Agent 自动化框架:低代码多 Agent 自动化框架。通过在 GitHub 上创建账号来为 LyzrCore/lyzr-automata 的开发做出贡献。
- Die Reise vom Ego zur Seele in einem holistischen Universum: Die Rolle der Meditation, der Naturerfahrung und der Astronomie bei der Transformation (10.000 Follower TikTok Content dank ChatGPT 2) eBook : Schulze, Carsten, Bing, chatgpt, google, Bard: Amazon.de: Kindle-Shop:未找到描述
- 未找到标题:未找到描述
- 未找到标题:未找到描述
提到的链接:--- **Interconnects (Nathan Lambert) ▷ #[other-papers](https://discord.com/channels/1179127597926469703/1179142630517518397/1218217772765544448)** (8 条消息🔥): - **API 泄露 LLM 机密**:[arXiv](https://arxiv.org/abs/2403.09539) 上的一篇论文揭示了闭源大语言模型 (LLMs) 可能会通过其 API 输出泄露大量信息。这种泄露归因于 softmax 瓶颈,使得在 OpenAI 的 gpt-3.5-turbo 案例中,能以“低于 1,000 美元”的成本发现模型架构细节。 - **关于 LLM 参数量低估的辩论**:一位成员对近期论文中讨论的模型估计为 70 亿参数表示惊讶,认为实际参数量可能更高。 - **对模型参数量估计的怀疑**:随着一些成员暗示 LLM 参数量估计可能不正确,怀疑也随之产生,特别是如果所讨论的模型(假设是 GPT 3.5)采用了 Mixture of Experts (MoE) 架构。 - **推测混合模型机制**:一段对话推测了 turbo 模型中可能存在的机制,并将其与过去的一篇论文类比,该论文指出使用较大模型的起始 token 可以提升较小模型的后续性能。 - **模型性能的复杂性**:有人指出,另一个 LLM *"Mixtral"* 具有极高的嵌入维度 (4096),这表明了该领域复杂的本质以及可能存在的性能增强手段。 **提到的链接**:Logits of API-Protected LLMs Leak Proprietary Information:大语言模型 (LLMs) 的商业化导致了仅通过高级 API 访问闭源模型的常见做法。在这项工作中,我们展示了即使在保守的假设下…… --- **Interconnects (Nathan Lambert) ▷ #[ml-drama](https://discord.com/channels/1179127597926469703/1181746144821387334/1219339209270362135)** (19 messages🔥): - **预见关于开源定义的争议**:@rasbt 的一条推文暗示了未来可能围绕什么是“开源”展开辩论,根据 @natolambert 的消息,这可能会引发争议。参与者们正热切期待 Open Source Software (OSS) 社区的官方立场。 - **在开源领域寻求共识**:社区讨论了建立对“开源”*共同理解*的重要性。*Apache 2.0* 和 *GPLv3* 等广泛的许可证展示了其中的复杂性。 - **尝试制定实际的开源定义**:@natolambert 表示打算创建一个*实际的定义*来澄清开源辩论,可能是为了避免混淆并解决分歧。 - **对在线争论感到沮丧**:@natolambert 表达了对与用户 @eluether 在线互动和讨论的沮丧,并选择当天退出 Twitter。 - **关于博客 vs 推文与 AI 治理**:@natolambert 反思了暂时离开 Twitter 的好处,并认为博客是一种更充实的媒介。此外还提到了关于 OpenAI 董事会成员 Helen Toner 资格的冲突观点。 **提到的链接**:Stella Biderman (@BlancheMinerva) 的推文:@natolambert @felix_red_panda 你错了哦 :P --- **Interconnects (Nathan Lambert) ▷ #[random](https://discord.com/channels/1179127597926469703/1183121795247779910/1219005089826607185)** (63 messages🔥🔥): - **Grok-1 模型权重向公众发布**:xAI 宣布在 Apache 2.0 协议下发布 [Grok-1](https://x.ai/blog/grok-os) 的基础模型权重和架构,这是一个 *314B 参数的 Mixture-of-Experts 模型*。该模型使用 Rust + JAX 的自定义堆栈训练,可在 [github.com/xai-org/grok](https://github.com/xai-org/grok) 获取。 - **Grok 的参数量令社区感到惊讶**:聊天参与者对 Grok-1 的规模表示震惊,作为一个 **Mixture-of-Experts 模型拥有 3140 亿参数**,这表明 xAI 团队在快速发布计划中优先考虑了最优性。 - **Grok 性能讨论**:聊天中提到了性能表现,参考资料显示 Grok 的表现优于 Falcon,其 **GSM8K 为 45.94,MMLU 为 70.5**。关于大规模训练数据集以及 [Chinchilla 研究如何应用于 MoE](https://x.com/thexeophon/status/1769449427972858103?s=46) 的推测也随之产生。 - **Grok 的种子分发引发轰动**:通过种子 (Torrent) 分发 Grok 权重的做法引发了关于开源模型声誉影响以及这可能带来的政策挑战的讨论。 - **FedEx 模型交付笑话**:有人提出了一个幽默的想法,即通过 FedEx 用闪存盘分发 AI 模型,作为应对昂贵的云端流出费用 (cloud egress fees) 的一种具有成本效益的措施。- 使用 Langgraph 进行计划与执行:如何创建一个“计划与执行”风格的 Agent。这在很大程度上受到了 Plan-and-Solve 论文以及 Baby-AGI 项目的启发。核心思想是首先...
- 在 15 分钟内制作一个 AI 应用:技术栈 - 自定义 UI 和 RAG:Open-webui 的调整版本 - 本地 LLM 托管:用于本地托管 LLM 的 Ollama。- 数据隐私:集成了 DaxaAI 的 Pebblo 以...
- 首页:我对 AI 充满热情。让我们建立联系,释放 AI 的潜力,并在创新项目上进行合作!
提到的链接:--- **Alignment Lab AI ▷ #[general-chat](https://discord.com/channels/1087862276448595968/1095458248712265841/1218732428462395502)** (6 条消息): - **与 Alignment Lab 一起探索 Airbus**:一位成员分享了 Alignment Lab 关于 **Airbus** 的[推文链接](https://twitter.com/alignment_lab/status/1758949148143841379),但觉得内容令人困惑,询问其他人正在用它构建什么。 - **寻找基于 HTTP 训练的 Embeddings 模型**:一位用户询问是否存在**在 HTTP 响应上训练的 embeddings 模型**,并寻求如何找到此类模型的建议。他们还认为任何经过适当训练的 Transformer 都可以作为 embeddings 模型。 - **为 Mistral 合并数据集**:有人询问是否存在**同时在 orca-math-word-problems-200k 数据集和 nvidia/OpenMathInstruct-1 上进行微调的 Mistral 模型**,想知道其他人是否了解或拥有此类模型。 - **问候**:一位用户简单地说了声 "hi"。 --- **Alignment Lab AI ▷ #[oo](https://discord.com/channels/1087862276448595968/1118217717984530553/1219081302683422851)** (32 条消息🔥): - **征集 Grok 1 微调合作者**:一位成员表达了对微调 **Grok 1** 的兴趣并寻求协助,强调了对大量计算资源和专业知识的需求。 - **MoE 基础设施的效率**:一位成员声称拥有**高效的 MoE 训练基础设施**,效率接近 100%,可能对 Grok 1 微调项目有益。 - **Grok 1 的计算和数据需求**:微调 Grok 1 所列出的需求包括 **64-128 个 H100 GPU**、一个大型经过验证的数据集,以及大量的实验时间投入。 - **对 Grok 1 性能的怀疑**:有人对 **Grok 1 的性能**表示担忧,特别是与其他模型(如 Mixtral)相比,并就投入额外训练是否值得展开了辩论。 - **Grok 1 能力的亮点**:尽管存在疑问,一位成员分享了一个 [HuggingFace 数据集链接](https://huggingface.co/datasets/keirp/hungarian_national_hs_finals_exam),表明 **Grok 1** 展示了令人惊讶的能力,在匈牙利国家高中毕业考试数据集上的表现接近 GPT-4 和 Claude。 **提到的链接**:keirp/hungarian_national_hs_finals_exam · Hugging Face 数据集:未找到描述 --- **LLM Perf Enthusiasts AI ▷ #[general](https://discord.com/channels/1168579740391710851/1168579740391710855/1218226914322415677)** (1 条消息): 由于此处仅提供了一条上下文不完整的单条消息,因此无法生成摘要。如果您提供更多该频道的历史消息,我将能够为您汇总所需的摘要。 --- **LLM Perf Enthusiasts AI ▷ #[claude](https://discord.com/channels/1168579740391710851/1168582222194933860/1218206756031955006)** (7 条消息): - **辩论 Anthropic 的意图**:一位成员分享了一条[推文](https://x.com/tszzl/status/1768530219378631137?s=20),暗示 **Anthropic** 扮演着受控反对派的角色,旨在让技术人员产生恐惧。 - **对内容审核的担忧**:一位成员指出,内容审核问题主要出现在包含人物的图像上,系统会“直接拒绝”进行有效的审核。 - **思考 Claude Sonnet 的可扩展性**:讨论了将 **Claude Sonnet** 用于每月数千万 token 项目的可行性;寻求在大规模使用 Claude Sonnet 方面的担忧或经验。 **提到的链接**:来自 roon (@tszzl) 的推文:Anthropic 是受控反对派,目的是让技术人员心生敬畏。 --- **LLM Perf Enthusiasts AI ▷ #[reliability](https://discord.com/channels/1168579740391710851/1169378117865963580/1218241222347460619)** (16 条消息🔥): - **Maisa 发布 KPU**: Maisa 宣布了其全新的 Knowledge Processing Unit (KPU),它与 LLM 集成以增强复杂任务的解决能力,潜力可能超越 GPT-4 和 Claude 3 Opus。[白皮书和博客](https://maisa.ai/blog/kpu) 详细阐述了 KPU 的架构及其在推理方面的优势。 - **关键对比缺失**: 一位成员指出,在 KPU + GPT-4-turbo 与 GPT-4 之间进行的对比(未包含 GPT-4-turbo 本身)可能不具代表性,建议合理的对比应包含后者。 - **对 KPU 创新的不确定性**: 人们对 KPU 的底层技术表示了一些困惑,有人认为它可能涉及复杂的 Prompt Engineering 或 Context Window 操作。 - **对图表和候补名单的怀疑**: 成员们开玩笑说,AI 初创公司展示令人印象深刻的图表并提供 Waitlist 是典型的发布模式,在没有更多实质性证据的情况下表达了怀疑态度。 - **考虑 KPU 可能存在的缺点**: 尽管在 Benchmark 任务中可能有性能提升,但人们对 KPU 潜在的 Latency 问题及其对实际应用的影响表示担忧。 - **关于 KPU 机制的进一步见解**: 来自 @davipar 的一条推文澄清说,KPU 是一种新的 AI 架构,可与现有的 LLM 配合使用,无需 Chunking 或 Embedding,并将其比作知识管理的 GPU。技术概览包括一个用于 Benchmark 的 Notebook,他们还提供 API Key 用于独立评估:[推文链接](https://x.com/davipar/status/1768683151780683919?s=20)。- 我们是否已经达到了 AI 的巅峰?:上周,《华尔街日报》发布了对 OpenAI CTO Mira Murati 长达 10 分钟的采访,记者 Joanna Stern 提出了一系列深刻而直接的问题,Murati...
- Grok-1 开源发布:未找到描述
- 来自 Grok (@grok) 的推文:@elonmusk @xai ░W░E░I░G░H░T░S░I░N░B░I░O░
- 来自 Xeophon (@TheXeophon) 的推文:Chinchilla 定律并不直接适用于 MoE,对吧?如果是的话,我们可以推断出 Grok 的训练数据集大小。它出乎意料地大,所以我猜他们首先追求的是最优性,考虑到时间有限...
提到的链接:--- **LLM Perf Enthusiasts AI ▷ #[openai](https://discord.com/channels/1168579740391710851/1171903046612160632/)** (1 messages): res6969: https://x.com/leopoldasch/status/1768868127138549841?s=46 --- **DiscoResearch ▷ #[general](https://discord.com/channels/1178995845727785010/1182877486854451271/1218132499150934157)** (21 messages🔥): - **DiscoLM 模型在德语方面表现不佳**: 用户报告了不同 **DiscoLM** 和 **LeoLM** 模型的问题,特别是 **DiscoLM-mixtral-8x7b-v2** 在指令微调(Instruction Fine-tuning)后无法生成德语响应。他们在尝试为序列分类任务微调 DiscoLM 模型时还遇到了 **ValueError**。 - **排查 DiscoLM API 调用问题**: 一位用户在通过 `vllm` 封装 DiscoLM API 调用时遇到问题,即使使用英语提示,服务器也会返回德语响应。他们提供了服务器设置及模型调用方式的详细代码片段。 - **德语模型 Benchmark 的不一致性**: 一位用户观察到德语模型的性能参差不齐,并强调了对 Chat Format 模板和 End Token 约定的敏感性。他们指出,社区在模板标准化和 Benchmark 方面的协作将大有裨益。 - **关于德语语言建模和 Benchmark 的讨论**: 用户讨论了缺乏用于测试德语语言建模中语言细微差别的高质量 Benchmark,并引用了最近的论文和测试。他们表示需要一个衡量语言输出质量的 Benchmark,并指出了数据集质量和模型合并(Merging)方面持续存在的问题。 - **与学术界合作开发 Benchmark**: 有人建议可以联系拥有计算资源和相关研究兴趣的大学,共同开发评估德语模型语言质量的 Benchmark。用户幽默地暗示了私下获取或合作开发此类 Benchmark 的可能性。- KPU - Maisa: AI 驱动的知识处理平台。一个用于执行业务任务的简单 API。为软件和应用程序开发人员抽象了使用最新 AI 架构的复杂性。
- David Villalón (@davipar) 的推文: 很高兴回答!它不是一个新模型,事实上 KPU 与智能提供商(OpenAI, Anthropic...)无关。它是一种与 LLM 配合使用的新 AI 架构,利用了它们的推理能力...
- Reddit - Dive into anything: 未找到描述
- Reddit - Dive into anything: 未找到描述
- grok-1/model.py at main · xai-org/grok-1: Grok 开源发布。通过在 GitHub 上创建账号,为 xai-org/grok-1 的开发做出贡献。
- grok-1/model.py at e50578b5f50e4c10c6e7cff31af1ef2bedb3beb8 · xai-org/grok-1: Grok 开源发布。通过在 GitHub 上创建账号,为 xai-org/grok-1 的开发做出贡献。
- 我们的论文《SuperGLEBer: 德语语言理解评估基准》被 NAACL 2024 接收: 在我们的论文中,我们为德语构建了一个广泛的 Natural Language Understanding 基准测试套件,并据此评估了大量现有的具备德语能力的模型,以创建一个...
- Reddit - Dive into anything: 未找到描述
- ChuckMcSneed/WolframRavenwolfs_benchmark_results · Hugging Face 数据集: 未找到描述
- GitHub - KLUE-benchmark/KLUE: 📖 韩语 NLU 基准: 📖 韩语 NLU 基准。通过在 GitHub 上创建账号,为 KLUE-benchmark/KLUE 的开发做出贡献。
- GitHub - facebookresearch/belebele: Belebele 数据集仓库,这是一个大规模多语言阅读理解数据集。: Belebele 数据集仓库,这是一个大规模多语言阅读理解数据集。 - facebookresearch/belebele
- GitHub - google-research/xtreme: XTREME 是一个用于评估预训练多语言模型跨语言泛化能力的基准,涵盖了 40 种类型各异的语言,并包含 9 个任务。: XTREME 是一个用于评估预训练多语言模型跨语言泛化能力的基准,涵盖了 40 种类型各异的语言,并包含 9 个任务。 - goo...
提及的链接:--- **Datasette - LLM (@SimonW) ▷ #[llm](https://discord.com/channels/823971286308356157/1128504153841336370/)** (1 条消息): obra: 是否可以恢复 OpenAI 模型在之前的 API 请求中使用的 seed? --- **Skunkworks AI ▷ #[general](https://discord.com/channels/1131084849432768614/1131084849906716735/1218193382669549568)** (17 条消息🔥): - **模型准确率的显著提升**:一位成员提到他们正在完成一篇**详细介绍提高模型全局准确率的方法的文章**,并使训练更具样本效率。一旦准备好更好的图表和结构化结果,他们将分享该论文。 - **寻求更大模型的测试资源**:该成员还表示需要**在更大的模型上测试该方法**,但目前缺乏相关资源。 - **在 VGG16 上的结果验证**:该方法已在 **VGG16** 上得到验证,显示出良好的前景,在 CIFAR100 的子集上仅经过一个 epoch 后,**测试准确率从 0.04 跃升至 0.1**。 - **提供计算和资源帮助**:另一位成员提议在讨论完初步验证后,**分配计算资源**来帮助扩大新方法的验证和测试规模。 - **可能参与 'Quiet-STaR' 项目**:另一位成员询问是否可以参与 **"Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking"** 项目,并被问及对 **PyTorch 和 Transformer 架构**的熟练程度。 --- **Skunkworks AI ▷ #[off-topic](https://discord.com/channels/1131084849432768614/1140423597454807179/)** (1 条消息): pradeep1148: https://www.youtube.com/watch?v=ZlJbaYQ2hm4- How to Build a Buzzword:以及为什么它们如此强大
- Helicone:开发者如何构建 AI 应用。开箱即用,获得可观测性、工具、微调和评估。
- Vercel AI SDK:使用最新的 AI 语言模型构建 AI 驱动的应用
- GitHub - hegelai/prompttools: 用于提示词测试和实验的开源工具,支持 LLM(如 OpenAI, LLaMA)和向量数据库(如 Chroma, Weaviate, LanceDB)。:用于提示词测试和实验的开源工具,支持 LLM(如 OpenAI, LLaMA)和向量数据库(如 Chroma, Weaviate, LanceDB)。 - hegelai/prompttools
- GitHub - promptfoo/promptfoo: 测试你的提示词、模型、RAG。评估和比较 LLM 输出,捕获回归,并提高提示词质量。支持 OpenAI/Azure GPT, Anthropic Claude, VertexAI Gemini, Ollama, 本地和私有模型(如 Mistral/Mixtral/Llama)的 LLM 评估,支持 CI/CD:测试你的提示词、模型、RAG。评估和比较 LLM 输出,捕获回归,并提高提示词质量。LLM 评估支持 OpenAI/Azure GPT, Anthropic Claude, VertexAI Gemini, Ollama, 本地和...