ainews-not-much-happened-today-8015
今天没什么事。
以下是为您翻译的中文内容:
RAGFlow 已开源,这是一款具备深度文档理解能力的 RAG(检索增强生成)引擎,支持 16.3k 上下文长度及自然语言指令。Lightblue 发布了拥有 520 亿参数的 MoE(混合专家)模型 Jamba v0.1,但用户反馈褒贬不一。Cohere 开发的 Command-R 模型现已在 Ollama 库中上线。
对 GPT-3.5-Turbo 架构的分析显示,其参数量约为 70 亿,嵌入维度为 4096,级别与 OpenChat-3.5-0106 和 Mixtral-8x7B 相当。研究表明,包括 GPT-4 在内的 AI 聊天机器人在说服力辩论中表现优于人类。此外,Mistral-7B 在处理数学谜题时犯了一些有趣的错误。
硬件方面,有人以 5.8 万美元的折扣价购入了一台配备 8 块 H100 GPU 的 HGX H100 640GB 服务器;另外还有关于 Epyc 9374F 与 Threadripper 1950X 在大语言模型(LLM)推理性能上的对比。针对本地大模型的 GPU 推荐主要集中在显存(VRAM)和推理速度上,用户正在测试 4090 GPU 与 Midnight-miqu-70b-v1.0.q5_k_s 模型的组合。最后,Stable Diffusion 正在影响玩家的游戏习惯,而一项 AI 艺术评估显示,评价结果存在偏向“人类创作”标签的偏见。
2024年4月1日至4月2日的 AI 新闻。我们为您检查了 5 个 subreddit、364 个 Twitter 和 26 个 Discord(382 个频道和 4481 条消息)。预计节省阅读时间(以 200wpm 计算):463 分钟。
所以你有时间:
- 观看来自 3B1B 的 30 分钟 GPT 入门介绍
- 观看来自 Soheil Feizi 的 4 小时完整 LLM 入门介绍
- 尝试一个在 SWE-bench 上得分 12.29% 的开源 Devin 竞争对手
祝贺 Logan 加入 Google。
目录
[TOC]
AI Reddit 摘要
涵盖 r/LocalLlama, r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence。评论抓取尚未实现,但即将推出。
开源模型与库
- RAGFlow 开源:RAGFlow 是一个基于深度文档理解的 RAG 引擎,利用了 pip-library-etl-1.3b,现已开源。主要特性包括 16.3k 上下文长度、自动化库解析、示例微调、静态和动态函数分析,以及自然语言指令支持。(链接, 链接)
- Jamba v0.1 发布:Lightblue 发布了 Jamba v0.1,这是一个拥有 52B 参数、采用 Apache 许可证的 Mixture-of-Experts (MoE) 架构模型。然而,一些用户发现其输出具有重复性,且表现低于预期。(链接, 链接)
- 来自 Cohere 的 Command-R:Command-R 是 Cohere 推出的一款模型,可在 ollama 库中使用,据报道效果相当不错,但讨论度不高。(链接)
模型性能与能力
- GPT-3.5-Turbo 架构细节:对 GPT-3.5-Turbo 的 logits 分析估计其 embedding 大小约为 4096,参数量约为 70 亿,与最近的开源模型如 OpenChat-3.5-0106 和 Mixtral-8x7B 的规模一致。(链接)
- AI 聊天机器人在辩论中击败人类:在一项研究中,AI 聊天机器人在有争议话题的辩论中比人类更具说服力。与人类辩论者相比,当受到 GPT-4 的挑战时,人们更有可能改变主意。(链接)
- Mistral-7B 犯了有趣的错误:Mistral-7B 在回答一个关于数水果的简单数学谜题时犯了有趣的错误,未能理解鞋子不是水果,并给出了不一致的答案。(链接)
硬件与性能
- 折扣 HGX H100 机器:有人在 eBay 上以仅 5.8 万美元的价格抢购了一台配备 8 张 H100 的全新 HGX H100 640GB 机器,远低于 27 万美元的零售价。(链接)
- 用于 LLM 推理的 Epyc 与 Threadripper:发布了 Epyc 9374F 和 Threadripper 1950X CPU 在 LLM 推理任务上的性能对比。(链接)
- 本地 LLM 的 GPU 推荐:针对在 Windows 上本地运行 7-13B 参数 LLM 的最佳 GPU 选择(GTX 1070, RTX 3050 8GB, RTX 2060S)征求了建议,关键考虑因素是 VRAM 和推理速度。(链接)
- 使用 4090 GPU 优化本地 LLM:一位拥有 4090 GPU 和 64GB RAM 的用户询问了用于无审查角色扮演/聊天机器人的最佳本地 LLM 推荐,发现 Midnight-miqu-70b-v1.0.q5_k_s 的速度太慢,仅为 0.37 it/s。(链接)
Stable Diffusion 与图像生成
- SD 减少了游戏时间:Stable Diffusion 减少了一些用户的游戏时间,他们现在更倾向于利用生成式 AI 探索自己的创造力。(链接)
- 评估 AI 艺术时的偏见:在一项研究中,当人们认为艺术作品是由人类创作时,他们更倾向于 AI 生成的艺术,但他们很难分辨出其中的区别,这表明在评估 AI 艺术时存在偏见。(链接)
- 区域提示词实验:使用 A8R8、Forge 以及分叉的 Forge Couple 扩展进行的区域提示词(Regional prompting)实验允许对图像生成进行更细粒度的控制,新界面支持动态注意力区域、蒙版绘制和提示词权重,以最大限度地减少泄露。(链接)
- 为 LoRA 选择最佳 Epoch:关于在训练 LoRA 模型时如何选择最佳 Epoch 的问题被提出,因为有时 30% 训练进度的结果看起来比 100% 更好。寻找合适的设置来重现 LoRA 捕捉到的美学也需要不断的尝试。(链接)
- 在 SD 中重现 MidJourney 风格:一位用户正在学习在 Stable Diffusion 中重现 MidJourney 风格,以获得更多的控制力和一致性,并寻求关于对一张复古暹罗猫图像进行逆向工程的建议。(链接)
杂项
- Google AI 负责人谈论 AI 炒作:Google 的 AI 负责人表示,投入到 AI 的数十亿美元意味着“大量的炒作,可能还有一些欺诈”,但我们可能正处于一场新科学复兴的开端。他认为 AGI 在未来十年内出现的概率为 50%。(链接)
- 对 OpenAI 统治地位的沮丧:OpenAI 在工作场所的无处不在让一些人感到沮丧,他们反对其封闭模型、利用网页抓取数据获利以及背离开源原则。然而,为了维持生计,人们面临着必须使用它的压力。(链接)
- 一键式图像打标应用:一款免费的 Windows 应用被开发出来,可以使用 GPT vision 一键重命名图像/GIF 并添加相关的元数据。(链接)
- DagsHub Storage Buckets 发布:DagsHub 发布了 DagsHub Storage Buckets,这是一个与 Google Colab 集成的 S3 兼容的 Google Drive 替代方案,旨在为 ML 工作流提供可扩展的存储。(链接)
梗与幽默
- Stale Diffusion 论文:一篇幽默的 “Stale Diffusion” 论文提议使用传统方法生成超现实的 5D 电影。作者们感叹该论文甚至被一些不严肃的场合拒绝了。(链接)
- OpenAI 移除 Sam Altman 的梗图:一张梗图嘲讽了 OpenAI 移除了 Sam Altman 对其创业基金的所有权。(链接)
- “我能行”梗图:一张梗图描绘了某人面对未知挑战时自信地声称自己“能行(take it)”。(链接)
AI Twitter 摘要
所有摘要均由 Claude 3 Opus 完成,从 4 次运行中选取最佳结果。我们正在尝试使用 Haiku 进行聚类和流程工程。
AI 模型与架构
- DBRX: @DbrxMosaicAI 指出 DBRX 是 HuggingFace 上最新 WildBench 排行榜中排名第一的开源模型,它在 12T tokens 的高质量数据上训练而成,并采用了细粒度 MoE、GPT-4 tokenizer 以及架构修改等效率提升手段。
- Jamba: @AI21Labs 发布了 Jamba 白皮书,详细介绍了 交织了 Mamba、Transformer 和 MoE 的新型混合 SSM-Transformer 架构。@amanrsanger 指出 Jamba 的 KV cache 比纯 Transformer 小 8 倍,但在长上下文生成时需要更多内存。
- Gecko: @kelvin_guu 分享了 Gecko 是 Massive Text Embedding Benchmark (MTEB) 上 768 维以下最强的模型,可在 Google Cloud 上用于 RAG、检索、向量数据库等。
- DenseFormer: @fchollet 强调了 DenseFormer,它在 每个 Transformer 块中对所有先前块的输出进行加权平均,通过稀疏化策略提高性能并避免 IO 瓶颈。
检索增强生成 (RAG)
- 使用 LlamaParse 和本地模型的 RAG: @llama_index 分享了关于 使用 LlamaParse 和本地模型构建高级 PDF RAG 的教程,使用了 @GroqInc、@qdrant_engine 的 FastEmbed 以及 flag-embedding-reranker 等工具来实现高效的 RAG 设置。
- 使用 Chroma 的 RAG: @DeepLearningAI 指出如果检索到的信息具有相关性,RAG 就会非常有效,而 “Advanced Retrieval for AI with @trychroma” 课程教授了 提高检索相关性的技术。
- RAFT: @llama_index 正在举办一场关于 检索增强微调 (RAFT) 的网络研讨会,邀请了 RAFT 的主要共同作者 @tianjun_zhang 和 @shishirpatil_ 讨论微调和 RAG。
- RAGFlow: @rohanpaul_ai 分享了 RAGFlow,这是一个 基于深度文档理解的 RAG 引擎,目前已开源并支持本地部署的 LLM。
工具与基础设施
- Keras 3 + JAX: @fchollet 对 Keras 3 + JAX 与流行的 HuggingFace 模型进行了基准测试,结果显示有 1.5-3 倍的加速,并指出 Keras 利用编译器来提升性能,因此用户可以编写简单、易读的代码。
- Instructor: @jxnlco 发布了 instructor 1.0.0,具有 完善的自动补全、针对 partials、iterables 和原始响应的辅助方法,同时保留了简单的 instructor.from_openai 和 instructor.patch API。
- LangChain 金融助手: @virattt 在 LangChain 金融助手中添加了受巴菲特启发的工具,如所有者盈余、ROE、ROIC 计算,并计划下一步添加基于价格的工具。
- FastEmbed: @qdrant_engine 宣布 FastEmbed 现在允许使用 SPLADE++ 模型 生成高效、可解释的稀疏向量嵌入 (sparse vector embeddings)。
研究与技术
- 文本转图像模型中的空间一致性: @RisingSayak 分享了一篇研究 T2I 扩散模型中空间一致性 的论文,通过系统的重标注(re-captioning)方法和 SPRIGHT 数据集对其进行了改进。
- Sequoia: @AlphaSignalAI 分享了关于 Sequoia 的论文,这是一种 硬件感知的投机解码 (speculative decoding) 算法,可将 LLM 推理速度提高 10 倍,它根据可用硬件优化了投机 token 的存储。
- 从 LLM 中窃取信息: @AlphaSignalAI 指出一篇论文显示,可以 利用 LLM API 的 logprobs 来提取模型信息,如隐藏层维度或 token 嵌入。
- 时间对齐 (Temporal Alignment): @AlphaSignalAI 分享了一篇探索 将 LLM 的知识对齐到特定时间点 以创建时间锚定 (temporal grounding) 的论文。
- 预训练数据: @cwolferesearch 强调了一篇综述论文,该论文汇总了 创建高质量 LLM 预训练数据集的最佳实践,因为越来越多的研究人员开始分享预训练数据构建的细节。
梗与幽默
- @francoisfleuret 调侃道,研究是“由宇宙本身设计的永恒且辉煌的数独或填字游戏流”,而解决方案则累积在“人类知识的堆垛”之上。
- @teortaxesTex 嘲讽了美国人通过将事物与眼前视觉范围内的东西进行比较,从而发明出“离奇的非标准计量单位”的能力。
- @DeepLearningAI 分享了一个关于 AI 解决问题的梗图,图片展示了一个训练不佳的 GAN。
- @suno_ai_ 玩笑地介绍了一种由 AI 生成的新频率 SuNoise™,这种频率“以前被认为超出了人类听力范围”,只有 2.5% 的人能听到。
- @AravSrinivas 在愚人节引用了一条史蒂夫·乔布斯的假名言:“不要相信你在互联网上读到的一切”。
AI Discord 回顾
摘要之摘要的摘要
-
Claude 3 Haiku 作为高性价比的 Opus 替代方案令人印象深刻:体量更小、价格更低的 Claude 3 Haiku 模型因其有效的推理能力和对脑筋急转弯问题的处理能力而引发热议,在 Perplexity AI 中被视为 Opus 的高性价比替代方案。讨论还集中在 Perplexity 引入广告的潜在计划,以及相比 All 模式,用户更倾向于使用 Writing 专注模式以获得更简洁的 LLM 交互。(Perplexity AI Discord)
-
Gecko 和 Aurora-M 推动文本嵌入和多语言 LLM 的边界:新款 Gecko 模型在 Massive Text Embedding Benchmark (MTEB) 上表现强劲,并可能加速 diffusion model 的训练,详情见其 Hugging Face 论文和 arXiv 摘要。同时,拥有 15.5B 参数的 Aurora-M 模型专注于多语言任务,已处理超过 2 万亿个训练 token,正如 Twitter 和 arXiv 上所强调的那样。(LAION Discord)
-
高效微调技术引发辩论:Unsloth AI 社区的对话围绕数据集拆分策略、稀疏微调 (SFT) 与 QLora 等量化方法的有效性,以及模型 pre-training 的高昂成本展开。成员们还强调了建立强大检测系统以打击 AI 滥用,并保护 Discord 服务器免受恶意机器人和诈骗侵害的必要性。(Unsloth AI Discord)
-
Stable Diffusion 社区期待 SD3 并应对模型挑战:Stable Diffusion 社区正热切期待 Stable Diffusion 3 (SD3) 在 4-6 周内的发布,同时也正致力于解决使用 Adetailer 和各种 embedding 工具渲染面部及手部细节的挑战。讨论涉及 AI 发展的飞速步伐、伦理考量(如使用专业艺术作品进行训练),以及未来 SD 版本潜在的显存需求。(Stability.ai Discord)
-
Mojo 24.2 引入 Python 友好特性,Tensor 讨论升温:Mojo Programming Language 社区因 Mojo 24.2 的发布而沸腾,该版本带来了一系列 Python 友好特性和增强功能。讨论深入探讨了 Mojo 对并行性、值类型(value types)的处理以及 tensor 性能优化。Mojo 中 MAX Engine 和 C/C++ interop 的发布也因其简化 Reinforcement Learning (RL) Python 训练的潜力而引发关注。(Modular Discord)
-
Tinygrad 努力应对 AMD GPU 的不稳定性及文化阻力:tinygrad 社区对使用 AMD GPU 时出现的严重系统不稳定性表示沮丧,强调了内存泄漏和不可恢复错误等问题。人们对 AMD 解决底层问题的承诺表示怀疑,并呼吁提供开源文档和现代软件实践。讨论还涉及了变通策略,以及 AMD 在软件和固件方法上进行根本性文化转变的必要性。(tinygrad Discord)
-
LLM Serving 平台竞争激烈,Triton 替代方案涌现:LM Studio 和 MAX Serving 社区的讨论集中在不同 LLM Serving 平台的能力上,MAX Serving 正作为 Triton 的潜在替代方案被探索。用户寻求关于迁移现有设置的指导,并询问了对 GPU 托管模型等功能的支持。LM Studio 社区还在努力解决各种模型和硬件配置中的错误信息及兼容性问题。(LM Studio Discord, Modular Discord)
-
检索增强微调 (RAFT) 成为焦点:LlamaIndex 举办了一场网络研讨会,邀请了检索增强微调 (RAFT) 的主要共同作者 Tianjun Zhang 和 Shishir Patil,深入探讨了 RAFT 如何结合检索增强生成 (RAG) 和微调的优势,以提升语言模型在特定领域设置下的性能。该研讨会旨在为有兴趣在自己的项目中实施 RAFT 的人员提供见解和资源。(LlamaIndex Discord)
-
Axolotl 随着 Lisa 合并取得进展,面临 DeepSpeed 挑战:Axolotl AI Collective 庆祝了
lisa最新 PR 的通过以及用于测试的 YAML 示例的添加。然而,开发者在尝试使用 DeepSpeed 或 FairScale Single-Process Single-GPU (FSDP) 训练模型时遇到了显存溢出 (OOM) 错误。该集体在数据集统一工作方面也取得了进展,并表示有兴趣为超大规模语言模型 (VLLM) 探索 runpod serverless。(OpenAccess AI Collective Discord) -
FastLLM 和 RankLLM 突破检索与重排序边界:Qdrant 推出了 FastLLM,这是一款拥有 10 亿 token 上下文窗口的语言模型,旨在增强 AI 驱动的内容生成,详见其发布公告。同时,由 @rpradeep42 等人开发的 RankLLM(一个经过微调用于重排序的开源 LLM 集合)被推荐给构建高级 RAG 系统的人员,并强调了选择合适重排序器 (reranker) 的重要性。(HuggingFace Discord, LlamaIndex Discord)
PART 1: High level Discord summaries
Perplexity AI Discord
-
Claude 3 Haiku 加入战局:更小、更便宜的 Claude 3 Haiku 因其有效的推理和对陷阱问题的处理能力而引发热议,被视为 Opus 的高性价比替代方案。
-
Perplexity 用户思考广告前景:关于 Perplexity AI 策略可能转向引入广告的讨论非常热烈,引发了对近期公告真实性的辩论,这可能与 愚人节玩笑有关。
-
选择更优的搜索方式:参与者主张在 Perplexity 中使用 Writing 模式而非 All 模式,以获得更精简且问题更少的 大语言模型 (LLM) 交互。
-
Prompt 防御协议受到质疑:针对 Perplexity AI 模型的 Prompt 攻击引发了安全担忧。讨论转向了建立强大防御机制以对抗恶意注入和数据投毒的必要性。
-
Gemini 1.5 Pro API 价格令人震惊:一场活跃的对话抨击了 Gemini 1.5 Pro API 的高昂定价,引发了关于基于 Token 消耗的更具预算意识的分层定价结构的讨论。
-
拥抱 Cascade:热心成员交流了对 Stable Cascades 的见解,并引用 Perplexity AI 进行深入理解。
-
窥探 Perplexity 的 Neo:发起询问以揭示 Neo 的独特之处,并关注其独特的属性。
-
巧妙管理 Perplexity 订阅:出现了一个小插曲,API 额度卡在 “Pending” 状态,且 Perplexity API 缺乏团队注册选项也引起了关注。
-
比较 Token 经济:分享了对比 Perplexity 和 ChatGPT 之间 Token 开销的资源,帮助用户做出明智决定。
LAION Discord
Gecko 在 Text Embedding 领域达到新高度:新型 Gecko 模型在 Massive Text Embedding Benchmark (MTEB) 上表现出强劲性能,并可能加速 Diffusion Model 的训练,详见其 Hugging Face 论文和 arXiv 摘要。对 Gecko 实际应用的关注体现在对其权重可用性的查询中。
Aurora-M 照亮多语言 LLM 空间:拥有 15.5B 参数的 Aurora-M 模型专注于多语言任务,同时遵循白宫 EO 设定的指南。该模型因处理了超过 2 万亿个训练 Token 而受到赞誉,详见 Twitter 和 arXiv 的报道。
Hugging Face 的 Diffusers 备受关注:对 Hugging Face Diffusers 库的贡献引发了关于效率的辩论,重点集中在关于 Diffusers 中 CUDA autocast 的 PR 以及 Pipeline 中不完全统一的问题,见 discussion #551 和 PR #7530。
PyTorch 2.6 蓄势待发引发好奇:关于 PyTorch 版本更新的讨论引发了兴趣,特别是 PyTorch 2.3 中静默添加的 bfloat16 支持,以及对即将发布的 PyTorch 2.6 新特性的期待。值得注意的贡献包括对 autocast 性能的批评,详情见 GitHub 线程。
LangChain 活动携手 Harrison Chase 吸引 AI 工程师:LangChain CEO Harrison Chase 准备在 4 月 17 日下午 6:30 的在线活动中发表讲话,主题关于如何利用 LangSmith 实现从原型到生产的跨越,注册链接见此处。他的公司专注于使用 LLM 构建上下文感知推理应用。
Unsloth AI (Daniel Han) Discord
预算有限下的模型实力:公会成员积极辩论 AI 建模中的成本与质量,讨论范围从预训练不同数据集规模所需的 5 万美元到数百万美元不等。讨论重点放在如何在资源效率与保持高质量输出之间寻找平衡。
诈骗防护升级:针对恶意 Bot 和诈骗的增加,工程师社区强调需要强大的检测系统来阻止 AI 滥用并保护 Discord 服务器。
节省空间的精准方案:分享了在 Google Colab 等平台上保存微调模型(finetuned models)时节省空间的技巧,一位用户建议的方法可节省 8GB 空间,但警告称精度会有轻微损失。
训练策略之争:数据集划分的最优方法以及稀疏微调 (SFT) 与量化方法 (Quantization methods) 的应用是热门话题,关于性能与成本效益之间权衡的见解备受追捧。
DeepSeek 集成热潮:一名用户提议将 DeepSeek 模型集成到 Unsloth 4bit 中,展示了社区对模型多样性和效率提升的推动,并附带了 Hugging Face 仓库和准备实施的 Google Colab notebook。
Stability.ai (Stable Diffusion) Discord
Cyberrealistic vs. EpicRealism XL: 关于两个 Stable Diffusion 模型性能的辩论正在进行:虽然 Cyberrealistic 需要精确的 Prompt,但 EpicRealism XL 在写实图像的 Prompt 容忍度上表现更优。
SD3 Is Coming: 社区正热议 Stable Diffusion 3 (SD3) 预计在 4-6 周内发布的消息,尽管对时间表存疑,但对其改进功能(尤其是修复的文本生成功能)表现出明显的兴奋。
Fixing Faces and Hands: Stable Diffusion 爱好者们正在解决面部和手部细节渲染的挑战,推荐使用 Adetailer 和各种 Embedding 工具,在不牺牲处理速度的情况下提升图像质量。
CHKPT Model Confusion: 在众多的 CHKPT models 中,用户正在寻求最佳用例指导,并推荐将 ponyxl、dreamshaperxl、juggernautxl 和 zavychroma 等模型作为 Stable Diffusion 的 Checkpoint “入门套装”。
Ethics and Performance in Model Development: 讨论涉及 AI 发展的飞速步伐、使用专业艺术作品进行 AI 训练的伦理问题,以及对未来 Stable Diffusion 版本内存需求的推测,期间穿插着轻松的社区闲聊。
Nous Research AI Discord
DBRX Revealed: 一个名为 DBRX 的新型开源语言模型引起了轰动,声称在既定基准测试中表现顶尖。观看 DBRX 介绍。
Whisper Models Under the Microscope: 鉴于 BetterTransformer 错误率较高,WhisperX 可能会取代它。社区正在研读 Transforming the Web 和 Apple 关于引用消解的最新论文。
Speed Meets Precision in LLM Operations: LlamaFile 在特定任务的 CPU 运行速度上比 llama.cpp 提升了 1.3x - 5x,这可能会改变未来的本地操作。用于 Hercules 微调的配置文件导致准确率下降,引发了关于 lora_r 和 lora_alpha 等设置的辩论。
Hugging Face Misstep Halts Upload: 由 Hugging Face 的 safetensors.sharded 元数据引起的 ModelInfo 加载问题正阻止上传到链上,驱动了关于修复方案的讨论。
Brainstorming for WorldSim: WorldSim 爱好者提议建立一个带有竞争性基准测试的 “LLM Coliseum”,支持上传预写脚本的文件,并推测未来发展,如竞争性排行榜和 AI 对战。
Traffic Signal Dataset Signals Opportunity: 一个 交通信号图像数据集 浮出水面,尽管 Hugging Face 存在查看器兼容性问题,但有望助力视觉模型。
tinygrad (George Hotz) Discord
Trouble in GPU Paradise: AMD GPU 给 tinygrad 用户带来了巨大困扰,出现了系统崩溃和类似 "amdgpu: failed to allocate BO for amdkfd" 的内存泄漏错误。用户分享了涉及 PCIe 电源循环的变通方法,但对 AMD 在解决这些 Bug 方面表现出的缺乏承诺感到不满。
A Virtual Side-Eye to AMD’s Program: 加入 AMD Vanguard 计划的邀请遭到了 George Hotz 等人的怀疑,引发了关于此类计划有效性以及 AMD 对开源解决方案和更好软件实践需求的辩论。
Learning Curve for Linear uOps: #learn-tinygrad 频道分享了一份解释 linear uops 的详细 文档,旨在揭开 tinygrad 中中间表示的神秘面纱,并辅以一份关于重大合并后新 Command Queue 的教程。
Tinygrad Pull Requests Under Scrutiny: Pull Request #4034 解决了关于单元测试代码和后端检查的混淆。强调了为 CLANG 和 OpenCL 等各种后端维护适当测试环境的重要性。
Jigsaw Puzzle of Jitted Functions: 关于为什么 Jitted 函数不出现在 Command Queue 日志中的知识鸿沟,引发了关于 tinygrad 架构内 Jitted 操作与 Scheduled 操作执行情况的讨论。
LM Studio Discord
LM Studio 陷入模型故障困扰:请谨慎操作,LM Studio 在 RTX 3060 GPU 上运行 estopian maid 13B q4 模型时会出现未知异常,且有用户报告在长时间推理过程中发生崩溃。用户对 Text-to-Speech 和 Speech-to-Text 功能 的需求日益增长,但目前必须挂载像 whisper.cpp 这样的工具来实现语音功能。
追求本地化隐私:在本地 LLM 隐私化的探索中,一个建议是将 LM Studio 与 AnythingLLM 搭配使用以实现机密配置,尽管 LM Studio 本身并不内置文档支持。与此同时,Autogen 每次仅生成 2 个 tokens,让用户对其最佳配置产生疑问。
GPU 讨论升温:多 GPU 设置并不一定需要 SLI;然而,起作用的是 VRAM 而非组合 VRAM——这是运行模型的一个重要规格。双 Tesla P40 设置在运行 70B 模型时可以达到 3-4 tokens/sec,而预算有限的用户在赞赏 P40 的 VRAM 之余,也在权衡其与 4090 GPU 性能之间的差距。
匿名需求的顶级模型:对于有特定需求的工程师,推荐使用 Nous-Hermes 2 Mistral DPO 和 Nous-Hermes-2-SOLAR-10.7B 模型,特别是对于需要处理 NSFW 内容的用户。模型下载和执行过程中的技术故障让部分用户感到不满,怀疑缺失代理支持(proxy support)是罪魁祸首。
渴望前代功能:用户非常怀念在每次新生成时分割文本的便利性,因为目前的 LM Studio 更新会覆盖现有输出,这引发了恢复之前模式的请求。
Eleuther Discord
Google 将互联网装进 RAM:工程师们注意到 Google 强大的搜索性能可能归功于使用分布式版本的 FAISS 和改进的索引策略(如 inverted indexes)将网页嵌入到 RAM 中。讨论深入探讨了 Google 的基础设施选择,暗示了处理复杂且精确搜索查询的方法。
探究 Google 的编程范式:参与者剖析了 Google 对编程策略的使用,其中包括一些通常被排斥的结构,如全局变量和 goto,这展示了他们在系统中解决问题和提高效率的务实方法。
Sparse Autoencoders 揭秘:一个新的用于 Sparse Autoencoder (SAE) 的可视化库已经发布,揭示了它们的特征结构。对于 AI 模型中 SAE 特征分类的反应不一,既反映了细节的复杂性,也反映了 AI 可解释性(AI interpretability)中的抽象挑战。
音乐 AI 的新地平线:讨论了一篇探讨 GANs 和 transformers 在音乐创作中应用的论文,暗示了音乐 AI 未来的潜在方向,包括文本转音乐(text-to-music)的转换指标。同时,lm-eval-harness 基准测试在 Anthropic Claude 模型上的缺失,表明人们对全面模型评估框架的兴趣日益浓厚。
GPT-NeoX 中的 Batch Size 权衡:针对不均匀的 Batch Size 调整 GPT-NeoX 可能会因为负载不平衡而引入计算瓶颈,因为较大的 Batch 会拖慢处理速度。
AI 竞技精神奖励:有人建议 EleutherAI 社区参与 Kaggle AI Mathematical Olympiad competition。算力资助(Compute grants)可以支持这些针对“科学领域 AI”计划的倾向。
OpenAI Discord
-
ChatGPT 取消限制:OpenAI 推出了一种立即使用 ChatGPT 的新方式,无需注册即可访问,旨在扩大 AI 的普及度,并确认用户交互有助于增强模型性能,同时提供可选的数据贡献选项。
-
提示词思考与管理模型:工程师们讨论了在将 PDF 转换为 JSON 时,使用 Schema 与开放式提示词的效果,并对潜在的违反服务条款(Terms of Service)表示担忧,同时寻求关于自动化管理任务的提示词建议,包括指令划分和绩效规划。
-
AI 创作极限与原创性探究:对不同 AI 在歌曲识别挑战中的响应对比揭示了 AI 创作能力的边界,一项研究指出 AI 表现出涌现行为(emergent behaviors),可能提供其训练集中未体现的原创输出。
-
期待 GPT-5 与探索 GPT-4:社区对话反思了 Large Language Models (LLMs) 的反思能力,调侃了愚人节的技术链接,讨论了 GPT-4 相对于 Opus 的进步以及服务器稳定性问题,并分享了 DALL-E 3 图像编辑功能的使用心得,同时表达了对期待已久的 GPT-5 潜力的关注。
-
AI 功能的多样化应用:工程师们正在探索各种 AI 工具(如 Claude 3 Sonnet 和 Midjourney)用于图像描述,并讨论了在三星 Galaxy Note 9 等设备上运行 AI 应用的兼容性挑战,解决方案包括检查系统版本或使用移动端浏览器作为替代方案。
LlamaIndex Discord
-
学习 RAFT:一场关于 检索增强微调 (RAFT) 的网络研讨会(由 Tianjun Zhang 和 Shishir Patil 主讲)定于 太平洋时间周四上午 9 点 举行,届时将深入探讨 RAFT 相比传统语言模型微调的优势。准备材料包括 RAFT 博客文章 和完整的 RAFT 论文,注册链接在 这里。
-
LlamaIndex 邀请参与网络研讨会:LlamaIndex 正在举办一场关于 RAFT 的网络研讨会,将其比作参加“开卷考试”,并分享了一张使用不同工具构建 RAG 框架的示意图,详细的分步指南可以在 这里 找到。
-
LlamaIndex 故障排除:有报告称 LlamaIndex 文档过时、
OpenAI.organization设置存在困难,以及text-davinci-003等模型已被弃用。此外还讨论了在 RAG 中使用 WeatherReader 进行天气相关查询,以及使用 LlamaParse 手动处理 PDF 中图像的方法。 -
Agent 系统中的问题过度简化:在构建多文档 RAG 系统领域,一位用户指出 top_agent 过度简化输入问题导致搜索结果不足。他们分享了关于错误缩小查询范围的细节,例如将“巧克力的过期日期”简化为仅剩“过期日期”。
-
值得观看的教程:用户推荐了一个关于使用 LlamaIndex 构建 RAG 应用的 YouTube 教程,重点介绍了与 Pinecone 和 Gemini Pro 的集成,用于内容抓取、Embedding 转换和查询,访问地址为 这里。
LangChain AI Discord
-
JSON 处理的困扰:工程师们正在讨论在 LangChain 中解析 JSON 的挑战,目前每一行都会创建一个单独的 Document,而不是一个带有完整元数据的 Document。该问题在 JSON loader documentation 中有详细说明,但尚未发布解决方案。
-
使用 Tool 时 Token 消耗增加:有人注意到当 LangChain agents 使用 tools 时,token 使用量增加了 50%,这归因于 tools 的数据检索和分词过程。虽然系统提示词(system prompt)会为推理假设执行一次,但并非所有 tools 都需要这样做。
-
LangGraph 迷宫:分享了关于在 LangGraph 中利用基础模型作为状态的见解,并附带了一个 GitHub notebook example。此外,LangChain 中的 StructuredTool 字段可以使用 Pydantic 的
BaseModel和Field类进行验证,详见 GitHub issues。 -
微调是阻碍还是助力?:关于从 chain 中实现结构化输出的对话建议采用两个 agents,以平衡微调后的专业知识和通用智能。然而,目前还没有达成明确的共识或策略来解决这一挑战。
-
PDF 和 PersonaFinders 激增:讨论包括尝试使用向量嵌入(vector embeddings)在 PDF 之间映射内容,以便在语义上匹配段落。同时,一个名为 PersonaFinder GPT 的新版本发布,承诺根据识别出的个人属性提供对话式 AI 能力,并邀请在 PersonaFinder Pro 上进行测试。
HuggingFace Discord
-
LinkedIn 徽章:地位象征还是昙花一现?:一位 LinkedIn 用户炫耀拥有超过 30 个 Top Voice 徽章,引发了对这类荣誉价值的质疑;受质疑的 LinkedIn 徽章。
-
AI 产生幻觉,开发者需警惕:AI 虚构的软件包正被创建并被阿里巴巴等大公司误用,展示了一个潜在的恶意软件攻击向量;更多信息见 The Register 的报道。
-
十亿级 Token 模型即将来临:Qdrant 推出了 FastLLM,能够支持 10 亿 token 的上下文窗口,旨在增强 AI 驱动的内容生成;深入了解其 发布公告。
-
Diffuser 频道的深度讨论:讨论集中在 diffusers 结合 LoRA 的复杂性上,涉及了没有明确解决方案的模型查询,并探讨了在 PDF 文件上微调语言模型的挑战,但尚未提供结论性的建议。
-
Gradio 4.25 首次亮相,带来增强的 UX:Gradio 4.25.0 推出了诸如自动删除
gr.State变量、cache_examples="lazy"、修复流式音频输出以及更直观的gr.ChatInterface等功能,以简化用户交互。
Modular (Mojo 🔥) Discord
Mojo 通过 MAX Engine 变得强大:Mojo 即将引入的 MAX Engine 和 C/C++ 互操作性 (interop) 旨在简化 RL Python 训练,可能允许在 Mojo 中快速重新实现 Python 环境,详情见 Mojo Roadmap。同时,Mojo 24.2 专注于 Python 友好特性,令开发者感到兴奋,其深度探讨见 MAX 24.2 公告 和关于 Mojo 开源 的博客文章。
关注 Modular 的动态:Modular 活跃的 Twitter 活动似乎是外联或发布系列的一部分,感兴趣其更新或活动的读者可以在 Modular 的 Twitter 上追踪他们的最新想法。
关于 Tensor、测试和顶级代码的讨论:关于 Mojo 特性和怪癖的公开对话仍在继续,例如通过减少拷贝初始化低效来提升 Tensor 性能。工程师们还提出了关于 顶级代码 (top-level code) 和 SIMD 实现的问题,强调了诸如 Swift 风格并发 和内联函数 (intrinsic function) 转换等挑战,部分指导可参考 Swift Concurrency Manifesto。
使用 Prism 解锁 CLI:Prism CLI 库的重构带来了简写标志和嵌套命令结构等新功能,与 Mojo 24.2 更新保持一致。增强功能包括特定命令的参数验证器,其中 References 的开发历程和可用性是关注焦点,详见 thatstoasty 在 GitHub 上的 Prism 项目。
在期待 GPU 支持的同时使用 MAX 进行部署:关于将 MAX 作为 Triton 后端替代方案 的提问指向了 MAX Serving 的实用性,尽管目前尚不支持 GPU;文档可以指导通过本地 Docker 进行尝试,详见 MAX Serving 文档。针对潜在 MAX 采用者的持续支持和澄清正在讨论中,强调 ONNX 模型可以平滑地融入 MAX 框架。
Nightly Mojo 动态与文档:资深 Mojo 用户收到了关于 nightly build 更新 的提醒,并被引导使用 modular update 命令,变更列在 nightly build 变更日志 中。此外,还记录了本地 Mojo stdlib 开发 的宝贵指南和最佳测试实践,建议使用 testing 模块而非 FileCheck,并指向 stdlib 开发指南。
OpenInterpreter Discord
-
Miniconda 缩小了技术栈:对于需要轻量级安装且不愿牺牲功能的场景,Miniconda 被验证为 Anaconda 的有效且更小的替代品。
-
征集 OhanaPal 合作伙伴:OhanaPal 应用是一款利用 OpenAI GPT API 辅助神经多样性人群的创新工具,开发者正在寻求贡献者进行进一步的头脑风暴和原型设计。感兴趣的各方可以通过其 网站 参与。
-
硬件设备的 3D 打印尺寸调整:在 3D 打印 O1 Light 时,将模型放大 119.67% 以适配 M5 Atom Echo,GitHub 上的 pull request #214 为 M5Atom 增强了自动重连功能。
-
Windows 包管理增强:给 Windows 用户的一个建议:除了传统的 Microsoft 产品外,可以考虑将 winget 和 scoop 作为可行的软件包管理工具。
-
开源 AI 促进独立性:GitHub 上的 fabric 仓库提供了一个开源 AI 增强框架,通过众包 AI 提示词来解决特定问题;Microsoft 的 UFO (GitHub - microsoft/UFO) 则探索了用于 Windows 交互的 UI-Focused Agents。
OpenRouter (Alex Atallah) Discord
OpenRouter 中的聊天机器人前缀异常:undi95/remm-slerp-l2-13b:extended 模型在 OpenRouter 的角色扮演聊天中意外地在回复前加上了 {bot_name}: 前缀;然而,最近的提示词模板(prompt templating)更改已被排除在原因之外。目前正在调查该场景下 name 字段的使用情况。
SSL 连接之谜:一次尝试连接 OpenRouter 的操作因 SSL 错误(描述为 EOF occurred in violation of protocol)而受阻,但社区尚未就解决方案达成共识。
新书预告:Architecting with AI in Mind:Obie Fernandez 发布了他的新书《Patterns of AI-Driven Application Architecture》的早期版本,书中重点介绍了 OpenRouter 的应用。该书可通过 此处 获取。
Nitro 模型讨论升温:尽管存在对 Nitro 模型可用性的担忧,但已确认 Nitro 模型仍然可以访问且即将推出更多。关于不同 AI 模型性能的困惑表明,用户对优化速度和效率有着浓厚的兴趣。
模型故障排除与 Logit Bias:用户在遇到 NOUS-HERMES-2-MIXTRAL-8X7B-DPO 等模型的问题时,讨论了针对特定任务的替代方案,如 Nous Capybara 34B,并指出其 30k 的上下文窗口(context window)可提升性能。此外,官方澄清了 OpenRouter 的 Logit Bias 应用目前仅限于 OpenAI 的模型。
Mozilla AI Discord
-
NumPy 出人意料的线程行为:一位成员惊讶地发现 NumPy 没有充分利用线程,基准测试代码显示自定义的
matmul函数性能更好。这凸显了 NumPy 在多线程能力方面的不足。 -
llamafile 文档提示词:即将发布的 llamafile 0.7 引发了关于 openchat 3.5 内提示词模板(prompt templating)的讨论,揭示了需要更好的文档来消除用户的困惑。社区热切期待关于集成细节的更清晰指导。
-
TinyBLAS 提供无需 CUDA 的替代方案:讨论中提到 TinyBLAS 可作为 GPU 加速的替代方案,但指出其性能取决于具体的显卡。该选项支持 GPU 而无需安装 CUDA 或 ROCm SDK,这能显著简化某些用户的环境搭建。
-
Windows ARM64 与 llamafile 的兼容性障碍:询问 llamafile 对 Windows ARM64 支持情况的用户发现,虽然支持 ARM64X 二进制格式,但在 AVX/AVX2 模拟方面存在问题,这对于在 Windows ARM64 生态系统中工作的开发者至关重要。
-
本地部署故障:参与者在本地部署 llamafile 时遇到了 “exec format error”,引发了故障排除讨论,包括建议从 zsh 切换到 bash,以及根据硬件配置正确执行 Mixtral 模型的细节。
OpenAccess AI Collective (axolotl) Discord
考虑 AMD 的 150 亿个理由:MDEL 在 AMD GPU 上成功训练了一个 15B 模型,这表明 AMD 可能是大规模 AI 模型硬件领域的一个可行选择。
训练冻结之谜:有报告称在没有明显使用 val_set_size 或 eval_table 的情况下,训练在 Epoch 结束后挂起,暗示原因可能是存储空间不足,或者是某些模型或配置中尚未识别的 Bug。
Axolotl 开发在恶作剧中继续:Axolotl 开发团队批准了 lisa 的 PR 合并,添加了一个用于测试的 YAML 示例,并幽默地提议在愚人节与 OpenAI 建立合作伙伴关系。然而,目前仍存在文档缺失以及可能与 DeepSpeed 或 FSDP 训练尝试相关的显存溢出(OOM)错误。
统一数据的困境:目前正努力将 15 个数据集组合成统一格式,成员们正在克服从数据量到翻译不匹配等各种障碍。
征集 Runpod 严谨评测:社区对使用 Runpod Serverless 服务运行超大型语言模型表现出兴趣,并寻求社区经验的分享。
Latent Space Discord
FastLLM 强势进入 AI 领域:Qdrant 宣布了 FastLLM (FLLM),这是一个号称拥有 10 亿 token 上下文窗口的语言模型,专为 Retrieval Augmented Generation (RAG) 设计。不过,怀疑论者认为其在 4 月 1 日发布的时间点可能暗示这只是个玩笑。
理解 GPT 的可视化教程:知名 YouTube 频道 3Blue1Brown 发布了一个关于 Transformers 和 GPT 的视觉化介绍,吸引了希望更清晰地理解这些架构概念的 AI 专业人士的关注。
工程师构建开源 LLM 问答引擎:在 GitHub 上公开的一个开源项目 “llm-answer-engine” 引起了社区的兴趣。该项目利用 Next.js, Groq, Mixtral, Langchain 和 OpenAI 构建了一个受 Perplexity 启发的问答引擎。
LLM 的结构化输出变得更简单:工程界关注到 instructor 1.0.0 的发布,该工具旨在确保 Large Language Models (LLMs) 产生符合用户定义 Pydantic 模型的结构化输出,从而辅助其无缝集成到更广泛的系统中。
Google 加强 AI 部门力量:为了增强其 AI 产品,Google 聘请了 Logan Kilpatrick 来领导 AI Studio 并推进 Gemini API,这标志着这家科技巨头正加大投入,致力于成为 AI 开发者的核心枢纽。
CUDA MODE Discord
- 轻松上手 GPT:成员们推荐了一个教学 视频,该视频以易于理解的方式解释了 Transformers 和 GPT 的基础知识,适合机器学习领域的新手。
- 极客梦想成真:社区分享了一个雄心勃勃的项目——创建一个能够运行《雷神之锤》(Quake) 的自制 GPU。该项目展示了一位拥有游戏行业背景的开发者成功的 FPGA 设计;更多细节可以在其 博客 上找到。
- CPU 等于 GPU?并不尽然:Justine Tunney 的博客文章 在社区流传,讨论了 CPU 矩阵乘法的优化策略,并指出了其与 GPU 方法(如 warptiling)的区别。
- Triton 性能分析成为焦点:使用 Nsight Compute 对 Triton 代码进行性能分析(profiling)是一个主要话题。社区分享了关于优化性能的见解以及具体的命令,如
ncu --target-processes all --set detailed --import-source yes -o output_file python your_script.py,以改善开发工作流。文中强调了关键的性能提升,并参考了 Accelerating Triton 的资源。 - 基准测试之争:PyTorch 团队对近期与 JAX 和 TensorFlow 的基准测试对比表示担忧,并给出了官方回应。同时,Jeff Dean 发布的一条推文展示了 JAX 在多项测试中是 GPU 性能最快的,这引发了社区讨论;相关的基准测试表格可以在 这里 查看。
Interconnects (Nathan Lambert) Discord
-
RLAIF 可能提升 Opus:据推测,应用 Reinforcement Learning with Augmented Intermediate Features (RLAIF) 可以通过优化其决策准确性来进一步增强 Opus。
-
Google 宏大的 AI 愿景:Google 的新任 AI 产品负责人宣布,他们致力于在 AI Studio 和 Gemini API 的支持下,使 Google 成为 AI 开发者的首选之地。
-
DPO 的进展与讨论:最近的一篇 预印本论文 探讨了大模型在 Direct Preference Optimization (DPO) 中的冗余(verbosity)问题。讨论中还提到了一项关于 Reinforcement Learning from Human Feedback (RLHF) 中冗余利用研究的反驳,该研究可在 arXiv 上查阅。
-
GPT-4 之后的 AI 迷雾:在 GPT-4 发布之后,AI 社区注意到各公司倾向于增加保密性,减少分享模型细节,这偏离了之前的透明化准则。
AI21 Labs (Jamba) Discord
Jamba 的速度洞察:工程师们详细研究了在解码过程中,Jamba 的端到端吞吐效率如何随 token 数量的增加而提升。鉴于解码是顺序进行的,一些成员对这种增长表示质疑,但共识指出,即使上下文窗口增大,吞吐量增益依然存在,并会影响解码速度。
解码效率之谜:围绕一张显示 Jamba 解码步骤随 token 数量增加而变得更高效的图表,展开了一场关键讨论。困惑得到了解答,讨论阐明了每个 token 更高的吞吐量会影响解码阶段的效率,反驳了最初的误解。
PART 2: 分频道详细摘要与链接
Perplexity AI ▷ #general (888 messages🔥🔥🔥):
-
Claude 3 Haiku 在与 Opus 的对比中表现稳健:用户讨论了 Claude 3 Haiku 在 Perplexity AI 中的有效性,分析了它与 Opus 相比在处理推理和陷阱问题方面的表现,以及作为一款更小、更便宜模型的性价比。
-
对 Perplexity 引入广告的担忧:用户对 Perplexity AI 引入广告的潜在计划表示猜测和担忧,特别是这与 Pro 订阅 的关系。该消息的真实性(可能是一个愚人节玩笑)正在被讨论,并引用了 AdWeek 和 Gadgets360 讨论广告策略的相关文章。
-
写作模式(Writing Mode)关注度的盛行:讨论集中在 Perplexity 中的 Writing 专注模式是否更优,用户认为它比包含网络搜索的 All 专注模式提供了更好的用户体验和更少的问题结果。用户明显更倾向于写作模式,因为它能提供更简洁的 LLM 交互。
-
Prompt 攻击安全担忧:一位用户询问了 Perplexity AI 如何保护其模型(如 Sonar)免受 prompt 攻击和其他安全漏洞的影响。对话转向了更广泛的问题,即如何保护 LLM 免受由于数据投毒或 prompt injections 导致的政策违规。
-
Gemini 1.5 Pro API 定价评论:用户讨论了 Gemini 1.5 Pro 的预览定价,指出其 100 万 token 上下文能力的定价为 每百万 token 7 美元,价格昂贵。对话指出,希望未来能进行价格调整,并可能根据上下文窗口的使用情况实行分层定价。
- 未找到标题:未找到描述
- Linus ●ᴗ● Ekenstam (@LinusEkenstam) 的推文:🚨 重磅 🚨 Apple 正在洽谈收购 Perplexity。这可能是一个非常令人兴奋的开始。
- Aravind Srinivas (@AravSrinivas) 的推文:良好的氛围至关重要
- 微型文字 GIF - Tiny Text Cant - 发现并分享 GIF:点击查看 GIF
- 正在处理 GIF - Working On It - 发现并分享 GIF:点击查看 GIF
- 抱怨放弃 GIF - Whine Give Up - 发现并分享 GIF:点击查看 GIF
- 哎哟 GIF - Ouch - 发现并分享 GIF:点击查看 GIF
- 是或否 GIF - Yes No - 发现并分享 GIF:点击查看 GIF
- Degouté Chanceux GIF - Degouté Chanceux Chance - 发现并分享 GIF:点击查看 GIF
- 登录 • Instagram:未找到描述
- 生成式 AI 搜索引擎 Perplexity 计划出售广告:未找到描述
- Reddit - 深入探索一切:未找到描述
- 登录 • Instagram:未找到描述
- Morpheus 解释什么是真实的:Morpheus 说:“你现在的外表就是我们所说的残余自我形象。它是你数字自我的心理投影。” 手沿着机翼滑动...
- 我们必须为 Deep Learning 增加结构,因为...:Paul Lessard 博士及其合作者发表了一篇关于 "Categorical Deep Learning and Algebraic Theory of Architectures" 的论文。他们旨在使神经网络...
- Scrubs - 两枚硬币,30 美分:来自 Scrubs 第 3 季第 4 集的有趣片段。
- 关于 AT&T 大规模数据泄露,客户应该了解的信息:AT&T 周六表示,在暗网上发现的一个数据集包含约 7300 万当前和前任客户的社会安全号码和密码等信息。
- 报告称:AI 搜索引擎 Perplexity 可能很快向用户展示广告:根据报告,Perplexity 将在其相关问题部分展示广告。
- Perplexity,一家试图挑战 Google 的 AI 初创公司,计划出售广告 - Slashdot:一位匿名读者分享了一份报告:声称是 Google 竞争对手的生成式 AI 搜索引擎 Perplexity,最近刚从 Jeff Bezos 等投资者那里获得了 7360 万美元的 B 轮融资...
- GPT 到底是什么?Transformer 的视觉入门 | Deep Learning,第 5 章:Transformer 及其先决条件的介绍。赞助者可提前观看下一章:https://3b1b.co/early-attention 特别感谢这些支持...
- 海绵宝宝 GIF - Spongebob - 发现并分享 GIF:点击查看 GIF
- The Bachelorette 你明白我在说什么吗 GIF - The Bachelorette You See What Im Saying Understand - 发现并分享 GIF:点击查看 GIF
- 我能感受到你的痛苦 GIF - I Feel Your Pain All The Feels Keezia Leigh - 发现并分享 GIF:点击查看 GIF
- 保护攻击 GIF - Protect Attack Punch Me - 发现并分享 GIF s</a>: 点击查看 GIF
- Perplexity 宕机了?当前问题与状态 - DownFor: Perplexity 无法加载?或者在使用 Perplexity 时遇到问题?在这里检查状态并报告任何问题!
- Application Status: 未找到描述
- Quora - 分享知识、更好地了解世界的平台: 未找到描述
- Reddit - 尽情探索: 未找到描述
- Reddit - 尽情探索: 未找到描述
- Reddit - 尽情探索: 未找到描述
- search results: 未找到描述
- no title found: 未找到描述
- Codecademy Forums: Codecademy 的社区讨论论坛。
- 开始编写开发者博客:Hashnode - 自定义域名、子路径、托管/无头 CMS。: 具有自定义域名、托管/无头 CMS 选项的开发者博客。我们全新的无头 CMS 为开发工具公司简化了内容管理。 </ul> </div> --- **Perplexity AI ▷ #[sharing](https://discord.com/channels/1047197230748151888/1054944216876331118/1224304009352056885)** (19 messages🔥): - **探测 Stable Cascades 的细节**:一位成员分享了 Perplexity AI 的链接,涉及 **Stable Cascades** 的细节和见解。 - **探索 Neo 的独特性**:对 **Neo** 脱颖而出的原因感到好奇,从而在 [Perplexity AI](https://www.perplexity.ai/search/why-is-Neo-26.mxjH_TEmzTnxhxetBDQ) 上进行了搜索查询。 - **关于如何继续使用 Perplexity 的说明**:一位成员的查询被重定向到 [Perplexity AI](https://www.perplexity.ai/search/How-can-I-VBSI6VXuQOiKraNH.DMbrw),同时提醒确保帖子可以通过 **Discord** [链接](https://discord.com/channels/1047197230748151888/1054944216876331118/1208752189606989825) 共享以供参考。 - **愚人节玩笑还是技术创新?**:通过 [Perplexity AI 搜索关于愚人节技术的内容](https://www.perplexity.ai/search/April-fool-tech-Au6YyiG1TCCPZdIBAawqHw),探讨了幽默与进步之间的界限。 - **GPTDevil 集合引起关注**:一位成员指向了关于 **GPTDevil** 的 [Perplexity AI 集合](https://www.perplexity.ai/collections/GPTDevil-A.GvNcQZS0yjMGDDJtDPUQ),表明了对该话题的兴趣。 --- **Perplexity AI ▷ #[pplx-api](https://discord.com/channels/1047197230748151888/1161802929053909012/1224277874119544852)** (16 messages🔥): - **添加 API 额度的问题**:一位成员报告了添加 API 额度的问题,称该过程卡在“Pending”状态,且发票显示为“void”。 - **在 API 中检索来源的请求**:一位成员询问是否可以通过 Perplexity API 获取提示词的来源,类似于浏览器提示词中可用的功能。 - **Token 成本对比资源**:一位成员为希望对比 Perplexity 模型和 ChatGPT 的 Token 成本的人提供了链接,可查看 [Perplexity 的定价](https://docs.perplexity.ai/docs/pricing) 和 OpenAI 的定价。 - **Perplexity API 不支持团队注册**:一位成员询问了为团队注册 Perplexity API 的流程,并被告知目前不支持团队注册。 - **对速率限制(Rate Limits)的困惑**:一位成员对使用 `sonar-medium-online` 模型时出现的不一致速率限制行为表示担忧,尽管遵守了规定的每分钟 20 次请求限制,但仍遇到了 429 错误。 --- **LAION ▷ #[general](https://discord.com/channels/823813159592001537/823813160075132991/1224372448158289980)** (525 messages🔥🔥🔥): - **Hugging Face Diffusers PR 讨论**:社区成员讨论了一个关于在 [Hugging Face Diffusers GitHub](https://github.com/huggingface/diffusers/pull/7530) 上禁用 CUDA 设备 autocast 的 PR。对话转向对 Hugging Face 的批评,指责其在不同的 pipeline 和 trainer 之间没有统一的代码,并指出了效率和荒谬之处。 - **关于合并不同 SD Pipelines 的持续性问题**:社区成员强调了 [GitHub discussion #551](https://github.com/huggingface/diffusers/issues/551) 中记录的一个持续问题,即合并不同的 Stable Diffusion pipelines,并指出由于决定保持独立的 pipelines,该复杂性依然存在。 - **对 Hugging Face 工程优先级的批评**:出现了一场批评 Hugging Face 在 Diffusers 上工程工作的讨论,涉及工程师不足、过多的“AI 代码思想领袖”,以及工程师采用微服务框架等冲突方法。 - **特定 PyTorch 版本的讨论**:社区成员对 PyTorch 版本进行了广泛的技术讨论,提到了 PyTorch 2.3 中静默添加的 bfloat16 支持以及 nightly builds 的复杂性。有人对 autocast 性能问题及可能的修复发表了评论,详情已添加到 [GitHub thread](https://github.com/pytorch/pytorch/issues/120930),并对 PyTorch 2.6 版本的发布表示期待。 - **AI 生成图像与采样设置**:对各种 Diffusion 模型版本和配置生成的图像质量进行了评价,特别关注了锤子的图像。采样器及其配置的差异引发了关于这些参数的有效性和正确使用的交流。
- Reddit - Dive into anything:未找到描述
- Old Gregg Easy GIF - Old Gregg Easy Calm Down - Discover & Share GIFs:点击查看 GIF
- Tom And Jerry Mouse GIF - Tom And Jerry Mouse Bumped - Discover & Share GIFs:点击查看 GIF
- Pelicula Western GIF - Pelicula Western Meme - Discover & Share GIFs:点击查看 GIF
- Issues · pytorch/pytorch:Python 中的张量和动态神经网络,具有强大的 GPU 加速 - Issues · pytorch/pytorch
- Issues · pytorch/pytorch:Python 中的张量和动态神经网络,具有强大的 GPU 加速 - Issues · pytorch/pytorch
- [mps] training / inference dtype issues · Issue #7563 · huggingface/diffusers:在没有 attention slicing 的情况下在 Diffusers 上进行训练时,我们看到:/AppleInternal/Library/BuildRoots/ce725a5f-c761-11ee-a4ec-b6ef2fd8d87b/Library/Caches/com.apple.xbs/Sources/MetalPerformanceShaders/MPS...
- 7529 do not disable autocast for cuda devices by bghira · Pull Request #7530 · huggingface/diffusers:此 PR 做了什么?修复了 #7529。在提交之前,此 PR 修复了一个拼写错误或改进了文档(如果是这种情况,您可以忽略其他检查)。您阅读了贡献者指南吗...
- 7529 do not disable autocast for cuda devices by bghira · Pull Request #7530 · huggingface/diffusers:此 PR 做了什么?修复了 #7529。在提交之前,此 PR 修复了一个拼写错误或改进了文档(如果是这种情况,您可以忽略其他检查)。您阅读了贡献者指南吗?D...
- Merging Stable diffusion pipelines just makes sense · Issue #551 · huggingface/diffusers:遵循该理念,已决定为 Stable Diffusion 的 txt-to-img、img-to-img 和 inpainting 保留不同的 pipelines。结果如下:PR #549:代码重复了 4 次 (onnx...
- MMStar:未找到描述
- 论文页面 - Gecko: Versatile Text Embeddings Distilled from Large Language Models:未找到描述
- 来自 ً (@__z__9) 的推文:新的预印本!第一个多语言、经过 red-teamed、开源、持续预训练的 LLM - **Aurora-M**,符合关于安全、可靠和值得信赖的开发的 #WhiteHouse 行政命令...
- Aurora-M: The First Open Source Multilingual Language Model Red-teamed according to the U.S. Executive Order:预训练语言模型支撑着多种 AI 应用,但其高昂的训练计算成本限制了可访问性。BLOOM 和 StarCoder 等计划旨在民主化对 p... 的访问。
- Muzeke GIF - Muzeke - 发现并分享 GIF:点击查看 GIF
- jondurbin/airoboros-gpt-3.5-turbo-100k-7b · Hugging Face:未找到描述
- Reddit - 深入探索一切:未找到描述
- Am Ia Joke To You Is This A Joke GIF - 你在开玩笑吗 GIF - 发现并分享 GIF:点击查看 GIF
- I Aint No Fool Wiz Khalifa GIF - 我不是傻瓜 Wiz Khalifa Still Wiz 歌曲 - 发现并分享 GIF:点击查看 GIF
- 在单 GPU 上对 Llama-v2-7b 进行高效微调:微调 LLM 时可能遇到的第一个问题是“host out of memory”错误。微调 7B 参数模型更加困难...
- 主页:快 2-5 倍,内存占用减少 70% 的 QLoRA 和 LoRA 微调 - unslothai/unsloth
- GitHub - intel-analytics/ipex-llm: 在 Intel CPU 和 GPU(例如带有 iGPU 的本地 PC,以及 Arc、Flex 和 Max 等独立 GPU)上加速本地 LLM 推理和微调(LLaMA, Mistral, ChatGLM, Qwen, Baichuan, Mixtral, Gemma 等)。一个与 llama.cpp, HuggingFace, LangChain, LlamaIndex, DeepSpeed, vLLM, FastChat, ModelScope 等无缝集成的 PyTorch LLM 库。:加速本地 LLM 推理和微调(LLaMA, Mistral, ChatGLM, Qwen, Baichuan, Mixtral, Gemma 等)在 Intel CPU 和 GPU 上...
- pacozaa/tinyllama-alpaca-lora:使用 Unsloth Notebook 训练 Tinyllama,数据集 https://huggingface.co/datasets/yahma/alpaca-cleaned
- 在 Jupyter Notebooks 中进行追踪 | Weights & Biases 文档:在 Jupyter 中使用 W&B,无需离开 notebook 即可获得交互式可视化。
- Google Colaboratory:未找到描述
- unsloth/mistral-7b-instruct-v0.2-bnb-4bit at main:未找到描述
- 主页:速度提升 2-5 倍,显存占用减少 70% 的 QLoRA & LoRA 微调 - unslothai/unsloth
- 主页:速度提升 2-5 倍,显存占用减少 70% 的 QLoRA & LoRA 微调 - unslothai/unsloth
- 推理无法工作 · Issue #295 · unslothai/unsloth:嘿,我正在 Mistral 上运行文档中的 colab,训练正常,但在进行推理时出现尺寸不匹配错误:将 `pad_token_id` 设置为 `eos_token_id`:2 以进行开放式生成...
- Google Colaboratory:未找到描述
- deepseek-ai (DeepSeek):未找到描述
- DeepSeek:与 DeepSeek AI 聊天。
- Smirk Teehee GIF - Smirk Teehee Pokemon - Discover & Share GIFs:点击查看 GIF
- Anime Help GIF - Anime Help Tears - Discover & Share GIFs:点击查看 GIF
- Geeky Ghost Vid2Vid Organized v1 - v4.0 | Stable Diffusion Workflows | Civitai:此工作流专为高级视频处理设计,融合了风格迁移、运动分析、深度估计等多种技术...
- Reddit - Dive into anything:未找到描述
- Feedback - Civitai:向 Civitai 提供关于如何改进产品的反馈。
- ostris/ip-composition-adapter at main:未找到描述
- epicRealism - THIS is the Model you WANT!!!!:epicRealism 是具有完美现实感的 1.5 模型。高度细腻的皮肤。真实的图像。超写实的面部。自然光线。也非常适合较少衣物的...
- ICBINP XL - v4 | Stable Diffusion Checkpoint | Civitai:如果你喜欢这个作品,请考虑请我喝杯咖啡 :) 在 Stable Horde 上免费使用此模型。这是期待已久的 ICBINP 后续作品,该模型是...
- The Count Censored:我的音乐 Facebook 页面 https://www.facebook.com/pencilfacemusic
- epiCRealism XL - V5-Ultimate | Stable Diffusion Checkpoint | Civitai:更新2:重回正轨,我从 V1 进行了精炼——可能是 SD3 发布前 SDXL 的最后一个版本。保守这个秘密,SDXL 的魔力 🧙♂️ 发生在:30 步...
- 1万年かけて成長するフリーレン(上半身)/Frieren growing over 10,000 years(upper body) #葬送のフリーレン #frieren #アニメ:未找到描述
- Releases · jhc13/taggui:用于图像数据集的标签管理器和标注器。通过在 GitHub 上创建账户为 jhc13/taggui 的开发做出贡献。
- Realistic Vision V6.0 B1 - V5.1 (VAE) | Stable Diffusion Checkpoint | Civitai:我建议在 Hugging Face 上查看有关 Realistic Vision V6.0 B1 的信息。该模型可在 Mage.Space(主要赞助商)和 S...
- Japan panel pushes to shield copyrighted work from AI training:草案文件称,未经授权使用受保护材料可能构成侵权。
- CyberRealistic - v4.2 | Stable Diffusion Checkpoint | Civitai:想请我喝咖啡吗?(买一杯)示例中使用的可选 CyberRealistic 负面提示词,请查看 Hugging Face 上的 SDXL 版本 CyberRealistic Int...
- CyberRealistic XL - v1.1 (VAE) | Stable Diffusion Checkpoint | Civitai:想请我喝咖啡吗?(买一杯)CyberRealistic XL 花了一些时间,但这是 CyberRealistic 的 SDXL 版本。该模型的标准...
- ReALM: Reference Resolution As Language Modeling:Reference Resolution 是一个重要的问题,对于理解和成功处理各种类型的上下文至关重要。这些上下文包括之前的对话轮次以及相关的上下文...
- Transforming the Web: The End of Silos:我们使用互联网的方式即将发生重大变化。向更统一、更高效的 Web 导航方式转变,是对比我们已经习惯的传统孤岛式 Web 浏览的一次巨大飞跃...
- DiJiang: Efficient Large Language Models through Compact Kernelization: 为了减轻 Transformers 的计算负载,线性注意力 (linear attention) 的研究获得了显著动力。然而,注意力机制的改进策略通常需要...
- Generative Language Modeling for Automated Theorem Proving: 我们探索了基于 Transformer 的语言模型在自动定理证明中的应用。这项工作的动机在于,与...相比,自动定理证明器的一个主要局限性可能是...
- 来自 poosh (e/λcc) (@p00ssh) 的推文: attention is what you need, anon
- GamePad: A Learning Environment for Theorem Proving: 在本文中,我们介绍了一个名为 GamePad 的系统,可用于探索机器学习方法在 Coq 证明助手中的定理证明应用。交互式定理证明器...
- Hugging Face – 构建未来的 AI 社区。: 未找到描述
- 来自 Justine Tunney (@JustineTunney) 的推文: 我刚刚让 llamafile 在许多 prompt / 图像评估用例和硬件上的 CPU 速度比 llama.cpp 快了 1.3 倍到 5 倍。https://justine.lol/matmul/
- Paraconsistent Foundations for Probabilistic Reasoning, Programming and Concept Formation: 文章认为 4 值超相容真值(此处称为 "p-bits")可以作为高度 AI 相关的概率逻辑、编程和概念形成形式的概念、数学和实践基础...
- microsoft/unilm 仓库中的 unilm/bitnet/The-Era-of-1-bit-LLMs__Training_Tips_Code_FAQ.pdf: 跨任务、语言和模态的大规模自监督预训练 - microsoft/unilm
- AI 先驱展示 AI AGENTS 的力量 - “未来是 Agentic 的”: Andrew Ng,Google Brain 和 Coursera 创始人,讨论了 Agent 的力量以及如何使用它们。加入我的通讯以获取定期 AI 更新 👇🏼https://www.matthewb...
- GitHub - YuchuanTian/DiJiang: “DiJiang: Efficient Large Language Models through Compact Kernelization”的官方实现,这是一种新型的基于 DCT 的线性注意力机制。: “DiJiang: Efficient Large Language Models through Compact Kernelization”的官方实现,这是一种新型的基于 DCT 的线性注意力机制。 - YuchuanTian/DiJiang
- shisa-ai/shisa-jamba-v1-checkpoint-4228 · Hugging Face: 未找到描述
- Unchained Foxx GIF - Unchained Foxx Silent - 发现并分享 GIF: 点击查看 GIF
- 使用 DSPy 编程基础模型 (Foundation Models) / 使用 ColBERT 进行多向量语义搜索 - Omar Khattab: Omar Khattab 是斯坦福大学的博士候选人,也是 AI/ML 领域的 Apple Scholar。在这次对话中,Omar 解释了如何对基础模型流水线进行编程...
- Wordware - prompt 提取分析: text -> prompt
- NousResearch/Hermes-2-Pro-Mistral-7B · Hugging Face: 未找到描述
- NousResearch/OLMo-Bitnet-1B at main: 未找到描述
- emozilla: Weights & Biases,机器学习开发者工具
- Hastebin: 未找到描述
- NousResearch/Hermes-2-Pro-Mistral-7B · Add Padding Tokens: 未找到描述
- world_sim:未找到描述
- world_sim:未找到描述
- Anomalous contribution to galactic rotation curves due to stochastic spacetime:我们考虑了一种提出的量子引力替代方案,其中时空度量被视为经典的,即使物质场保持量子态。该理论的一致性必然要求...
- Core War - Wikipedia:未找到描述
- Hanso Foundation:汉索基金会 (Hanso Foundation) 是由 Alvar Hanso 创立的组织,其目标是通过研究保护人类生命和促进福祉的方法来“伸向更美好的明天”。它最初...
- div { animation: none; animation-play-state: paused; line-height: 1.25; - Pastebin.com:Pastebin.com 是自 2002 年以来排名第一的粘贴工具。Pastebin 是一个可以在线存储文本一段时间的网站。
- Her Theodore GIF - Her Theodore Joaquin Phoenix - Discover & Share GIFs:点击查看 GIF
- Coding Adventure: Simulating Fluids:让我们尝试说服一堆粒子表现得(至少在某种程度上)像水。使用 C# 和 HLSL 编写,在 Unity 引擎内运行。源代码:h...
- 无标题:未找到描述
- AMD 长期开源 Linux 图形驱动倡导者退休 - Phoronix:未找到描述
- Radeon 7900XT,重置 bug:对于 AMD,本质是你要么得到一张会重置的显卡,要么得到一张不会重置的。由于设计是私有的,且 AMD 仍未设法修复重置问题,因此无法确定...
- Reddit - 深入了解:未找到描述
- Reddit - 深入了解:未找到描述
- NOTimothyLottes (@NOTimothyLottes@mastodon.gamedev.place):总之,看来我又遇到了一个无法规避且严重到无法忽视的编译器性能 bug。Wave-coherent(本应很快)的动态描述符选择表现得像批次中断...
- tinygrad/examples/beautiful_mnist_multigpu.py (GitHub):你喜欢 pytorch?你喜欢 micrograd?你会爱上 tinygrad!❤️ - tinygrad/tinygrad
- 7900xtx/docs/MEC.md (GitHub):通过在 GitHub 上创建账户来为 geohot/7900xtx 的开发做出贡献。
- tinygrad-notes/backends.md 分支 main · mesozoic-egg/tinygrad-notes: 通过在 GitHub 上创建账号,为 mesozoic-egg/tinygrad-notes 的开发做出贡献。
- tinygrad-notes/commandqueue.md 分支 main · mesozoic-egg/tinygrad-notes: 通过在 GitHub 上创建账号,为 mesozoic-egg/tinygrad-notes 的开发做出贡献。
- tinygrad-notes/uops.md 分支 main · mesozoic-egg/tinygrad-notes: 通过在 GitHub 上创建账号,为 mesozoic-egg/tinygrad-notes 的开发做出贡献。
- 由 thedanhoffman 提交的重新启用 linearizer 测试的 has_local 检查 · Pull Request #4034 · tinygrad/tinygrad: 在 learning tinygrad 频道中讨论过,结论是这可能是之前 PR 的一个疏忽。在运行 `CLANG=1 python3 -m pytest test/test_linearizer_overflows.py` 时触发。
- 由 geohot 提交的恢复 ptx · Pull Request #3623 · tinygrad/tinygrad: 未找到描述
- 欢迎 | LM Studio: LM Studio 是一款用于在计算机上运行本地 LLM 的桌面应用程序。
- 非官方 LMStudio FAQ!: 欢迎来到非官方 LMStudio FAQ。在这里,你可以找到 LMStudio Discord 中最常见问题的答案。(此 FAQ 由社区管理)。LMStudio 是一款免费的闭源...
- GitHub - moritztng/fltr: 类似于 grep,但针对自然语言问题。基于 Mistral 7B 或 Mixtral 8x7B。: 类似于 grep,但针对自然语言问题。基于 Mistral 7B 或 Mixtral 8x7B。 - moritztng/fltr
- llamafile/llamafile/sgemm.cpp 分支 main · Mozilla-Ocho/llamafile: 通过单个文件分发和运行 LLM。通过在 GitHub 上创建账号,为 Mozilla-Ocho/llamafile 的开发做出贡献。
- 未找到标题:未找到描述
- 使用这两个工具停止为 ChatGPT 付费 | LMStudio x AnythingLLM:在本视频中,我们将安装两个用户友好的工具,用于下载、运行和管理强大的本地 LLM 以替代 ChatGPT。说真的...
- MyAnimeList.net - 动漫数据库与社区 :欢迎来到 MyAnimeList,全球最活跃的在线动漫社区和数据库。加入在线社区,创建你的动漫列表,阅读评论,探索论坛...
- 由 simonJJJ 添加 qwen2moe · 拉取请求 #6074 · ggerganov/llama.cpp:此 PR 为即将到来的 Qwen2 MoE 模型 hf 添加了代码支持。我更改了几个宏值以支持 60 个专家的设置。@ggerganov
- Mikubox Triple-P40 组装:从 ebay 购买的 Dell T7910 “准系统(barebones)”,包含散热器。推荐卖家 “digitalmind2000”,因为他们使用现场发泡包装,确保工作站送达时完好无损。你可以自行选择 Xe...
- Reddit - 深入探索一切:未找到描述
- NVIDIA Quadro RTX 8000 规格:NVIDIA TU102, 1770 MHz, 4608 Cores, 288 TMUs, 96 ROPs, 49152 MB GDDR6, 1750 MHz, 384 bit
- SWE-Agent: 未找到描述
- Gecko: Versatile Text Embeddings Distilled from Large Language Models: 我们介绍了 Gecko,一个紧凑且多功能的文本嵌入模型。Gecko 通过利用一个关键思想实现了强大的检索性能:将知识从大语言模型 (LLMs) 蒸馏到检索...
- Inverted index - Wikipedia: 未找到描述
- Tweet from Anthropic (@AnthropicAI): 新的 Anthropic 研究论文:Many-shot jailbreaking。我们研究了一种在大多数大语言模型上都有效的长上下文越狱技术,包括由 Anthropic 开发的模型以及许多其他...
- Tweet from Stella Biderman (@BlancheMinerva): 众所周知,微调可能会顺带移除 RLHF 防护 https://arxiv.org/abs/2310.03693。你能通过在数据中混合拒绝回答的示例来解决这个问题吗?这些是否重要...
- Tweet from Neel Nanda (@NeelNanda5): 来自 @calsmcdougall 的出色 Sparse Autoencoder 特征可视化库!我的团队已经发现它非常有用,快去看看吧:https://www.lesswrong.com/posts/nAhy6ZquNY7AD3RkD/sa...
- A Selection of Randomly Selected SAE Features — LessWrong: 在这篇文章中,我们解释了一小部分 Sparse Autoencoder 特征,这些特征揭示了模型中明显的、有意义的计算结构……
- A Survey of Music Generation in the Context of Interaction:近年来,机器学习,特别是生成对抗网络 (GANs) 和基于注意力机制的神经网络 (Transformers),已成功用于作曲和生成...
- Build software better, together:GitHub 是人们构建软件的地方。超过 1 亿人使用 GitHub 来发现、Fork 并为超过 4.2 亿个项目做出贡献。
- LlamaIndex 网络研讨会:检索增强微调 (RAFT) · Zoom · Luma:RAFT - 检索增强微调 🔥 Zhang 等人提出的检索增强微调 (RAFT) 是一种针对特定领域 RAG 微调预训练 LLM 的新技术...
- 来自 LlamaIndex 🦙 (@llama_index) 的推文:新的 LlamaIndex 网络研讨会 🚨 - 快来学习如何进行检索增强微调 (RAFT)!做 RAG 就像是不复习就参加开卷考试。这仅比闭卷考试好一点点...
- Phase1 Collect Underpants GIF - Phase1 Collect Underpants Gnome - Discover & Share GIFs: 点击查看 GIF
- Introducing LlamaCloud and LlamaParse — LlamaIndex, Data Framework for LLM Applications: LlamaIndex 是一个简单、灵活的数据框架,用于将自定义数据源连接到大语言模型 (LLMs)。
- llama_index/llama-index-core/llama_index/core/prompts at main · run-llama/llama_index: LlamaIndex 是为您 LLM 应用准备的数据框架 - run-llama/llama_index
- Weather - LlamaIndex: 未找到描述
- HuggingFace LLM - Camel-5b - LlamaIndex: 未找到描述
- Customizing LLMs - LlamaIndex: 未找到描述
- Building RAG from Scratch (Open-source only!) - LlamaIndex: 未找到描述
- Accessing/Customizing Prompts within Higher-Level Modules - LlamaIndex: 未找到描述
- GitHub - agronholm/sqlacodegen: Automatic model code generator for SQLAlchemy: SQLAlchemy 的自动模型代码生成器。通过在 GitHub 上创建账号来为 agronholm/sqlacodegen 的开发做出贡献。
- GitHub - ollama/ollama: Get up and running with Llama 2, Mistral, Gemma, and other large language models.: 快速上手 Llama 2, Mistral, Gemma 和其他大语言模型。 - ollama/ollama
- GitHub - run-llama/create-llama: The easiest way to get started with LlamaIndex: 开始使用 LlamaIndex 的最简单方法。通过在 GitHub 上创建账号来为 run-llama/create-llama 的开发做出贡献。
- Structured Data - LlamaIndex: 未找到描述
- Text-to-SQL Guide (Query Engine + Retriever) - LlamaIndex: 未找到描述
- Chat Engine with a Personality ✨ - LlamaIndex: 未找到描述
- llama_index/llama-index-legacy/llama_index/legacy/prompts/system.py at 8a8324008764a7fefb6f25b0e3aac81089590322 · run-llama/llama_index: LlamaIndex 是为您 LLM 应用准备的数据框架 - run-llama/llama_index
- 未找到标题: 未找到描述
- openai-functions-agent | 🦜️🔗 Langchain: 此模板创建了一个使用 OpenAI function calling 来传达其采取何种行动决策的 Agent。
- [beta] Structured Output | 🦜️🔗 Langchain: 让 LLM 返回结构化输出通常至关重要。这是
- JSON files | 🦜️🔗 Langchain: JSON 加载器使用 JSON pointer 来定位 JSON 文件中你想要的目标键。
- langchain.chains.structured_output.base.create_structured_output_runnable — 🦜🔗 LangChain 0.1.14: 未找到描述
- langgraph/examples/state-model.ipynb at 961ddd49ed498df7ffaa6f6d688f7214b883b34f · langchain-ai/langgraph: 通过在 GitHub 上创建账号,为 langchain-ai/langgraph 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Tool error handling | 🦜️🔗 Langchain: 使用模型调用工具时,存在一些明显的潜在失败模式。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- GitHub - langchain-ai/langgraph at 961ddd49ed498df7ffaa6f6d688f7214b883b34f: 通过在 GitHub 上创建账号,为 langchain-ai/langgraph 的开发做出贡献。
- GitGud: 未找到描述
- Mona Bild repost: 来自 tiktok 的知名图片 -,Wuppertal - Elberfeld-West 的 Mona Bild repost
- Hack OpenGPT to Automate Anything: 欢迎来到定制 AI 应用的未来!本演示展示了 OpenGPTs 的惊人灵活性和强大功能,这是一个由 LangChain 发起的开源项目。W...
- Chinese AI Firm Unveils "DeepEye" AI Box, Featuring Up To 48 TOPS & Affordable Designs: 中国 AI 公司发布 "DeepEye" AI 盒子,具备高达 48 TOPS 的算力及亲民的设计,承诺提供具有广泛升级路线图的经济型 AI 解决方案。
- AI bots hallucinate software packages and devs download them: 只需留意 ML 想象出的库并将其变为现实,并加入实际的恶意代码。不,等等,别那么做。
- Reddit - Dive into anything: 未找到描述
- GitHub - moritztng/fltr: Like grep but for natural language questions. Based on Mistral 7B or Mixtral 8x7B.: 像 grep 一样,但针对自然语言问题。基于 Mistral 7B 或 Mixtral 8x7B。- moritztng/fltr
- 机器人意识流: 介绍 LLMinator,一个上下文感知的流式 Chatbot,支持通过 Langchain 和 Gradio 在本地运行 LLM,兼容 HuggingFace 的 CPU 和 CUDA。在 GitHub 上查看。
- 数据管理变得更简单: DagsHub 为 Colab 推出了与 DagsHub Storage Buckets 的新集成,承诺提供更好的数据管理体验,类似于面向 ML 的可扩展 Google Drive。示例 Notebook 可在 Google Colab 上获取。
- Python 的新对手 Mojo: 关于 Mojo 编程语言在性能上超越 Python 的推测不断涌现,正如标题为 "Mojo Programming Language killed Python" 的 YouTube 视频中所讨论的那样。在此处观看完整解释 here。
- 机器人展示: 一位成员构建了一个带有颜色传感器的高级巡线和避障机器人,并在 SUST_BlackAnt 的 YouTube 视频中进行了演示。在此处查看完整演示 here。
- 使用 OneMix 启动 SaaS: 新的 SaaS 样板项目 OneMix 声称通过提供着陆页、支付和身份验证设置等必需品来加速项目启动。更多详情请访问 saask.ing,演示视频请见 YouTube。
- Google Colaboratory: 未找到描述
- ً (@__z__9) 的推文: 新预印本!首个经过红队测试的多语言开源持续预训练 LLM —— **Aurora-M**,符合 #WhiteHouse 关于安全、可靠和值得信赖的开发的行政命令...
- Aurora-M: 首个根据美国行政命令进行红队测试的开源多语言语言模型: 预训练语言模型是多种 AI 应用的基础,但其高昂的训练计算成本限制了可访问性。BLOOM 和 StarCoder 等倡议旨在使 p... 的访问民主化
- 关于虚拟容器:保护你的 Python 应用: 一个简短的演示,介绍如何使用 Podman (https://podman.io/) 或 Docker (http://docker.io/) 等平台将你的软件项目“容器化”以用于生产环境....
- Mojo 编程语言杀死了 Python: 我将与你分享为什么 Mojo 很快就会变得非常流行。它在性能方面正在击败 Python,使其极具竞争力,关键在于:在保持 th... 的同时
- 带有颜色传感器的高级循迹和避障机器人。由 SUST_BlackAnt 展示: 这是一个高级循迹轨道。欢迎点赞、评论和分享。让我知道你是否喜欢它。如果你想联系我,请随时发送 em...
- GitHub - Aesthisia/LLMinator: 基于 Gradio 的工具,可直接从 Huggingface 运行开源 LLM 模型: 基于 Gradio 的工具,可直接从 Huggingface 运行开源 LLM 模型 - Aesthisia/LLMinator
- HyperGraph 数据集 - SauravMaheshkar 收藏集: 未找到描述
- Saurav Maheshkar ☕️ (@MaheshkarSaurav) 的推文: 我目前正在研究 HyperGraph 表示学习,并在过去几天创建了一个 @huggingface 收藏集,包含:👉 处理后的数据集 👉 论文 👉 @Gradio space...
- SaaS King | 最佳 SaaS 模板: 未找到描述
- SaaS King 的 One Mix | 模板演示: SaaS King 的 OneMix 快速介绍。OneMix 使用 Remix (Vite)、Tailwind、Supabase、Prisma、Stripe 和 Resend 构建。SaaS King 的 OneMix 如何帮助...
- 制作了一个音乐老虎机,然后用它创作了一首歌 - captains chair 21: 00:00 - 开始 01:35 - 构建音轨 08:28 - 音轨 我们的第一个 @HuggingFace space。这非常荒谬。https://huggingface.co/spaces/thepatch/the-slot-...
- The Slot Machine - thepatch 的 Hugging Face Space: 未找到描述
- SPRIGHT:社交媒体描述标签
- 加载 LoRA 进行推理:未找到描述
- Modular Docs:未找到描述
- tensor | Modular Docs:实现 Tensor 类型。
- playground.mojo:GitHub Gist:即时分享代码、笔记和代码片段。
- Swift Concurrency Manifesto:Swift 并发宣言。GitHub Gist:即时分享代码、笔记和代码片段。
- mojo/docs/changelog.md at nightly · modularml/mojo:Mojo 编程语言。通过在 GitHub 上创建账号为 modularml/mojo 的开发做出贡献。
- mojo/stdlib/docs/development.md at nightly · modularml/mojo:Mojo 编程语言。通过在 GitHub 上创建账号为 modularml/mojo 的开发做出贡献。
- Comparing 4feb92e..1a8f912 · modularml/mojo:Mojo 编程语言。通过在 GitHub 上创建账号为 modularml/mojo 的开发做出贡献。
- jordan singer (@jsngr) 的推文:✨ 通过手机远程与你的电脑对话,我称之为 Teleport
- Discord - 与朋友和社区聊天的新方式:Discord 是通过语音、视频和文字进行交流的最简单方式。聊天、聚会,并与你的朋友和社区保持紧密联系。
- OhanaPal | 为超能者打造的超级应用:欢迎来到 OhanaPal——赋能与包容在此交汇,为超能者让每一天都变得非凡。
- GitHub - FiveTechSoft/tinyMedical: 使用医疗数据集训练并保存为 GGUF 文件的 TinyLLama:使用医疗数据集训练并保存为 GGUF 文件的 TinyLLama - FiveTechSoft/tinyMedical
- Language Model - 01: 未找到描述
- 使用 winget 工具安装和管理应用程序: winget 命令行工具使开发人员能够在 Windows 计算机上发现、安装、升级、移除和配置应用程序。
- 未找到标题: 未找到描述
- 自动重新连接到上次成功的 WiFi 和 Server URL(如果可用)由 aramsdale 提交 · Pull Request #214 · OpenInterpreter/01: 自动重新连接到上次成功的 WiFi 和 Server URL(如果可用)。利用 Preferences 检测成功的 WiFi 连接,存储到 ssid 偏好设置,并在重启时调用。Server 同样...
- GitHub - MikeBirdTech/open-interpreter-termux: 在 Android 设备上安装 Open Interpreter 的说明。: 在 Android 设备上安装 Open Interpreter 的说明。 - MikeBirdTech/open-interpreter-termux
- Git - 下载安装包: 未找到描述
- Microsoft C++ Build Tools - Visual Studio: 未找到描述
- Open Interpreter Advanced Experimentation - Part 2: ➤ Twitter - https://twitter.com/techfrenaj➤ Twitch - https://www.twitch.tv/techfren➤ Discord - https://discord.com/invite/z5VVSGssCw➤ TikTok - https://www....
- But what is a GPT? Visual intro to Transformers | Deep learning, chapter 5: Transformers 及其先决条件的介绍。为赞助者提供的下一章预览:https://3b1b.co/early-attention 特别感谢这些支持...
- GitHub - microsoft/UFO: 一个用于 Windows OS 交互的以 UI 为中心的 Agent。: 一个用于 Windows OS 交互的以 UI 为中心的 Agent。通过在 GitHub 上创建账户为 microsoft/UFO 的开发做出贡献。
- GitHub - danielmiessler/fabric: fabric 是一个通过 AI 增强人类能力的开源框架。它提供了一个模块化框架,使用众包的 AI prompts 集来解决特定问题,可随处使用。: fabric 是一个通过 AI 增强人类能力的开源框架。它提供了一个模块化框架,使用众包的 AI prompts 集来解决特定问题,可随处使用。 - ...
- 使用 AutoTrain 微调 Mixtral 8x7B:未找到描述
- Patterns of Application Development Using AI:探索构建智能、自适应且以用户为中心的软件系统的实用模式和原则,充分发挥 AI 的力量。
- JSON Schema - 创建你的第一个 schema:未找到描述
- jartine/Mixtral-8x7B-Instruct-v0.1-llamafile at main:未找到描述
- TheBloke/bagel-8x7b-v0.2-GGUF · Hugging Face:未找到描述
- TheBloke/dolphin-2.7-mixtral-8x7b-GGUF · Hugging Face:未找到描述
- Releases · Septillihedron/SuperheroesPlusSchema:SkillsLibrary 插件的文档。通过在 GitHub 上创建账户来为 Septillihedron/SuperheroesPlusSchema 的开发做出贡献。
- Arm64X PE 文件:Arm64X 是 Windows 11 SDK 中的一种 PE 文件类型,用于 Arm64 上的 x64 兼容性。Arm64X 对于中间件或插件开发者来说可能是一个很好的解决方案,因为代码可能会被加载到 x64 或 A...
- ARM64 Boot Camp: ARM64EC and ARM64X 详解:未找到描述
- Axolotl:未找到描述
- [BUG] LISA: same loss regardless of lisa_activated_layers · Issue #726 · OptimalScale/LMFlow:描述该 bug,我认为目前的 LISA 实现可能存在问题。无论激活多少层,训练损失都没有区别。没有使用 LMFlow 而是使用了 HF ...
- GitHub - kyegomez/BitNet: "BitNet: Scaling 1-bit Transformers for Large Language Models" 的 pytorch 实现 - kyegomez/BitNet:BitNet: Scaling 1-bit Transformers for Large Language Models 的 pytorch 实现 - kyegomez/BitNet
- 来自 Logan Kilpatrick (@OfficialLoganK) 的推文:很高兴分享我已加入 @Google,负责 AI Studio 的产品领导工作并支持 Gemini API。前方有很多艰苦的工作,但我们将使 Google 成为 AI 开发者构建应用的最佳家园。...
- 介绍 FastLLM:Qdrant 革命性的 LLM - Qdrant:轻量级且开源。专为 RAG 定制,并与 Qdrant 完全集成。
- Apple AI 研究人员夸赞其实用的端侧模型“显著优于” GPT-4 - 9to5Mac:Siri 最近一直在尝试描述在 CarPlay 或通知播报功能中使用 Messages 接收到的图像。在...
- 10^25 与 10^26 意味着什么?:简要探讨基于 FLOPs 的监管意味着什么。最近的 AI 法规根据用于训练的浮点运算量定义了监管触发点……
- 来自 John Yang (@jyangballin) 的推文:SWE-agent 是我们用于自主解决 GitHub 仓库问题的新系统。它在 SWE-bench 上的准确率与 Devin 相当,平均耗时 93 秒,且已开源!我们设计了一个新的 Agent-co...
- 来自 Gustavo Cid (@_cgustavo) 的推文:我曾经恳求 LLM 提供结构化输出。大多数时候,它们能理解任务并返回有效的 JSON。然而,在大约 5% 的时间里,它们做不到,我不得不编写胶水代码来避免...
- 来自 Gustavo Cid (@_cgustavo) 的推文:我曾经恳求 LLM 提供结构化输出。大多数时候,它们能理解任务并返回有效的 JSON。然而,在大约 5% 的时间里,它们做不到,我不得不编写胶水代码来避免...
- 来自 Will Anthonio Zeppeli (@sucralose__) 的推文:我对 ChatGPT 的后端进行了更多调查,发现了名为 "GPT Alpha" 模型的可靠证据,我认为它是 GPT-4 的继任者。可以提前启用它,但它...
- 来自 Logan Kilpatrick (@OfficialLoganK) 的推文:很高兴分享我已加入 @Google,负责 AI Studio 的产品领导工作并支持 Gemini API。前方有很多艰苦的工作,但我们将使 Google 成为 AI 开发者构建应用的最佳家园。...
- 但什么是 GPT?Transformer 的视觉入门 | 深度学习,第 5 章:Transformer 及其先决条件的介绍。赞助者可提前观看下一章:https://3b1b.co/early-attention 特别感谢这些支持...
- GitHub - developersdigest/llm-answer-engine: 使用 Next.js, Groq, Mixtral, Langchain, OpenAI, Brave & Serper 构建一个受 Perplexity 启发的问答引擎:使用 Next.js, Groq, Mixtral, Langchain, OpenAI, Brave & Serper 构建一个受 Perplexity 启发的问答引擎 - developersdigest/llm-answer-engine
- Hello! — FuryGpu: 在业余时间开发定制全栈 GPU 近四年后,我觉得是时候开始整理一些材料来展示这个项目、其技术细节以及...
- But what is a GPT? Visual intro to Transformers | Deep learning, chapter 5: Transformer 及其先决条件的介绍。赞助者可提前观看下一章:https://3b1b.co/early-attention 特别感谢这些支持...
- derek dukes (@ddukes) 的推文: 海滩篝火,准备看日落。你能赢过加州吗?
- Jeff Dean (@🏡) (@JeffDean) 的推文: 这是链接中的关键基准测试表。GPU 上的 JAX 后端在 12 个基准测试中有 7 个是最快的,TensorFlow 后端在另外 5 个测试中是最快的。PyTorch 后端则没有...
- Disentangling Length from Quality in Direct Preference Optimization:Reinforcement Learning from Human Feedback (RLHF) 一直是近期 Large Language Models 取得成功的关键组件。然而,已知 RLHF 会利用人类偏好中的偏差,例如冗长性...
- 来自 Rafael Rafailov (@rm_rafailov) 的推文:关于 DPO 和冗长性之间相互作用的新预印本已发布。我们收到的关于 DPO 的第一批反馈之一是,在大规模训练时,模型会变得越来越冗长,直到发散。冗长性...