ainews-gpt-4o-the-new-sota-everything-frontier-9515
GPT-4o:全新的全能型 SOTA 前沿模型(GPT-4 Turbo 版本)
OpenAI 发布了 GPT-4o,这是一款支持音频、视觉和文本实时推理的前沿模型。该模型现已向所有 ChatGPT 用户免费开放,不仅增强了编程能力,还即将推出高级语音和视频功能。
相关讨论涵盖了 Llama 3 等开源大语言模型、包括 GPT-3.5 知识蒸馏在内的微调技术,以及量化等硬件优化策略。新兴架构包括与 ChatGPT 语音和 Open Interpreter API 的多模态集成、结合了自回归和扩散方法的混合专家模型(MoE),以及旨在提高 GPU 效率的 YOCO 架构和 ThunderKittens DSL 等新颖设计。此外,研究还强调了高效注意力机制方面的进展(如使用快速傅里叶变换 FFT 的 Conv-Basis)以及深度上采样(depth upscaling)等模型缩放技术。
Omnimodality 就是你想要的一切。
AI News (2024/5/10-2024/5/13)。 我们为您检查了 7 个 subreddits、384 个 Twitter 和 30 个 Discord(426 个频道,以及 7769 条消息)。 预计节省阅读时间(以 200wpm 计算):763 分钟。
按照 AINews 在 Frontier Model 发布日的传统,我们将发布两个版本的 AINews。您目前阅读的版本中,所有 Part 1 和 Part 2 的总结均由 GPT4T 完成 —— 上一封邮件是由 GPT4O 完成的,并包含常规评论。我们设想您可以将它们并排对比,查看您关注的 Discord 社区,从而更好地理解其改进或退步。
目录
[TOC]
AI Discord 回顾
总结之总结的总结
Claude 3 Sonnet
1. GPT-4o 的发布与功能
-
GPT-4o 是 OpenAI 最新发布的前沿模型 (frontier model),支持跨音频、视觉和文本的实时推理。它在保持 GPT-4 智能水平的同时,显著提升了性能。
-
GPT-4o 现已向所有 ChatGPT 用户(包括免费计划)免费开放,这标志着 OpenAI 策略的转变,旨在让强大的 AI 工具触手可及。阅读更多
-
讨论重点强调了 GPT-4o 在编程能力 (coding capabilities) 方面的实质性增强,并期待通过 MATH 等新基准测试来量化这些进步。博客文章
-
Plus 用户将获得高达 5 倍的额度限制,并能最早体验即将推出的功能,如全新的 macOS 桌面应用以及先进的语音和视频功能。公告
2. 开源 LLM 探索与微调技术
-
关于探索类似于 Llama 3 的开源 LLM 的广泛讨论,建议尝试 you.com 等平台。HuggingFace 讨论
-
成员们寻求关于微调技术 (fine-tuning techniques)(如知识蒸馏)的指导,以提高 GPT-3.5 等模型的准确性和性能。HuggingFace 博客
-
在本地运行 LLM 的兴趣引发了关于如何应对硬件限制的对话,并提出了关于卸载技术 (offloading) 和模型量化 (quantizing) 以获得更好性能的建议。LM Studio 讨论
-
探索了处理多主题对话等复杂任务的技术,范围涵盖从在专门数据集上进行微调,到利用提示工程 (prompt engineering) 开发 Elaborator 模型。Unsloth AI 讨论
3. 多模态 AI 与新兴架构
-
业界对 ChatGPT 语音对话 AI 与 Open Interpreter API 的集成充满期待,这将实现多模态交互。OpenInterpreter 讨论
-
讨论了利用混合专家模型 (MoE) 架构集成自回归和扩散模型 (autoregressive and diffusion models) 的潜力,旨在增强多模态模型的性能。Nous Research AI 讨论
-
介绍了 YOCO 架构,这是一种 decoder-decoder 模型,能够高效缓存键值对 (key-value pairs),在保持全局注意力 (global attention) 能力的同时减少 GPU 显存需求。HuggingFace 阅读小组
-
探索了 ThunderKittens,这是来自 HazyResearch 的一种新 DSL,旨在简化 AI 内核构建并优化 GPU 利用率,以提高计算效率。CUDA MODE 讨论
4. 高效注意力机制与模型缩放的进展
-
研究了一种名为 Conv-Basis 的高效方法,该方法利用卷积矩阵计算注意力,并结合快速傅里叶变换 (FFT) 潜在地减少计算时间。Eleuther 研究讨论
-
深入探讨了深度上采样 (depth upscaling) 技术(如层重复)以提高模型性能,并参考了 Yi 和 Granite Code 模型的研究工作。Eleuther 研究讨论
-
讨论了线性注意力模型 (Linear Attention models) 在 MMLU 等复杂评估中的表现,强调需要合适的数据来发挥模型改进的潜力。Eleuther 研究讨论
-
介绍了一项名为 Farzi 的提案,用于将密集数据集综合为紧凑且高效的序列,以训练自回归模型,其性能可达原始数据的 120%。OpenReview 详情
Claude 3 Opus
-
GPT-4o 发布,具备多模态能力:OpenAI 推出了 GPT-4o,这是一个支持文本、音频和图像输入的新前沿模型,为 Plus 用户提供 5 倍更高的限制。它展示了强大的 Coding 和推理性能,并且 对所有 ChatGPT 用户免费开放。此外,还讨论了更新的 tokenizer 以及潜在的 Apple 集成。
-
Llama 3 微调进展:社区探索了 Llama 3 模型微调,重点关注 与量化模型的兼容性问题、tokenization 挑战 以及复杂的对话能力。Unsloth 成为实现更快微调且占用更少内存的关键工具。此外,还分享了用于 token classification 的微调 Llama 变体。
-
Kernel Fusion 与 CUDA 优化技术:CUDA MODE 举办了一场 关于 Kernel Fusion 经验的 Zoom 会议,并讨论了用于 AI Kernel 优化 的 Triton。重点介绍了 U Illinois PMPP 关于并行编程的 YouTube 讲座系列。同时探索了 llm.c 中用于 提高内存效率的 ZeRO-1 技术,以及用于 提升 GPU 利用率的 ThunderKittens。
-
检索增强生成 (RAG) 与多模态 AI:使用 LangChain 和 LlamaIndex 的 RAG 流水线在 博客聊天机器人、内容审核 和 PowerPoint 生成 方面引起了关注。讨论了 使用 DinoV2 的多模态 AI 技术 以及 OpenAI 的音视频集成。Perplexity AI 引入了 多模型策略,而 OpenInterpreter 实现了 LiteLLM 和 Llama 3 的集成。
GPT4T (gpt-4-turbo-2024-04-09)
主要主题与讨论:
-
AI 模型讨论与比较: 在多个 Discord 频道中,观察到大量关于各种 AI 模型(如 GPT-4, GPT-4o, Llama 模型等)性能和规格的讨论。用户对模型性能表达了复杂的情绪,讨论重点集中在模型训练、新旧版本比较以及系统集成等任务。
-
技术创新与更新: 多个频道报道了关于新功能、集成和技术进步的更新,例如多模态能力、tokenizer 的变化以及速度提升。来自科技巨头和社区程序员的更新受到了广泛的评估与剖析。
-
社区参与与项目协作: 围绕社区参与协作项目、贡献开源仓库或分享自定义项目的讨论非常热烈。这些参与涵盖了编码实践、开发 AI 工具或解决复杂的 AI 驱动任务。
-
教育内容与教程: 分享了大量旨在传播 AI 技术、编程、模型训练等知识的教育内容、教程和讨论。学术论文链接、YouTube 视频和详细的博客文章非常常见,用户借此加深理解或向同行解释相关概念。
-
隐私、法律与伦理关注: 多项讨论涉及使用 AI 技术的隐私影响、数据使用的担忧、AI 生成内容的法律影响以及伦理考量。法律讨论尤其涵盖了从生成内容中的艺术家权利到 AI 在现有法律框架中的影响等一系列话题。
关键知识共享与资源:
- 指向论文的教育链接,以及 YouTube 和 GitHub 等平台上的教程。
- 关于主要 AI 模型和软件工具更新的讨论。
- 由共享代码仓库和开发工具支撑的社区驱动指南和项目协作。
- 在 AI 进步背景下审议的伦理、法律和隐私问题。
GPT4O (gpt-4o-2024-05-13)
1. 模型性能与发布
- GPT-4o vs GPT-4 的性能在多个 Discord 频道中进行了对比,GPT-4o 因其速度受到赞赏,但在推理能力方面受到了审视。OpenAI 已将 GPT-4o 免费开放,引发了关于其市场影响的讨论。来源
- Falcon 2 和 Llama 3 因其新特性和改进的性能受到了极大关注。Falcon 的能力 因超越竞争对手而受到特别讨论。
2. 技术挑战与解决方案
- Quantum vs. Turing:关于量子计算机优于 Turing 模型的辩论突显了对监管有利于大公司的担忧。讨论延伸到了 Llama 和 Mistral 等模型的训练和操纵。
- 错误处理:模型集成和执行中的频繁问题,包括 GGUF 模型的 Tokenization 挑战以及 Tinygrad 中训练错误的排查,已通过社区建议和详细修复得到解决。GitHub PR 示例
- 内存管理:关于优化 GPU 内存管理和处理 VRAM 限制的讨论非常显著,特别是在 CUDA 和 Mojo 环境中,包括 Offloading 和 Quantization 等策略。
3. AI 集成与增强
- 多模态模型 (Multimodal Models):关于在 GPT-4o 等模型中集成音频、视频和文本的公开讨论。采用 ThunderKittens 等工具来优化 Kernel 操作,展示了对增强性能的持续追求。ThunderKittens GitHub
- 开源与社区项目:分享了 PyWinAssistant 和 LM Studio 的模型管理 CLI 工具等项目,强调了 AI 社区的协作精神。PyWinAssistant GitHub
4. 行业趋势与活动
- OpenAI 的战略举措:围绕 OpenAI 免费开放 GPT-4o 的战略方向的推测被广泛讨论,表明了潜在的数据驱动战略或竞争性市场定位。OpenAI 活动视频
5. 伦理与法律问题
- AI 与版权问题:关于 AI 生成内容可能侵犯艺术家权利的辩论非常突出,对于此类使用是否属于合理使用(Fair Use)意见不一。这延伸到了关于 AI 在商业艺术中的地位以及涉及的法律边界的讨论。相关文章
6. 教育与支持资源
- 协作学习:频道通过共享资源、教程和故障排除协助提供指导,形成了一个强大的社区驱动支持系统。主题包括 Fine-tuning 方法以及控制理论和 Stable Diffusion 局部重绘 (Inpainting) 等实际 AI 应用。
各频道详细摘要与链接:
Unsloth AI (Daniel Han) ▷ General
- Quantum 与 Turing 的有效性对比:辩论强调了 Turing 在预期的 Quantum 领域表现优于 Quantum。Rethinking Machine Unlearning
- 对 OpenAI 监管举措的担忧:GPU 签名以及与白宫的排他性协议引发了社区的质疑。OpenAI Reddit AMA
- 模型训练伦理与安全:未审查模型的伦理影响被类比为刀具监管,重点在于滥用而非工具本身。广泛探讨了 Fine-tuning 的技术方法。
Stability.ai (Stable Diffusion) ▷ General-Chat
- 对 Stable Diffusion 3 的疑虑:围绕难以捉摸的发布日期的怀疑与幽默。
- ControlNet 与 LoRA 的使用:关于 Inpainting 和图像中文本集成等高级技术用途的讨论。Character Consistency Guide
OpenAI ▷ General Discussions
- GPT-4 与 GPT-4o 的性能对比:用户积极测试并对比输出,引用了速度与推理质量的权衡。OpenAI Event
- 订阅价值辩论:讨论集中在新的免费层级功能背景下,付费计划的持续价值。
LangChain AI ▷ General
- 日期提取技术:通过分享的代码片段,在 LangChain 模型中处理日期范围并转换为 ISO 格式。
- 处理 Tool 或 Function Calls:在 LangChain 中使用 LLM 提取和处理多个市场描述。Example GitHub
OpenRouter (Alex Atallah) ▷ General
- 模型服务中断:Jet MoE 8B 经历上游过载。GPT-4o 和 LLaVA v1.6 等新型 Multimodal 模型表现突出。OpenRouter API Watcher Tool
HuggingFace ▷ General
- 开源 LLM 探索:讨论包括优化 Mistral 等 LLM 的平台和方法。关于对转录文本进行 Chunking 以更好地生成见解的查询。Diffusion Pipeline Guide
有关更多详细摘要和链接,请参阅上方完整的汇编指南。
PART 1: 高层级 Discord 摘要
Unsloth AI (Daniel Han) Discord
- 量子长寿 vs. 图灵威力:量子计算机与图灵计算机引发了激烈辩论,目前图灵计算机在各领域(甚至包括量子计算机预期领先的领域)仍占据上风。一些成员对政府意外关注监管量子计算表示担忧,认为这给了大公司相对于小型创新者不公平的优势。
- OpenAI 的变革之风:用户对 OpenAI 转向排他性和监管俘获(regulatory capture)表示怀疑,担心诸如 GPU 签名以及与白宫合作等行为可能会抑制开放竞争和创新。
- 审查 vs. 滥用:社区内关于未经审查的 AI 模型的潜在危险和伦理影响讨论热烈。一个流行的类比是将 AI 模型控制与刀具监管进行比较,强调重点应放在滥用行为上,而非工具本身。
- 模型训练狂热:技术宅警报!一场关于多样化模型训练和操作方法的深度技术交流席卷了聊天室,涵盖了使用未经审查的 LLM 以及操纵模型在未经授权的情况下接受新适配(adaptations)等策略。
- 共情能力获赞:开放共情项目正风靡一时,呼吁社区参与以丰富 AI 在更广泛人类语境下的理解和应用。
- 屏息以待 OpenAI 能力的量子飞跃:新 Model Spec 的发布以及与 OpenAI CEO Sam Altman 的社区 Reddit Q&A 环节让成员们充满期待。人们对革命性 AI 突破的希望与对潜在失望的担忧交织在一起,情绪高涨。
- OpenAI 准星下的开源策略:社区在 OpenAI 是否应该开源其模型的问题上存在分歧。支持发布的人认为,即使是一个表现平平的模型,也能让他们处于有利地位。
- AI 领域的行业趋势演变:聊天室里充满了对行业趋势的推测,例如是否可以期待一个比现有参与者强 10 倍的模型。如果 Llama 成为 “SOTA”(State Of The Art),市场动态可能会发生转变,这也备受关注。
- AI 寒冬传闻中的 OpenAI:尽管 AI 寒冬的阴影笼罩,成员们仍坚定相信 OpenAI 在 AI 行业的领导地位。关于 OpenAI 决定公开发布模型的战略原因也是讨论焦点,包括对过去泄密事件以及由于资助要求而必须保持开放的见解。
- 量化模型之谜与分词异常的破解:资深用户分享了管理量化模型与 TGI 兼容性问题以及保存/加载错误的经验,特别是通过
model.save_pretrained_merged(...)使用 ‘16bit’ 格式使其与 TGI 兼容。还讨论了涉及 Gemma 的 GGUF 格式模型的分词(Tokenization)问题。 - 寻求终极模型:社区渴望获得关于创建能有效处理复杂、多话题对话模型的指导。提出的策略涵盖了从在专业数据集上进行 Fine-tuning 到采用 Prompt Engineering 或构建 Elaborator 模型,揭示了在聊天机器人框架中优化模型的迭代历程。
- 技术用户展示炉边模型:用户向社区分享了 Fine-tuning 后的 Llama 变体。随附的一篇博客文章和一个详细介绍模型 Fine-tuning 过程的 Notebook 将作为给技术读者的福利。查看模型库。
Stability.ai (Stable Diffusion) Discord
- SD3 的神话:社区中关于 Stable Diffusion 3 发布的消息充满了笑话和怀疑的 GIF。尽管官方公布了时间表,但 SD3 的发布仍然是一个令人困惑的话题,在许多用户眼中,它已经带上了一种奇幻色彩。
- ControlNet 成为讨论焦点:围绕 ControlNet 和 LoRA 技术的应用展开了技术讨论,特别是针对 Inpainting 和在图像中集成真实文本等独特任务。一个突出的建议是使用 Krita 这一非传统工具来手动调整图像中的文本。
- 硬件丛林的大乱斗:一场反复的讨论评估了 AMD RX 6750 XT 和 NVIDIA RTX 4090 运行 Stable Diffusion 的效率,最终对旧款与高端 GPU 在 SD 任务中的性能对比产生了多种看法。
- Stable Diffusion 进军麦迪逊大道:用户强调了 Stable Diffusion 的潜在商业应用,例如生成定制的产品广告。一位用户表达了在多张图像中保持角色一致性的必要性,并指向 Cobalt Explorer 的指南 作为详细指导来源。
- 寻求帮助:一般性查询和技术支持请求完善了讨论,用户解决了从 ComfyUI 等界面上的复制/粘贴问题,到探索为图像注入更多细节的 Upscaling 方法等各种问题。
OpenAI Discord
-
GPT-4o 公开发布,Plus 用户获益:OpenAI 宣布其新的旗舰模型 GPT-4o 现在可以免费使用,但有一些限制。Plus 用户将获得更大的优势,包括高达 5 倍的额度限制,以及最早访问新功能的权限,如新的 macOS 桌面应用和先进的语音及视频功能。
-
GPT-4o 对比 GPT-4:性能充沛:OpenAI 用户正在积极比较 GPT-4 和新发布的 GPT-4o 在不同任务中的表现。GPT-4o 拥有更快的速度,但需要更明确的指令才能获得最佳性能。用户对新的语音和实时摄像头共享功能也抱有高度期待。
-
Mac 版已就绪,Windows 版紧随其后:用户对即将发布的 ChatGPT macOS 应用表现出了极大的热情。有报道称 Windows 版本正在开发中,但目前尚未对所有用户开放。
-
进步中的 Token 烦恼与记忆疑虑:在所有进步中,人们对 GPT-4o 与旧模型相比的 Memory 性能表示担忧,并要求改进 Token 计数器等功能。随着免费版加入新功能,Plus 用户正在权衡其订阅的持续价值。
-
浪漫无处安放:Gemini 1.5 出现了一个问题,即任何与浪漫相关的请求都会持续失败。详细的调试未能提供解决方案,导致人们猜测是语法错误、安全设置,甚至是 Google 的系统角色导致了该问题。
-
Python 文件处理变得简单:一位用户分享了一个复杂但基础的 Python 任务,用于创建目录、管理跨会话的文件写入,并将带有下载链接的目录打包成 ZIP。该帖子突出了社区所应对的技术复杂性和挑战的多样性。
-
创建 ChatGPT 克隆版 —— 一个警惕的视角:一位用户表达了创建 ChatGPT 克隆版的兴趣,并以 GPT-3.5 作为底层模型。该提案的独特之处在于赋予克隆版监督组织内发送和接收的消息的能力。
Nous Research AI Discord
-
Llama 在 8k 以上长度难以保持连贯性: King.of.kings_ 分享了让 Llama 3 70b 模型在超过 8k tokens 后保持连贯性的困难,引发了社区的讨论和可能的解决方案。
- 极光观测、新的双语模型以及游戏中的古老食谱:
- 北极光在法国 Arvenia 城市火山罕见出现,引发了兴趣和讨论。
- MAP-Neo 的引入引起了工程师们的关注,这是一个透明的双语 Large Language Model。它在 4.5 万亿 tokens 上进行训练,承诺在推理和数学等任务中达到商业模型的性能,同时具有更高的透明度。
- 成员们参与了一个有趣的消遣,讨论了角色扮演游戏 Kingdom Come: Deliverance 中出现的“永恒炖菜”(perpetual stews)如何反映历史烹饪方法并影响现代烹饪习惯。
- 神经科学进展、Taskmaster 模拟以及工业军事复合体可视化:
interesting-links频道讨论了一篇关于多向人工神经网络的新论文,该论文有可能彻底改变网络处理复杂依赖关系的方式。- 一个 React 应用程序使用 State Machine 模式模拟了 Taskmaster 游戏节目,并在 LLMs 的辅助下创建了引人入胜的内容。
- 在 llama-cpp-agent 框架上使用 Mistral 7B instruct v 0.2 模型,生成了一个详细的知识图谱,以从未见过的方式可视化了工业军事复合体(Industrial Military Complex)。
-
GPT-4o:强力更新还是过度炒作?: 在
general频道中,成员们热烈辩论了 GPT-4o 的优缺点。一些成员赞赏其在代码性能方面的改进,而另一些成员则批评其速度和 token 输出限制。大家在语音集成功能的易用性和价格点上产生了分歧。 - MoE 中的专家是 FFN,Llama 喜爱 Axolotl:
- 在 MoE 架构中,专家(experts)通常仅指前馈网络(FFN)层。
- 将自回归模型(autoregressive models)和扩散模型(diffusion models)与 MoE 集成的潜力引起了参与者的兴趣;虽然有人表示怀疑,但可能性似乎令人兴奋。
- 一位用户分享了使用 Axolotl 系统配合 dolphin-2.9 数据集微调 Llama3 模型时遇到的问题及解决方案。
- 关于数据集和训练方法的对话:
- ChatQA 因其对话式问答模型系列而成为头条新闻,该系列在对话准确性上超越了 GPT-4。
- IBM 和 RedHat 提出了一种新的 LLM 训练方法,因其使用较大的模型生成合成数据集而无需进行完整的重新训练而广为流传。
- 对 IBM/RedHat 新项目的深入了解揭示了一个预定的信息处理流程,用于增强 LLMs 的知识库,从而激发了社区的兴趣。
- WorldSim 的冒险尝试: 在
world-sim频道中,WorldSim 被强调为一个强大的商业模拟器,并分享了加入 Websim AI 模拟的邀请。有人提议组建聊天小组,围绕 WorldSim 进行哲学讨论。
Latent Space Discord
- OpenAI 春季发布会预热活动:Discord 频道已安排了一场针对 5 月 13 日上午 9:30 OpenAI 活动的预热观影会。欢迎提前入场参加庆祝活动。
- 向东看,讨论未来 AI 基础设施:成员们正围绕一位来自新加坡的成员发起的关于潜在新 AI 基础设施的新对话展开讨论。他们已开始在 Substack 上汇总想法,如果你对这些创新服务感兴趣,欢迎加入。
- Falcon 2 模型在 LLM 领域展翅高飞:介绍 Falcon 2 LLM,据称这是一款多语言、多模态的杰作,其表现优于 Meta 和 Google 等公司的模型。它目前仍在进行进一步增强,包括引入 ‘Mixture of Experts’。在此探索其强大功能 here。
- GPT-4o 揭开面纱供你检阅:欢迎 GPT-4o!我们正在这场深度讨论中汇集关于其规格、用途、API 以及整体性能的集体智慧。你可以在此加入对话 here。俗话说好奇害死猫,但它可能会让 AI 工程师乐在其中。
- AI 安全:一条值得投入的职业道路吗?:在 AI 与网络安全的交汇点开启职业生涯是你的菜吗?我们的成员正在辩论其潜力,并提供进一步探索的途径,如 RSA Conference。泡杯咖啡,加入讨论吧。
- 召集好友共同参与 OpenELM:一个使用 PyTorch/MPS 训练 OpenELM 模型的进行中项目正在寻求更多智慧支持。目标是通过增量数据集添加进行迭代训练。在此参与这项开源冒险 here。毕竟,分享就是关爱。
- OpenAI 活动遭遇音频故障:造化弄人,OpenAI 活动观影会在直播过程中遇到了一些音频问题的波折。没有一点小插曲,观影会就不完整。
- Apple 与 GPT-4o:一个被“苹果”驯化的未来?:Apple 的技术战略是否足够强大,能够将像 GPT-4o 这样更强劲的模型集成到他们的设备中?用一些关于“苹果酒”的思考来结束这段精彩的对话吧。
- OpenAI 打破传统,提供免费 GPT-4o 访问:用户现在可以免费使用 GPT-4o,这标志着 OpenAI 使命的新阶段。这一巨大飞跃不仅将 GPT-4o 集成到日常设备和平台中,还引发了严谨的讨论。
Perplexity AI Discord
-
GPT-4o 备受期待的到来:关于 GPT-4o 推出的讨论正在升温,人们对其更快的处理速度、更低的成本和广泛的应用范围寄予厚望。热情的用户对其在 Perplexity 平台的潜在集成持乐观态度,并推测其在 AI 应用中功能的增强。
-
释放强大模型:用户的诉求:用户对 Perplexity 在 Claude 3 Opus 等强大模型上的每日使用限制表示不满,指出对延长访问权限的巨大需求。虽然一些用户正在寻找替代方案,但许多人由于其独特的功能仍坚持使用 Perplexity。
-
AI 采用与隐私的结合:在 AI 服务的导航和选择过程中,讨论强调了用户对重视隐私的平台的高度重视。尽管基于云的 AI 存在固有的隐私挑战,成员们仍支持那些在保护用户数据方面做出实质性努力的供应商。
-
Perplexity 的多模型策略与用户赞赏:强调了 Perplexity 多模型方法的优势,允许用户根据任务需求在 ChatGPT 和 Claude 3 Opus 等不同模型之间切换。这种灵活性受到了赞赏,使其区别于选项有限或导航更复杂的平台。
-
技术讨论反映了用户的多样性与需求:围绕上下文窗口大小(context window sizes)和 AI 模型详细工作原理等主题的技术对话表明,社区内的 AI 使用范围广泛。查询范围从关于每日限制的日常询问到对特定 AI 功能的深入探索。
-
AI 职业路径的复杂性备受关注:Alexandr Yarats 概述了他从 Yandex 到 Google 的职业历程,以及他目前担任 Perplexity AI 搜索负责人的角色。他的叙述强调了科技行业职业生涯的严峻挑战和回报,重点是创建 AI 驱动的搜索引擎。
-
Perplexity AI 上的各类搜索:用户分享了在 Perplexity AI 上进行的各种搜索,从 2024 年欧洲歌唱大赛到解释伯努利谬误,突显了可以从该平台获取的信息范围之广。
-
鼓励可共享线程以促进协作:Perplexity AI 强调了对可共享线程的需求,并通过 Discord 消息提供了指南,强化了社区协作和信息共享的价值。
-
对 Perplexity 教程的请求遇到了失效链接:对 Perplexity 教程的请求引导另一位用户提供了一个教程链接。然而,该链接重定向到了一个失效的 Discord 路径。
-
非英语对话中的表情符号使用:在看似俄语的对话中观察到用户使用了名为 ‘wlcm’ 和 ‘gem_2’ 的表情符号,暗示了语境差异或情感表达。
HuggingFace Discord
- 探索开源 LLM:讨论集中在探索类似于 llamma3 的开源大语言模型(LLMs)。有人建议 you.com 等平台可能是进行实验的有趣切入点。
- 会议纪要分块的困境:目前为了从 LLM 获取可操作见解而对会议纪要进行分块的方法产生的相似度得分较低。社区受邀提出改进此过程的方法,从而通过减少 LLM 调用次数来优化成本。
- 深入了解 Diffusers:成员们有兴趣了解更多关于扩散模型(diffusion models)的细节,引用的资源包括热门的学术论文以及来自 Fast.ai 和 O’Reilly 的实用教程。
- 启用 Stable Diffusion:参与者分享了他们的 Stable Diffusion 进展,并就如何基于 Hugging Face 的 diffusers library 开发带有 StableDiffusionPipeline 的本地推理引擎提供了专业指导。
- 展示社区成果:社区开发了各种工具和应用,例如支持多语言的 AI 驱动故事讲述者、根据古兰经经文创作海报艺术的 AI 工具,以及集成不同 OCR 技术的 OCR 工具包。可以在此处参与这些项目。
- YOCO 架构的曙光:一篇新研究论文介绍了 decoder-decoder 架构 —— YOCO。据报道,这一突破在保持全局注意力能力并加快预填充(prefill)阶段的同时,降低了 GPU 显存需求。
LM Studio Discord
- 多 GPU 性能瓶颈排查:成员们指出主板瓶颈导致多 GPU 配置性能低下。升级到兼容 PCIe 4.0 的主板解决了性能问题。
- 远程访问困惑解除:LM Studio Server 的远程访问配置引发了讨论,最终明确将 ‘localhost’ 替换为机器 IP 即可实现远程访问。
- 处理 LM Studio 中的失败与内存错误:由于内存不足,成员们遇到了“Failed to load model”错误消息。解决方案包括关闭 GPU offload 或验证硬件是否满足模型运行要求。
- 社区合力解决 Linux 服务器难题:一位成员在 Linux 服务器上安装 LMS 时遇到了 FUSE 设置问题。另一位用户分享了在 Ubuntu Server 24.04 上奏效的解决方案。
- 高功耗带来的 GPU 显存烦恼:成员们一致认为使用 LLM 需要大量 VRAM。运行类似 GPT-4 的模型建议至少配备 8GB+ 显存。
- 本地模型受限于硬件限制:关于在个人中等配置笔记本上运行高速本地模型可行性的讨论得出结论:LM Studio 可能无法完全支持此类配置。
- 文生图工具大放异彩:Stable Diffusion、comfyUI 和 Automatic1111 等工具在文本转图像方面的实用性受到关注,并推荐了更简单的软件作为初学者友好的选择。
- 模型版本控制揭秘:讨论了模型版本控制和微调方法,强调了阅读模型卡(model cards)以了解数据集和训练细节的重要性。
- 模型量化受到青睐:成员们讨论了量化模型(如 Yi-1.5 系列)的好处。他们分享了特定量化模型的链接,以及提高模型性能和硬件兼容性的技巧。
- 上下文长度受模型约束影响:模型上下文长度和预算的限制影响了模型选择,强调了不同 GPU 容量的局限性以及运行更大模型时必要的权衡。
- 开源倡导者宣布使用 Innosetup 和 Nullsoft:一位成员推荐了开源安装程序 Innosetup 和 Nullsoft,并引用了他们过去的成功经验。
- Starcoder2 在 Debian 上出现异常:一位在 Debian 12 上测试 starcoder2-15b-instruct-v0.1-IQ4_XS.gguf 的用户遇到了重复响应和跑题回答,引发了关于该模型预期优化的深入讨论。
- Playground 模式依赖 GPU:成员们强调 Playground 模式不能仅靠 RAM + CPU 运行。有效使用至少需要 4GB 的 VRAM。
- 社区警告警惕欺骗性短链接:发布了关于指向潜在不安全或无关网站的短链接的警告。
- Llama 3 模型研究与 Token 速率探索:成员们讨论了 Llama 3 模型在各种配置下的性能,并分享了 token 速率。还研究了使用 CPU 和 RAM 提高效率的可能性。
- GPU 讨论中显现硬件限制:比较了 Tesla P100 和 GTX 1060 GPU 的性能,发现由于潜在的 CUDA 版本不匹配,预期性能与实际性能存在差异。
- Offloading 技术应对低 VRAM:针对管理低 VRAM (2GB) 提出了 offloading 技术建议,重点是正确设置 offload 到 GPU 的层数。
- CPU vs GPU:在 CPU 上运行 LLM 性能受损:注意到仅在 CPU 上运行 LLM 会导致显著的性能下降。引用了通过调整 CPU 设置来提高特定 token 速率的案例。
- 界面调整深受用户欢迎:社区成员讨论了在 GPU 和 RAM 之间调整模型负载。建议为模型分配更高的 VRAM 使用量,以避免加载失败和响应不足。
- CodeQwen1.5 令编程爱好者惊叹:成员们发现 7b 模型 CodeQwen1.5 在编程任务中非常高效。凭借 4b 量化和较小的占用空间,它证明了自己适用于 6GB GPU 配置,且性能优于 deepseek coder。
- 在 Huggingface 上探索编程模型:建议将 Huggingface 的排行榜作为比较编程任务模型性能的首选来源。可以探索所有模型,尤其是 7b 或更小的模型。查看编程模型排行榜。
- 仅包含错误修复和一次小更新:最新版本主要解决了错误修复,并包含了一个名为 llama.cpp 的更新。没有引入新功能。
-
成员们倡导谨慎点击:用户必须警惕带有可疑链接的帖子,这些链接可能会产生不必要的收入,例如使用 goo.gle 缩短的链接。
- MemGPT 查询借鉴 Kobold 经验:一名成员寻求具有 MemGPT 经验的人士帮助,并可能得到另一位已将 MemGPT 与 Kobold 集成的成员的指导。
- 新购入的 GPU 表现出色:一名成员以 700 欧元购买了 RX 7900 XT,并得出结论认为它完全符合需求。另一位成员建议,这款新 GPU 可以处理像 Command-R+ 或 YI-1.5(量化版本)这样的大型模型。
- OpenInterpreter 连接困扰:一名成员在将 LM Studio 与 OpenInterpreter 连接时表示困惑。该用户难以辨别错误消息的区别,无论服务器是否已连接,错误提示似乎都一样。
- 新的 Yi 模型备受关注:LM Studio Community 发布了新的 Yi 模型,包括一个适用于 24GB 显卡的显著 34B 版本。这些模型通过 imatrix 进行了增强,提供多种尺寸,可在 Huggingface 页面上获取。
- Vulkan 尝试在 LM Studio 框架中受阻:用户在将 Vulkan 后端的 llama.cpp 与 LM Studio 集成时遇到困难,在当前框架内没有直接的解决方案。
- LM Studio CLI 令动手型用户感到兴奋:LM Studio CLI (lms) 推出,允许进行原始 LLM 检查、模型加载/卸载以及 API server 控制。更多关于用法的信息可以在 LM Studio 博客上找到。
OpenRouter (Alex Atallah) Discord
- JetMoE 8B 离线:OpenRouter 的 JetMoE 8B Free 模型 演示出现了 502 错误,这可不是什么新舞步。由于上游过载,它目前处于离线状态。建议用户暂时更换其他模型。
- 两款 Multimodal 模型加入 OpenRouter 阵营:OpenRouter 更新了其模型阵容,新增了两款 Multimodal MVP —— GPT-4o 和 LLaVA v1.6 34B。更多像素,更多文本,更强的 AI 动力。
- API 监控工具上线:厌倦了通过刷新来检查 OpenRouter 不断演进的模型列表?试试 OpenRouter API Watcher,它能监控这些变化并存储在 SQLite 数据库中,拥有美观的 UI 和用于更新的 RSS 订阅。让你的 F5 手指休息一下吧。
- 揭秘 Rubik’s AI:高级研究助手和搜索引擎 Rubik’s AI 开启 Beta 测试,并提供诱人的优惠——两个月免费试用 Claude 3 Opus、GPT-4 Turbo、Mistral Large 等 AI 精品。快去这里看看吧。
- OpenRouter 三人团队全力打击欺诈:凭借更强硬的反欺诈措施和为了安全而收集的少量必要个人数据,OpenRouter 的三人团队正正面应对运营干扰,并依靠 Stripe 等平台提供支持。
- 交流中心:OpenRouter 中的嵌入式模型?以后再说。用于创建多个可自定义角色或 Agent 的高级 WebUI?当然,可以试试 BigAGI 或 OpenWebUI。哦,我们是否提到过 Jetmoe 没有联网功能……以防万一你想知道。
Modular (Mojo 🔥) Discord
-
围绕 Mojo Nightly 构建的热烈讨论:
mojo框架的最新进展引入了 Nightly 构建,它会自动将合并的 commit 直接推送到其nightly分支。社区成员可以在相关 PR中查看详细的工作流超时调整。 -
Mojo List 操作的内存管理亟需改进:社区内对 Mojo
List内存预分配的潜在低效问题讨论热烈。优化后在特定基准测试中可带来 2000 倍的加速,这表明演进我们的内存管理策略迫在眉睫。 -
GitHub Actions Bug 影响透明度:Mojo 用户正面临 GitHub Actions 的一个关键 Bug,即已完成的任务伪装成“pending(待处理)”状态。这种误导性行为掩盖了正在进行的工作流可见性,影响了 Mojo 最近的 commit 和 CI 操作。
-
类型实例化(Type Materialization)问题困扰 Mojo:关于 Mojo 中正确类型实例化的讨论集中在类型转换期间的内存指针管理等问题上。这些问题导致了测试失败,并需要修订相应的方法。
-
新 MoString 仓库挑战 Mojo 开发者:MoString 是一个新的 GitHub 仓库,展示了在 Mojo 中探索的各种 StringBuilder 想法,包括一种优化内存分配的方法。这项努力呼吁社区贡献,被证明是突破 Mojo 边界的一次有趣尝试。
-
新视频聚焦 Mojo 的所有权(Ownership)机制:最近分享的一段视频阐明了 Mojo 中的所有权机制,旨在深化相关知识。Python 开发者分享了这些概念如何从 Python 过渡到 Mojo 的见解,这一视角有望为新手提供更好的清晰度。
-
Mojo 与 Rust 编译器的权衡:Mojo 与 Rust 编译器的对比凸显了 Mojo 更简单的方法,专注于编码而非纠结于文档或复杂的编译器细节。Rust 强大的系统设计和自动向量化能力伴随着陡峭的学习曲线,强调了审慎选择工具的必要性。
-
理解 SQL、ORM 与编译器的语言查询权衡:在一场激烈的讨论中,SQL 的易用性与 ORM 及 Rust 等编译器的严格系统要求产生了碰撞。这些技术呈现出不同程度的舒适度和效率,意味着选择必须取决于个人偏好和项目需求。
CUDA MODE Discord
- 内核融合 (Kernel Fusion) Zoom 会议揭秘:技术公会组织了一场关于内核融合实际经验的 Zoom 会议。与会者被引导在特定的 Discord 频道中发布讨论和疑问,从而增加了参与度并营造了专注的学习环境。
- 伊利诺伊大学 PMPP 系列课程受到关注:公会继续开展针对 EMEA 和 NAM 地区的伊利诺伊大学 PMPP 系列每周讲座。通过 YouTube 播放列表和直接的 Zoom 链接,这些课程变得更加易于获取。
- 探讨 CUDA、Triton 与内核融合的艺术:GPU 内存管理和 CUDA 构成了讨论的核心,经常出现的主题包括 Triton 的优化潜力以及内核融合的优势和策略。分享了关键资源,包括论文、PRs、教程和 GitHub commits。
- 解决 GPU 兼容性与安装问题:用户关于 CUDA 版本与特定 Torch 版本的兼容性以及多 GPU 脚本编写的疑问,突显了实施过程中面临的实际挑战。这些疑问得到了澄清,使 GPU 利用更加有效和高效。
- 使用 ThunderKittens 简化 AI 内核构建:公会讨论集中在 ThunderKittens 上,这是由 HazyResearch 引入的一个新开源项目。该项目的瓦片原语 (tile primitives) 旨在简化 AI 内核构建,使 AI 的计算目标对用户而言更加触手可及。
- 利用 llm.c 和 CUDA 提升性能:用户辩论了 CUDA 图 (CUDA graphs) 和
torch.compile的功效,在寻求核心流程清晰度的同时考虑性能增强。其他对话集中在 llm.c 未来可能利用 ThunderKittens 进行改进,强调了在 GPU 编程中对创新的持续追求。 - PMPP 书籍 YouTube 观看派对启动:推出了一个新的 YouTube 观看派对系列,重点关注 PMPP 书籍 2018 年的讲座。通过定期的会议和互动讨论,公会旨在促进学习和实践,使其成为 CUDA 爱好者和初学者的宝贵资源。
Eleuther Discord
-
合成数据——下一个大趋势还是旧瓶装新酒?:scaling-laws 频道就合成数据是否具有真正的变革性影响展开了激烈辩论。以往炒作周期的教训、遗忘这些教训的可能性以及所产生的权衡都是热门话题。
-
网络结构之争:包括 CNNs、Transformers 和 MLPs 在内的深度神经网络在一项共享研究中被置于统一视角下观察。另一篇论文探讨了 MLPs 的极限,暗示尽管目前存在障碍,但仍有未开发的扩展可能性。
-
多模态模型中模糊的“Zero-Shot”声明受到质疑:在 general 频道,一篇最近的研究论文将多模态模型引人注目的“Zero-Shot”声明与预训练数据中的概念频率联系起来,引发了对这些 AI 能力真实基础的质疑。
-
Falcon2 11B 表现强劲:代号为“Condor”的 Falcon2 11B 模型消息已披露,该模型拥有 8k 上下文窗口和改进的注意力机制。它在 5T 网页数据集上进行训练,预示着推理能力的广阔前景。
-
NeurIPS 合作与模型压缩思考:interpretability-general 频道发出了 NeurIPS 投稿合作的呼吁,让人联想起“othello 论文”。模型压缩见解以及在此过程中丢弃的特征性质是讨论的中心。
Interconnects (Nathan Lambert) Discord
-
GPT-4o 作为下一代前沿模型令人惊叹:OpenAI 在 LMSys arena 中以别名 “im-also-a-good-gpt2-chatbot” 推出了其最新的前沿模型 GPT-4o。该模型表现出显著的性能提升,相关消息在一条 推文 中公布。
-
GPT-4o 的编程能力引发好奇:GPT-4o 与其先前版本在编程能力上的巨大差距成为热门话题,引发了人们对新设立的 MATH 基准测试的兴趣。有关这些进展的更多细节可以通过这篇 博客文章 了解。
-
Tokenizer 更新有望提升效率:OpenAI 对其 Tokenizer 的最新更新暗示了更高的效率,这可能源于词汇表的扩大。你可以直接在这个 GitHub commit 中查看 Tokenizer 的更新。
-
OpenAI 的战略决策引发猜测:OpenAI 免费开放 GPT-4o 使用权限的战略决策在成员中引起了猜测,导致了大量的假设。从数据收集到针对 Meta 等科技巨头的竞争定位,论坛上充斥着比较 OpenAI 战术举措的讨论。
-
GPT-4o 现场演示评价两极分化:OpenAI 对 GPT-4o 的现场演示引起了广泛的反响,从潜在适用性的讨论到对演示风格的批评。所展示技术的真实性、有效性和集成方面已成为社区成员审视的焦点。
-
揭示 REINFORCE 是 PPO 的衍生:Huggingface TRL 仓库中一个富有启发性的 PR 提出 REINFORCE 是 PPO 的一个特例。这一令人惊讶的发现在一个 GitHub PR 中得到了深入探讨,该 PR 提供了详尽的解释以及一篇 参考论文。
-
Chatbot Arena 受欢迎程度上升:Chatbot Arena 社区因其作为 AI 未来重要贡献者的地位而赢得了成员们的赞誉。
-
成员们讨论开源 GPT-3.5 的想法:GPT-3.5 潜在的开源可能性进入了讨论范围,并引发了一些有趣的反应,其中一位成员断言这只有在“太阳从西边出来”(原文为 hell freezes over)时才会发生。
-
AI 视频观看量激增:据报道,视频观看量令人印象深刻,一段视频在 一天内达到 6k 观看量,其他视频达到 20k 观看量。在 HuggingFace 上分享的一段视频获得了巨大回报,观看量达到 150k。
-
在 Platform X 上发布视频受到审视:在 Platform X 上发布视频的谨慎想法引发了关于 原生上传 合法性以及权限问题的讨论。
-
斯坦福拥有权利但保持灵活性:一位成员确认 斯坦福拥有特定内容的权利,但在执行方面通常比较宽松,这为更自由的使用提供了机会。规避官僚主义的建议措施包括 申请个人使用许可,同时承担可能产生后果的风险。
LAION Discord
- 艺术模仿 AI - 潜在法律纠纷引发辩论:一个备受关注的热点话题是 AI 服务的潜在法律陷阱,例如 Midjourney 创作的艺术作品被认为可能与在世艺术家形成竞争。讨论重点集中在艺术家权利与 AI 商业应用之间的平衡。
- 版权、AI 与公平使用的细则:频道内充斥着关于 AI 在生成衍生作品时是否侵犯艺术家版权的辩论。同时,一派观点在这一知识产权之争中举起了公平使用(Fair Use)保护的盾牌,指出这与负面评论损害创作者业务的情况具有潜在的相似性。
- AI 艺术与公平使用 - 观点交锋:在 AI 艺术这一充满争议的领域,并非所有人的意见都一致;一些成员呼吁对艺术家销售额的潜在影响进行更严密的法律审查,而另一些人则坚定立场,将此类使用标记为广义公平使用框架下的合理行为。
- 法庭中的 AI - 陪审团不再适用?:对话从艺术转向了陪审团,讨论涉及陪审团否决权(Jury Nullification),以及在解释 AI 相关法律时人类与代码的角色。在这个 AI 时代,成文法典与现实世界法律应用之间的反差引发了人们的兴趣。
- AI 走向绿色 - 在巨头时代寻求能效:社区成员分享了旨在降低 AI 庞大能源需求的创新,寻求为绿色未来设计的新模型和方法。其中一个来源在频道内引起了关注。
- 变革声音景观 - 音频数据成为核心:关于将海量语音数据集转换为 Token 的任务,讨论声浪越来越高。针对情感和说话者特征的高质量标注成为了讨论焦点,一位成员分享了相关的实践资源和 YouTube 上的教育内容。
- 收敛于数学符号 - 讨论形式数学中的挑战:随着对表示元素序列的某些形式数学符号的使用(或可能误用)的讨论展开,现场充满了技术术语。在这场讨论的余波中,函数 T 被推崇为过程序列中采样的重要工具。
LangChain AI Discord
-
与 LangChain 中的 ISO 日期约会:该频道分享了关于使用 LangChain 的 DatetimeOutputParser 提取日期并将其转换为 ISO 格式的见解。提供了 JavaScript 和 Python 的代码示例供动手实践。
-
为日期范围扩展 DatetimeOutputParser:为了深入探讨 LangChain 中如“从 4 月 1 日到 6 月 2 日”之类的日期范围管理,有人提议重构
DatetimeOutputParser。一位精通设计的成员建议调整parse函数,以分别识别和提取开始及结束日期。 -
针对多市场描述的 Agent 解决方案:围绕使用 LangChain 的 tool/function calling 与 LLM 从提示词中提取多个市场描述展开了多方面的讨论。通过结构化提取方法,从诸如“比较比利时石油和意大利电力之间的价格”之类的提示词中获取信息变得更加清晰。
-
开源 LLM 与 LangChain 的亲密接触:关于 Ollama 等本地开源 LLM 集成到 LangChain 的一些巧妙见解。准备好揭开大量数据的面纱,从设置 LLM、安装必备包到最终与模型进行交互。
-
关于 API 响应流式传输的热烈讨论:希望通过单个 API 调用为多个前端元素获取 API 响应?通过 Python 特有的细节获得帮助,并参考这个相关的 GitHub 示例。
-
癌症药物研发沉浸在 AI 热潮中:倾听这段引人入胜的 YouTube 论述,了解 Generative AI 如何重新定义癌症药物研究的轮廓。对更多自动化方法的迫切需求成为了关注焦点。
-
开源 Code Interpreter 迈出第一步:一个旨在辅助可视化与交互式数据分析(NLAVIDA)的开源项目惊艳亮相。该项目承诺未来将兼容 OpenAI API key 和 Llama 3,揭开了机密数据分析的神秘面纱。
-
博主尝试使用 LangChain 和 Pinecone 构建 RAG 流水线:如果你一直渴望为自己的博客添加一个利用 Retrieval Augmented Generation(RAG)技术的聊天功能,那么请关注这里。本教程将系统地引导你完成从数据摄取到构建引人入胜的聊天界面的全过程。
-
LLM 展露锋芒,迈向 Multimodal:正如相关的 YouTube 视频和配套的 GitHub notebook 所明确指出的,随着 DinoV2 的加入,LangChain 旨在实现 Multimodal。
-
带有会话和历史管理的流式传输传奇:一位成员正在寻求教程或帮助,以便在兼顾会话和历史管理的同时,将流式传输(streaming)功能集成到 LangChain 中。此前,除了流式传输外,已解决了多个瓶颈问题。
LlamaIndex Discord
- Llama 3 驱动的自动化 PowerPoint 奇迹:一位用户发布的文章展示了 Llama 3 RAG pipeline 如何结合 Python-pptx 库,不仅能提供答案,还能生成 PowerPoint 幻灯片。点击此处查看文章。
- 以反思方式设计金融专家:Hanane Dupouy 的指南详细介绍了利用 CRITIC 方法论进行股价分析并构建金融顾问的过程。点击此处获取所有智慧结晶。
- RAG 的内容控制实力:展示了 RAG 流水线如何强制执行用户生成图像的审核规则。完整的技术细节请见此处。
- RAG 系统的实力评估:对 TruLens、Ragas、UpTrain、DeepEval 这四个 RAG system 评估库进行了深入评估,并附带支持的指标,以简化您的性能评估流程。点击此处阅读全文。
- Llama 3 的能力在黑客松指南中尽显:由 @AIatMeta 主办的黑客松汇编了 Llama3 的七个不同用例,涵盖了从简单到复杂的各项任务。所有方案均已汇总在此处。
- 解决 LlamaIndex 的缓存问题:一位用户在 _aretrieve_context 函数中发现了一个导致非预期后处理器删除的 Bug,但很高兴地发现该问题已在当前版本的 llamaIndex 库中修复。
- 混合搜索设置障碍:一位用户在设置 Qdrant 混合搜索时遇到了 ValueError,通过在构造函数中启用混合搜索解决:
"QdrantVectorStore(..., enable_hybrid=True)"。 - 深入了解 LlamaIndex——肯定的评价:成员们称赞 LlamaIndex 易于使用、具有灵活性、文档出色,且在管理多平台支持方面表现优异。
- 前端 AI 响应异常:一位成员遇到了前端显示的 AI 输出不一致的问题,并收到了错误消息 “Unexpected token U”,引发了关于潜在原因的讨论。
- 使用 LlamaIndex 查询——利用元数据:针对用户关于在使用 llamaIndex 时元数据在
query方法中作用的提问,随后进行了讨论,澄清了元数据在过滤和检索过程中的用法。 - 通过知识蒸馏提升 GPT-3.5:Hugging Face 上的一篇文章讨论了知识蒸馏如何改进作为裁判的 GPT-3.5 的微调,并附带了全面指南。点击此处查看。
OpenAccess AI Collective (axolotl) Discord
-
Llama 3 微调中的权重问题:对 Llama 3 的 instruct 模型和 base 模型之间的权重差异进行的检查指出,显著变化主要集中在 K 和 V 层,这暗示了在 instruct tuning 期间进行了针对性调整。目前正在考虑在不丢失指令能力的情况下,冻结 K/V 层进行 style tuning 的可能性。
-
Checkpoint 难题解析:社区对检查点命名规范进行了澄清,强调运行结束时的保存(end run save)实际上应该位于 base 文件夹中——这是在模型运行期间解读保存输出时的一个关键细节。
-
评估 OpenOrca 重新运行的资金:一位社区领袖提议在 gpt-4o 上重新运行 OpenOrca 的去重(dedup)工作,并提供了成本估算,以及关于潜在 batch job 定价优势的额外见解。你可以在其 数据集页面 关注进展。
-
应对高计算消耗的先锋:一系列旨在降低 AI 极高计算消耗的项目受到关注,包括 Monarch Mixer、H3 和 Hyena Safari。欲了解更多深度内容,请查看他们的 博客。
-
应对 AI 研究出版洪流:学术期刊出版的缓慢节奏可能会让前沿研究在快速发展的 AI 世界中过时——这是社区讨论的一个突出挑战。
-
Nanobitz 的合并热潮取得成功:据报道,用户 “Nanobitz” 的代码合并(merge)获得成功——遗憾的是,合并的具体细节仍然是个谜。
-
LLAMA3 模板错误引发关注:PyET 中的一个 LLAMA3 模板遇到了障碍,引发了 ‘LLAMA3’ 和 ‘LLAMA2’ 之间的混淆。解决办法?更新你的 fastchat。
-
项目依赖项需要翻新:用户 “trojaner” 发现项目依赖项严重过时,例如 peft、accelerate、deepspeed、flash-attn、xformers 和 transformers。需要全面升级到最新版本——除了 peft,由于一个棘手的插件问题,它需要从仓库进行安装。
-
FSDP 与 FFT:缺失的拼图:Fully Sharded Data Parallel (FSDP) 与 Fast Fourier Transform (FFT) 的兼容性仍无定论。与此同时,另一种替代方案正在考虑中——即 DeepSpeed 路线。
-
Docker AttributeError 解析:诊断了在 Docker 场景下使用 LLAMA3 时遇到的 AttributeError。补救措施?更新你的 pip dependencies 并尝试重新进行 git clone。
-
Git 克隆解决了 fastchat 的问题:git clone 方法成功解决了持久的 fastchat 问题,这标志着某些分支中存在未更新 commit 的潜在障碍。
-
Axolotl CLI 中
system_prompt更改的困惑:修改 axolotl.cli.inference 中的system_prompt让一位用户感到困惑。甚至 AI 顾问 Phorm 也没能给出答案,这凸显了一个值得再次探讨的未解决问题。 -
将合并后的模型转换为 GGUF 遇到障碍:由于缺少匹配的 tokenizer [‘spm’, ‘hfft’],在将合并模型转换为 GGUF 期间发生了 FileNotFoundError。该错误提醒在未来的任务或问题解决中需要优化文件结构或命名。
-
Gemma 模型加载故障:一位用户在加载 GemmaForCausalLM 模型时遇到了
model.embed_tokens.weight的 size mismatch error(尺寸不匹配错误)。建议的排查策略是在from_pretrained方法中添加ignore_mismatched_sizes=True,这凸显了训练环境与应用环境之间的不匹配问题。 -
QLORA 合并中的精度问题:提出了一个关于将 QLORA 合并到基础配置且不产生 fp16 和 fp32 精度差异的问题,强调了模型集成和精度处理中存在的挑战。
-
Axolotl Phorm Bot 来帮忙!:为了寻求有关 Axolotl 剪枝能力和持续预训练技巧等方面的建议,用户求助于 Axolotl Phorm Bot。但遗憾的是,即使是机器人也未能给出答案,建议日后再次关注这些引人入胜的问题 在 Phorm 上阅读更多。
-
qLoRA 与基础模型的集成仍未解决:一名成员关于如何将 qLoRA 合并到基础模型中的提问在讨论中悬而未决,这表明该问题需要在未来的讨论中进一步深入研究。
OpenInterpreter Discord
-
Claude 的兼容性问题:Claude API 集成出现了一些问题,用户遇到了“奇怪的错误”。目前尚不清楚这些是兼容性故障还是配置问题。
-
使用 Open Interpreter 自动化 Antidetect:一场热烈的讨论建议,可以通过使用 Open Interpreter 根据自然语言指令生成 Python 代码,从而提升浏览器自动化的水平。高影响、低投入的自动化?当然欢迎!
-
本地模型讨论热烈:关于本地模型 Mixtral、Phi、Llama3 和 GPT-4 性能的辩论非常激烈。大家一致认为 GPT-4 表现最佳。然而,提升本地模型有效性的关键不再仅仅取决于模型本身,而在于 Prompt 优化。
-
GPT-4o 动力十足:GPT-4o 作为 AI 领域的新秀,以其闪电般的速度超越了其他所有模型——拥有高达 100 tokens/s 的速度,在性能和成本效益上都遥遥领先。
-
ChatGPT 与 Interpreter API:期待已久的强强联手:所有目光都集中在 ChatGPT 语音对话 AI 可能与 Open Interpreter API 结合的前景上,这可能会带来一些重大的突破。准备好你的爆米花。
-
LiteLLM 与 Llama3 的完美配合:用户们正愉快地将 OpenInterpreter、LiteLLM 和 Groq - Llama3 连接起来,并在配置上进行了一些重大的尝试。
-
01 硬件 Wifi 困扰:一位用户分享了关于 M5 board 和 01-Light wifi 网络 设置的糟糕连接经历,引起了广泛关注。他们能度过这个难关吗?
-
01 移动端 App 版本上线:现在,01 硬件 告别了桌面,走向了移动端。感谢 Thatpalmtreeguy,一个早期的 App 版本已在 这里 发布。
-
另一个 Apple 应用等待 TestFlight 审核:Thatpalmtreeguy 持续带来惊喜。在他提到一个应用正在等待 TestFlight 批准后,人们预测了光明的未来。
-
客服化身福尔摩斯:一个 OpenInterpreter 订单丢失了,寻找它需要的不仅仅是细致的搜寻。help@openinterpreter.com 的客服能破解这个案件吗?
-
PyWinAssistant 发布:最新的 AI 助手 PyWinAssistant 已进入赛场,一位用户将其宏伟地描述为“第一个通过自然语言控制人类用户界面的开源 Large Action Model”。所有 GitHub 详情请见此处。
-
观看 PyWinAssistant 现场演示:只需点击这个 YouTube 链接,即可见证 PyWinAssistant 近乎实时的魔力。准备好你的零食和饮料!
tinygrad (George Hotz) Discord
-
Tensor 中的变量形状(Variable Shapes)解析:一位用户参考 Tinygrad Notes 询问了 Tensor 中变量形状的必要性。该功能对于处理 Tensor 形状动态变化的情况至关重要,可以优化编译时间并避免为每个新形状重新生成 Kernel。
-
Tinygrad 训练错误已解决:在模型训练过程中遇到的 “AssertionError: Tensor.training should be set in the optimizer” 错误,通过设置
Tensor.training = True得到了解决,详见此 Pull Request #4460。 -
高级索引操作探讨:小组讨论了在 Tinygrad 中实现高级索引操作(如
node_features[indexes[i]] += features[i])的挑战和策略。提出的解决方案之一是使用 One-hot 编码和矩阵乘法来根据索引聚合特征。 -
图神经网络(GNN)的好奇心:关于如何在 Tinygrad 中实现图神经网络(GNN)的讨论集中在邻居搜索上。话题包括与 Pytorch Geometric 等库相比实现的复杂性,以及原生 O(N^2) Tensor 操作方法可能存在的低效性。
-
改进 Tinygrad 的错误处理:成员们强调,更好的错误处理是提升 Tinygrad 用户体验的一项重要功能。此类增强可以借鉴 Rust 风格的错误消息原则,提供最简单的修复建议,使用户解决问题更加直接。
Cohere Discord
-
拨开 Cohere 账单迷雾:用户对 Cohere 账单 详情感到困惑。经过讨论,结论是账单差异是由于自上次发票以来累积的费用导致的。
-
Command R 的尺寸问题:关于 Command R 影响的辩论中,成员们证实了在涉及网页搜索时,输入 tokens 确实会变大。
-
破解 Glitch Tokens 之谜:一篇关于大语言模型 tokenizer 中 “glitch tokens” 的著名研究论文引发了关于 tokenizer 效率和模型安全性的讨论。
-
Aya vs Cohere Command Plus:当 Sharp 不再锋利:关于 Aya 和 Cohere Command Plus 之间性能差异的疑虑。用户体验各异,从 Aya 在通用知识方面的回答不准确,到建议仅将 Aya 用于翻译。
-
求助!这里总有支持:一位用户对感知的 Cohere 支持 缺乏表示沮丧。其他成员迅速向他保证了社区的响应能力和工作人员的可用性。
-
需要专家:电信领域:邀请对 5G 电信领域大语言模型专业化感兴趣的工程师。挑战赛链接可以在这里找到。
-
你的 PDF 会聊天吗?:发布了关于 Cohere 用于 ‘Chat with PDF’ 应用的潜力 的咨询,引发了多次回应。用户寻求有关当前项目的信息以及相关阅读材料和仓库的建议。
Datasette - LLM (@SimonW) Discord
- LMSYS 与 LLM 质量之争未定:将 lmsys 作为评估 LLM 质量指标的效用在小组内仍存在争议。目前尚未就此问题达成明确观点。
- GPT-4o 未能兑现承诺:批评者指出了 GPT-4o 的性能缺陷,特别是它无法正确列举书籍。尽管其响应速度快且价格诱人,但与前代 GPT-4 相比,该模型在基础推理能力方面似乎有所滞后。
- AI 未来展望:鉴于目前 GPT-4 和 Claude 3 Opus 等模型展示出的改进有限,对 AGI (Artificial General Intelligence) 过度炒作的怀疑浮出水面。一些小组成员对未来迭代中预期的进步表达了谨慎的乐观。
- Google Vertex AI 额度困境:一位成员询问了如何有效利用即将到期的 Google Vertex AI 额度。然而,目前仍缺乏任何潜在测试的具体计划。
- 语音助手性质存疑:语音助手不合时宜的笑声问题被提出,这可能会损害用户体验。讨论了使用 custom prompts 作为潜在补救措施的建议,以保持输出的专业性并防止潜在的用户获取障碍。
- 利用关于 LLM 的推文:成员 @SimonW 分享了一条提供 LLM 见解的推文。提供了推文链接,未附带额外背景或讨论。
Mozilla AI Discord
- 尚未发现适用于 OpenELM 的 GGUF:成员们指出,一个声称包含 OpenELM GGUF 的仓库其实是误导信息。在数字信息领域中,专注、准确和主动是关键。
- 优化 llamafile:通过新的 Pull Request #412,新增的脚本利用外部资源简化了 llamafile 归档的升级。这是技术实力的完美展现!
- Hermes 是个速度健将:个人测试报告显示,Hermes-2-Pro-Llama-3-8B-Q5_K_M.gguf 模型在 llamafile 上运行流畅,在 AMD 5600U 系统上响应时间接近 10 秒,RAM 占用峰值为 11GB。作为参考,该模型大小高达 5.6GB。
- 模型“旷课”了:用户反馈在实现 Llama 8B 和 Mistral 等模型时经常遇到小故障,罪魁祸首通常是 KV cache 空间问题。性能随不同系统的可用 RAM 而异。
- 增强 Llamafile 的元数据管理:目前正在开展工作,允许在 llamafile 和 gguf 中集成自定义作者元数据。这为文件管理和在 Hugging Face 等平台上进行便捷搜索提供了更实用的方法。详情请见此处。
DiscoResearch Discord
- 德语 YouTube 内容搜寻:一位成员动员社区共同整理一份高质量德语播客、新闻节目和 YouTube 频道的完整列表。目标是为德语 Text-to-Speech (TTS) 系统收集有价值的训练数据。
- 使用 MediathekView 进行整理:MediathekView 被推荐作为从各种德国广播公司下载节目和电影的工具,为德语 TTS 系统训练提供了潜在的金矿。该平台因其本地存储的海量电影数据库(包括链接和详细描述)而受到关注,可在此处下载。
- JSON API 是 MediathekView 的秘密武器:通过 MediathekView 的 JSON API 自动访问媒体内容数据的可能性引发了兴趣。这为高效收集和组织德语电影数据库打开了大门,更多深度探索见此 GitHub 链接。
- 演示的困惑与赞赏:一位参与者询问了 Discord 频道中一个 Demo 的运行状态。随后,该成员表达了赞赏,称该 Demo “非常棒”。
- 语言翻译困扰,请坚持使用英语:频道内发布了温馨提示,要求保持英语作为主要沟通语言。这确保了内容对多元化国际社区的所有成员都是可访问且可理解的。
LLM Perf Enthusiasts AI Discord
- Claude 3 vs Llama 3b:巨头之争:关于使用 Claude 3 Haiku 和 Llama 3b 进行实体提取评分服务的对比引发了深度讨论。其想法是从传统的模糊字符串匹配转向使用更小的 LLM,以协调 Pydantic 模型中的子模型。
- 实体提取建模:工程师们致力于构建评分服务,重点关注文档实体提取的准确性。他们计划使用 Pydantic 模型来比较预测结果和实际结果,首先从 Instructor 开始。
- 音频技术:下一个前沿?:对音频相关元素的期待在增长,可能是为助手提供音频输入输出支持。OpenAI 音频团队参与度的提高增加了这些推测的分量。
- GPT-4o 发布在即:即将到来的 OpenAI 春季更新预计将于 2024 年 5 月 13 日星期一揭晓备受期待的 GPT-4o。此次活动还将带来 ChatGPT 的更新,进一步点燃了大家的热情。
- 明星效应引发兴奋:社区对女演员 Scarlett Johansson 为 AI 领域注入明星力量感到非常兴奋,这提高了即将推出的功能或活动的关注度。
Alignment Lab AI Discord
-
AlphaFold3 联邦准备举行会议:AlphaFold3 联邦定于美国东部时间 5 月 12 日晚上 9 点举行见面会。与会者可以期待关于 AlphaFold3 集成现状的更新、训练流水线架构中可能的瓶颈以及开放问答环节。在此 RSVP。
-
橙色角色神秘出现:一名成员的询问引发了关于服务器角色的讨论,特别是他对“Orange Team”的好奇。目前尚未提供答案。
-
Fasteval 寻找新火炬手:’tju01’ 分享了停止开发 fasteval 项目的消息,且目前没有相关后续计划。他们有兴趣将 GitHub 项目移交给合适的继任者,否则该项目的频道可能会被遗忘在数字尘埃中。
AI Stack Devs (Yoko Li) Discord
- 新速度,新人群:关于 AI Town 内不同的角色移动速度和 NPC 数量的询问引起了关注,但目前尚未收到任何回复。对于热衷于 AI Town 的用户来说,未来可能会有更多的实验自由。
- NPC 与玩家之间的平衡:一位工程师深入研究了优化 AI town 内玩家与 NPC 交互的方法,建议降低 NPC 交互频率。通过利用 llama3 模型,他们希望减轻本地机器的计算负载并增强整体玩家体验。
Skunkworks AI Discord
提供的文本不包含足够的信息来生成有意义的摘要。
YAIG (a16z Infra) Discord
抱歉,无法为此频道生成摘要报告。用户 “pranay01” 提供的消息 “Agree!” 缺乏足够的上下文和实质性内容,无法纳入技术摘要。
MLOps @Chipro Discord 没有新消息。如果该社区长时间保持沉默,请告知我们,我们将将其移除。
AI21 Labs (Jamba) Discord 没有新消息。如果该社区长时间保持沉默,请告知我们,我们将将其移除。
第 2 部分:频道详细摘要与链接
Unsloth AI (Daniel Han) ▷ #general (834 条消息🔥🔥🔥):
-
量子 vs. 图灵与技术监管:讨论围绕量子计算机与图灵计算机的有效性展开,目前图灵机甚至在量子计算机预期擅长的领域也表现得更好。人们还对政府关注监管量子计算而非 AI 表示担忧,认为这可能会牺牲小型创新者而使大公司受益。
-
对 OpenAI 政策和合作伙伴关系的批评:成员们对 OpenAI 走向排他性和监管俘获(如 GPU 签名以及与白宫的合作)表示不满,认为这些行为可能会阻碍开放竞争和创新。
-
对模型审查和访问的担忧:社区讨论了未经审查模型的潜在危险和伦理问题,将 AI 模型控制与刀具等物理工具的监管进行比较,强调监管应侧重于滥用而非工具本身。
-
关于模型训练和操纵技术的讨论:就各种模型训练和操纵策略进行了技术交流,包括使用未经审查的 LLMs 以及在未经明确授权的情况下将模型与新适配项合并的方法。
-
社区对扩大开源项目的兴趣:对话还涉及了扩大开放、共情项目的倡议,并呼吁社区参与,以丰富 AI 在更广泛、更细微的人类语境中的理解和实现。
- Daniel Han (@danielhanchen) 的推文:正在修复 LLM 微调 bug 并发现了 4 个问题:1. Mistral:HF 的 batch_decode 输出错误 2. Llama-3:注意双 BOS 3. Gemma:第 2 个 token 有多余空格 - GGUF(_Below) = 3064...
- 重新思考大语言模型(LLMs)的机器卸载(Machine Unlearning):我们探索了大语言模型(LLMs)领域的机器卸载(MU),即 LLM 卸载。该计划旨在消除不良数据影响(例如敏感或非法...)
- Lorem 函数 – Typst 文档:`lorem` 函数的文档。
- alpindale/WizardLM-2-8x22B · Hugging Face:未找到描述
- Hugging Face – 构建未来的 AI 社区。:未找到描述
- ThunderKittens:用于 AI kernel 的简单嵌入式 DSL:未找到描述
- tiiuae/falcon-11B · Hugging Face:未找到描述
- 五条悟 Gojo GIF - Gojo Satoru Gojo Ohio - 发现并分享 GIF:点击查看 GIF
- NTQAI/Nxcode-CQ-7B-orpo · Hugging Face:未找到描述
- lyogavin/Anima 的 main 分支下的 Anima/air_llm:33B 中文 LLM,DPO QLORA,100K 上下文,使用单个 4GB GPU 进行 AirLLM 70B 推理 - lyogavin/Anima
- eramax/nxcode-cq-7b-orpo:https://huggingface.co/NTQAI/Nxcode-CQ-7B-orpo
- hiyouga/LLaMA-Factory 的 main 分支下的 LLaMA-Factory/scripts/llamafy_qwen.py:统一 100 多个 LLMs 的高效微调。通过在 GitHub 上创建账号为 hiyouga/LLaMA-Factory 的开发做出贡献。
- Joy Dadum GIF - Joy Dadum Wow - 发现并分享 GIF:点击查看 GIF
- Mistral 微调入门指南(包含 16k, 32k, 128k+ 上下文):在我们最新的教程视频中探索使用自己的数据轻松微调语言模型(LLMs)的秘密。我们深入探讨了一种经济高效且...
- GPT-4o 介绍:OpenAI 春季更新 – 2024 年 5 月 13 日星期一直播。介绍 GPT-4o、ChatGPT 更新等。
- Llama 3 微调入门指南(包含 16k, 32k,... 上下文):在这个分步教程中学习如何使用 Unsloth 轻松微调 Meta 强大的新 Llama 3 语言模型。我们涵盖了:* Llama 3 的 8B 和... 概述
- GitHub - HazyResearch/ThunderKittens:用于快速 kernel 的 Tile 原语:用于快速 kernel 的 Tile 原语。通过在 GitHub 上创建账号为 HazyResearch/ThunderKittens 的开发做出贡献。
- GitHub - lilacai/lilac:为 LLMs 策划更好的数据:为 LLMs 策划更好的数据。通过在 GitHub 上创建账号为 lilacai/lilac 的开发做出贡献。
- GitHub - unslothai/unsloth:微调 Llama 3, Mistral & Gemma LLMs 速度提升 2-5 倍,显存占用减少 80%:微调 Llama 3, Mistral & Gemma LLMs 速度提升 2-5 倍,显存占用减少 80% - unslothai/unsloth
- slaren 移除 convert-lora-to-ggml.py · Pull Request #7204 · ggerganov/llama.cpp:模型转换期间张量排列等更改使得从 HF PEFT 转换 LoRA 变得不可靠,因此为了避免混淆,我认为最好完全删除此功能,直到该功能...
- GitHub - unslothai/unsloth:微调 Llama 3, Mistral & Gemma LLMs 速度提升 2-5 倍,显存占用减少 80%:微调 Llama 3, Mistral & Gemma LLMs 速度提升 2-5 倍,显存占用减少 80% - unslothai/unsloth
- GitHub - ggerganov/llama.cpp:C/C++ 中的 LLM 推理:C/C++ 中的 LLM 推理。通过在 GitHub 上创建账号为 ggerganov/llama.cpp 的开发做出贡献。
Unsloth AI (Daniel Han) ▷ #random (15 条消息🔥):
-
OpenAI 新的 Model Spec 讨论与社区 Q&A:OpenAI 发布了新的 Model Spec,旨在改进其模型在 API 和 ChatGPT 中的表现。请设置提醒,OpenAI CEO Sam Altman 将于太平洋标准时间(PST)今天下午 2 点在 Reddit 的 Q&A 环节回答社区提问。
-
社区对 OpenAI 即将推出的创新的期待:成员们对 OpenAI 即将推出的创新表达了复杂的情绪,一些成员期待能重振 AI,而另一些人则持怀疑态度,担心可能会令人失望。
-
关于 OpenAI 开源策略的辩论:关于 OpenAI 是否应该发布开源模型的讨论仍在继续。一方认为,如果模型达不到标准,发布模型可能会导致负面舆论;而另一方则认为,即使模型不是突破性的,也能让他们处于有利地位。
-
关于 AI 行业趋势和推测的讨论:成员们讨论了各种行业趋势,包括对新模型比现有产品好 10 倍这种不太可能的预期,以及如果 Llama 成为 SOTA 后的潜在竞争举措。
-
对 OpenAI 市场地位和战略决策的看法:尽管有关于 AI 寒冬的传闻,成员们认为 OpenAI 仍处于 AI 行业的顶端。对话还涉及了 OpenAI 关于公开发布模型的决策背后的战略原因,包括之前涉及泄密和要求开放的资助案例。
- Reddit - Dive into anything: 未找到描述
- Reddit - Dive into anything: 未找到描述
Unsloth AI (Daniel Han) ▷ #help (312 条消息🔥🔥):
-
量化模型兼容性问题:一位用户提出了 quantized models 与 TGI 兼容性的担忧,提到了 HF 专用推理上的 Sharding Errors。他们质疑
.for_inference和 TGI 是否互斥,暗示可能需要手动设置推理。在 GitHub 上阅读更多。 -
关于保存和加载模型的困惑:讨论表明在如何精确保存和加载模型方面存在挑战,特别是关于通过
model.save_pretrained_merged(...)使用16bit格式以兼容 TGI。简要提到了涉及 VLLM 和 GGUF 格式的替代方案,但缺乏操作实现的具体指导。 -
GEMMA 模型 Tokenization 问题:用户讨论了与 GGUF 格式模型相关的 Tokenization 问题;对于 Gemma 的 GGUF,存在额外的空格导致 incorrect tokenization,建议包括通过手动调整或通过既有的 unsloth 渠道修复 Tokenization。
-
新模型功能所需的澄清和说明:讨论了关于利用 LLAMA factory 进行 70b 模型训练的咨询;同时,出现了关于 FastLanguageModel usage 的问题,重点是从本地保存的目录加载。此外,还表达了关于在不增加新基础设施开销的情况下最大化潜力的担忧。
-
寻求复杂建模技术的指导:用户寻求关于创建能够处理复杂、多主题对话的模型的建议,建议范围从在专门数据集上进行 fine-tuning 到采用 Prompt Engineering 或开发 Elaborator 模型方法,突显了 chatbot 框架中模型优化的迭代过程。
- unsloth/unsloth/__init__.py at d3a33a0dc3cabd3b3c0dba0255fb4919db44e3b5 · unslothai/unsloth: 微调 Llama 3, Mistral & Gemma LLM,速度提升 2-5 倍,显存占用减少 80% - unslothai/unsloth
- Home: 微调 Llama 3, Mistral & Gemma LLM,速度提升 2-5 倍,显存占用减少 80% - unslothai/unsloth
- Home: 微调 Llama 3, Mistral & Gemma LLM,速度提升 2-5 倍,显存占用减少 80% - unslothai/unsloth
- Home: 微调 Llama 3, Mistral & Gemma LLM,速度提升 2-5 倍,显存占用减少 80% - unslothai/unsloth
- Load: 未找到描述
- I got unsloth running in native windows. · Issue #210 · unslothai/unsloth: 我在原生 Windows 上运行了 unsloth (无需 WSL)。你需要 Visual Studio 2022 C++ 编译器、Triton 和 DeepSpeed。我有一个完整的安装教程,我本想在这里写完,但我现在在用手机...
- GitHub - unslothai/hyperlearn: 2-2000x faster ML algos, 50% less memory usage, works on all hardware - new and old.: 机器学习算法速度提升 2-2000 倍,内存占用减少 50%,适用于所有新旧硬件 - unslothai/hyperlearn
- Google Colab: 未找到描述
- Google Colab: 未找到描述
- Google Colab: 未找到描述
- Google Colab: 未找到描述
- Google Colab: 未找到描述
- Google Colab: 未找到描述
- Sou Cidadão - Colab: 未找到描述
Unsloth AI (Daniel Han) ▷ #showcase (1 messages):
- 用于 Token Classification 的 Llama 微调模型已分享:Sauravmaheshkar 微调了 Llama 变体,并在 🤗 Hub 上分享了模型权重。这些模型(包括在 conll2003 上使用 LoRA 适配器训练的
unsloth/llama-2-7b-bnb-4bit)现在可供社区访问。 - 即将发布的 Llama 微调见解:一篇博文和配套的 Notebook 将很快在 Weights & Biases 博客上发布,详细介绍这些 Llama 模型的微调过程。这些即将发布的内容将提供额外的见解和实际实现细节。
提到的链接: LlamaForTokenClassification - SauravMaheshkar 集合: 未找到描述
Stability.ai (Stable Diffusion) ▷ #general-chat (976 messages🔥🔥🔥):
-
对 SD3 发布日期的质疑:用户对 Stable Diffusion 3 的发布日期表示怀疑,经常进行幽默的对比并分享表达质疑的 GIF。这种情绪表明,尽管有公司的时间表,但社区中许多人认为 SD3 的发布如同神话一般。
-
ControlNet 和微调讨论:用户讨论了使用 ControlNet 和 LoRA 执行特定任务(如 Inpainting 和图像中的真实文本集成)的各个方面。一位用户就使用 Krita 手动调整图像内文本的替代方法提供了详细建议。
-
SD 硬件推荐:关于运行 Stable Diffusion 的硬件(如 AMD RX 6750 XT 和 NVIDIA RTX 4090)效率的讨论,对于高端 GPU 在 SD 任务中是否显著优于旧型号,意见不一。
-
内容创作者寻求建议:有用户寻求关于微调 Stable Diffusion 以生成特定产品广告的帮助,这表明了 SD 在商业场景中的应用。另一位用户讨论了在生成多张图像时保持角色一致性(character consistency)的需求,并链接到了外部资源以获取进一步帮助。
-
一般查询与协助:用户寻求技术帮助并分享了使用 Stable Diffusion 的个人轶事,从解决 ComfyUI 等界面中的复制/粘贴问题,到讨论在图像中加入额外细节的放大(upscaling)方法。
- Lewdiculous/Average_Normie_l3_v1_8B-GGUF-IQ-Imatrix · Hugging Face:未找到描述
- dranger003/c4ai-command-r-v01-iMat.GGUF · Hugging Face:未找到描述
- CohereForAI/c4ai-command-r-v01 · Hugging Face:未找到描述
- CohereForAI/c4ai-command-r-plus · Hugging Face:未找到描述
- Nikolas Cruz 的堕落 Google 搜索历史:一瞥 Parkland 枪击案凶手坠入互联网黑暗深渊的过程。这就是为什么父母应该监控孩子上网行为的原因。警告:...
- Jonathan Frakes 告诉你你错了,持续 47 秒:它从未发生过
- GitHub - Zuellni/ComfyUI-ExLlama-Nodes: ComfyUI 的 ExLlamaV2 节点。:ComfyUI 的 ExLlamaV2 节点。通过在 GitHub 上创建账户为 Zuellni/ComfyUI-ExLlama-Nodes 的开发做出贡献。
- 未找到标题:未找到描述
- GitHub - nullquant/ComfyUI-BrushNet: ComfyUI BrushNet 节点:ComfyUI BrushNet 节点。通过在 GitHub 上创建账户为 nullquant/ComfyUI-BrushNet 的开发做出贡献。
- GitHub - KoboldAI/KoboldAI-Client:通过在 GitHub 上创建账户为 KoboldAI/KoboldAI-Client 的开发做出贡献。
- GitHub - LostRuins/koboldcpp: 一种简单的单文件方式,通过 KoboldAI 的 UI 运行各种 GGML 和 GGUF 模型:一种简单的单文件方式,通过 KoboldAI 的 UI 运行各种 GGML 和 GGUF 模型 - LostRuins/koboldcpp
- Reddit - 深入探索一切:未找到描述
- Stable Diffusion 中的角色一致性 - Cobalt Explorer:更新:07/01 – 更改了模板,以便更容易缩放到 512 或 768 – 更改了 ImageSplitter 脚本使其更易于使用,并添加了 GitHub 链接 – 增加了章节...
OpenAI ▷ #annnouncements (2 条消息):
-
GPT-4o 向公众发布:OpenAI 宣布新的旗舰模型 GPT-4o,以及浏览、数据分析和记忆等功能,现在已免费向所有人开放,但有一定的限制。欲了解更多信息,请访问 GPT-4o and More Tools。
-
Plus 用户获得增强访问权限:Plus 用户将受益于高达 5 倍的限制额度,并能最早体验即将推出的功能,如新的 macOS 桌面应用以及先进的语音和视频功能。
-
推出多模态 GPT-4o:新的 GPT-4o 模型支持跨音频、视觉和文本的实时推理。文本和图像输入即日起可通过 API 和 ChatGPT 使用,语音和视频输入预计将在未来几周内推出。更多信息请见 Hello GPT-4o。
OpenAI ▷ #ai-discussions (689 条消息 🔥🔥🔥):
-
探索 GPT-4 和 GPT-4o 的能力:用户正在积极测试并比较 GPT-4 和新推出的 GPT-4o 在各种任务中的表现。虽然 GPT-4o 以速度见长,但一些用户认为 GPT-4 在推理方面更胜一筹,并特别提到 GPT-4o 需要更明确的指令才能发挥最佳性能。
-
对语音和摄像头功能的困惑:用户对实时摄像头共享和语音模式等新功能感到兴奋,但由于这些功能虽然在演示中展示,但尚未对所有用户开放,因此仍存在一些困惑。
-
桌面和移动端应用进展:用户渴望 ChatGPT 的 macOS 应用上线,并提到 Windows 版本正在开发中。用户正在寻找下载链接和可用性信息,但目前并非所有人都能获取。
-
关于订阅价值的讨论:随着 GPT-4o 的推出,关于 ChatGPT Plus 等付费订阅价值的讨论正在进行,特别是当 GPT-4o 似乎提供了显著的进步时。
-
对模型记忆和 Token 计数器的关注:一些用户对 GPT-4o 与旧模型相比的记忆性能表示失望。此外,用户还希望增加 Token 计数器等功能,以便在项目中更好地管理模型交互。
OpenAI ▷ #gpt-4-discussions (126 条消息🔥🔥):
-
探索 GPT-4o 的输出限制:澄清了关于 GPT-4o 的 Token 输出限制的困惑。明确了 API 的输出 Token 限制高于最初在 API Playground 中显示的值;GPT-4o 每条消息支持高达 4096 个输出 Token,而不是用户最初遇到的 2048 个。
-
关于自定义 GPTs 使用 GPT-4o 的澄清:成员们争论了自定义 GPTs 目前是否正在使用新的 GPT-4o 模型。目前已确认自定义 GPTs 尚未运行 GPT-4o 模型,尽管用户对输出差异存在一些困惑。
-
GPT-4o 提升速度与性能:据分享,GPT-4o 比其前代产品快得多,一些基准测试显示其速度是 GPT-4 的两倍。然而,这种速度提升仅适用于 API,不涉及响应的质量或性质。
-
每个 GPT 的记忆功能及推出状态:讨论了每个 GPT 记忆功能的推出,提到每个自定义 GPT 将拥有自己独立的记忆库,创建者可能可以切换该功能。然而,目前还没有该功能广泛推出的官方时间表。
-
了解 GPT-4o 发布后的订阅权益:鉴于许多功能已在免费层级提供,讨论了继续订阅 Plus 的价值。用户权衡了 Plus 目前的收益与未来可能证明订阅费合理的预期增强功能。
OpenAI ▷ #prompt-engineering (32 条消息🔥):
-
持续存在的审核过滤器之谜被揭开:一位成员分享了 Gemini 1.5 在未启用安全过滤器的情况下,仍无法处理与“浪漫套餐”相关的请求的问题。他们尝试了各种设置调整但未获成功,并认为可能是提供商端的限制导致了这一约束。
-
AI 中的语法错误或安全设置:针对 Gemini 1.5 出现的问题,有人建议可能是语法错误或安全设置禁用不当。建议在 AI 实验室进行进一步检查,以查明处理特定内容请求时出错的根源。
-
聊天中的闲谈:两名用户进行了日常问候,未对正在进行的讨论或主题贡献实质性的查询或问题。
-
通过 Python 进行目录和文件操作查询:一位用户请求了一种以编程方式显示和处理文件的方法,指定使用 Python 任务来创建目录、在不同会话中处理文件,并最终压缩目录并提供下载链接。
OpenAI ▷ #api-discussions (32 条消息🔥):
_
-
Gemini 1.5 在处理浪漫请求时失败:一位用户报告了 Gemini 1.5 的一个问题,即任何与 “romance package” 相关的查询都会导致持续失败,尽管该应用在其他领域取得了广泛成功。他们表达了挫败感,并尝试了各种解决方案,包括生成新的 API keys、将 blocks 设置为 none 以及调整 temperature 设置,但均未成功。
-
需要审查安全设置:针对该问题,另一位成员建议检查应用中的安全设置是否被明确关闭,因为如果未定义,可能会默认开启。这可能会拦截与 “romance” 或 “package” 相关的词汇,可能需要对这些设置的管理方式进行更深入的审查。
-
考虑语法和 Google 的角色:讨论转向了可能的语法错误或用户控制之外的问题,特别是涉及 Google 的系统。有建议在 AI Lab 中测试有问题的提示词以排除语法问题,并暗示可能需要通过 GUI 禁用安全协议。
-
尽管具备专业知识但仍感挫败:该用户展示了对 OpenAI 产品的大量使用(每月超过 10 亿 tokens)以及对 Gemini 优于 Claude 的偏好,对当前持续存在的问题表达了了解和挫败感。他们公开希望在不久的将来能有所解决,承认自己熟悉这些系统,但仍面临意想不到的挑战。
-
Python 文件处理提示词:另一位成员发布了一个复杂的 Python 任务,请求协助显示完整的文件树、创建目录、在独立的 Python 会话中管理文件写入,并最终压缩目录,包括提供下载链接的指令。这展示了社区内处理的技术查询的多样性。
OpenAI ▷ #api-projects (2 messages):
- 关于带有消息追踪功能的 ChatGPT 克隆的咨询:一位用户表示有兴趣利用 GPT-3.5 模型创建一个 ChatGPT 克隆,并具有一个独特功能:能够监控组织内用户发送和接收的消息。在此咨询之后,没有提供任何解决方案或进一步的讨论。
Nous Research AI ▷ #ctx-length-research (1 messages):
king.of.kings_: 我正努力让 llama 3 70b 在超过 8k tokens 时保持连贯性,哈哈。
Nous Research AI ▷ #off-topic (16 messages🔥):
- 法国极光一瞥:在 Arvenia(法国奥弗涅)的大都市中心火山区,天空中出现了极光。
- 介绍 MAP-Neo,透明的双语 LLM:MAP-Neo 是一个透明的双语大语言模型 (LLM),在 4.5 万亿 tokens 上训练,得到了来自 01.ai 和 wuhan.ai 的社区支持。它在推理和数学等任务中与私有模型的性能相匹配,同时通过共享 checkpoints 和数据集组成等资源确保透明度。在 Huggingface 上探索 neo 模型 和 GitHub。
- 历史食谱影响现代游戏:在角色扮演游戏《天国:拯救》(Kingdom Come: Deliverance)中,永久炖菜反映了一种历史烹饪方法,丰富了游戏的真实性,并影响了玩家的日常烹饪实践。
- 通过 RDP 进行软件自动化的挑战:用户讨论了自动化在 RDP 等远程连接上运行的软件的难度,因为在这种情况下无法直接与软件的 DOM 进行交互。建议的实现方式包括使用 RPA 技术或使用 Frida 等工具进行逆向工程,以便与软件功能进行更直接的交互。
- YouTube 视频分享:用户分享了 YouTube 视频供观看,尽管讨论背景中未指明这些视频的具体内容。以下是链接:paradroid 的视频 和 pradeep1148 的视频。
- Mother Day GIF - Mother day - Discover & Share GIFs: 点击查看 GIF
- Neo-Models - a m-a-p Collection: 未找到描述
- m-a-p/Matrix · Datasets at Hugging Face: 未找到描述
- GitHub - multimodal-art-projection/MAP-NEO: 通过在 GitHub 上创建账户来为 multimodal-art-projection/MAP-NEO 的开发做出贡献。
Nous Research AI ▷ #interesting-links (6 messages):
-
探索多向神经运算 (Exploring Multidirectional Neural Operation): 一篇新论文讨论了人工神经网络优化多向值传播的潜力,这模仿了某些生物神经元的行为。这种方法可能允许神经元模型处理整个联合分布 (joint distributions),从而增强网络处理复杂依赖关系的方式。点击此处阅读摘要。
-
React 应用模拟 Taskmaster 剧集: 一位成员开发了一个 React 应用程序,使用状态机 (state machine) 模式模拟 Taskmaster 游戏节目剧集。每个剧集组件管理不同的阶段,并与 LLM 交互以生成内容,尽管对于格式错误的输出需要手动重试。探索 GitHub 项目。
-
神经网络中的分层相关性重构 (Hierarchical Correlation Reconstruction): 提到的研究引入了分层相关性重构 (HCR) 来建模神经元。这可能会显著改变神经网络建模和传播复杂统计依赖关系的方式。在 Hugging Face 上查看资源。
-
使用 Mistral 7B 生成高级知识图谱: 利用 Mistral 7B instruct v 0.2 模型和 llama-cpp-agent 框架,创建了一个详细的工业军事综合体知识图谱。该框架支持多种服务器类型,并促进与大语言模型 (LLM) 的结构化交互。在 GitHub 上查看框架。
-
深入探讨 OpenAI 的视听 AI 转型: 一份详细的分析显示,OpenAI 可能正在通过直接将音频映射到音频以及将视频流传输到 Transformer,向实时多模态 AI 交互迈进。这些技术可能涉及复杂的系统优化、YouTube 对话等数据源,以及潜在的专有流媒体编解码器,旨在与 iOS 等设备进行更紧密的集成。在 Twitter 上阅读完整讨论。
- Biology-inspired joint distribution neurons based on Hierarchical Correlation Reconstruction allowing for multidirectional neural networks: 流行的人工神经网络 (ANN) 针对单向值传播优化参数,假设某些猜测的参数化类型,如多层感知器 (MLP) 或 Kolmogorov-Arnold Net...
- Yi-1.5 (2024/05) - a 01-ai Collection: 未找到描述
- GitHub - Maximilian-Winter/llama-cpp-agent: llama-cpp-agent 框架是一个旨在简化与大语言模型 (LLM) 交互的工具。允许用户与 LLM 模型聊天,执行结构化函数调用并获取结构化输出。也适用于未针对 JSON 输出和函数调用进行微调的模型。: llama-cpp-agent 框架是一个旨在简化与大语言模型 (LLM) 交互的工具。允许用户与 LLM 模型聊天,执行结构化函数调用并获取结构化...
- Taskmaster-LLM/src/App.js at main · LEXNY/Taskmaster-LLM: 通过在 GitHub 上创建账户来为 LEXNY/Taskmaster-LLM 的开发做出贡献。
Nous Research AI ▷ #general (741 messages🔥🔥🔥):
- GPT-4o 发布引发讨论:讨论围绕新的 GPT-4o 更新展开。一些用户赞赏其在编程性能上的提升,而另一些用户则对其速度和 Token 输出限制感到失望。
- 新的 Tokenization 更新与效率:注意到 GPT-4o 更新后的 Tokenizer 能更好地支持多种语言,但以牺牲效率为代价。尽管如此,Token 限制仍然是一个突出问题,输出上限被限制在 2048。
- 编程与数学性能:据报道,GPT-4o 在编程任务中表现出色,并具有更好的推理能力,这表明它比前代产品有所改进。讨论这些能力的用户似乎发现它在逻辑推理和解决数学问题方面表现更好。
- 对模型可访问性与定价的担忧:一个普遍的担忧是模型的可访问性和价格点,特别是语音集成可能具有革命性,但也仅限于那些负担得起的人。
- 厌倦与乐观的观点:讨论描绘了用户之间的分歧,一些人批评 OpenAI 垄断 Chatbot 和 AI 市场的做法,而另一些人则认为这些更新具有重大价值,特别是在实时语言模型实现和集成方面。
- 提高 GPT 4 Function Calling 准确性:加入我们的 Discord 社区并查看我们正在构建的内容!我们刚刚发布了博客的第 2 部分,对比了 gpt-4-turbo vs opus vs haiku vs sonnet。GPT Function Calling 简介...
- 来自 Wenhu Chen (@WenhuChen) 的推文:重大新闻!遇见我们最强大的全开源 7B-LLM Neo。我们在 MAP-Neo 发布了其 4.7T 预训练数据 Matrix 和整个代码库!1. Neo-7B 击败了现有的全开源模型如 OL...
- 评估大型语言模型中的基准测试泄露 (Benchmarking Benchmark Leakage):随着预训练数据使用的扩大,基准测试数据集泄露现象日益突出,由于不透明的训练过程以及经常未披露的包含内容而加剧...
- mradermacher/llama-3-cat-8b-instruct-GGUF · Hugging Face:未找到描述
- refuelai/Llama-3-Refueled · Hugging Face:未找到描述
- ggml-model-Q4_K_M.gguf · 01-ai/Yi-1.5-34B-Chat at main:未找到描述
- cambioml:未找到描述
- 猫咪动物 GIF - 猫咪动物反应 - 发现并分享 GIF:点击查看 GIF
- oobabooga 基准测试:未找到描述
- 介绍 GPT-4o:OpenAI 春季更新 —— 2024 年 5 月 13 日星期一直播。介绍 GPT-4o,ChatGPT 的更新等。
- MeeseeksAI/src/agents.py 位于 2399588acdee06cff4af04ca091b1ab5c71580b8 · interstellarninja/MeeseeksAI:一个使用 mermaid 图表编排 AI Agent 的框架 - interstellarninja/MeeseeksAI
- GitHub - Potatooff/Le-Potato: 简单、优雅的 LLM 聊天推理:简单、优雅的 LLM 聊天推理。通过在 GitHub 上创建账号来为 Potatooff/Le-Potato 的开发做出贡献。
- 同步代码库 · openai/tiktoken@9d01e56:未找到描述
- 同步代码库 · openai/tiktoken@9d01e56:未找到描述
- GitHub - interstellarninja/MeeseeksAI: 一个使用 mermaid 图表编排 AI Agent 的框架:一个使用 mermaid 图表编排 AI Agent 的框架 - interstellarninja/MeeseeksAI
- 来自 will depue (@willdepue) 的推文:我认为人们误解了 gpt-4o。它不是一个带有语音或图像附件的文本模型。它是一个原生的多模态 Token 输入、多模态 Token 输出模型。你想让它说话快一点?...
- Rocketknight1 提交的为 Function Calling 和 RAG 提供 Chat Template 支持 · Pull Request #30621 · huggingface/transformers:此 PR 更新了我们对聊天模板的支持,以涵盖工具使用和 RAG 使用场景。具体而言,它执行了以下操作:定义了推荐的工具使用 JSON schema 规范,添加了工具和文档...
- TheSkullery/llama-3-cat-8b-instruct-v1 · Hugging Face:未找到描述
- 来自 Johan Nordberg (@almost_digital) 的推文:我在 1 月份加入了 @elevenlabsio,和 @flavioschneide 一起工作非常愉快!这个是由单个文本提示词“rap about never stopping to learn”(关于永不停止学习的饶舌歌曲)生成的,包含歌词...
- Replete-AI/code_bagel_hermes-2.5 · Hugging Face 数据集:未找到描述
Nous Research AI ▷ #ask-about-llms (48 条消息🔥):
-
在大多数架构中 MoE 仅限于 FFN 层:讨论者确认,在大多数架构中,Mixture of Experts (MoE) 中的专家仅为前馈网络 (FFN) 层。虽然已经探索过将 Attention 模块作为专家,但并非标准做法。
-
将 Autoregressive 和 Diffusion 模型与 MoE 集成的兴趣:讨论了将 Autoregressive 模型(擅长文本生成)与 Diffusion 模型(擅长图像任务)结合的概念,利用 MoE 结构潜在地增强多模态模型的性能。虽然存在怀疑态度,但理论上的集成可能会提升模型能力。
-
Prompt 模板及其对 LLM 性能的影响:对话明确了使用大语言模型训练时特定的 Prompt 格式会极大地影响其可靠性。例如,Hermes 使用 chatml 格式,而其他模型可能更倾向于 Alpaca Prompt Format。
-
处理模型中的不安全行为输入:提到模型中内置的安全措施和“人生教训”式回答可以通过系统级 Prompt 进行干预以修改响应。建议了规避拒绝并诱导更直接回答的技术,并引用了在线资源如 Handling Refusals。
-
Llama3 和 Axolotl 系统的微调挑战:一位用户分享了尝试使用 Axolotl 系统和 dolphin-2.9 数据集微调 Llama3 模型时的挑战与解决方案。讨论了 CUDA 错误以及更新 flash-attn 等包的必要性,指向了针对技术瓶颈的社区驱动解决方案。
- RAPHAEL: Text-to-Image Generation via Large Mixture of Diffusion Paths:文本到图像生成最近取得了显著成就。我们引入了一种名为 RAPHAEL 的文本条件图像 Diffusion 模型,用于生成高度艺术化的图像,能够准确地……
- ortho_cookbook.ipynb · failspy/llama-3-70B-Instruct-abliterated at main:未找到描述
- Refusal in LLMs is mediated by a single direction — AI Alignment Forum:这项工作是 Neel Nanda 在 ML Alignment & Theory Scholars Program - 2023-24 冬季队列中的一部分,由……共同指导。
Nous Research AI ▷ #rag-dataset (5 messages):
-
揭秘 ChatQA:对话式 QA 的创新者:最近的一篇 Arxiv 论文介绍了 ChatQA,这是一个 QA 模型系列,通过使用两阶段指令微调和高性价比的稠密检索器(dense retriever),在对话准确性上超越了 GPT-4。ChatQA-70B 在多个数据集上的得分为 54.14,而 GPT-4 为 53.90,提供了一个无需 GPT 模型合成数据的更便宜的替代方案。
-
IBM/RedHat 的新颖训练方法:IBM 和 RedHat 正在合作开展一个新项目,通过使用更大的模型生成合成数据集而无需完全重新训练,从而创新 LLM 训练。该过程在 GitHub 上有详细说明,采用分类法(taxonomies)进行课程构建,并利用 Granite 和 Merlinite 等强大的 LLM。
-
引入增强模型训练框架:深入探讨 IBM/RedHat 的项目,揭示了一个为 LLM 安排的信息丰富过程。贡献者可以每周格式化并提交数据,经过策划后,这些数据将被整合到 Granite 和 Merlinite 等模型中,以增量方式增强其知识库。
- ChatQA: Building GPT-4 Level Conversational QA Models:在这项工作中,我们介绍了 ChatQA,一个获得 GPT-4 级别准确率的对话式问答 (QA) 模型系列。具体来说,我们提出了一种两阶段指令微调方法,可以……
- InstructLab:InstructLab 有 10 个可用的仓库。在 GitHub 上关注他们的代码。
Nous Research AI ▷ #world-sim (22 messages🔥):
-
WorldSim 被誉为顶级商业模拟器:成员们讨论了 WorldSim 作为商业和初创公司模拟器的有效性,proprietary 强调了其作为全能模拟器的强大实力。
-
加入 WebSim 冒险:成员们积极参与 WebSim AI 模拟,分享了特定模拟的链接,如 hidden catgirl,并邀请他人在 join WebSim 建立基地。
-
Twitter 上关于模拟游戏的讨论热潮:分享了展示对模拟游戏热情的 Twitter 帖子链接,表明了更广泛的社区兴趣。示例推文可以在 这里 和 这里 找到。
-
WorldSim 中报告的技术挑战:记录了 WorldSim 功能方面的问题,包括上下文保留(context retention)、命令执行和界面 Bug。
-
哲学与 WorldSim 沙龙提案:一位成员提议组建一个哲学和 WebSim WorldSim 聊天小组,衡量大家对沙龙式协作讨论的兴趣。
- generative.ink/chat/: 未找到描述
- generative.ink/chat/: 未找到描述
Latent Space ▷ #ai-general-chat (94 messages🔥🔥):
- Substack 上的新基础设施讨论: 一位来自新加坡的成员发起了关于 AI Agent 潜在新基础设施的对话,并在 Substack 上分享了他们的笔记。欢迎感兴趣的各方讨论并就这些新兴服务进行协作。[在此查看早期笔记](https://sweekiat.substack.com/p/d8726e73-e717-4599-81a3-5eb82e48f9c9)。
- Falcon 2 模型发布: Falcon 2 LLM 已发布,被描述为多语言和多模态模型。根据独立验证,其性能优于 Meta 的 Llama 3 和 Google 的 Gemma 7B 等竞争对手。计划进行更多增强,如 'Mixture of Experts'。[探索 Falcon 2 的功能](https://falconllm.tii.ae/falcon-2.html)。
- 关于 GPT-4o 的讨论: 针对新发布的 GPT-4o 进行了活跃的讨论和更新,包括各种技术推测、容量以及应用基准测试。社区热衷于探索 GPT-4o 在 API 访问中的特性及其性能改进。[了解更多关于 GPT-4o 的信息](https://openai.com/index/hello-gpt-4o/)。
- AI 安全与职业机会: 围绕将 AI 安全作为潜在职业路径的对话展开,讨论了其在 AI 与网络安全交叉领域中的现实性和价值。参与者建议了自主研究的重要性,并指向了 RSA Conference 等资源以供进一步探索。
- OpenELM 训练协作: 一项关于使用 PyTorch/MPS 从头开始训练 OpenELM 模型的协作努力公告引起了关注。该倡议对社区协作开放,旨在通过增量添加数据集进行迭代训练。[探索 OpenELM 项目协作](https://github.com/openai/openelm)。
- Falcon LLM: 生成式 AI 模型正让我们能够创造通往充满无限可能的激动人心的未来的创新路径——唯一的限制就是想象力。
- Robert Lukoszko — e/acc (@Karmedge) 的推文: 我有 80% 的把握确定 OpenAI 使用了一个极低延迟、低质量的模型,在不到 200ms 内读出前 4 个词,然后继续使用 GPT-4o 模型。只需注意,大多数句子都以 “Sure...” 开头。
- Jim Fan (@DrJimFan) 的推文: 我知道你的时间线现在被“疯狂、HER、你错过的 10 个功能、我们回来了”之类的词汇堆砌淹没了。坐下,冷静点。<喘气> 像 Mark 在演示中那样深呼吸...</li>
- Mark Cummins (@mark_cummins) 的推文: Llama 3 是在 15 万亿个 Token(11 万亿个单词)上训练的。这非常庞大——大约是人类语言学习所需量的 100,000 倍。
- Greg Brockman (@gdb) 的推文: GPT-4o 还可以生成音频、文本和图像输出的任何组合,这带来了一些我们仍在探索的有趣新功能。参见例如“功能探索”部分...
- lmsys.org (@lmsysorg) 的推文: 突发新闻 —— gpt2-chatbots 的结果现已公布!gpt2-chatbots 刚刚飙升至榜首,以显著差距(约 50 Elo)超越了所有模型。它已成为 Arena 中有史以来最强的模型...
- Something to do something: 点击阅读由 sweekiat 发布的 Substack 出版物 Something to do something。两年前推出。
- Bloomberg - Are you a robot?: 未找到描述
- tweet davidson 🍞 (@andykreed) 的推文: ChatGPT 的声音……很性感???
- Mark Cummins (@mark_cummins) 的推文: 接下来是代码。代码是一种非常重要的文本类型,其数量令我惊讶。公开代码有 0.75 万亿个 Token。有史以来编写的代码总量可能高达 20 万亿,尽管其中大部分是私有的...
- AI for Engineers | Latent Space | swyx & Alessio | Substack: 为准 AI 工程师准备的为期 7 天的基础课程,与 Noah Hein 共同开发。尚未上线——我们已完成 5/7。注册以便在发布时获取!点击阅读 Substack 出版物 Latent Space...
- Sync codebase · openai/tiktoken@9d01e56: 未找到描述
- Robert Lukoszko — e/acc (@Karmedge) 的推文: 我有 80% 的把握确定 OpenAI 使用了一个极低延迟、低质量的模型,在不到 200ms 内读出前 4 个词,然后继续使用 GPT-4o 模型。只需注意,大多数句子都以 “Sure...” 开头。
- Justin Uberti (@juberti) 的推文: 有机会尝试了来自 us-central 的 GPT-4o API,文本生成速度非常快。与 http://thefastest.ai 相比,此性能是 GPT-4-Turbo TPS 的 5 倍,与许多 Llama-3-8b 部署相似...
- Mark Cummins (@mark_cummins) 的推文: Llama 3 是在 15 万亿个 Token(11 万亿个单词)上训练的。这非常庞大——大约是人类语言学习所需量的 100,000 倍。
- Jake Colling (@JacobColling) 的推文: @simonw @OpenAI 使用模型 `gpt-4o` 似乎适用于我的 API 访问
- Siqi Chen (@blader) 的推文: 回想起来,这将证明是迄今为止最被低估的 OpenAI 活动。OpenAI 在 GPT-4o 中随手丢出了文本到 3D 渲染功能,甚至都没提到它(更多内容见下文 👇🏼)
- Falcon 2 | Hacker News: 未找到描述 </ul> </div> --- **Latent Space ▷ #[ai-announcements](https://discord.com/channels/822583790773862470/1075282504648511499/1239418270302339115)** (1 条消息): - **OpenAI 活动预热已安排**:OpenAI 活动的观影派对计划于明天(5 月 13 日)上午 9:30 开始。请在活动开始前半小时加入 [Discord 频道](https://discord.gg/Z7V4NDGZ?event=1238918257046458368) 参加预热。 **提到的链接**:加入 Latent Space (原名 /dev/invest) Discord 服务器!:在 Discord 上查看 Latent Space (原名 /dev/invest) 社区——与 3747 名其他成员一起交流,享受免费的语音和文字聊天。 --- **Latent Space ▷ #[llm-paper-club-west](https://discord.com/channels/822583790773862470/1197350122112168006/1239616941677609064)** (710 条消息🔥🔥🔥): - **OpenAI 春季发布会观影派对启动**:Discord 社区成员聚集在一起观看并讨论 OpenAI 春季发布会,并邀请成员分享他们的预测。然而,一些人在直播过程中遇到了音频问题,导致有人建议重新连接。 - **针对 Apple 和 GPT-4o 的技术推测**:在活动观影派对期间,讨论转向了 Apple 的技术策略以及 Google 关于 iOS 18 谈判的潜在影响。人们开始推测 Apple 是否有足够的能力将足够大的模型整合到其设备中。 - **GPT-4o 免费开放成为焦点**:在一个令人惊讶的揭晓中,官方披露 [GPT-4o 现在可以免费使用](https://x.com/LiamFedus/status/1790064963966370209),这是前沿模型从未有过的举措。这一公告引发了 Twitter 上的讨论,特别关注了模型集成策略,包括对移动端集成的潜在影响。 - **活动直播故障与技术困扰**:观众对直播过程中的技术困难表示沮丧,包括视频卡顿和音频问题。这些干扰导致成员之间不断进行调整和反馈,试图解决问题以获得更流畅的观看体验。 - **社区参与实用性与预测性对话**:随着活动的展开,成员们分享了不间断观看活动的实用链接,并就 GPT-4o 的功能、未来及其在日常设备和平台中的集成展开了讨论。这些对话反映了对活动中揭晓的 AI 当前及未来应用的兴奋与怀疑。
- 来自 Karma (@0xkarmatic) 的推文:"一个 ASR 模型,一个 LLM,一个 TTS 模型……你明白了吗?这不是三个独立的模型:这是一个模型,我们称之为 gpt-4o。" 引用 Andrej Karpathy (@karpathy) 的话,它们是 r...
- Twitch: 未找到描述
- Mechanical Turk - 维基百科: 未找到描述
- GPT-4o: 在我们今天的发布中,我想强调两件事。首先,我们使命的一个关键部分是免费(或以极优的价格)将能力极强的 AI 工具交到人们手中。我...
- 来自 Jared Zoneraich (@imjaredz) 的推文: gpt-4o 彻底击败了 gpt-4-turbo。速度极快,答案似乎也更好。也很喜欢 @OpenAI 的分屏 playground 视图
- 来自 Olivier Godement (@oliviergodement) 的推文: 我没怎么发过关于 @OpenAI 发布的消息,但我想分享一些关于 GPT-4o 的思考,因为我已经很久没有感到如此震撼了。
- 介绍 GPT-4o: OpenAI 春季更新 —— 2024 年 5 月 13 日星期一现场直播。介绍 GPT-4o、ChatGPT 的更新等。
- 来自 Greg Brockman (@gdb) 的推文: 介绍 GPT-4o,我们的新模型,它可以实时跨文本、音频和视频进行推理。它非常多才多艺,玩起来很有趣,是迈向更自然的人机交互形式的一步……
- 介绍 GPT-4o: OpenAI 春季更新 —— 2024 年 5 月 13 日星期一现场直播。介绍 GPT-4o、ChatGPT 的更新等。
- 来自 Brad (@brad_agi) 的推文: 便宜 50% 甚至都没有竞争力。来源:https://artificialanalysis.ai/
- 来自网络上的 bdougie (@bdougieYO) 的推文: ChatGPT 说我看起来心情不错。
- 来自 William Fedus (@LiamFedus) 的推文: GPT-4o 是我们最新的 state-of-the-art 前沿模型。我们一直在 LMSys arena 上以 im-also-a-good-gpt2-chatbot 的身份测试一个版本 🙂。这是它的表现。
- 来自 Sam Altman (@sama) 的推文: 它对所有 ChatGPT 用户开放,包括免费计划!到目前为止,GPT-4 级别的模型仅对支付月费的用户开放。这对我们的使命很重要;我们希望...
- GitHub - BasedHardware/OpenGlass: 将任何眼镜变成 AI 驱动的智能眼镜: 将任何眼镜变成 AI 驱动的智能眼镜。通过在 GitHub 上创建账户来为 BasedHardware/OpenGlass 的开发做出贡献。
- 同步代码库 · openai/tiktoken@9d01e56: 未找到描述
- 来自 Greg Brockman (@gdb) 的推文: 我们还显著提升了非英语语言的性能,包括改进了 tokenizer 以更好地压缩其中许多语言:
- 来自 Ina Fried (@inafried) 的推文:我也确认了一些消息。1) 出现在基准测试网站上的神秘 GPT2-chatbot 是 GPT-4o。2) OpenAI 首先为 Mac 推出了桌面版,因为“我们只是优先...”
- gpt-tokenizer playground:未找到描述
- 不仅仅是一个 OpenAI 套壳:Perplexity 转向开源:Perplexity CEO Aravind Srinivas 是 Larry Page 的忠实粉丝。然而,他认为自己找到了一种不仅能与 Google 搜索竞争,还能与 OpenAI 的 GPT 竞争的方法。
- 介绍 GPT-4o:OpenAI 春季更新 —— 2024 年 5 月 13 日星期一现场直播。介绍 GPT-4o、ChatGPT 的更新等。
- 两个 GPT-4o 互动并唱歌:向 GPT-4o 问好,这是我们全新的旗舰模型,可以实时跨音频、视觉和文本进行推理。在此了解更多:https://www.openai.com/index/hello-...
- 两个 GPT-4o 互动并唱歌:向 GPT-4o 问好,这是我们全新的旗舰模型,可以实时跨音频、视觉和文本进行推理。在此了解更多:https://www.openai.com/index/hello-...
- 介绍 GPT-4o:OpenAI 春季更新 —— 2024 年 5 月 13 日星期一现场直播。介绍 GPT-4o、ChatGPT 的更新等。
- 来自 Mckay Wrigley (@mckaywrigley) 的推文:这个演示太疯狂了。一名学生通过新的 ChatGPT + GPT-4o 分享他们的 iPad 屏幕,AI 与他们交谈并协助他们进行*实时*学习。想象一下把这个交给世界上的每个学生...
- YesChat.ai 价格计划:未找到描述
- 介绍 GPT-4o:OpenAI 的新旗舰多模态模型现已在 Azure 上提供预览 | Microsoft Azure 博客:OpenAI 与 Microsoft 合作发布了 GPT-4o,这是一款在文本、视觉和音频能力方面具有突破性的多模态模型。了解更多。
- no title found: 无描述
- Gryphe/Tiamat-8b-1.2-Llama-3-DPO · Hugging Face: 无描述
- 👾 LM Studio - 发现并运行本地 LLM: 查找、下载并实验本地 LLM
- HuggingChat: 让社区最好的 AI 聊天模型惠及每个人。
- 在 NVIDIA DGX Cloud 上使用 H100 GPU 轻松训练模型: 无描述
- Will Smith Chris Rock GIF - Will Smith Chris Rock Jada Pinkett Smith - 发现并分享 GIF: 点击查看 GIF
- Excuse Me Hands Up GIF - Excuse Me Hands Up Woah - 发现并分享 GIF: 点击查看 GIF
- 介绍 GPT-4o: OpenAI 春季更新 —— 2024年5月13日星期一现场直播。介绍 GPT-4o、ChatGPT 更新等。
- EurekAI: 无描述
- 15 分钟上手 Hugging Face | Transformers, Pipeline, Tokenizer, Models: 学习如何在 15 分钟内上手 Hugging Face 和 Transformers 库!了解关于 Pipelines, Models, Tokenizers, PyTorch 和 TensorFlow 的一切...
- TikTok - 充实你的一天: 无描述
- AI 笔记:初始化神经网络 - deeplearning.ai: 在这篇文章中,我们将解释如何有效地初始化神经网络参数。初始化对深度神经网络训练的收敛性有显著影响...
- 视觉自回归建模:通过次尺度预测实现可扩展的图像生成: 我们提出了视觉自回归建模 (VAR),这是一种新的生成范式,它将图像上的自回归学习重新定义为从粗到细的“次尺度预测”或“次分辨率...
- GitHub - patrick-kidger/equinox: JAX 中优雅且易于使用的神经网络 + 科学计算。https://docs.kidger.site/equinox/: JAX 中优雅且易于使用的神经网络 + 科学计算。https://docs.kidger.site/equinox/ - patrick-kidger/equinox
- LLM Visualization: 未找到描述
- Phi-3 Technical Report: A Highly Capable Language Model Locally on Your Phone: 我们介绍了 phi-3-mini,这是一个拥有 38 亿参数、在 3.3 万亿 token 上训练的语言模型,其在学术基准和内部测试中的整体表现可与 ... 媲美。
- Understanding Deep Learning: 未找到描述
- AI Notes: Initializing neural networks - deeplearning.ai: 在这篇文章中,我们将解释如何有效地初始化神经网络参数。初始化对深度神经网络训练的收敛性有显著影响...
- 3D Diffusion Policy: 本文介绍了 3D Diffusion Policy (DP3),这是一种掌握多种视觉运动任务的视觉模仿学习算法。
- no title found: 未找到描述
- OCR Quality Classifiers - a pszemraj Collection: 未找到描述
- Kalam AI - a Hugging Face Space by ikmalsaid: 未找到描述
- LlamaForTokenClassification - a SauravMaheshkar Collection: 未找到描述
- How To Create Your Own AI Discord Chat Bot With Web Search: Git Repo:https://github.com/ssimpson91/newsChan 你将需要以下软件包;NodeJS v. 18,Python 3.10 或更高版本。在你的终端运行这些命令以...
- GitHub - ajkdrag/ocrtoolkit: Experiment and integrate with different OCR frameworks seamlessly: 无缝地实验并集成不同的 OCR 框架 - ajkdrag/ocrtoolkit
- Hugging Face - Learn: 未找到描述
- Stable Diffusion with 🧨 Diffusers: 未找到描述
- Create a dataset for training:未找到描述
- Inpainting:未找到描述
- Practical Deep Learning for Coders - Part 2 overview:通过 fastai 和 PyTorch 学习深度学习,2022
- [Bug]: ModuleNotFoundError: No module named 'torchvision.transforms.functional_tensor' torchvision 0.17 promblem · Issue #13985 · AUTOMATIC1111/stable-diffusion-webui:是否存在此问题的现有 Issue?我已搜索现有 Issue 并检查了最近的构建/提交。发生了什么?ModuleNotFoundError: No module named 'torchvision.transforms.functiona...
- Hands-On Generative AI with Transformers and Diffusion Models:在这本实用的实战指南中,学习如何使用 AI 生成媒体技术来创作新颖的图像或音乐。数据科学家和软件工程师将理解最先进的生成技术...
- 未找到标题: 未找到描述
- 未找到标题: 未找到描述
- Chat.lmsys.org 宕机了?当前问题与状态 - DownFor: Chat.lmsys.org 无法加载?或者在使用 Chat.lmsys.org 时遇到问题?在此检查状态并报告任何问题!
- Boo Boo This Man GIF - Boo Boo This Man - 发现并分享 GIF: 点击查看 GIF
- 介绍 GPT-4o: OpenAI 春季更新 —— 2024年5月13日星期一现场直播。介绍 GPT-4o,ChatGPT 的更新等。
- YorkieOH10/Yi-1.5-9B-Chat-Q8_0-GGUF · Hugging Face: 未找到描述
- YorkieOH10/Yi-1.5-6B-Chat-Q8_0-GGUF · Hugging Face: 未找到描述
- failspy/kappa-3-phi-abliterated · Hugging Face: 未找到描述
- dranger003/c4ai-command-r-plus-iMat.GGUF · Hugging Face: 未找到描述
- 01-ai/Yi-1.5-9B-Chat · Hugging Face: 未找到描述
- NikolayKozloff/Meta-Llama-3-8B-Instruct-bf16-correct-pre-tokenizer-and-EOS-token-Q8_0-Q6_k-Q4_K_M-GGUF · Hugging Face: 未找到描述
- JetMoE 8B (由 jetmoe 提供) | OpenRouter:Jet MoE 由来自学术界到行业资深人士的广泛团队开发,是 MIT、Princeton、IBM、Lepton 和 MyShell 的共同努力成果。该模型完全开源,并经过...
- OpenAI: GPT-4o (由 openai 提供) | OpenRouter:GPT-4o(“o”代表“omni”)是 OpenAI 最新的 AI 模型,支持文本和图像输入以及文本输出。它保持了 [GPT-4 Turbo](/models/open... 的智能水平。
- LLaVA v1.6 34B (由 liuhaotian 提供) | OpenRouter:LLaVA Yi 34B 是一个开源模型,通过在多模态指令遵循数据上对 LLM 进行微调训练而成。它是一个基于 Transformer 架构的自回归语言模型。Base LLM: [Nou...
- OpenRouter API Watcher:OpenRouter API Watcher 监控 OpenRouter 模型的变化并将这些变化存储在 SQLite 数据库中。它每小时通过 API 查询一次模型列表。
- Rubik's AI - AI 研究助手 & 搜索引擎:未找到描述
- 零一万物-AI2.0大模型技术和应用的全球公司(01.AI): 未找到描述
- OpenAI API 端点 | Open WebUI: 在本教程中,我们将演示如何使用环境变量配置多个 OpenAI(或兼容的)API 端点。此设置允许你轻松地在不同的 API 提供商之间切换...
- Claude 能读取 PDF 吗? [2023] - Claude Ai: Claude 能读取 PDF 吗?PDF(便携式文档格式)文件是我们日常生活中经常遇到的一种常见文档类型。
- Reddit - 深入探索: 未找到描述
- Reddit - 深入探索: 未找到描述
- Stripe | 互联网金融基础设施: Stripe 为各种规模的企业提供线上和线下支付处理及金融解决方案。通过一套 API 和无代码工具,实现收款、付款及财务流程自动化...
- DType | Modular Docs:表示 DType 并提供相关操作方法。
- Subtyping and Variance - The Rustonomicon:未找到描述
- Mojo🔥: a deep dive on ownership with Chris Lattner:深入了解 Mojo 中的所有权,与 Modular CEO Chris Lattner 进行深度探讨。如果您有任何问题,请务必加入我们友好的...
- [Feature Request] Unify SSO between `InlinedString` and `String` type · Issue #2467 · modularml/mojo:审查 Mojo 的优先级。我已阅读路线图和优先级,并认为此请求符合优先级。您的请求是什么?我们目前有 https://docs.modular.com/mojo/stdlib...
- Python Mutable Defaults Are The Source of All Evil - Florimond Manca:如何防止一个可能导致严重 Bug 并浪费大家时间的常见 Python 错误。
- 使用限制、计费和管理 - GitHub 文档:未找到描述
- GitHub - dorjeduck/minbpe.mojo:将 Andrjey Karpathy 的 minbpe 移植到 Mojo:将 Andrjey Karpathy 的 minbpe 移植到 Mojo。通过在 GitHub 上创建账户来为 dorjeduck/minbpe.mojo 的开发做出贡献。
- [CI] 为工作流添加超时设置,由 JoeLoser 提交 · Pull Request #2644 · modularml/mojo:在 Ubuntu 测试中,由于最近 nightly 版本中的代码 bug(可能在编译器或库中),我们看到了一些非确定性的超时。与其依赖默认的 GitHub 超时设置...
- [stdlib] 将字符串比较委托给 `StringRef`,由 siitron 提交 · Pull Request #2620 · modularml/mojo:这是 #2409 的后续。StringRef 的字符串比较已实现。StringRef 现在在所有 6 种比较中都使用了 memory.memcmp,希望这个改动没问题。String 和 Stri...
- [stdlib] 引入 Hasher 类型及所有必要更改,由 mzaks 提交 · Pull Request #2619 · modularml/mojo:这是一个草案,因为虽然代码可以编译,但有 8 个测试失败了。这可能是由于编译器 bug。错误消息非常晦涩。我没有足够的 "Mojo" ;) 来修复它们。失败的测试...
- Issues · modularml/mojo:Mojo 编程语言。通过在 GitHub 上创建账户来为 modularml/mojo 的开发做出贡献。
- minbpe.mojo/mojobpe/utils/mostring/molist.mojo 在 main 分支 · dorjeduck/minbpe.mojo:将 Andrjey Karpathy 的 minbpe 移植到 Mojo。通过在 GitHub 上创建账户来为 dorjeduck/minbpe.mojo 的开发做出贡献。
- GitHub - dorjeduck/mostring:Mojo 中 StringBuilder 构思的变体:Mojo 中 StringBuilder 构思的变体。通过在 GitHub 上创建账户来为 dorjeduck/mostring 的开发做出贡献。
- GitHub - mzaks/mojo 在 feature/minimal-example-of-test-crash-for-new-hasher 分支:Mojo 编程语言。通过在 GitHub 上创建账户来为 mzaks/mojo 的开发做出贡献。
- 来自 Benjamin F Spector (@bfspector) 的推文:(1/7) 母亲节快乐!我们认为美国母亲们真正想要的是一个只有 100 行代码且速度快 30% 的 Flash Attention 实现,我们很高兴能提供。我们非常激动...
- Lecture 14: Triton 实战指南:https://github.com/cuda-mode/lectures/tree/main/lecture%2014
- GitHub - cuda-mode/triton-index: 编录已发布的 Triton kernels。:编录已发布的 Triton kernels。通过在 GitHub 上创建账号为 cuda-mode/triton-index 的开发做出贡献。
- GitHub - zinccat/Awesome-Triton-Kernels: 使用 Triton 语言编写的 kernel 集合:使用 Triton 语言编写的 kernel 集合。通过在 GitHub 上创建账号为 zinccat/Awesome-Triton-Kernels 的开发做出贡献。
- GitHub - BobMcDear/attorch: PyTorch 神经网络模块的一个子集,使用 OpenAI 的 Triton 用 Python 编写。:PyTorch 神经网络模块的一个子集,使用 OpenAI 的 Triton 用 Python 编写。 - BobMcDear/attorch
- [TUTORIALS] 调整 flash attention 分块大小 (#3892) · triton-lang/triton@702215e:未找到描述
- GitHub - ELS-RD/kernl: Kernl 让你只需一行代码即可在 GPU 上以数倍的速度运行 PyTorch transformer 模型,并且设计为易于修改。:Kernl 让你只需一行代码即可在 GPU 上以数倍的速度运行 PyTorch transformer 模型,并且设计为易于修改。 - ELS-RD/kernl
- ThunderKittens: 一个用于 AI kernel 的简单嵌入式 DSL: 好的抽象就是好。
- GPUs Go Brrr: 如何让 GPU 变快?
- GitHub - HazyResearch/ThunderKittens: 用于高速 kernel 的 Tile 原语: 用于高速 kernel 的 Tile 原语。通过在 GitHub 上创建账号来为 HazyResearch/ThunderKittens 的开发做出贡献。
- GitHub - HazyResearch/nanoGPT-TK: 用于训练/微调中型 GPT 的最简单、最快的仓库。现在有了 kittens!: 用于训练/微调中型 GPT 的最简单、最快的仓库。现在有了 kittens! - HazyResearch/nanoGPT-TK
- UIUC ECE408/CS483 2018 春季 Hwu: 这是伊利诺伊大学厄巴纳-香槟分校的一门名为 "应用并行编程" 的大三/大四本科课程。它通常也被称为...
- 加入我们的 Cloud HD 视频会议: Zoom 是现代企业视频通信的领导者,拥有一个简单、可靠的云平台,用于跨移动设备、桌面和会议室系统的视频和音频会议、聊天和网络研讨会。Zoom ...
- 关于 GitHub Actions 的计费 - GitHub Docs:未找到描述
- 在带有 GPU runner 的 GitHub Actions 上运行您的 ML 工作负载:在带有 GPU runner 的 GitHub Actions 上运行您的 ML 工作负载
- cub::WarpLoad — CUB 104.0 文档:未找到描述
- Zero Redundancy Optimizer - Stage1 由 chinthysl 提交 · Pull Request #309 · karpathy/llm.c:为了训练更大的模型变体(2B, 7B 等),我们需要为参数、优化器状态和梯度分配更大的 GPU 显存。Zero Redundancy Optimizer 引入了这种方法来分片...
- 2D 和 3D tile 划分,以便从 threadIdx 和 blockIdx 读取排列坐标 · Issue #406 · karpathy/llm.c:据推测,排列 kernel 尽管大多受内存限制,但可以通过使用 2D 或 3D 网格来减少除法量并进行线程粗化(thread coarsening),从而无需在...中进行任何除法。
- Issues · NVIDIA/cccl:CUDA C++ 核心库。通过在 GitHub 上创建账户为 NVIDIA/cccl 的开发做出贡献。
- GitHub - HazyResearch/ThunderKittens: 用于快速 kernel 的 Tile 原语:用于快速 kernel 的 Tile 原语。通过在 GitHub 上创建账户为 HazyResearch/ThunderKittens 的开发做出贡献。
- GPUs Go Brrr:如何让 GPU 变快?
- llm.c/.github/workflows/ci.yml 在 2346cdac931f544d63ce816f7e3f5479a917eef5 · karpathy/llm.c:使用简单、原始的 C/CUDA 进行 LLM 训练。通过在 GitHub 上创建账户为 karpathy/llm.c 的开发做出贡献。
- Zero Redundancy Optimizer - Stage1 由 chinthysl 提交 · Pull Request #309 · karpathy/llm.c:为了训练更大的模型变体(2B, 7B 等),我们需要为参数、优化器状态和梯度分配更大的 GPU 显存。Zero Redundancy Optimizer 引入了这种方法来分片...
- llm.c/train_gpt2.cu 在 master · karpathy/llm.c:使用简单、原始的 C/CUDA 进行 LLM 训练。通过在 GitHub 上创建账户为 karpathy/llm.c 的开发做出贡献。
- 加入我们的云高清视频会议:Zoom 是现代企业视频通信的领导者,拥有简单、可靠的云平台,适用于移动端、桌面端和会议室系统的视频和音频会议、聊天及网络研讨会。Zoom ...
- torch.compile — PyTorch 2.3 文档:未找到描述
- Tensor 和 Operator 基础:Python 中具有强 GPU 加速能力的 Tensor 和动态神经网络 - pytorch/pytorch
- pytorch/workshops 仓库 master 分支下的 workshops/ASPLOS_2024:这是一个存放所有研讨会相关材料的仓库。 - pytorch/workshops
- Dynamo 深度解析 — PyTorch 主文档:未找到描述
- 没有指数级数据就没有“Zero-Shot”:预训练概念频率决定多模态模型性能:网页抓取的预训练数据集是多模态模型(如用于分类/检索的 CLIP 和用于图像生成的 Stable-Diffusion)令人印象深刻的“Zero-Shot”评估性能的基础...
- 介绍 GPT-4o:OpenAI 春季更新 —— 2024 年 5 月 13 日星期一现场直播。介绍 GPT-4o、ChatGPT 的更新等。
- Fishing for Magikarp: Automatically Detecting Under-trained Tokens in Large Language Models:语言模型中分词器(tokenizer)创建与模型训练之间的脱节,已知会导致某些输入(如臭名昭著的 SolidGoldMagikarp Token)诱发异常行为。...
- Fast Exact Retrieval for Nearest-neighbor Lookup (FERN):精确最近邻搜索是一个计算密集型过程,甚至其较简单的变体——向量检索——在计算上也可能非常复杂。当检索向量时,这种情况会进一步加剧...
- Farzi Data: Autoregressive Data Distillation:我们研究了自回归机器学习任务的数据蒸馏,其中输入和输出具有严格的从左到右的因果结构。具体而言,我们提出了 Farzi,它总结了...
- State-Free Inference of State-Space Models: The Transfer Function Approach:我们通过其对偶表示——传递函数(transfer function),来设计用于深度学习应用的状态空间模型(SSM),并发现了一种高效的序列并行推理算法...
- Conv-Basis: A New Paradigm for Efficient Attention Inference and Gradient Computation in Transformers:大型语言模型(LLMs)深刻改变了世界。自注意力机制是 Transformer 在 LLM 中取得成功的关键。然而,$O(n^2)$ 的二次计算成本使得...
- Yi: Open Foundation Models by 01.AI:我们介绍了 Yi 模型家族,这是一系列展示了强大维度能力的语言和多模态模型。Yi 模型家族基于 6B 和 34B 预训练语言模型...
- Granite Code Models: A Family of Open Foundation Models for Code Intelligence:在代码上训练的大型语言模型(LLMs)正在彻底改变软件开发过程。代码 LLM 正越来越多地被集成到软件开发环境中,以提高...
- SOLAR 10.7B: Scaling Large Language Models with Simple yet Effective Depth Up-Scaling:我们介绍了 SOLAR 10.7B,一个拥有 107 亿参数的大型语言模型(LLM),在各种自然语言处理(NLP)任务中展示了卓越的性能。受近期研究的启发...
- Memory Mosaics:Memory Mosaics 是协同工作以实现特定预测任务的联想记忆网络。与 Transformer 类似,Memory Mosaics 具有组合能力和上下文学习(in-context learning)能力...
- Subquadratic LLM Leaderboard - a Hugging Face Space by devingulliver:未找到描述
- FLM-101B: An Open LLM and How to Train It with $100K Budget:大型语言模型(LLMs)在 NLP 和多模态等任务中取得了显著成功。尽管取得了这些成功,开发 LLM 仍面临两个主要挑战:(i) 高昂的计算...
- Masked Structural Growth for 2x Faster Language Model Pre-training:加速大型语言模型预训练是当前研究的一个关键问题。在本文中,我们专注于通过从小型 Transformer 结构逐步增长来加速预训练...
- Farzi Data: Autoregressive Data Distillation:我们研究了自回归机器学习任务的数据蒸馏,其中输入和输出具有严格的从左到右的因果结构。具体而言,我们提出了 Farzi,它总结了...
- ThunderKittens: A Simple Embedded DSL for AI kernels:好的抽象就是好的。
- GPUs Go Brrr:如何让 GPU 变快?
- Updatable Learned Index with Precise Positions:索引在现代数据库引擎中起着加速查询处理的关键作用。“学习索引”(learned index)的新范式显著改变了索引结构的设计方式...
- Jean Feydy's home page:未找到描述
- A Battle of Network Structures: An Empirical Study of CNN, Transformer, and MLP:卷积神经网络(CNN)是计算机视觉领域主流的深度神经网络(DNN)架构。最近,基于 Transformer 和多层感知器(MLP)的模型,如 Vision Tra...
- Scaling MLPs: A Tale of Inductive Bias:在这项工作中,我们重新审视了深度学习中最基础的构建块——多层感知器(MLP),并研究了它在视觉任务上的性能极限。对 MLP 的实证见解是...
- 来自 William Fedus (@LiamFedus) 的推文:GPT-4o 是我们最新的 state-of-the-art 前沿模型。我们一直在 LMSys arena 上以 im-also-a-good-gpt2-chatbot 的身份测试一个版本 🙂。以下是它的表现。
- 来自 lmsys.org (@lmsysorg) 的推文:相对于所有其他模型,胜率显著提高。例如,在非平局对决中,对比 GPT-4 (June) 的胜率约为 80%。
- 来自 Google (@Google) 的推文:距离 #GoogleIO 还有一天!我们感到非常 🤩。明天见,获取有关 AI、Search 等的最新消息。
- 来自 Bedros Pamboukian (@bedros_p) 的推文:示例列表中的 VideoFX 镜头。还有 2 个,但看起来还在开发中 (WIP)。初探 VideoFX 的生成效果:
- 同步代码库 · openai/tiktoken@9d01e56:未找到描述
- 来自 Jim Fan (@DrJimFan) 的推文:我纠正一下:GPT-4o 并不原生处理视频流。博客说它只接受图像、文本和音频。这很遗憾,但我所说的原则仍然成立:制作视频的正确方法是...
- 来自 lmsys.org (@lmsysorg) 的推文:突发新闻 —— gpt2-chatbots 的结果现已公布!gpt2-chatbots 刚刚飙升至榜首,以显著差距(约 50 Elo)超越了所有模型。它已成为 Arena 中有史以来最强的模型...
- 来自 Kaio Ken (@kaiokendev1) 的推文:是的,但它会呻吟吗?
- GPUs Go Brrr:如何让 GPU 变快?
- deepseek-ai/DeepSeek-V2 · Hugging Face:未找到描述
- Introducing GPT-4o:OpenAI 春季更新 – 2024 年 5 月 13 日星期一直播。介绍 GPT-4o、ChatGPT 的更新等。
- Silicon Valley Tip To Tip GIF - Silicon Valley Tip To Tip Brainstorm - Discover & Share GIFs:点击查看 GIF
- Falcon 2: UAE’s Technology Innovation Institute Releases New AI Model Series, Outperforming Meta’s New Llama 3:未找到描述
- Bunline - v0.4 | Stable Diffusion Checkpoint | Civitai:PixArt Sigma XL 2 1024 MS,基于约 3.5 万张 max(w,h) > 1024px 的图像及自定义标注进行全量微调。说明:将 .safetensors 放置在...
- Stores | 🦜️🔗 LangChain:在许多不同的应用中,拥有某种键值存储(key-value storage)是很有帮助的。
- Structured chat | 🦜️🔗 LangChain:结构化聊天 Agent 能够使用多输入工具。
- Extracting structured output | 🦜️🔗 LangChain:概览
- Quickstart | 🦜️🔗 LangChain:在本指南中,我们将介绍创建调用 Tools 的 Chains 和 Agents 的基本方法。Tools 可以是任何东西——APIs、函数、数据库等。Tools 允许我们扩展功能...
- langchain/libs/partners/chroma/pyproject.toml at master · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- generative-ai/gemini/use-cases/retrieval-augmented-generation/multimodal_rag_langchain.ipynb at main · GoogleCloudPlatform/generative-ai:Google Cloud 上生成式 AI 的示例代码和 Notebook,包含 Vertex AI 上的 Gemini - GoogleCloudPlatform/generative-ai
- go - Overview:go 有 52 个可用仓库。在 GitHub 上关注他们的代码。
- Example of extracting multiple values from a streamed OpenAI chat response:从流式 OpenAI 聊天响应中提取多个值的示例 - extract_multiple_values_from_stream.py
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Quickstart | 🦜️🔗 LangChain:在此快速入门中,我们将向您展示如何:
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Manifest | 🦜️🔗 LangChain:本 Notebook 介绍了如何使用 Manifest 和 LangChain。
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain:🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号,为 langchain-ai/langchain 做出贡献。 通过在 GitHub 上创建账户来参与开发。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账户来为 langchain-ai/langchain 的开发做出贡献。 </ul> </div> --- **LangChain AI ▷ #[share-your-work](https://discord.com/channels/1038097195422978059/1038097372695236729/1238769533431320608)** (4 条消息): - **探索癌症药物研发中的 AI**:一段 YouTube 视频讨论了 Generative AI 在癌症药物研发中的作用,以及对更多自动化方法的需求。点击[此处](https://youtu.be/vyOtowbGwG0?feature=shared)查看完整探索。 - **Index Network 的最新动态**:通过查看他们最新的 [推文](https://twitter.com/indexnetwork_/status/1788311740595245515) 来了解最新的公告或见解。 - **开源 Code Interpreter 发布**:Obaidur-rahaman 介绍了一个新的开源项目,用于自然语言辅助的可视化和交互式数据分析,该项目兼容 OpenAI API 密钥,并即将支持 Llama 3。该项目旨在安全地处理和分析机密数据,增强企业的洞察力,可在 [GitHub](https://github.com/obaidur-rahaman/nlavida) 上获取。 - **使用 LangChain 和 Pinecone 构建自定义 RAG 流水线的教程**:Zackproser 正在开发一份详细指南,介绍如何将 LangChain 与 Next.js 和 Pinecone 集成,以创建一个采用 Retrieval Augmented Generation(检索增强生成)技术的博客聊天功能。该教程将涵盖从数据摄取到构建交互式聊天界面的所有内容,详情请见[此处](https://zackproser.com/blog/langchain-pinecone-chat-with-my-blog)。
- Build a RAG pipeline for your blog with LangChain, OpenAI and Pinecone: 即使我不在身边,你也可以与我的文章聊天,并向我询问我已经回答过的问题。
- Cancer Drug Discovery AI Agentic Workflow R&D: 许多 Generative AI 的进展都存在于药物研发应用中。然而,还需要额外的方法来进一步自动化该过程,以获得更明智的药物组合...
- GitHub - obaidur-rahaman/nlavida: Natural Language-Assisted Visualization & Interactive Data Analysis (NLAVIDA): Securely handle and analyze confidential data in enterprise environments, enhancing insights and decision-making with advanced visualization.: 自然语言辅助可视化与交互式数据分析 (NLAVIDA):在企业环境中安全地处理和分析机密数据,通过高级可视化增强洞察力和决策能力...
- Build a RAG pipeline for your blog with LangChain, OpenAI and Pinecone: 即使我不在身边,你也可以与我的文章聊天,并向我询问我已经回答过的问题。
- Make any Text LLM into Multimodal with DinoV2: 我们将研究如何使用视觉编码器为文本 LLM 添加视觉能力。https://github.com/githubpradeep/notebooks/blob/main/VLM.ipynbhttps:/...
- Google Colab: 无描述
- Google Colab: 无描述
- llama-index-llms-openai: llama-index llms openai 集成
- llama-index-multi-modal-llms-openai: llama-index multi-modal-llms openai 集成
- langchain/cookbook/Multi_modal_RAG.ipynb at master · langchain-ai/langchain: 🦜🔗 构建上下文感知推理应用。通过在 GitHub 上创建账号为 langchain-ai/langchain 开发做贡献。
- Multi-Modal Applications - LlamaIndex: 无描述
- Multimodal Ollama Cookbook - LlamaIndex: 无描述
- File - LlamaIndex: 无描述
- Data Connectors (LlamaHub) - LlamaIndex: 无描述
- 探索用于 GPT-3.5 评测的知识蒸馏 (Knowledge Distillation):Hugging Face 上的一篇博客文章解释了使用知识蒸馏来增强微调 GPT-3.5 作为裁判(Judge)的准确性和性能的过程及益处。它包含详细的逐步代码实现指南。
- 社区对微调 (Finetuning) 技术的参与:一位成员赞扬了最近的文章,强调了目前缺乏引导用户如何有效微调模型的易用资源。
- GPUs Go Brrr:如何让 GPU 变快?
- Open-Orca/SlimOrca-Dedup · Hugging Face 数据集:未找到描述
- 未找到标题:未找到描述
- Microsoft C++ Build Tools - Visual Studio:未找到描述
- optimizer shouldn't be run without training by geohot · Pull Request #4460 · tinygrad/tinygrad: 未找到描述
- train.py: GitHub Gist: 立即分享代码、笔记和代码片段。
- test_aggregate.py: GitHub Gist: 立即分享代码、笔记和代码片段。
- pytorch_cluster/csrc/cuda/radius_cuda.cu at master · rusty1s/pytorch_cluster: 优化图聚类算法的 PyTorch 扩展库 - rusty1s/pytorch_cluster
- torchmd-net/torchmdnet/extensions/neighbors/neighbors_cpu.cpp at 75c462aeef69e807130ff6206b59c212692a0cd3 · torchmd/torchmd-net: 神经网络势能。通过在 GitHub 上创建账号来为 torchmd/torchmd-net 的开发做出贡献。
- Neural-Turing-Machine-in-Tinygrad/NTM.py at main · shriar/Neural-Turing-Machine-in-Tinygrad: 通过在 GitHub 上创建账号来为 shriar/Neural-Turing-Machine-in-Tinygrad 的开发做出贡献。
- GitHub - rs9000/Neural-Turing-machine: NTM in PyTorch: PyTorch 版 NTM。通过在 GitHub 上创建账号来为 rs9000/Neural-Turing-machine 的开发做出贡献。
- tinygrad/examples/whisper.py at a1940ced7746fcdf09068aadf4155e4c1e3641b8 · tinygrad/tinygrad: 你喜欢 PyTorch?你喜欢 micrograd?你会爱上 tinygrad!❤️ - tinygrad/tinygrad
- tinygrad/examples/whisper.py at a1940ced7746fcdf09068aadf4155e4c1e3641b8 · tinygrad/tinygrad: 你喜欢 PyTorch?你喜欢 micrograd?你会爱上 tinygrad!❤️ - tinygrad/tinygrad
- Home - PyG: PyG 是图神经网络 (Graph Neural Networks) 的终极库
- 在转换 gguf 时添加元数据覆盖并生成动态默认文件名 · Issue #7165 · ggerganov/llama.cpp: 这是针对 PR #4858 的正式工单,以便人们了解并参与讨论该想法是否合理……如果合理,在合并之前还需要做些什么……
- 由 mofosyne 添加升级 llamafile 存档的脚本 · Pull Request #412 · Mozilla-Ocho/llamafile: 上下文:#411 将 https://briankhuu.com/blog/2024/04/06/inplace-upgrading-of-llamafiles-engine-bash-script/ 移植到 llamafile
- MediathekViewWebVLC/mediathekviewweb.lua at main · 59de44955ebd/MediathekViewWebVLC:用于 VLC 的 MediathekViewWeb Lua 扩展。可以通过在 GitHub 上创建账号来为 59de44955ebd/MediathekViewWebVLC 做出贡献。
- Die 100 beliebtesten Podcasts im Moment – Deutschland:此列表显示了当前最受欢迎的 100 个播客,包含来自 Apple 和 Podtail 的最新数据。
- Top YouTube Channels in Germany | HypeAuditor YouTube Ranking:查找截至 2024 年 5 月德国最受欢迎的 YouTube 频道。获取德国顶级 YouTuber 列表。