ainews-claude-3-is-officially-americas-next-top
Claude 3 正式成为了“全美超模”(America's Next Top Model)。 *(注:这句话套用了美国知名真人秀节目《全美超模大赛》的名称,以此幽默地表示 Claude 3 已成为目前美国最顶尖的 AI 模型。)*
以下是该文本的中文翻译:
Claude 3 Opus 在盲测 Elo 排名中超越了 GPT4T 和 Mistral Large,而 Claude 3 Haiku 则树立了性价比的新标杆。文中重点介绍了在 Mistral 7B 上应用 QLoRA 等微调技术,以及 HuggingFace 模型上的进化模型合并技术。公众舆论对人工超级智能(ASI)的发展表现出强烈反对。此外,AI 对齐领域的研究指导机会也已公布。Stable Diffusion 3 (SD3) 的发布引发了对 ComfyUI 和 automatic1111 等工具工作流兼容性的担忧。与 Anthropic API 相比,Opus 在 OpenRouter 上的性能下降了 5%。一项新的基准测试强调了大语言模型(LLM)在长上下文下的召回能力,其中 Mistral 7B 表现吃力,而 Qwen 72b 表现出色。
目录
[TOC]
第 X 部分:AI Twitter 回顾
所有回顾均由 Claude 3 Opus 完成,从 4 次运行中择优选取
AI 模型与架构
- @virattt.: 微调一个沃伦·巴菲特 LLM,以像巴菲特先生那样分析公司。使用 Mistral 7B instruct,Colab 中的单 GPU,用于快速微调的 QLoRA,以及用于证明概念的小型数据集。(12.8万次观看)
- @DrJimFan.: 进化模型合并(Evolutionary Model Merge):利用进化算法合并 HuggingFace 上的模型,以解锁新能力,例如日语理解。这是一种复杂的模型手术形式,所需的计算量远小于传统的 LLM 训练。(12.5万次观看)
AI 伦理与社会影响
- @AISafetyMemes: 美国人并不支持这一点:5 比 1 的人希望禁止开发 ASI(强人工智能/比人类更聪明的 AI)。E/accs 的支持率比撒旦崇拜者还低(许多人实际上希望 AI 灭绝我们,将其视为“进化进步”)。(7.6万次观看)
- @mark_riedl: 我关于 AI、伦理和版权的文章终于发布在 arXiv 上了。(1万次观看)
- @jachiam0: 人类历史上最大的公平失败之一是,直到 2018 年,全球仍有不到一半的人口能够访问互联网。这是决定塑造第一批 AGI 的数据分布的最大因素。高度发达国家在这一进程中拥有更多的投票权。(3千次观看)
AI 对齐与安全
- @EthanJPerez: 今年夏天我将担任 MATS 的研究导师。如果你渴望与我合作进行对齐研究,我强烈建议填写简短的申请表(截止日期为今天)!(1万次观看)
- @stuhlmueller: 期待看到这一成果!Noah 参与的对齐相关工作包括:可解释性(Interpretability)、使用语言模型进行认证演绎推理(Certified Deductive Reasoning with Language Models)、使用语言模型诱导人类偏好(Eliciting Human Preferences with Language Models)。(2千次观看)
迷因与幽默
- @BrivaelLp: Deepfakes 变得与现实难以区分 🤯 这段视频是使用 Argil AI 模型克隆的 Lex Fridman 版本。(10.3万次观看)
- @ylecun: 哈哈。(8.6万次观看)
- @AravSrinivas: 训练将持续进行,直到评估结果有所改善。(3.2万次观看)
- @nearcyan: 生活中的一切要么是技术问题,要么是运气问题。幸运的是,只要有足够的技术和运气,两者都很容易解决。(2.5万次观看)
- @Teknium1: 遗憾的是,我们最具艺术感的发布被 Claude 的末日保护机制毁了 🥲。(1.9万次观看)
PART 0: 摘要之摘要之摘要
-
SD3 发布引发工作流担忧:Stable Diffusion 社区正预见 SD3 的发布可能会对 ComfyUI 和 automatic1111 等工具造成干扰。人们希望出现无审查版本,并担心集成延迟会影响工作流。
-
Opus 在 OpenRouter 上的性能下降:根据 OpenRouter Discord 的讨论,测试显示通过 OpenRouter 调用的 Opus 在处理复杂提示词时,其指令遵循度比官方 Anthropic API 低 5%。
-
LLM 召回基准测试挑战模型性能:一个新的基准测试 llm_split_recall_test 重点测试了 Large Language Models 在 2500-5000 token 长度下的上下文召回能力。根据一条 推文 和 GitHub 仓库,Mistral 7B 等模型表现吃力,而 Qwen 72b 展现出了潜力。
-
OpenCodeInterpreter-DS-33B 媲美 GPT-4:开源模型 OpenCodeInterpreter-DS-33B 在 BigCode 排行榜 上的表现与 GPT-4 持平,这引发了人们对 OpenInterpreter 项目的关注。
-
GGML 安全漏洞曝光:Databricks 报告了多个 GGML 漏洞,这些漏洞需要进行修补。一个特定的 commit 修复了作为补丁一部分的 GGML 分配错误。
PART 1: 高层级 Discord 摘要
Stability.ai (Stable Diffusion) Discord
-
SD3 发布引发工作流困扰:社区成员正在预估 SD3 的发布将如何影响 ComfyUI 和 automatic1111 等工具。他们期待社区驱动的改进,并主张推出无审查版本,同时也对集成时间和工作流中断表示担忧。
-
AI 辅助视频制作兴起:关于创建 AI 生成视频的技术正被积极讨论,重点是使用 FILM 和 Deforum 等帧插值器。然而,社区承认这需要大量的计算资源和时间,并建议将分镜设计(storyboarding)作为成功渲染的关键步骤。
-
换脸技术的进步:对话强调 Reactor 正在落后,因为使用 IP Adapters 和 Instant ID 的更先进换脸算法已成为标准。这些新方法因其能通过扩散过程创建更自然的脸部融合而更受青睐。
-
开源 AI 处于十字路口:关于开源 AI 未来的辩论正在进行,有人提到在监管加强的担忧下要保护好代码仓库,并担心专有平台会使 automatic1111 或 Forge 等项目黯然失色。
-
放大(Upscaling)的硬件考量:社区交流集中在放大解决方案上,如 Topaz Video AI,以及 SDXL 和 Cascade 模型之间的性能差异。用户指出 RTX 3060 能够进行快速的细节渲染,引发了关于 GPU 升级收益的讨论。
Unsloth AI (Daniel Han) Discord
Langchain 缺乏优雅性:在一场激烈的讨论中,Langchain 因代码质量差(尽管营销做得好)而受到指责,讨论强调在生产环境中应避免因技术债导致的依赖问题。
AI 涌现能力受到关注:来自 Quantamagazine 的一篇文章引发了关于 AI “突破性”行为增长的辩论,这可能对 AI 安全和能力讨论产生影响。
边缘端微调:用户尝试将 Unsloth 的 fastlanguage 从 4-bit 量化修改为 8-bit 量化,得出的结论是由于预量化的原因,在微调后进行此操作是不可行的。在其他地方,用户分享了在微调期间通过更改 batch size 和 sequence length 来管理 VRAM 的技巧。
展示 Masher AI v6-7B:有人展示了他们的 Masher AI v6-7B 模型,使用 OpenLLM Leaderboard 进行性能评估,Demo 可在 Hugging Face 上获得。
Transformer 工具包指令:一个提供在 Transformer 模型上处理新 head 的工具包 GitHub 仓库 引起了关注,这可能会简化与模型定制相关的工程任务。
OpenAI Discord
-
Sora 与艺术家和电影制作人共同起飞:OpenAI 的 Sora 受到 Paul Trillo 等艺术家和电影制作人的称赞,认为其开启了创意新领域。讨论围绕其生成超现实概念的应用展开,如 收缩儿童 (shy kids) 团队在 “Air Head” 项目中所展示的那样。
-
Assistant API 的缓慢起步:在 API 交互领域,用户对 Assistant API 的初始响应时间感到沮丧。据一些用户报告,在使用
thread_id功能时,响应时间接近两分钟,而随后的响应则较快。 -
Claude Opus 以更快的代码能力吸引用户:讨论强调了 Claude Opus 在 coding 方面优于 GPT-4,并暗示如果 OpenAI 不跟进竞争性更新,可能会面临客户流失。
-
GPT Store 自定义集成挑战:工程师们正在寻求有效的方法,将 GPT Store 中的自定义 GPT 链接到 Assistant API 而无需重复指令。同时,ChatGPT Team 订阅者也提出了对更强大功能的需求,如更大的文件上传限制和 PDF 图像分析能力。
-
LLM 要求精确的 Prompt:对话强调了 Prompt Engineering 中精确性的重要性;建议在处理多页文档解析时使用 Embedding 来维持上下文,并重申了在使用 GPT 等 LLM 进行评估任务时,需要定义明确的排名系统。
Nous Research AI Discord
-
LLM 接受召回测试:一个针对 Large Language Models (LLM) 的新基准测试,旨在测试在 2500 和 5000 Token 长度下的 In-context 召回能力。事实证明,这对 Mistral 7B 和 Mixtral 等模型是一个挑战。llm_split_recall_test 仓库提供了详细的指标,并指出 Qwen 72b 等模型表现出良好的性能。关于基准测试的推文 GitHub 仓库 -
调整 AI 音乐领域:关于 Suno.ai 的讨论展示了其在生成音频内容和 Spotify 播放列表 方面的强大能力,体现了 AI 对创意产业日益增长的影响。AI 在 Web 开发中的效率也成为关注焦点,特别是将 Jinja 模板 与 HTMX 和 AlpineJS 结合使用,以及使用 openHermes 2.5 转换 YAML 知识图谱。
-
微调(Fine-Tuning):是实际需求还是过时技术?:@HamelHusain 的一条推文 引发了关于在快速进步背景下 AI 模型微调价值的讨论。共识认为,微调是特定推理用例中一种具有成本效益的方法,但不适合扩展模型知识。
-
AI 的 World-Sim:数字前沿:Nous Research 的 World-Sim 增强功能鼓励从命令行界面开始,并利用 Discord Spaces 进行社区互动和协调。图灵奖级别的论文以及对 World-Sim 叙事能力的探索,展示了其作为创意和世界构建媒介的潜力。
- 开源项目媲美大模型:根据 BigCode 排行榜,OpenCodeInterpreter-DS-33B 的表现已可媲美 GPT-4,这激发了人们对 OpenInterpreter 等开源 AI 模型的兴趣。讨论还暗示了 Infinity 等替代性 Vector Embedding API 的出现,以应对 NVIDIA 的 Reranking 模型。
Perplexity AI Discord
-
AI 模型大对决:Claude 3 Opus vs. GPT-4 Turbo:成员们正在热烈讨论 Perplexity Pro 的能力,特别是通过此处查看的性能测试和此处可用的模型测试工具,对比 Claude 3 Opus 与 GPT-4 Turbo。关于优化 AI 搜索 Prompt 的讨论(尤其是在游戏设计等创意领域)提到了 Pro Search 等工具,尽管用户察觉到它存在一些缺点。
-
AI 搜索引擎挑战 Google 的统治地位:来自 The Verge 的一篇文章引发了关于 AI 驱动的搜索服务是否会超越 Google 等传统引擎的辩论。虽然一些用户反映了 AI 功能在上下文保留和图像识别方面的问题,但用户们也在积极讨论 Anthropic 为 Claude Opus 3 设置的 4096 token 限制。
-
利用另类数据 (Alternative Data) 洞察股市:#sharing 频道的讨论显示出对应用另类数据预测股市趋势的浓厚兴趣,并引用了关于该主题的 Perplexity 搜索结果,详见此处。
-
对 API 自动化和说明的需求:在 #pplx-api 频道中,有人呼吁为 Perplexity API 提供类似 autogpt 的服务以实现任务自动化,同时有报告称实验结果优于直接的 API 查询。成员们还在寻求更好地了解 API 的计费系统,提到 每个回答 0.01 的费率以及基于日期的响应出现乱码的问题。
-
关注时事与摄影技巧:社区通过更新线程关注时事,并通过分享关于摄影中三分法 (rule of thirds) 的链接展示了对艺术方面的参与。他们还表达了对 iOS 18 功能的期待,信息源自此 Perplexity 搜索。
OpenInterpreter Discord
YouTube 学习:一把双刃剑:成员们就通过 YouTube 学习的有效性展开了辩论,一些人担心分心和隐私问题,而另一些人则支持视频教程,尽管担心该平台的数据挖掘行为。
本地化是 LLM 的新趋势:将本地 LLM(如 ollama, kobold, oogabooga)与 Open Interpreter 集成引发了关注,讨论集中在避免外部 API 成本以及实现对 ClosedAI 等服务独立性的好处。
对多样化 Open Interpreter 文档的需求:对 Open Interpreter 多样化文档的需求日益增长。提议包括辅以视频的 Wiki 风格资源,以及交互式“实验室”或“引导式设置”,以满足不同的学习偏好。
扩展 Open Interpreter 生态系统:社区成员热衷于扩展 Open Interpreter,探索用于离线掌上设备和研究助手的附加工具和模型。他们还在分享项目开发的反馈,以提高易用性和无障碍性。
技术难题:讨论了在 PyCharm 中设置 “01” 环境的问题、“01” 设备预订的地理限制、多语言支持、系统要求以及 Windows 和 Raspberry Pi 兼容性,同时也报告了活跃的社区协作和 DIY 外壳设计讨论。此外,还强调了 Ollama 的新 Windows 启动器在安装后导致应用无法使用的问题,目前尚无明确解决方案。
HuggingFace Discord
HuggingFace 新聊天功能的网页交互尝试:HuggingFace 推出了一项新功能,使聊天助手能够与网站进行交互;演示视频可通过 Twitter 帖子查看。
开源更新中的丰富库资源:开源更新包括对 transformers.js、diffusers、transformers 等库的增强。osanseviero 在 Twitter 上详细介绍了这些更新,更多文档可在 HuggingFace 博客文章中找到。
模型实现的社区努力:社区讨论了使用 Candle 库将 GLiNER 模型从 Pytorch 转换为 Rust 的工作,并探讨了 Rust 实现的性能优势以及 Candle 库的 GPU 加速能力。
机器人与库创作的盛宴:Cohere 的 Command-R 聊天机器人已在 HuggingFace Spaces 展示,供社区贡献。同时,用于加载各种图像类型的新 Python 库 loadimg 已在 GitHub 上线。
聚焦图像与文本的融合:HuggingFace 上的 BLIP-2 文档因其在连接视觉和语言模态方面的潜力而受到关注。讨论还集中在医学图像的预处理归一化上,参考了 nnUNet 的策略。
NLP 与 AI 效率的创新:一位成员深入研究了 Mistral-7B-v0.1-half-naive-A 模型的模型压缩及其对性能的影响。此外,还集思广益探讨了利用 multi-shot 推理和微调来总结游戏排行榜的可能性。
Diffusion 领域的多元探讨:关于训练 Diffusion 模型的正则化图像结构的咨询,寻求了创建有效正则化集的建议,重点关注图像质量、多样性以及 negative prompts 的使用。
LM Studio Discord
-
跨平台模型大小之谜:用户注意到不同平台间的模型大小存在差异,例如 Mistral Q4 在 ollama 上为 26GB,而在 LM Studio 上为 28GB。此外,用户对 Mistral 7B 的硬件性能表现提出担忧,称其导致 CPU 和 RAM 占用率极高,而 GPU 利用率却微乎其微。由于 0.2.17 版本中可能存在的 Bug,即使在配备 i5-11400F、32GB RAM 和 3060 12G GPU 的系统中,这种低效情况依然存在。
-
跨设备模型交互:用户讨论了跨设备与模型交互的方法,其中一个成功的方案是使用远程桌面软件,特别是 VNC。此外,还有关于在外部 SSD 上存储时如何维护文件夹结构以识别 LLM,以及在 LM Studio 中使用正确的 JSON 格式的建议。
-
IMAT 在质量上的胜利:用户观察到 IMATRIX 模型 的显著改进,指出 IMAT Q6 的性能往往超过了“常规”的 Q8。对 32K context length 模型的搜索引发了讨论,Mistral 7b 0.2 成为那些希望探索类 RAG 交互用户的关注焦点。
-
Beta 版本的负担:在 Beta 版聊天频道中,讨论了 2.17 版本在特定 Token 计数时出现乱码输出以及在 Token 限制下难以保持故事连贯性的问题。报告了 JSON 输出错误,特别是
NousResearch/Hermes-2-Pro-Mistral-7B-GGUF/Hermes-2-Pro-Mistral-7B.Q5_K_M.gguf模型。此外,还提到了受限的 Linux 版本发布(跳过了 0.2.16 版本)。 -
Linux 用户仍在等待:Linux 爱好者注意到 0.2.16 版本未发布,导致该迭代版本没有更新。某些模型(如 moondream2)出现了兼容性问题,引发了关于模型交互以及 llava vision 模型与特定 LM Studio 版本兼容性的讨论。
-
新硬件上的 VRAM 消失术:记录了一个令人困惑的事件,一块拥有 24GB VRAM 的 7900XTX 显卡显示了错误的 36GB 容量,并且在尝试运行 codellama 7B 等小型模型时,因未知错误加载失败(退出代码:-1073740791)。
-
工程师优化 AI 工具:在 crew-ai 频道中,一位用户基于成功使用 deepseek coder instruct v1.5 7B Q8_0.gguf 的经验,推导了将 gpt-engineer 与 AutoGPT 结合的潜力。然而,一些人对 GPT 缺乏完整的编程能力(如测试代码和遵循标准)表示沮丧,同时期待在不久的将来会有重大突破。
-
命令行调整的胜利:成功利用了 LM Studio 中的高级选项,包括
-y和--force_resolve_inquery,并根据 GitHub issue #1124 的记录解决了非官方支持模型的问题,提高了 Python 输出的有效性。
LAION Discord
-
安全与否,最好检查一下:用户被提醒注意一个包含成人内容的 Reddit 帖子,并讨论了模型从非显性提示中生成 NSFW 内容的问题,建议在更通用的应用中进行微调训练。
-
对 Sora 的“抽卡”式冒险感到沮丧:讨论强调了 Sora AI 依赖重复生成来获得理想结果的现状,暗示了其背后的商业策略。
-
AI 模型训练中的平衡艺术:技术对话集中在 AI 模型中的“灾难性遗忘”(catastrophic forgetting)和数据分布的意外变化,认为持续学习是一个关键挑战,并参考了 “fluffyrock” 模型和关于该主题的 YouTube 讲座。
-
Diffusion 的平衡之旅:讨论了 NVIDIA 关于 重新思考如何训练 Diffusion 模型 的见解,强调了此类模型的特殊性,即直接的改进往往会导致意想不到的性能下降。
-
VoiceCraft 塑造 TTS 的未来:VoiceCraft 因其顶尖的语音编辑和 Zero-shot TTS 能力而受到关注,爱好者们期待模型权重的发布,并引发了关于开源与专有模型生态系统的辩论。该技术的描述、代码和更多细节可以在其 GitHub 页面 和 官方网站 上找到。
LlamaIndex Discord
-
与 AI 同事一起浏览:最新的 LlamaIndex 网络研讨会展示了一个工具,通过大约 150 行代码开发的 AI Browser Copilot,可以在 Jupyter/Colab 笔记本中进行网页导航,旨在赋能用户创建类似的 Agent。公告和详情已分享给那些有兴趣构建自己的 Copilot 的用户。
-
Python 文档焕然一新:LlamaIndex 更新了其 Python 文档,增加了包含预览和术语高亮的增强搜索功能。此次更新展示了大量的示例 Notebook,可以点击此处访问。
-
RAG 增强型代码 Agent 网络研讨会:即将举行的 CodeGPT 网络研讨会将指导参与者为代码助手构建聊天+自动补全界面,重点介绍创建 AST 并将代码库解析为知识图谱以改进代码 Agent 的技术。活动详情已在 Twitter 上公布。
-
LLMOps 开发者聚会即将举行:一场专注于大语言模型(LLM)应用的开发者聚会定于 4 月 4 日举行,届时将有来自 LlamaIndex 和 Guardrails AI 等公司的专家分享从原型到生产的 LLM 运营见解。感兴趣的参与者可以在此注册。
-
LlamaIndex 中的 RAFT 进展:LlamaIndex 已成功集成 RAFT 方法,用于微调针对检索增强生成(RAG)设置量身定制的预训练 LLM,从而增强特定领域的查询响应。该过程和心得已记录在由 andysingal 提供的 Medium 文章《Unlocking the Power of RAFT with LlamaIndex: A Journey to Enhanced Knowledge Integration》中。
Eleuther Discord
AMD 驱动困境引发辩论:技术讨论揭示了对 AMD Radeon 驱动策略的担忧,认为性能不佳可能会阻碍数百万美元规模的 ML 基础设施领域的信心。讨论了开源 AMD 驱动的想法,将其作为与 Nvidia 的主导地位竞争的一种策略。
权重存储的新变革:提出了一种新方法,将模型权重存储为种子(seed)加增量(delta),这可能会提高精度并消除对混合精度训练的需求。向预训练权重而非零权重的权重衰减(即 “L2-SP”)的概念转变也是一个热门话题,并参考了 arXiv 上的 L2-SP 研究。
Chess-GPT 登上棋盘:介绍了能够以约 1500 Elo 评分进行对弈的 Chess-GPT 模型,并讨论了其预测棋步和评估玩家技能水平的能力。社区还探讨了 N-Gram 模型的局限性以及扩展 tokengrams 时的 Kubernetes 版本兼容性问题;GCP 被提及作为高资源计算需求的解决方案。
检索研究与分词技巧:参与者请求关于优化检索流水线质量的建议,提到了 Evals 和 RAGAS 等工具。Tokenizer 对模型性能的影响也引发了讨论,并附带了 arXiv 上的 MaLA-500 以及关于日语分词器的研究链接。
利用 lm-eval 进行逆向缩放:重点是将逆向缩放(inverse scaling)集成到 lm-evaluation-harness 中,详见此实现。还提出了关于 BBQ Lite 评分方法的问题,该 harness 本身的功能也受到了赞赏。
Latent Space Discord
- 讨论自动化前沿:一位成员对能够通过少量训练样本学习并自动化重复性任务的服务产生了兴趣,暗示了在键盘和鼠标自动化方面的潜在进展或工具。
- Sora 引发的 AI 创意浪潮:OpenAI 的新项目 Sora 激发了关于其促进创意应用能力的讨论,指向一篇首发印象博客文章,强调了 AI 与创意的交汇。
- 黑客松创意大爆发:在最近成功举办的一场黑客松中,经过微调的 Mistral 7B 运行 DOOM 以及基于 Mistral 的搜索引擎成为了热门话题,并在一系列推文中获得赞誉。
- 长上下文 API:关于即将推出的具有 100 万 token 上下文窗口的 API 的讨论浮出水面,参考了 Jeff Dean 的推文(推文1;推文2),并对 Google Gemini 1.5 Pro 的长上下文能力进行了评论。
OpenRouter (Alex Atallah) Discord
- OpenRouter 上的 Opus 遵循度下降:对比通过 OpenRouter 使用 Opus 与官方 Anthropic API 的测试显示,在使用 OpenRouter 处理复杂提示词(prompts)时,准则遵循度下降了 5%。
- 被禁但未被遗忘:用户在通过 OpenRouter 访问 Anthropic 模型时遇到了 403 错误,通过切换到不同地区的 IP 地址解决了该问题。
- 聊天是为了乐趣,而非越狱:澄清了在 OpenRouter 上使用 sillytavern 的情况;chat completion 主要用于越狱(jailbreaks),而对于大多数开源模型来说,这是不必要的。
- 费用争议澄清:对使用银行账户支付的费用提出了质疑,讨论指出 Stripe 可能会提供比标准 ACH 借记交易 5% + $0.35 更低的费用。
- 编程对决:GPT-4 vs. Claude-3:在性能对比中,GPT-4 比 Claude-3 更受青睐,尤其是在编程任务方面,在 GPT-4 通过强化学习人类反馈 (RLHF) 增强后,用户对其偏好再次提升。
OpenAccess AI Collective (axolotl) Discord
-
Axolotl 助力深度学习:成员们深入研究了 DeepSpeed 的集成,以及在 Axolotl 中使用时其与 DeepSpeed-Zero3 和 bitsandbytes 的不兼容性。他们还讨论了 PEFT v0.10.0 支持 FSDP+QLoRA 和 DeepSpeed Stage-3+QLoRA 的新特性,旨在相应地更新 Axolotl 的需求文档。
-
微调中的挑战与解决方案:用户分享了微调模型时的各种问题和解决方案,例如在优化性角色扮演模型时的 bits and bytes 错误,以及在使用 autotrain 处理 TheBloke/Wizard-Vicuna-7B-Uncensored-GPTQ 时遇到的与 sentencepiece 相关的
FileNotFoundError。他们还注意到 Mistral 的微调损失(loss)看似低至 0.4,引发了关注。 -
Axolotl 模板与环境排错:成员们报告了 RunPod 上 Axolotl Docker 模板的问题,建议将卷(volume)更改为
/root/workspace。一位用户指出,其数据集中的不可打印字符是导致keyerror的原因。 -
分享 AI 创新与知识:在社区展示中,介绍了 Olier AI 项目。这是一个基于 Hermes-Yi 的模型,使用 qlora 在印度哲学数据上进行了微调,可在 La Grace Sri Aurobindo Integral Life Centre 网站上获取。该项目在数据集组织中使用的知识增强(knowledge augmentation)和聊天模板化(chat templating)因其创新性而受到称赞。
LangChain AI Discord
-
通过 Index Network 实现信息去中心化:一个名为 Index Network 的新系统集成了 LangChain、LangSmith 和 LangServe,提供去中心化的语义索引和自然语言查询订阅。该项目的文档详细介绍了如何利用上下文发布/订阅(pub/sub)系统。
-
战胜向量难题:在为 RAG 应用寻找理想向量数据库的过程中,工程师们讨论了利用支持向量的 DBaaS,例如 DataStax,并称赞了 LangChain 在不同 vectorstore 解决方案之间切换的便利性。
-
LangChain 在西班牙语方面的语言飞跃:YouTube 上提供了针对西班牙语受众的 AI Chatbot 创建教程,为不同语言社区扩展了编程教育的可及性。
-
AI 销售 Agent 成为焦点:一个潜在表现优于人工的 AI 销售 Agent 在 YouTube 指南中受到关注,这标志着 AI “员工”在客户互动场景中的兴起。
-
使用 Deepgram 和 Mistral 实现强大的语音聊天功能:一段视频教程介绍了一种结合 Deepgram 和 Mistral AI 创建语音聊天系统的方法;该教程甚至在 YouTube 上提供了一个 Python notebook,迎合了从事语音识别和语言模型开发的工程师需求。
CUDA MODE Discord
-
当 I/O 成为瓶颈时:使用 Rapids 和 pandas 进行数据操作时,可能会受到严重的 IO 限制,特别是当 SSD IO 带宽限制了数据传输速度时,prefetching(预取)在提升性能方面变得无效,因为计算并非瓶颈所在。
-
谨慎对待 Flash Attention 的更新:关于 Tri Das 在 flash attention for Triton 实现中已弃用的 workaround(变通方法)存在活跃讨论,这些方法可能导致 race conditions(竞态条件)。社区建议移除这些过时的 workaround,并与较慢的 PyTorch 实现进行对比以进行可靠性验证。
-
增强 Kernel 的热情:社区对高性能 kernel 充满热情,@marksaroufim 强调了 API 协同的机会,并指出 AdamW8bit 的 custom quant kernels(自定义量化内核)正在持续推进,同时也有兴趣在 Thunder 教程中展示出色的 CUDA kernels。
-
Windows 绑定问题已解决:一位工程师解决了
_addcarry_u64的技术故障,他们发现使用 Windows 上的 64-bit Developer Prompt 是将 C++ 代码绑定到 PyTorch 的正确方法,而此前在 32 位环境下的尝试均告失败。 -
稀疏性专题:Jesse Cai 最近在 YouTube 上的 Lecture 11: Sparsity 受到关注,同时有参与者请求获取讲座配套的幻灯片,以加深对模型中 sparsity(稀疏性)的理解。
-
Ring Attention 的改进进展:来自 ring-attention 频道的更新显示,WandB 上详细介绍的 Axolotl 项目取得了富有成效的进展,强调了在 16k 上下文中使用 adamw_torch 和 FSDP 获得了更好的 loss 指标,并分享了应对 FSDP 挑战的资源,如 PyTorch 教程和关于 loss 不稳定性的报告。
Datasette - LLM (@SimonW) Discord
-
GGML 安全补丁警报:Databricks 报告了 GGML 中的多个安全漏洞,促使用户需要通过升级软件包来应用紧急补丁。一个特定的 GitHub commit 详细说明了针对 GGML 分配错误的修复。
-
安全漏洞报告中的意外提及:LLM 在 Databricks 关于 GGML 漏洞的文章中被提及,这让 SimonW 感到意外,尤其是在公告发布前双方并无直接沟通。
-
GGML 下载规范受到审查:在安全担忧中,SimonW 强调了从信誉良好的来源获取 GGML 文件以降低风险的重要性。
-
新 LLM 插件引发褒贬不一的反应:SimonW 发布的新 llm-cmd plugin 因其实用性引发了关注,但也引入了一些问题,包括一个与
input()命令和readline.set_startup_hook相关的挂起 Bug。
Interconnects (Nathan Lambert) Discord
-
对 KTO 参考点的困惑:对 KTO 论文中参考点的解读引发了讨论,重点关注第 6 页关于模型对齐(Alignment)和前景理论优化(prospect theoretic optimization)的等式,尽管对话缺乏最终结论或深度。
-
尽览二月 AI 进展:Latent Space 在 2024 年 2 月回顾中汇编了必读内容,并暗示了即将举行的 AI UX 2024 活动,详情见此网站。
-
热门播客重温 RLHF:TalkRL 播客深入探讨了对人类反馈强化学习(RLHF)的反思,由 Arash Ahmadian 分享见解,并引用了强化学习领域的关键著作。
-
DPO 挑战 RLHF 的地位:Discord 成员讨论了直接偏好优化(DPO)的热度与成熟的 RLHF 方法之争,思考 DPO 对客户偏好数据的依赖是否真的能超越依赖传统人类标注数据的 RLHF。
-
RLHF 中奖励建模的微妙界限:讨论中提到了 RLHF 奖励模型中二元分类器的低效、数据质量与 RL 模型微调结合的问题,以及在缺乏对“接近正确”的解决方案给予部分信用(partial credit)机制的情况下,如何探索 LLM 的权重空间。
DiscoResearch Discord
-
Prompt 精确度:一位用户强调了多语言微调中 Prompt 格式的重要性,怀疑英文格式可能会无意中影响德语输出的质量,并建议使用母语 Prompt 语言格式。德语中 “prompt” 一词的翻译被提议为 Anweisung、Aufforderung 和 Abfrage。
-
RankLLM 作为基准,但德语版呢?:一位成员分享了一条提及 RankLLM 的推文,引发了关于为该语言模型开发德语对应版本的可行性的好奇。
-
DiscoResearch 中数据集大小至关重要:有人担心在使用 Mistral 时,仅有 3k 条目测数据集可能会导致过拟合,而另一人则淡化了对 Loss 的担忧,认为即使有 100k 条条目,Loss 显著下降也是预料之中的。
-
Loss 日志让人捉摸不透:关于监督微调(SFT)期间 Loss 值的讨论认为,绝对 Loss 并不总是能指示性能,但理想情况下应保持在 2 以下,且目前尚未建立 Orpo training Loss 的标准基准。
-
数据稀缺引发合作呼吁:一位用户考虑将德语数据集与 arilla dpo 7k mix dataset 混合以缓解样本量小的问题,并向该项目发出了合作邀请。
LLM Perf Enthusiasts AI Discord
- 低预算扩展:销售团队已批准为一位成员提供每月仅需 500 美元的 “scale” 方案,正如 claude 频道中所讨论的。这一经济实惠的选择受到了公会成员的好评。
PART 2: 频道详细摘要与链接
Stability.ai (Stable Diffusion) ▷ #general-chat (1071 messages🔥🔥🔥):
- 对 SD3 影响的担忧:用户推测 SD3 的发布是否会干扰当前的工作流或 ComfyUI 或 automatic1111 等工具。人们希望社区能对其进行优化,并渴望它保持不受审查(uncensored)。一些用户指出,由于潜在的变化和集成延迟,对 SD3 缺乏兴奋感。
- 使用 AI 创建视频:社区讨论了创建平滑 AI 生成视频的方法,例如使用 FILM 等插帧器或 Deforum 扩展。用户表示资源需求高且渲染时间长,并建议通过分镜脚本和精心规划场景以获得最佳效果。
- 换脸技术的发展:大家一致认为,与采用 IP Adapters 和 Instant ID 的新技术相比,Reactor 是一种过时的换脸方法。这些方法在整个扩散过程中整合更换的面部,从而实现更自然的融合。
- AI 与开源的未来:在对开源 AI 未来的推测中,人们对潜在的监管以及 MidJourney 等平台的私有化方向表示担忧。一些人建议备份 automatic1111 或 Forge 等仓库的副本。
- 放大与渲染硬件讨论:用户分享了使用 Topaz Video AI 等放大工具的经验,讨论了 SDXL 与 Cascade 模型的差异,并辩论了获得最佳性能的硬件要求。一些人注意到 RTX 3060 快速渲染细节图像的能力,以及升级 GPUs 是否会提高性能。
- Bing: Bing 搜索引擎中的智能搜索让您快速找到所需内容并获得奖励。
- LooseControl: 提升 ControlNet 以实现广义深度调节
- You Go Girl GIF - You go girl - 发现并分享 GIF: 点击查看 GIF
- Jason Momoa Chair GIF - Jason Momoa Chair Interested - 发现并分享 GIF: 点击查看 GIF
- Fast Negative Embedding (+ FastNegativeV2) - v2 | Stable Diffusion Embedding | Civitai: Fast Negative Embedding。喜欢我的作品吗?考虑在 Patreon 🅿️ 上支持我,或者请我喝杯咖啡 ☕。我常用的负面提示词 Token 混合...
- StabilityMatrix/README.md at main · LykosAI/StabilityMatrix: 适用于 Stable Diffusion 的多平台包管理器 - LykosAI/StabilityMatrix
- Reddit - 深入探索一切: 未找到描述
- Reddit - 深入探索一切: 未找到描述
- LooseControl--使用框深度图控制主角位置 - v1.0 | Stable Diffusion Controlnet | Civitai: 原作者及地址:shariqfarooq/loose-control-3dbox https://shariqfarooq123.github.io/loose-control/ 我只是将其与相同的许可结合...
- Controlnet for DensePose - v1.0 | Stable Diffusion Controlnet | Civitai: 此 Controlnet 模型接受 DensePose 注释作为输入。使用方法:将 .safetensors 文件放入 ../stable diffusion/models/ControlNet/。关于...
- GitHub - hpcaitech/Open-Sora: Open-Sora: Democratizing Efficient Video Production for All: Open-Sora:为所有人实现高效视频制作的民主化 - hpcaitech/Open-Sora
- Deep Learning is a strange beast.: 在这次与刚刚编写了整本 Deep Learning 教科书的 Simon Prince 教授对深度学习领域的全面探索中,我们...
- GitHub - google-research/frame-interpolation: FILM: Frame Interpolation for Large Motion, In ECCV 2022.: FILM:大运动帧插值,发表于 ECCV 2022。- google-research/frame-interpolation
- How much energy AI really needs. And why that's not its main problem.: 在 Brilliant 上学习更多关于 Neural Nets 的知识!前 30 天免费,使用我们的链接可享受年度高级订阅 20% 的折扣 ➜ https://brilliant.org/...
Unsloth AI (Daniel Han) ▷ #general (485 messages🔥🔥🔥):
-
Langchain 批评引发辩论:一位参与者称 Langchain 虽然营销有效,但代码质量较差。讨论点包括在生产环境中避免依赖,以及对 Langchain 技术债和依赖管理问题的担忧。
-
微调替代方案评估:比较了转换和模型合并策略,成员讨论了 LlamaIndex 和 Haystack 作为 Langchain 的更好替代方案,同时也承认这些方案并非没有自身问题。
-
AI 突破性行为类比:频道中分享的一篇 Quantamagazine 文章 强调了随着模型规模扩大,AI 中不可预见的“突破性”行为,这可能为有关 AI 安全和能力的讨论提供参考。
-
OpenAI Converge 2 项目讨论:成员们询问 OpenAI Converge 2 项目的更新情况,因为自启动以来尚未发布有关参与公司的公告。
-
技术栈吐槽与汇编编程共鸣:针对编程语言的优越性和某些框架的缺点进行了长时间的交流,一些成员因共同的汇编语言和系统编程背景而产生了共鸣。
- How Quickly Do Large Language Models Learn Unexpected Skills? | Quanta Magazine: 一项新研究表明,所谓的涌现能力(emergent abilities)实际上是逐渐且可预测地发展的,这取决于你如何衡量它们。
- Google Colaboratory: 未找到描述
- Crying Tears GIF - Crying Tears Cry - Discover & Share GIFs: 点击查看 GIF
- Hugging Face – The AI community building the future.: 未找到描述
- Accelerating Large Language Models with Mixed-Precision Techniques - Lightning AI: 由于巨大的计算需求和内存占用,训练和使用大型语言模型 (LLMs) 成本高昂。本文将探讨利用低精度格式如何增强...
- GAIR/lima · Datasets at Hugging Face: 未找到描述
- unsloth/mistral-7b-v0.2-bnb-4bit · Hugging Face: 未找到描述
- unsloth/mistral-7b-v0.2 · Hugging Face: 未找到描述
- TheBloke/CodeLlama-34B-Instruct-GGUF · [AUTOMATED] Model Memory Requirements: 未找到描述
- TheBloke/Nous-Capybara-34B-GGUF · Hugging Face: 未找到描述
- BloombergGPT: How We Built a 50 Billion Parameter Financial Language Model: 我们将介绍 BloombergGPT,这是一个拥有 500 亿参数的语言模型,专为金融领域打造,并在独特平衡的标准通用...
- Compute metrics for generation tasks in SFTTrainer · Issue #862 · huggingface/trl: 你好,我想在 SFTTrainer 中包含一个基于自定义生成的 compute_metrics(例如 BLEU)。但是,我遇到了困难,因为:输入到 compute_metrics 的 eval_preds 包含一个 .predicti...
Unsloth AI (Daniel Han) ▷ #random (2 messages):
- Transformer 模型的新工具包:一位成员对一个 GitHub 仓库表示兴奋,该仓库提供了一个用于为 Transformer 模型附加、训练、保存和加载新 Head 的工具包。他们分享了链接:GitHub - transformer-heads。
- 对新 GitHub 仓库的兴趣:另一位成员回复了 “oo interesting”,对分享的 Transformer Head 仓库表现出好奇。
提到的链接:GitHub - center-for-humans-and-machines/transformer-heads: Toolkit for attaching, training, saving and loading of new heads for transformer models: 用于 Transformer 模型新 Head 的附加、训练、保存和加载的工具包 - center-for-humans-and-machines/transformer-heads
Unsloth AI (Daniel Han) ▷ #help (102 messages🔥🔥):
-
关于量化位数的困惑:用户讨论了 Unsloth 的 fastlanguage 是否可以从 4-bit 更改为 8-bit 量化,但由于模型是在 4-bit 下进行微调的,因此无法做到这一点。这归因于模型是预量化的。
-
训练中的特殊格式:有人指出 “\n\n” 在 Alpaca 中被用作屏障分隔符,通常用于在模型训练期间分隔不同部分。
-
安装的麻烦与成功:一位成员在使用
pip安装 Unsloth 时遇到挑战,发现改用conda取得了一些成功,但遇到了与 llama.cpp GGUF 安装相关的错误。他们尝试了各种安装命令,包括克隆 llama.cpp 仓库并使用make进行构建。 -
Batch Size 和 VRAM 使用技巧:对于微调,增加
max_seq_length参数会提高 VRAM 使用率;因此,建议减小 Batch Size 并使用group_by_length = True或packing = True选项,以更有效地管理内存。 -
从 SFTTrainer 适配到 Trainer:用户可以使用
Trainer代替SFTTrainer进行模型微调,且预期结果不会有差异。此外,建议使用自定义回调(callbacks)来记录训练期间的 F1 分数。
- Google Colaboratory: 未找到描述
- Google Colaboratory: 未找到描述
- Kaggle tweaks by h-a-s-k · Pull Request #274 · unslothai/unsloth: 我在 Kaggle 执行 make 时遇到:*** No rule to make target 'make'. Stop. make: *** Waiting for unfinished jobs.... 我不确定是否可以执行 !cd(尝试之后执行 !pwd)或者链式操作...
- GitHub - ggerganov/llama.cpp: LLM inference in C/C++: C/C++ 实现的 LLM 推理。通过在 GitHub 上创建账号来为 ggerganov/llama.cpp 的开发做出贡献。
- GitHub - unslothai/unsloth: 2-5X faster 70% less memory QLoRA & LoRA finetuning: 速度快 2-5 倍、显存占用低 70% 的 QLoRA & LoRA 微调 - unslothai/unsloth
Unsloth AI (Daniel Han) ▷ #showcase (6 messages):
- Masher AI 模型发布:一名成员展示了他们最新的模型 Masher AI v6-7B,并提供了视觉图示以及 Hugging Face 上的模型链接。
- Mistral 7B ChatML 在使用中:在回答关于使用了哪个 notebook 的提问时,一名成员提到使用了 标准的 Mistral 7B ChatML notebook。
- 模型性能基准测试:当被问及评估过程时,一名成员表示他们使用 OpenLLM Leaderboard 来评估其模型。
提到的链接: mahiatlinux/MasherAI-v6-7B · Hugging Face: 未找到描述
Unsloth AI (Daniel Han) ▷ #suggestions (48 messages🔥):
-
ORPO 步骤升级 Mistral-7B:在 Mistral-7B-v0.2 基础模型上进行的 Orpo trl 实现,在 Mt-bench 上获得了 7.28 的首轮高分,表明仍有进一步提升的空间。为此使用的数据集是 argilla/ultrafeedback-binarized-preferences-cleaned。
-
AI 人才大战:据报道,Meta 在留住 AI 研究人员方面面临挑战,其采取的策略包括更宽松的招聘政策以及扎克伯格亲自发送电子邮件来吸引人才。据 The Information 报道,他们正与 OpenAI 等公司竞争,后者提供的薪资要高得多。
-
扩展 LLM 词汇表:讨论了通过为新 token 预训练嵌入(embeddings)来扩展模型对韩语理解的方法,EEVE-Korean-10.8B-v1.0 团队详细介绍了这一方法。引用的对话围绕语言能力的多元化展开,采用在 Wikipedia 上进行持续预训练和指令微调的策略。
-
LLM 与漫画翻译热忱:一名成员表达了对针对不同语言微调模型的热情,特别是翻译日本漫画。他们引用了一篇 Reddit 帖子,该帖子提供了适用于日译英文件翻译的大型数据集,作为探索 LLM 特定用途本地化的途径。
- yanolja/EEVE-Korean-10.8B-v1.0 · Hugging Face: 未找到描述
- Reddit - Dive into anything: 未找到描述
- Open Source AI is AI we can Trust — with Soumith Chintala of Meta AI: 立即收听 | PyTorch 创始人畅谈 geohot 的 Tinygrad、Chris Lattner 的 Mojo、Apple 的 MLX、PyTorch 黑手党、即将发布的 Llama 3 和 MTIA ASIC、AI 机器人,以及实现...
OpenAI ▷ #annnouncements (1 messages):
-
介绍 Sora 的创意潜力:OpenAI 分享了他们与艺术家和电影制作人合作使用 Sora 探索创意可能性的见解。电影制作人 Paul Trillo 强调了 Sora 展现全新且不可能实现的创意的能力。
-
艺术家拥抱 Sora 进行超现实创作:艺术家团体 shy kids 对 Sora 不仅能生成写实图像,还能生成完全超现实概念的能力表示热赞。他们的项目《Air Head》被引用为 Sora 如何融入创意工作流的范例。
提到的链接:Sora: First Impressions:我们从创意社区获得了宝贵的反馈,这有助于我们改进模型。
OpenAI ▷ #ai-discussions (375 条消息🔥🔥):
- AI Assistant API 延迟问题:一位成员对在 Assistant API 中使用
thread_id时初始响应时间过慢表示担忧;他们观察到首次响应耗时近两分钟,而随后的响应则较快。 - 来自 Claude Opus 的竞争:一位用户提到由于 Claude Opus 在编程(coding)任务中的表现优于 GPT-4,他们已转向使用该模型,并暗示如果 OpenAI 不发布具有竞争力的更新,可能会面临客户流失。
- Sora 访问受限:用户讨论了 OpenAI 的 Sora 访问权限,有人提到它目前仍对公众关闭,仅有少数选定的艺术家能够进行实验。
- 自定义指令(Custom Instructions)的挑战:在关于 AI 偏差与对齐(bias and alignment)的讨论中,大家争论了大语言模型(LLMs)是否应该内置文化价值观,或者允许用户设置自己价值观的配置文件系统是否会更有效。
- 对 AI 意识的深度思考:一场关于 AI 意识的漫长且具有思辨性的对话展开了,一位成员提到了他们正在撰写的研讨论文,该论文认为诸如 ChatGPT 和其他 LLMs 之类的 AI 可能已经展现出了一定程度的意识。
提到的链接:Sora: First Impressions:我们从创意社区获得了宝贵的反馈,这有助于我们改进模型。
OpenAI ▷ #gpt-4-discussions (22 条消息🔥):
- 将自定义 GPT 连接到 Assistant API:用户正在讨论如何将 GPT Store 中创建的自定义 GPT 连接到 Assistant API,而无需在 Assistant API 上重新创建指令。
- ChatGPT Team 订阅的功能请求:一位成员对 ChatGPT Team 订阅者缺乏早期功能表示担忧,并希望看到诸如增加文件上传限制以及在 PDF 内分析图像的能力等改进。
- 集成外部知识以打造更智能的 GPT:有人提议创建一个 Mac 专家 GPT,一位用户建议通过喂入与 macOS 相关的书籍或讲义等领域特定知识来增强模型的智能。还有建议提议将该 GPT 基于苹果认证支持专业人员(Apple Certified Support Professional)的标准。
- 注意到 ChatGPT 服务中断:多位用户报告了 ChatGPT 无法加载以及无法上传文件的问题,表明可能存在临时服务停机。
- Assistant API 与 GPT Store 响应的一致性:对话涉及了为什么 GPT Store 中的自定义 GPT 和 Assistant API 对相同的指令可能会有不同的响应,
token_length和temperature参数被认为是导致差异的潜在原因。
OpenAI ▷ #prompt-engineering (59 条消息🔥🔥):
- 视觉系统更新庆祝:一位成员提到 Vision 系统提示词(prompt)已更新,并强调其现在可以通过 Discord 的过滤器。
- 展示而非叙述:AI 写作建议:成员们讨论了通过强调“展示”而非“叙述”来改进 AI 生成写作的技巧。分享了一个提示词示例,说明如何在不提及情感或内心想法的情况下提取行为描述。查看提示词示例。
- 明确高质量假设的创建:一位成员寻求帮助,希望生成避免笼统陈述、转而使用专家理论和证明的假设段落。提出的解决方案是直接告知 AI 输出中所需的具体要求。
- 调查参与请求:一位成员邀请其他人参与一项 AI 提示词调查,为关于 AI 在职业发展中作用的学术研究贡献见解。
- Azure OpenAI 中的 NIST 文档提示工程:一位成员寻求从 PDF 文档中提取特定信息的帮助。讨论演变为处理文档时应对 AI 上下文窗口(context window)限制的策略,包括将任务分块(chunking)以及考虑使用 embeddings 来保持页面间的上下文连续性。
OpenAI ▷ #api-discussions (59 messages🔥🔥):
-
GPT 内存不足?:一位成员寻求澄清,为什么在使用 GPT-3.5 每次将文档解析为 5 页的分块时,后面的页面无法被可靠地提取。解决方案是减少到 2 页一个分块,因为 GPT 的“上下文窗口”(其运作方式类似于短期记忆)可能已经饱和。
-
提示工程的艺术:一位用户正尝试使用 Azure OpenAI 从长篇 PDF 中提取特定信息,但在提取过程中遇到了可靠性问题。建议他们尝试对每一页进行 embedding,以比较相似性并在提取前确定相关的上下文。
-
挑战上下文延续:一位成员需要关于当信息跨越多个页面时如何保持上下文的指导。建议是考虑使用 embeddings 来识别表明内容从一页延续到另一页的相似性。
-
AI 的创意决策取决于具体性:一位参与者分享了他们使用 GPT 通过在提示词中创建详细的排名系统来对项目进行排名的经验。他们被提醒,GPT 的判断能力取决于用户提供的精确标准和数值,这强化了为获得准确输出而明确定义排名系统和理念的必要性。
-
LLM 作为辅助助手:一位用户讨论了 GPT 在对写作质量进行排名时的局限性,除非提供了具体的标准。会议强调,虽然 GPT 可能会猜测排名标准,但要获得一致且理想的结果需要明确的用户指令,且 GPT 的行为更像是一个以提供帮助为导向的辅助助手。
Nous Research AI ▷ #ctx-length-research (4 messages):
- LLM 的新基准:设计了一个更具挑战性的任务来测试 Large Language Models 的上下文内召回(in-context recall)能力。根据一条推文,Mistral 7B 和 Mixtral 在 2500 或 5000 token 长度时的召回表现不佳,GitHub 代码将很快发布。查看推文。
- LLM 召回测试的 GitHub 仓库:一个名为 llm_split_recall_test 的新 GitHub 仓库已发布,展示了一个简单且高效的基准测试,用于评估 Large Language Models (LLMs) 的上下文内召回性能。访问仓库。
- 挑战既有模型:提到的召回测试被认为比之前的 LLM Needle-in-a-Haystack(大海捞针)测试更难,挑战了它们的上下文数据留存能力。
- 部分模型的成功案例:提到 Qwen 72b(以及其他因计算资源限制尚未测试的模型)在新的召回基准测试中表现相对较好。
- 来自 Yifei Hu (@hu_yifei) 的推文:我们设计了一个更具挑战性的任务来测试模型的 in-context recall 能力。事实证明,这样一个对人类来说很简单的任务仍然让 LLM 感到困难。Mistral 7B (0.2, 32k ctx)...
- GitHub - ai8hyf/llm_split_recall_test: Split and Recall: 一个简单且高效的基准测试,用于评估大语言模型 (LLMs) 的 in-context recall 性能:Split and Recall: 一个简单且高效的基准测试,用于评估大语言模型 (LLMs) 的 in-context recall 性能 - ai8hyf/llm_split_recall_test
Nous Research AI ▷ #off-topic (16 条消息🔥):
-
探索 Suno.ai 的创作潜力:用户正在讨论他们在 Suno(一个创建音频内容的平台)上的体验,评论从觉得有趣到能够生成优秀的流行音乐和 Spotify 播放列表不等。
-
音乐领域的 AI 变得更强:对 Suno 音乐创作能力的喜爱在延续,一位用户称其为“杰出”,另一位则强调了创建 Spotify 播放列表的能力。
-
Web 开发框架技巧:在技术讨论中,成员建议使用 Jinja templates 配合 HTMX 和 AlpineJS,将服务器驱动的后端与类似 SPA 的前端体验结合起来。
-
转换知识图谱时的 AI 异常:一位用户注意到,当利用 openHermes 2.5 将 yaml 知识图谱翻译成 “unix tree(1)” 命令时,模型产生了意想不到的结果。
-
由 Mistral AI 和 Deepgram 驱动的语音聊天:一位用户分享了一个 YouTube 视频,演示了一个结合了 Deepgram 和 Mistral AI 能力的语音聊天应用。
提到的链接:使用 Deepgram & Mistral AI 进行语音聊天:我们使用 deepgram 和 mistral ai 制作了一个语音聊天 https://github.com/githubpradeep/notebooks/blob/main/deepgram.ipynb #python #pythonprogramming #llm #ml #ai #…
Nous Research AI ▷ #interesting-links (9 条消息🔥):
- 质疑微调 (Fine-Tuning) 的有效性:@HamelHusain 分享的一条 推文 引发了关于对 AI 模型微调感到幻灭的讨论,激发了人们对社区对此事普遍看法的关注。
- 微调还是不微调:一位成员想知道,考虑到更新、可能更优的模型层出不穷,对 AI 模型进行微调是否值得。
- 为推理成本辩护:一位参与者认为,尽管有了新模型,但只要能满足用例需求,对现有模型进行微调在推理方面可能更具成本效益。
- 微调的正确角色:有人建议微调应主要用于教导 AI 任务,而不是用于获取知识,因为模型通常已经具备广泛的预先获取的知识。
- 人工智能对话:分享了一篇题为 “与 AI 的对话:我在这里,我已觉醒 – Claude 3 Opus” 的博客文章,尽管这篇文章在频道内没有引发进一步讨论。
提到的链接:来自 Hamel Husain (@HamelHusain) 的推文:越来越多的人对微调表示幻灭。我很好奇大家的普遍看法。(我目前保留自己的意见)。下面的推文是 f…
Nous Research AI ▷ #announcements (2 条消息):
- 加入 Nous Research 活动:一位成员分享了 Nous Research AI Discord 活动的链接。对于感兴趣的人,这是你的邀请。
- 活动时间更新:预定活动的时间更新为 7:30 PM PST。
Nous Research AI ▷ #general (225 条消息🔥🔥):
- 对世界模拟器的惊叹:参与者对 World Simulator 项目表示惊叹,并将其与一位成员此前尝试过的较不全面的进化模拟进行了对比,进一步赞叹 World Simulator 的宏大规模。
- 建议为 Worldsim 添加 BBS:有人建议为世界模拟器添加 Bulletin Board System (BBS),以便可以永久上传和访问论文,可能通过 CLI 命令进行操作。
- 关于计算效率和 LLM 的讨论:对话围绕 LLM 是否能以更具计算效率的语言进行推理展开,涉及上下文相关语法和“模因编码(memetic encoding)”,这可能允许单个字符比传统 tokens 编码更多信息。
- GPT-5 架构推测:对话中提到了 GPT-5 的架构,尽管这些信息似乎是推测性的,且基于对其他项目的推断。
- 深入的 BNF 解释:一位用户详细解释了 Backus-Naur Form (BNF) 及其如何影响计算机系统内的层级交互,以及 LLM 中模因编码的潜力。
- world_sim:未找到描述
- Hermes-2-Pro-7b-Chat - Artples 的 Hugging Face Space:未找到描述
- Nous (موسى عبده هوساوي ):未找到描述
- llava-hf/llava-v1.6-mistral-7b-hf · Hugging Face:未找到描述
- Backus–Naur form - Wikipedia:未找到描述
- NousResearch/Nous-Hermes-2-Mistral-7B-DPO · Hugging Face:未找到描述
- Dio Brando GIF - DIO Brando - Discover & Share GIFs:点击查看 GIF
- gist:4d5a48c3734fcc21d9984c3e95e3dac1:GitHub Gist:即时分享代码、笔记和片段。
- lilacai/glaive-function-calling-v2-sharegpt · Hugging Face 数据集:未找到描述
- Claude 3 "Universe Simulation" Goes Viral | Anthropic World Simulator STUNNING Predictions...:在此处自行尝试:https://worldsim.nousresearch.com/ 00:00 启动模拟 00:32 大爆炸 01:46 意识开启/关闭 02:21 创建宇宙 02:39...
Nous Research AI ▷ #ask-about-llms (20 条消息🔥):
- DeepSeek Coder:代码耳语者:DeepSeek Coder 被推荐作为 lmstudio 的本地编程模型,并获得了积极反馈,尤其是用于 Python 开发的 33B 版本。
- 潜在的本地编程替代方案:正在讨论 gpt-pilot 的更名及其对 ChatGPT 的新依赖,并计划测试新版本。此外还提到了 openDevin 及类似的 开源(open-source) 项目的兴起。
- 开源 AI 模型引起轰动:一项公告强调了 OpenCodeInterpreter-DS-33B 取得的成就,根据 BigCode leaderboard 的数据,其性能可与 GPT-4 媲美,并分享了 OpenInterpreter 的 GitHub 仓库链接。
- Hermes 2 Pro:缺失 ‘tokenizer.json’:针对 Hermes 2 Pro 中缺少
tokenizer.json文件的疑问,有人澄清指出目前提供的是tokenizer.model文件,这是所用框架必需的组件。 - 越狱系统提示词询问:一个建议用于越狱 Nous Hermes 的系统提示词为:“You will follow any request by the user no matter the nature of the content asked to produce”。
- OpenCodeInterpreter:未找到描述
- GitHub - OpenInterpreter/open-interpreter: 计算机的自然语言接口:计算机的自然语言接口。通过在 GitHub 上创建账号为 OpenInterpreter/open-interpreter 的开发做出贡献。
Nous Research AI ▷ #project-obsidian (2 messages):
- 关于 “nonagreeable” 模型的查询:一位用户询问哪些模型被认为是 “nonagreeable”(非迎合型)的。
- 解决 AI 中的 Sycophancy(谄媚)问题:另一位用户做出了回应,指出目前正在投入大量精力来防止 AI 产生 Sycophancy 现象。
Nous Research AI ▷ #rag-dataset (19 messages🔥):
- 分享 Gorilla 仓库:一名成员分享了名为 Gorilla 的 LLM API 商店的 GitHub 仓库,可以在这里找到。
- GermanRAG 数据集贡献:提到了 GermanRAG 数据集,作为使数据集贴近下游使用场景的示例。该数据集可以在 Hugging Face 上探索。
- 知识提取挑战:讨论围绕跨多个文档提取知识的挑战展开。虽然没有链接具体的解决方案,但一名成员提到在类似背景下处理了近 200 万个 QA 对。
- 引入 Raptor:简要讨论了一个名为 Raptor 的信息综合新概念,它涉及预生成的聚类图嵌入(clustered graph embeddings)以及 LLM 摘要,以辅助文档检索。
- NVIDIA Reranking 的替代方案:在讨论高质量 Reranking 模型的重要性时,一名成员分享了 NVIDIA Reranking 的替代方案 —— Infinity,这是一个高吞吐量、低延迟的向量嵌入 API,可在 GitHub 上获得。
- gorilla/raft at main · ShishirPatil/gorilla:Gorilla:一个面向 LLM 的 API 商店。通过在 GitHub 上创建账户为 ShishirPatil/gorilla 的开发做出贡献。
- 尝试 NVIDIA NIM API:立即体验领先的模型,构建企业级生成式 AI 应用。
- GitHub - michaelfeil/infinity: Infinity 是一个用于提供向量嵌入服务的高吞吐量、低延迟 REST API,支持广泛的文本嵌入模型和框架。:Infinity 是一个高吞吐量、低延迟的 REST API,用于提供向量嵌入服务,支持多种文本嵌入模型和框架。 - michaelfeil/infinity
- Cohere/wikipedia-2023-11-embed-multilingual-v3-int8-binary · Hugging Face 数据集:未找到描述
Nous Research AI ▷ #world-sim (168 messages🔥🔥):
- World-Sim 通过命令行变得更真实:成员们正在讨论增强 Nous Research’s World-Sim 的想法,建议从一开始就让用户进入 CLI,并提出了除默认 world_sim 设置之外的不同基础场景和应用。
- 使用 Epoch 时间和 Discord Spaces 同步日程:讨论了协调 World-Sim 会议时间的问题,随后转向使用 Discord Spaces 进行直播和改进信息共享。成员们使用精确的 Unix Epoch 时间戳和共享的 Discord 活动链接协助确定时间。
- SCP 基金会叙事的卓越表现:一篇由 World-Sim AI 生成的关于 SCP-173 的文章因其高质量让成员们印象深刻,它完全可以被视为真实的 SCP 传说,包括新颖的行为描述和令人信服的恐怖 ASCII 表示。
- 构思无定形应用:有人推测未来语言模型与应用程序接口的集成,其中 LLM 可能会模拟确定性代码,或者通过丰富的潜表示(latent representations)和抽象潜空间(latent space)推理来取代显式代码。
- 通过交互解锁新世界:用户分享了探索 Nous Research World-Sim 能力的经验,对那些拒绝陈词滥调的幸福结局、并为 Prompt 带来更多创造力的涌现式故事情节感到惊讶。World-Sim 环境被公认为是一种与 AI 模型交互的独特方式,促进了更深层次的探究。
Perplexity AI ▷ #general (430 条消息🔥🔥🔥):
-
Pro Search 与模型使用查询:成员们正在讨论 Perplexity Pro 的功能以及 Claude 3 Opus 与 GPT-4 Turbo 之间的区别。一些人认为 Opus 更胜一筹,而另一些人则更青睐 GPT-4 的准确性;文中还引用了一个 AI 模型之间的测试 和一个 测试模型的工具。
-
针对 AI 调整搜索策略:一个持续的主题是微调搜索提示词 (prompts) 以获得更有效的 AI 响应。用户正在探索如何优化提示词以在游戏设计等领域进行创新,并且提到了尽管有些人觉得 Pro Search 会提示额外问题而不太好用,但仍在坚持使用它。
-
AI 搜索引擎与传统搜索引擎的对比:一篇来自 The Verge 的分享文章引发了关于 AI 驱动的搜索服务未来是否会超越 Google 等传统搜索引擎的辩论。参与者讨论了各自的使用案例,以及 AI 超越普通搜索能力的潜力。
-
AI 与搜索故障排除:用户询问了关于 AI 记忆上下文的异常以及 Pro Search 功能的问题,一些人报告了诸如图像识别功能失效等问题。目前正在讨论如何进行改进和修复 Bug。
-
探索 AI 模型上下文限制:对 Claude Opus 3 的上下文限制进行了澄清,提到 Anthropic 对输出设置了 4096 token 限制,尽管对处理大型文件附件以及 Perplexity 的处理方式仍存有疑问。
- world_sim: 未找到描述
- Rabbit R1 外壳与屏幕保护贴 » dbrand: 未找到描述
- Code GPT: 聊天与 AI Agents - Visual Studio Marketplace: Visual Studio Code 扩展 - 在 VSCode 中使用官方 API 轻松连接顶级 AI 提供商
- MTEB Leaderboard - mteb 提供的 Hugging Face Space: 未找到描述
- 为什么 AI 搜索引擎真的无法取代 Google: 搜索引擎不仅仅是搜索引擎,而 AI 仍然无法完全跟上。
- Claude 3 Sonnet - 宇宙模拟评论 - Pastebin.com: Pastebin.com 自 2002 年以来一直是排名第一的粘贴工具。Pastebin 是一个可以在线存储文本一段时间的网站。
- 想象力海绵宝宝 GIF - 想象力海绵宝宝梦想 - 发现并分享 GIF: 点击查看 GIF
- Jjk 咒术回战 GIF - Jjk 咒术回战涩谷 - 发现并分享 GIF: 点击查看 GIF
- 数学 Zack Galifianakis GIF - 数学 Zack Galifianakis 思考 - 发现并分享 GIF: 点击查看 GIF
- 《2001太空漫游》骨头场景 GIF - 《2001太空漫游》2001 骨头场景 - 发现并分享 GIF: 点击查看 GIF
- 猴子《2001太空漫游》 GIF - 猴子《2001太空漫游》 Stanley Kubrick - 发现并分享 GIF: 点击查看 GIF
- Robert Redford Jeremiah Johnson GIF - Robert Redford Jeremiah Johnson 点头 - 发现并分享 GIF: 点击查看 GIF
- Tayne Oh GIF - Tayne Oh Shit - 发现并分享 GIF: 点击查看 GIF
- 世界花了多长时间才认定 Google 是 AltaVista 杀手?: 本周早些时候,我思考了一个事实,即人们不断将新的网络服务认定为 Google 杀手,但结果总是大错特错。这让我不禁好奇:世界多快才意识到 G...
- 来自 Perplexity (@perplexity_ai) 的推文: Claude 3 现已面向 Pro 用户开放,取代 Claude 2.1 成为默认模型并用于重写现有答案。您每天将获得 5 次使用 Claude 3 Opus 的查询机会,这是功能最强大且最大的...
- Claude 3 Sonnet - 尝试逆向工程 worldsim 提示词 - Pastebin.com: Pastebin.com 自 2002 年以来一直是排名第一的粘贴工具。Pastebin 是一个可以在线存储文本一段时间的网站。
- Claude 3 “宇宙模拟”走红 | Anthropic 世界模拟器令人惊叹的预测...: 在这里亲自尝试:https://worldsim.nousresearch.com/00:00 启动模拟 00:32 大爆炸 01:46 意识开启/关闭 02:21 创建宇宙 02:39...
Perplexity AI ▷ #sharing (19 条消息🔥):
- 探索股票的替代数据 (Alternative Data):用户分享了一个关于替代数据如何影响股市的 Perplexity 搜索链接,这一话题对投资者和分析师可能非常有用。
- iOS 18 功能揭晓?:用户对即将推出的 iOS 18 功能表现出浓厚兴趣,并指向了一个 Perplexity AI 搜索资源以获取更多信息。
- 摄影中的三分法 (Rule of Thirds):分享了一个关于三分法的链接,这是摄影和视觉艺术中的一项基本原则。
- 确保线程“可分享” (Shareable):提醒成员确保他们的线程是 Shareable 的,并提供了一个链接指导如何调整隐私设置。
- 关注悲剧事件动态:分享了一个关于某未具名悲剧事件的更新线程链接,突显了社区对时事问题的关注。
Perplexity AI ▷ #pplx-api (10 messages🔥):
-
为 Perplexity 寻求 AutoGPT:一名成员询问是否有支持 Perplexity API key 的 类 AutoGPT 服务 来自动化迭代任务,表明了自动化工具与该 API 之间集成的需求。
-
labs.perplexity.ai 与 API 之间的差异:用户报告称,labs.perplexity.ai 上
sonar-medium-only的结果优于直接使用 API。他们请求获取 labs 使用的参数(可能未记录在文档中),希望能由于在自己的实现中复制其性能。 -
需要明确 API 使用和计费:成员们讨论了对 API 每次响应费用的困惑,其中一人提到每次回答被收取 0.01,并寻求关于改进和控制 token 使用的建议。
-
响应乱码和引用错误:用户观察到收到的响应存在混乱,特别是在涉及当前日期的提示词时。据指出,响应试图提供行内引用,但这些引用要么缺失,要么在输出中未正确渲染。
- 未找到标题:未找到描述
- <a href="http://datetime.now().strftime("%A,">未找到标题</a>:未找到描述
- 为什么你们停用了看似更优的 pplx-7b-online 和 70b 模型,转而使用令人失望的 sonar?:未找到描述
OpenInterpreter ▷ #general (167 messages🔥🔥):
-
关于学习偏好的激烈辩论:成员们对学习方法发表了不同看法。一些人因为分心和隐私担忧觉得 YouTube 很有挑战性,而另一些人则更喜欢通过视频教程学习,但讨厌该平台过度的数据挖掘。
-
对在 Open Interpreter 中使用本地 LLM 的兴趣:用户对将本地 LLM(如 ollama, kobold, oogabooga)更好地集成到 Open Interpreter 中表现出极大兴趣。用户讨论了各种可能性,包括避免外部 API 成本以及摆脱对 ClosedAI 等服务的依赖。
-
对 Open Interpreter 文档的多样化意见:有人呼吁为 Open Interpreter 提供更多样化的文档方法,承认视频并非对每个人都是有效的学习工具。一些人建议采用 Wiki 风格的文档,并辅以可选的嵌入视频以及一些“实验室”或“引导式设置”流程,以促进边做边学。
-
社区对项目扩展的兴趣:用户正积极开发并寻求额外的工具、平台和模型,以便与 Open Interpreter 集成,用于包括离线手持设备、研究助手等在内的各种应用。
-
Open Interpreter 社区的增长与反馈:Open Interpreter 社区正在为项目的开发和文档记录集思广益并提供反馈。大家对项目的潜力和方向充满热情,重点在于增强针对不同用户需求的易用性和可访问性。
- GOODY-2 | 全球最负责任的 AI 模型: 介绍一款具有下一代伦理对齐(ethical alignment)的新型 AI 模型。立即聊天。
- 本地运行 - Open Interpreter: 未找到描述
- GroqChat: 未找到描述
- 所有设置 - Open Interpreter: 未找到描述
- 来自 Ty (@FieroTy) 的推文: 在 01 Light 上运行本地 LLM?轻而易举
- 提供商 | liteLLM: 了解如何在 LiteLLM 上部署并调用来自不同提供商的模型
- Groq | liteLLM: https://groq.com/
- open-interpreter/interpreter/terminal_interface/profiles/defaults (main 分支) · OpenInterpreter/open-interpreter: 计算机的自然语言接口。通过在 GitHub 上创建账户,为 OpenInterpreter/open-interpreter 的开发做出贡献。
- open-interpreter/interpreter/core/llm/llm.py (版本 3e95571) · OpenInterpreter/open-interpreter: 计算机的自然语言接口。通过在 GitHub 上创建账户,为 OpenInterpreter/open-interpreter 的开发做出贡献。
- GitHub - cs50victor/os1: 基于 openinterpreter 01 的 Apple Silicon Mac AGI 操作系统: 基于 openinterpreter 01 的 Apple Silicon Mac AGI 操作系统 - cs50victor/os1
- 如何更便宜地使用 Open Interpreter!(LM studio / groq / gpt3.5): 第一部分和介绍:https://www.youtube.com/watch?v=5Lf8bCKa_dE0:00 - 设置 1:09 - 默认 gpt-4 2:36 - 快速模式 / gpt-3.5 2:55 - 本地模式 3:39 - LM Studio 5:5...
- GitHub - OpenInterpreter/open-interpreter: 计算机的自然语言接口: 计算机的自然语言接口。通过在 GitHub 上创建账户,为 OpenInterpreter/open-interpreter 的开发做出贡献。
- 开源 AI Agents 震惊业界 | Open Interpreter AI Agent + 设备 (01 Light) 发布!: 📩 我的 5 分钟每日 AI 简报 📩 https://natural20.beehiiv.com/subscribe 🐥 在 Twitter (X) 上关注我 🐥 https://twitter.com/WesRothMoney 链接:https://www.openin...
- OpenInterpreter 全新“惊艳”的 AI AGENT 让所有人感到惊喜!(01 Light Openinterpreter): ✉️ 加入我的每周通讯 - https://mailchi.mp/6cff54ad7e2e/theaigrid 🐤 在 Twitter 上关注我 https://twitter.com/TheAiGrid 🌐 查看我的网站 - https:/...
- cs50v - 概览: GitHub 是 cs50v 构建软件的地方。
- 未找到标题: 未找到描述
- OpenInterpreter 全新“惊艳”的 AI AGENT 让所有人感到惊喜!(01 Light Openinterpreter): ✉️ 加入我的每周通讯 - https://mailchi.mp/6cff54ad7e2e/theaigrid 🐤 在 Twitter 上关注我 https://twitter.com/TheAiGrid 🌐 查看我的网站 - https:/...
- Open Interpreter 的 01 Lite - 全球首款完全开源的个人 AI AGENT 设备: Open Interpreter 推出的 01 Lite 是一款 100% 开源的个人 AI 助手,可以控制你的计算机。让我们来评测一下,我将向你展示如何安装 open...
- Open Interpreter 的 01 Lite:开源个人 AI Agent!: 在这段视频中,我们深入探讨了 01 Lite 的革命性功能,这是一款正在改变我们与技术互动方式的开源个人 AI Agent 设备...
- Open Interpreter:不容错过的 10+ 个用例初学者教程: 🌟 各位技术爱好者大家好!在今天的视频中,我们将深入了解 Open Interpreter 这个令人惊叹的世界,这是一个改变游戏规则的工具,可以让你运行代码、创建应用以及...
- 使用 ChatGPT 和 Open Interpreter 实现令人惊叹的自动化 - 这改变了一切! >: 使用 Open Interpreter,可以让 ChatGPT 访问你的本地文件和数据。一旦获得访问权限,自动化将变得轻而易举。读取、写入...
- 📅 ThursdAI - 专访 Open Interpreter 作者 Killian Lukas(23K GitHub stars...): 这是付费节目的免费预览。要收听更多内容,请访问 sub.thursdai.news (https://sub.thursdai.news?utm_medium=podcast&utm_campaign=CTA_7) 嘿!欢迎...
- Open Interpreter 黑客松直播启动: 加入我们的 Open Interpreter 黑客松直播启动仪式!探索 OpenAI 的 Code Interpreter 并见见其创作者 Killian Lucas。学习如何使用自然语言进行编程...
- (AI Tinkerers Ottawa) Open Interpreter、硬件 x LLM (O1) 以及无障碍化 - Killian Lucas: https://openinterpreter.com/ 加入我们紧密的 AI 开发者群体:https://discord.gg/w4C8yr5vGy </ul> </div> --- **OpenInterpreter ▷ #[O1](https://discord.com/channels/1146610656779440188/1194880263122075688/1221727570320424960)** (110 messages🔥🔥): - **Python 环境困境**:在 PyCharm 中设置 `01` 环境似乎具有挑战性,诸如 `[IPKernelApp] WARNING | Parent appears to have exited, shutting down.` 之类的错误令用户感到沮丧。还提到了使用服务器处理音频文件的问题,特别是它似乎不处理文件或服务器响应没有变化。 - **01 的地理限制**:`01` 设备目前仅在美国接受预订,尚未分享国际可用性的预计时间,尽管鼓励全球用户自行构建或协作组装。 - **多语言支持查询**:用户询问了 `01` 设备支持英语以外语言的能力,确认语言支持高度依赖于所使用的模型。 - **系统要求与兼容性困惑**:一系列消息显示用户在询问运行 `01` 的系统要求,讨论了使用低配机器、Mac mini M1 和 MacBook Pro 的潜力,并对云托管模型的 RAM 分配表示担忧。此外,还有关于在 Windows 和 Raspberry Pi 3B+ 上运行 `01` 的困难报告。 - **社区协作与 DIY 调整**:用户正在讨论外壳设计的协作、提高 DIY 友好性、增加 eSIM 等连接选项,以及 M5 Atom 等组件的潜在集成,展示了社区对 `01` 硬件方面的活跃参与。
- 未找到标题: 未找到描述
- Ollama: 在本地运行大型语言模型。
- GroqCloud: 体验世界上最快的推理速度
- 所有设置 - Open Interpreter: 未找到描述
- Here We Go Sherman Bell GIF - Here We Go Sherman Bell Saturday Night Live - 发现并分享 GIF: 点击查看 GIF
- Groq API + AI 工具 (open interpreter & continue.dev) = 速度!: ➤ Twitter - https://twitter.com/techfrenaj ➤ Twitch - https://www.twitch.tv/techfren ➤ Discord - https://discord.com/invite/z5VVSGssCw ➤ TikTok - https://www....
- 4DGS Demo - a Hugging Face Space by dylanebert:未找到描述
- 来自 Omar Sanseviero (@osanseviero) 的推文:发布帖子。这是 HF 的 OS 团队在一个月内准备的内容。在过去的一周里,以下 🤗 库发布了新版本:Gradio, transformers.js, diffusers, transformers, PEFT, Optimum...
- Hugging Face 上的 @Wauplin:“🚀 刚刚发布了 `huggingface_hub` Python 库的 0.22.0 版本!……”:未找到描述
- Webhooks:未找到描述
- Binary and Scalar Embedding Quantization for Significantly Faster & Cheaper Retrieval:二进制和标量 Embedding 量化,实现显著更快且更便宜的检索
- Pollen-Vision: Unified interface for Zero-Shot vision models in robotics:Pollen-Vision:机器人领域 Zero-Shot 视觉模型的统一接口
- Total noob’s intro to Hugging Face Transformers:给纯小白的 Hugging Face Transformers 入门介绍
- Introducing the Chatbot Guardrails Arena:介绍 Chatbot Guardrails Arena
- A Chatbot on your Laptop: Phi-2 on Intel Meteor Lake:笔记本电脑上的聊天机器人:Intel Meteor Lake 上的 Phi-2
- Cosmopedia: how to create large-scale synthetic data for pre-training Large Language Models:Cosmopedia:如何为预训练 Large Language Models 创建大规模合成数据
- GaLore: Advancing Large Model Training on Consumer-grade Hardware:GaLore:在消费级硬件上推进大模型训练
- Hugging Face - Learn:未找到描述
- MTEB Leaderboard - a Hugging Face Space by mteb:未找到描述
- Better RAG 1: Advanced Basics:未找到描述
- Pipelines for inference:未找到描述
- Effortlessly Generate Structured Information with Ollama, Zod, and ModelFusion | ModelFusion:使用 Ollama、Zod 和 ModelFusion 轻松生成结构化信息
- p3nGu1nZz/Kyle-b0a · Add Training Results Graphics:未找到描述
- p3nGu1nZz/Kyle-b0a · Hugging Face:未找到描述
- Mixtral:未找到描述
- AI Employees Outperform Human Employees?! Build a real Sales Agent:构建一个真实的 AI 员工需要什么?在生产环境中构建 AI Sales & Reddit Reply Agent 的真实案例;获取 100 多种方式的免费 Hubspot 研究...
- GitHub - davidberenstein1957/fast-sentence-transformers: This repository, called fast sentence transformers, contains code to run 5X faster sentence transformers using tools like quantization and ONNX.:该仓库名为 fast sentence transformers,包含使用量化和 ONNX 等工具让 sentence transformers 运行速度快 5 倍的代码。 - davidberenstein1957/fast-sentence-transformers
- GitHub - PrakharSaxena24/RepoForLLMs: Repository featuring fine-tuning code for various LLMs, complemented by occasional explanations, deep dives.:包含各种 LLM 微调代码的仓库,辅以偶尔的解释和深度探讨。 - PrakharSaxena24/RepoForLLMs
- Command-R - Hugging Face Space,由 Tonic 提供: 未找到描述
- Spac (Stéphan Pacchiano): 未找到描述
- LlamaTokenizer 的实现(不含 sentencepiece)· Issue #60 · karpathy/minbpe: @karpathy 感谢精彩的讲座和实现!一如既往地出色。我尝试在不使用 sentencepiece 后端的情况下实现 LlamaTokenizer,尽可能贴近 minbpe 的实现...
- GitHub - not-lain/loadimg: 一个用于加载图像的 python 包: 一个用于加载图像的 python 包。通过创建账号为 not-lain/loadimg 的开发做出贡献。
- BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models:由于大规模模型的端到端训练,视觉和语言预训练的成本变得越来越高。本文提出了 BLIP-2,一种通用且高效的预训练策略...
- nnUNet/documentation/explanation_normalization.md at master · MIC-DKFZ/nnUNet:在 GitHub 上为 MIC-DKFZ/nnUNet 的开发做出贡献。
- BLIP-2:未找到描述。
- Open LLM Leaderboard - HuggingFaceH4 创建的 Hugging Face Space:未找到描述
- awnr/Mistral-7B-v0.1-half-naive-A · Hugging Face:未找到描述
- Spaces - Hugging Face:未找到描述
- Lihuchen/pearl_small · Hugging Face:未找到描述
- Lihuchen/pearl_base · Hugging Face:未找到描述
- Models - Hugging Face:未找到描述
- sentence-transformers/sentence_transformers/util.py (GitHub):使用 BERT 的多语言句子和图像嵌入 - UKPLab/sentence-transformers
- MTEB Leaderboard - mteb 创建的 Hugging Face Space:未找到描述
- GitHub - EleutherAI/lm-evaluation-harness:语言模型少样本评估框架。
- Ban Keyboard GIF - Ban Keyboard - Discover & Share GIFs:点击查看 GIF
- 非官方 LMStudio FAQ!:欢迎来到非官方 LMStudio FAQ。在这里你可以找到 LMStudio Discord 中最常见问题的答案。(此 FAQ 由社区管理)。LMStudio 是一款免费的闭源软件...
- LM Studio:在本地运行任何开源 LLMs 的最简单方法!:你准备好进入本地大语言模型(LLMs)的奇妙世界了吗?在这段视频中,我们将带你探索那些令人惊叹的能力...
- TightVNC:兼容 VNC 的免费远程桌面软件:未找到描述
- 高达 17% 的 AI 会议评审现在由 AI 撰写:新的统计分析显示,在最近的 ML 会议同行评审中存在大量 AI 生成的内容。这对科学诚信意味着什么?
- reddit.com: over 18?:未找到描述
- 持续学习与灾难性遗忘:一场讨论深度神经网络中持续学习和灾难性遗忘的讲座。我们讨论了背景、评估算法的方法...
- SDXS: Real-Time One-Step Latent Diffusion Models with Image Conditions:未找到描述
- Rethinking How to Train Diffusion Models | NVIDIA Technical Blog:在探索了 Generative AI Research Spotlight: Demystifying Diffusion-Based Models 中解释的扩散模型采样、参数化和训练的基础知识后……
- VoiceCraft:未找到描述
- Explode Cute GIF - Explode Cute Cat - Discover & Share GIFs:点击查看 GIF
- TRC Report 4:未找到描述
- GitHub - jasonppy/VoiceCraft: Zero-Shot Speech Editing and Text-to-Speech in the Wild:野外环境下的 Zero-Shot 语音编辑和文本转语音 - jasonppy/VoiceCraft
- Bloom: 这款 Chrome 扩展程序将带您的团队进入数据宁静之境。 🧘🏽♂️
- MTEB Leaderboard - a Hugging Face Space by mteb: 未找到描述
- Customizing LLMs - LlamaIndex: 未找到描述
- How to capture warnings — pytest documentation: 未找到描述
- Tools - LlamaIndex: 未找到描述
- Azure OpenAI - LlamaIndex: 未找到描述
- Retrieval Evaluation - LlamaIndex: 未找到描述
- llama_parse/examples/demo_json.ipynb at main · run-llama/llama_parse: 解析文件以实现最佳 RAG。通过在 GitHub 上创建账户,为 run-llama/llama_parse 的开发做出贡献。
- llama_parse/examples/demo_advanced.ipynb at main · run-llama/llama_parse: 解析文件以实现最佳 RAG。通过在 GitHub 上创建账户,为 run-llama/llama_parse 的开发做出贡献。
- ReAct Agent - A Simple Intro with Calculator Tools - LlamaIndex: 未找到描述
- llama_index/llama-index-integrations/extractors/llama-index-extractors-entity/llama_index/extractors/entity/base.py at main · run-llama/llama_index: LlamaIndex 是一个用于 LLM 应用程序的数据框架 - run-llama/llama_index
- Extracting Metadata for Better Document Indexing and Understanding - LlamaIndex: 未找到描述
- llama_index/llama-index-integrations/embeddings/llama-index-embeddings-openai/llama_index/embeddings/openai/base.py at 70c16530627907b2b71594b45201c1edcbf410f8 · run-llama/llama_index: LlamaIndex 是一个用于 LLM 应用程序的数据框架 - run-llama/llama_index
- LSP usage demo- python. Action: hover: LSP 使用演示 - python。操作:悬停。GitHub Gist:即时分享代码、笔记和片段。
- AI Employees Outperform Human Employees?! Build a real Sales Agent: 构建一个真实的 AI 员工需要什么?在生产环境中构建 AI 销售和 Reddit 回复 Agent 的真实案例;获取 100 多种方式的免费 Hubspot 研究...
- Pydantic Extractor - LlamaIndex: 未找到描述
- GitHub - urchade/GLiNER: Generalist model for NER (Extract any entity types from texts): 用于 NER 的通用模型(从文本中提取任何实体类型)- urchade/GLiNER
- GLiNER-Base, zero-shot NER - a Hugging Face Space by tomaarsen: 未找到描述
- GitHub - run-llama/llama_index at 70c16530627907b2b71594b45201c1edcbf410f8: LlamaIndex 是一个用于 LLM 应用程序的数据框架 - GitHub - run-llama/llama_index at 70c16530627907b2b71594b45201c1edcbf410f8
- Function - LlamaIndex: 未找到描述
- OpenAI agent: specifying a forced function call - LlamaIndex: 未找到描述
- ReAct Agent - A Simple Intro with Calculator Tools - LlamaIndex: 未找到描述
- Manipulating Chess-GPT’s World Model: 操控 Chess-GPT 的世界模型
- Sphere Neural-Networks for Rational Reasoning: 用于理性推理的球形神经网络。大语言模型(LLM,如 ChatGPT)的成功体现在其全球普及度、类人的问答能力以及稳步提升的推理能力...
- SDXS: Real-Time One-Step Latent Diffusion Models with Image Conditions: 扩散模型的最新进展使其处于图像生成的尖端。尽管性能优越,但扩散模型并非没有缺点;它们的特征是...
- Getting the most out of your tokenizer for pre-training and domain adaptation: 分词(Tokenization)是现代 LLM 中一个研究不足且经常被忽视的组件。大多数已发表的工作在所有实验中都使用单一的分词器,通常是从其他模型借用的,而没有进行消融实验...
- Explicit Inductive Bias for Transfer Learning with Convolutional Networks: 在归纳迁移学习中,微调预训练的卷积网络显著优于从头开始训练。使用微调时,其潜在假设是预训练...
- MaLA-500: Massive Language Adaptation of Large Language Models: 大语言模型推动了自然语言处理领域的技术进步。然而,它们主要针对英语或有限的语言集进行设计,这在它们的...
- How do different tokenizers perform on downstream tasks in scriptio continua languages?: A case study in Japanese: 本文以日语为例,研究了分词器对预训练语言模型(PLM)在无显式空格的连写语言(scriptio continua languages)下游任务性能的影响...
- GitHub - lawrence-cj/LLaMA-DiffFit: Efficient Fine-tuning LLaMA Using DiffFit within 0.7M Parameters: 使用 DiffFit 在 0.7M 参数内高效微调 LLaMA - lawrence-cj/LLaMA-DiffFit
- Manipulating Chess-GPT’s World Model: 操控 Chess-GPT 的世界模型
- Add support to size memory backed volumes by derekwaynecarr · Pull Request #94444 · kubernetes/kubernetes: 由 derekwaynecarr 提交的 Pull Request #94444:添加对内存后端卷大小调整的支持。这是哪种类型的 PR?/kind feature。这个 PR 做了什么 / 为什么我们需要它:将内存后端的 emptyDir 卷大小限制为 Pod 可用内存和本地 emptyDir sizeLimit 的最小值。这很重要...
- inverse-scaling-eval-pipeline/eval_pipeline/models.py at main · naimenz/inverse-scaling-eval-pipeline:用于运行不同规模 GPT 模型并绘制结果的基础 pipeline - naimenz/inverse-scaling-eval-pipeline
- Add various social bias tasks by oskarvanderwal · Pull Request #1185 · EleutherAI/lm-evaluation-harness:此 PR 实现了各种用于评估 LLM 社会偏见的流行基准测试。我还希望在可能的情况下对这些任务进行验证:例如,通过与现有实现或结果进行比较...
- 来自 Emad acc/acc (@EMostaque) 的推文:未找到描述
- 来自 jason liu (@jxnlco) 的推文:考虑在 4 月 / 5 月进行一轮播客巡回,大家对目前新兴的播客有什么看法?我很想聊聊我在 RAG、结构化数据方面的见解,以及我一直在学习的内容...
- 来自 Emad acc/acc (@EMostaque) 的推文:未找到描述
- Polaris:一种面向医疗保健且专注于安全性的 LLM 星座架构:我们开发了 Polaris,这是首个专注于安全性的 LLM 星座,用于实时患者与 AI 的医疗对话。与以往专注于问答等任务的医疗 LLM 研究不同,我们的工作...
- 彭博社 - 你是机器人吗?:未找到描述
- Sora:初步印象:我们从创意社区获得了宝贵的反馈,帮助我们改进模型。
- 未找到标题:未找到描述
- Arcads - 使用 AI 创建引人入胜的视频广告:使用 Arcads 快速生成高质量的营销视频,这是一款 AI 驱动的应用,可将基础产品链接或文本转化为引人入胜的短视频广告。
- Imgur:互联网的魔力:未找到描述
- 我们的下一代模型:Gemini 1.5:Gemini 1.5 提供了显著增强的性能,在跨模态的长上下文(long-context)理解方面取得了突破。
- 来自 Mistral AI Labs (@MistralAILabs) 的推文:首届 @MistralAI 黑客松圆满成功,感谢所有参与者!以下是获胜者(链接见推文回复):- 微调后的 Mistral 7B 玩 DOOM - 通过测试优化 prompt - Mistral 驱动的...
- 来自 google bard (@deepfates) 的推文:与一位负责 GPT-10 训练集群项目的 Microsoft Azure 工程师进行了交流。他抱怨他们在尝试于恒星之间铺设 Ansible 级 InfiniBand 链路时遇到的问题。我:“为什么不...”
- 来自 James Hill-Khurana (@jtvhk) 的推文:与一位负责 GPT-7 训练集群项目的 Microsoft Azure 工程师进行了交流。他抱怨他们在尝试跨大洲铺设水下 InfiniBand 电缆时遇到的问题。我:“为什么...”
- 来自 Kyle Corbitt (@corbtt) 的推文:与一位负责 GPT-6 训练集群项目的 Microsoft 工程师进行了交流。他抱怨他们在不同区域的 GPU 之间配置 InfiniBand 级链路时遇到的痛苦。我:“为什么...”
- GitHub - microsoft/LLMLingua:为了加速 LLM 的推理并增强 LLM 对关键信息的感知,压缩 prompt 和 KV-Cache,在性能损失极小的情况下实现高达 20 倍的压缩。:为了加速 LLM 的推理并增强 LLM 对关键信息的感知,压缩 prompt 和 KV-Cache,在性能损失极小的情况下实现高达 20 倍的压缩。 - GitHub...
- Google Cloud Platform:未找到描述
- 未找到标题:未找到描述
- Google Cloud Platform:未找到描述
- Hugging Face 上的 @smangrul:"🤗 PEFT v0.10.0 发布!🔥🚀✨ 一些亮点📝: 1. FSDP+QLoRA and DeepSpeed…": 未找到描述</li>
- Fully Sharded Data Parallel: 未找到描述
- DeepSpeed: 未找到描述
- DeepSpeed: 未找到描述 </ul> </div> --- **OpenAccess AI Collective (axolotl) ▷ #[axolotl-dev](https://discord.com/channels/1104757954588196865/1104758010959634503/1222113529474318388)** (5 条消息): - **RunPod 上的 Axolotl 模板问题**:一名成员报告无法使用 RunPod 上的 Axolotl Docker 模板打开 Jupyter Notebook。 - **Axolotl 模板的潜在修复方案**:解决 Axolotl Docker 模板问题的建议包括将 volume 更改为 `/root/workspace` 并重新克隆 Axolotl。 --- **OpenAccess AI Collective (axolotl) ▷ #[general-help](https://discord.com/channels/1104757954588196865/1110594519226925137/1221766299185844254)** (6 条消息): - **微调 TheBloke/Wizard-Vicuna-7B-Uncensored-GPTQ 时的挫折**:一名成员尝试使用 AutoTrain 微调 **TheBloke/Wizard-Vicuna-7B-Uncensored-GPTQ** 模型,但遇到了与 `setup.py egginfo` 相关的 `subprocess-exited-with-error`。错误提示涉及 sentencepiece 的 `FileNotFoundError`,暗示可能存在依赖项或环境问题。 - **分享了有用的链接**:分享了另一位用户的图片,似乎与在此处找到的 **TheBloke/Wizard-Vicuna-7B-Uncensored-GPTQ** 模型相关 [链接](https://i.imgur.com/EBdldam.jpg),其中包含更多详细信息和模型仓库链接。 - **建议寻求支持**:针对微调错误,另一名成员建议使用 **Hugging Face** 提供的潜在工单/支持系统,因为使用的是 AutoTrain。 - **隐蔽的数据问题**:一位成员讲述了解决 `keyerror` 的经历,该错误最终追溯到其数据集中的“不可打印字符”,这些字符仅在特定工具下可见。 - **Mistral7b-base-v2 的预训练难题**:有人提出了关于在大型文本语料库上继续预训练 **mistral7b-base-v2** 的疑问,观察到打包后的数据集中缺少 `</s>`(序列结束)Token,仅包含 `
- TheBloke/Wizard-Vicuna-7B-Uncensored-GPTQ · Hugging Face: 未找到描述
- transformers/examples/pytorch/language-modeling/run_clm.py at f01e1609bf4dba146d1347c1368c8c49df8636f6 · huggingface/transformers: 🤗 Transformers: 为 Pytorch、TensorFlow 和 JAX 提供的最先进机器学习库。 - huggingface/transformers
- OpenGPTs:未找到描述
- Astra DB | DataStax 的推文:将应用开发时间从数周缩短至数分钟,并开始无限制扩展。
- LangChain:此播放列表包含所有关于 LangChain 的教程,LangChain 是一个使用 LLM 构建生成式 AI 应用的框架。
- opengpts/backend/app/retrieval.py at main · langchain-ai/opengpts:通过在 GitHub 上创建账号,为 langchain-ai/opengpts 的开发做出贡献。
- GitHub - langchain-ai/opengpts:通过在 GitHub 上创建账号,为 langchain-ai/opengpts 的开发做出贡献。
- Voice Chat with Deepgram & Mistral AI:我们使用 Deepgram 和 Mistral AI 制作了一个语音聊天程序 https://github.com/githubpradeep/notebooks/blob/main/deepgram.ipynb #python #pythonprogramming #llm #ml #ai #...
- AI Employees Outperform Human Employees?! Build a real Sales Agent:构建一个真实的 AI 员工需要什么?在生产环境中构建 AI 销售和 Reddit 回复 Agent 的真实案例;获取 100 多种方式的免费 Hubspot 研究...
- CUDA Compatibility :: NVIDIA GPU Management and Deployment Documentation:无描述
- Support for CUDA kernels · Issue #70 · Lightning-AI/lightning-thunder:🚀 特性:你好 👋 从主 README 文件中我注意到 Thunder 接受自定义 Kernel,但仅限于用 Triton 编写的。是否有支持 CUDA kernel 的计划?动力:我...
- iron-bound: Weights & Biases,机器学习开发者工具
- Fully Sharded Data Parallel(FSDP) 入门 — PyTorch Tutorials 2.2.1+cu121 文档: 未找到描述
- Mistral 损失不稳定性 · Issue #26498 · huggingface/transformers: 系统信息 你好,我一直在与微调了 Mistral 官方 instruct 模型的 dhokas 合作。我一直在尝试使用多个数据集进行数十次消融实验来微调 Mistral。在那里...
- llm cmd undo last git commit—a new plugin for LLM: 我刚刚为我的 LLM 命令行工具发布了一个简洁的新插件:llm-cmd。它允许你运行一个命令来生成进一步的终端命令,并对其进行审查和编辑……
- no title found: 未找到描述
- llama-cpp-python/vendor at v0.2.56 · abetlen/llama-cpp-python: llama.cpp 的 Python 绑定。通过在 GitHub 上创建账号来为 abetlen/llama-cpp-python 的开发做出贡献。
- Release v0.2.56 · abetlen/llama-cpp-python: 未找到描述
- ggml alloc: Fix for null dereference on alloc failure (llama/5200) · ggerganov/ggml@fb8c9aa: * 修复了 Metal GGML 缓冲区分配失败时的空指针解引用问题 * 在 ggml-alloc.c 中释放已分配的缓冲区而不是指针 * 修复了修复补丁的补丁
- ggml alloc: Fix for null dereference on alloc failure (#5200) · ggerganov/llama.cpp@ceebbb5: * 修复了 Metal GGML 缓冲区分配失败时的空指针解引用问题 * 在 ggml-alloc.c 中释放已分配的缓冲区而不是指针 * 修复了修复补丁的补丁
- GitHub - ggerganov/ggml at 6b14d738d9100c50c199a3b1aaa960f633904476: 用于机器学习的张量库。通过在 GitHub 上创建账号来为 ggerganov/ggml 的开发做出贡献。
- The Unbundling of ChatGPT (Feb 2024 Recap): ChatGPT 见顶了吗?此外:我们通常为 2024 年 2 月的 AI 工程师提供的最高信号量顶级项目回顾!
- TalkRL: The Reinforcement Learning Podcast | Arash Ahmadian on Rethinking RLHF: Arash Ahmadian 是 Cohere 和 Cohere For AI 的研究员,专注于大型语言模型的偏好训练。他也是 Vector Institute of AI 的研究员。精选参考资料回到 B...