ainews-gpt4turbo-ab-test-gpt-4-1106-preview

GPT4Turbo A/B 测试:gpt-4-1106-preview

OpenAI 发布了新版 GPT-4 Turbo,引发了一项针对 2023 年 11 月版与 2024 年 1 月版在文本摘要能力上的自然实验对比。

TheBloke Discord 社区讨论了 OpenHermes-2.5-Mistral-7B-4.0bpwexllamav2 的模型加载故障排除、RHEL(红帽企业 Linux)在机器学习中的应用辩论、用于分析 GPT 缺陷的数据集生成,以及在游戏主机上运行 LlamaMistral 等大语言模型。此外,还提到了 LangChainLlama2 微调方面面临的挑战。

OpenAI Discord 频道重点关注了 GPT-4 的速度波动、API 与网页端的性能差异、针对 GPT-3.5GPT-4 Turbo 的提示词工程,以及 DALL-E 在图像文本中出现的拼写错误。讨论内容还包括 semantic-text-splitter 等 NLP 工具,以及在 Azure 上协作使用 GPT-4 Vision 的相关疑虑。

Nous Research AI Discord 频道则聚焦于扩展上下文窗口,涉及 Mistral instruct v0.2MistralLite 以及实现 16,384 token 上下文的 LLaMA-2-7B-Chat,并探讨了如 SelfExtend 等无需微调即可扩展上下文的替代方案。最后,AI 技术的社会影响也受到了审视。

#model-loading #rhel #dataset-generation #llm-on-consoles #fine-tuning #speed-optimization #api-performance #prompt-engineering #token-limits #memory-constraints #text-generation #nlp-tools #context-window-extension #sliding-windows #rope-theta #non-finetuning-context-extension #societal-impact gpt-4-turbo gpt-4 gpt-3.5 openhermes-2.5-mistral-7b-4.0bpw exllamav2 llama-2-7b-chat mistral-instruct-v0.2 mistrallite llama2 openai huggingface thebloke nous-research mistral-ai langchain microsoft azure

2024年1月25日的 AI Discord 动态。我们为您检查了 20 个服务器,297 个频道和 5898 条消息。预计节省阅读时间(按 200wpm 计算):557 分钟

OpenAI 昨天发布了新的 GPT4 Turbo 版本我们的笔记见此)。我们正借此机会进行一次摘要生成的自然实验。本版本是由 2023年11月(Dev Day)的“旧版” GPT4T 生成的,请关注下一封包含 2024年1月25日版本的邮件,以进行对比和评论。

目录

[TOC]

第一部分:Discord 高层摘要

TheBloke Discord 摘要

  • 模型加载错误排查:用户 @sco7116 在尝试从 Huggingface 加载 OpenHermes-2.5-Mistral-7B-4.0bpw 时遇到错误,@itsme9316 建议确保使用 exllamav2 以保证正确的版本兼容性。错误消息为 “Could not locate pytorch_model-00001-of-00002.bin”。

  • ML 背景下的 RHEL 辩论:关于在机器学习环境中使用 Red Hat Enterprise Linux (RHEL) 的优缺点进行了活跃讨论。用户 @.dontriskit 分享了对基础设施偏好的看法以及在使用 RHEL 时遇到的挑战。

  • 强调为理解 GPT 缺陷而生成数据集@kaltcit 提议生成一个旨在识别 GPT 常见缺点(如循环和话题漂移)特征的数据集,认为这对于系统地理解和解决这些问题至关重要。

  • 在游戏机上运行 LLM:该服务器对 Llama 和 Mistral 等大语言模型在 Nintendo Switch 等非常规硬件上运行的演示非常感兴趣,展示了这些模型在各种平台上的新颖性和潜在的广泛适用性。

  • LangChain 微调困境:新用户 @nandavikas 正在寻求使用 LangChain 对 Llama2 模型进行微调以从 PDF 中提取信息的帮助,此前他已使用 PyTorch 完成了该任务,但目前缺乏来自 LangChain 文档的相关指导。


OpenAI Discord 摘要

  • GPT-4 对速度的需求:用户报告 GPT-4 存在速度不一致的问题,与网页端相比,API 速度较慢,尤其是在高峰时段。对于企业级用户,预留容量被提及为一种潜在解决方案,但在 API 负载较高时问题依然存在。

  • Api-discussions 与 Prompt-engineering 频道交叉讨论:使用 GPT-3.5 进行 prompt engineering 的挑战涉及对大文本进行分块以进行语法纠正,突显了 Token 限制和内存约束。建议使用 OpenAPI、Python 脚本和 Custom Actions,并推荐 GPT-4 Turbo 作为处理大型文档的更优替代方案。

  • DALL-E 的拼写错误困扰:用户注意到 DALL-E 在生成图像内的文本时往往会出现拼写错误,社区讨论建议通过缩短文本输入来缓解该问题。一个 社区链接 提供了关于这一持续问题的更多见解。

  • 被吹捧为文本转换器的 NLP 工具:由于 GPT 模型在处理大型文档时表现吃力,像 @doublefelix 这样的用户开始寻求外部 NLP 工具,例如 PyPI 上的 semantic-text-splitter,作为潜在的补救措施。对话强调了在 API 调用中保持历史上下文的重要性,以及利用 ChatGPT Plus 作为高性价比解决方案的可能性。

  • 协作与合规的概念化:关于在 Azure 上部署 GPT-4 Vision 以及团队账户协作的咨询遇到了与异常活动相关的账户问题担忧,这可能是由于使用 VPN/代理或触发了敏感 Prompt 导致的。此外还提到了保存/更新 GPT Bot 的问题,特别是与模仿在世艺术家的政策相关。


Nous Research AI Discord 摘要

  • 重点关注扩展上下文能力:目前正在讨论扩展上下文能力的最佳方法,微调(finetuning)被认为是一个可行的解决方案。Mistral instruct v0.2 禁用了滑动窗口(sliding windows)以缩放 rope_theta,而 MistralLite 和主分支模型的配置在上下文窗口管理上正趋于一致。LLaMA-2-7B-Chat 表现惊人,仅通过极少的样本和训练步骤就将其上下文窗口扩展到了 16,384,而 SelfExtend 为上下文扩展提供了一种无需微调的替代方案。

  • AI 的社会影响与技术谜题:技术在社会极化中的作用正受到关注,观察到的 Twitter 活跃度波动引发了关于 AI 增速放缓的理论。分享了一个使用共享 notebook 将 LLM 量化为 GGUF 格式的资源,助力模型转换过程。

  • 寻求 Everyone Coder 和 Hermes Mixtral 基准测试:已请求针对量化版 Everyone Coder 33B(使用 GGUF 格式)进行 human eval 基准测试,该模型可通过 Hugging Face 上的 TheBloke 获取,并由 Massed Compute 提供支持。人们也有兴趣看到 Hermes 和 Mistral 结合模型(幽默地称为 Hermes Mixtral)的基准测试。

  • OpenAI 嵌入模型发布与合成数据创新:OpenAI 发布了新一代嵌入模型(Embedding Models),在数据隐私和成本降低方面表现显著,详见其发布公告。此外,用于生成高质量内容接地数据(content-grounded data)的 Genie 方法预示着长文本问答(Long-Form Question-Answering)和摘要生成方面的潜在进步,如 arXiv 论文所述。

  • 利用 GPU 加速增强 AI 运营:机器学习计算正利用 WebGL 进行 GPU 加速,讨论涉及实时词嵌入(word embedding)调整系统。模型训练需要高端主板以支持多 GPU 配置,Mixtral instruct 的表现优于多个微调模型,新型 GPU 增强模型的原型也取得了进展。

  • LLM 在代码和网络安全领域备受瞩目:对于微调 CodeLlama 34B,4xA6000 GPU 可能仅够运行 qlora,而无法进行全量微调。T5 在微调时面临稳定性挑战,而 WhiteRabbitNeo-13BWhiteRabbitNeo-33B-v1 等 LLM 被推荐用于攻势网络任务。 EvalPlus Leaderboard 是评估 AI 代码生成能力的资源,此外还有关于使用 Llama Factory 进行微调时超参数要点的对话。

  • Project Obsidian 脚本与重构:正在为 3b Obsidian 模型寻求用于远程执行的 Python 脚本,并且正在努力重构代码以兼容最新的 llava repo


OpenAccess AI Collective (axolotl) Discord 摘要

  • 挪威语微调中 Base 模型优于 Instruct 模型:根据 @henriklied 在挪威语数据集上的经验,@le_mess 建议在训练数据稀缺的语言中进行微调时,应使用 Base 模型 而非 Instruct 变体。

  • 警惕 Epoch 数量以避免过拟合:为了防止微调过程中的过拟合,@le_mess 建议在 4 个 Epoch 时停止,特别是考虑到 @henriklied 观察到 10 个 Epoch 后评估损失(eval loss)保持不变。

  • 训练中块字符的潜力@suikamelon@c.gato 讨论了在仅有少量数据集的情况下,使用 等独特块字符(block characters)在 Mistral 等模型训练中相对于 ChatML 标签的效果和分词(tokenization)表现。

  • 量化与配置优化器讨论:在量化讨论中,@dangfutures 更倾向于 AWQ,而 @bjoernp@noobmaster29 讨论了使用配置优化器(config optimizer)而非默认 deepspeed 优化器的重要性,参考了 deepspeed config PR #1208

  • 资助庆祝与数据集介绍@gahdnah 在观察到活跃开发后撤回了之前的担忧,并对获得的资助表示祝贺。同时,@dangfutures 重点介绍了 Hugging Face 上一个基于 Mistral 改进的 Snorkel 模型新数据集。

LM Studio Discord 总结

  • LM Studio 在教学环境中的应用@josemanu72 正在寻找将 LM Studio 作为服务器运行以便从学生桌面连接的方法,@fabguy 建议了一个包含 前端 UI 的解决方案。

  • 硬件难题与帮助:关于利用 GPU 的讨论非常广泛,从 @xmiruso 通过重新加载模型解决 GPU 利用率问题,到 @gitanos 寻求 GPU 性价比建议(建议选择二手 Nvidia 3090 而非 4060ti 16GB RAM)。同时,@mudf00t 反馈在 Nobara 系统上使用 RTX 3090 时遇到显存(VRAM)检测问题,目前尚无即时解决方案。

  • 开源模型思辨@vbwyrde 讨论了 “Intern” (InternLM) 的发布及其据称的 200k 上下文窗口(context window)和函数调用(function calling)能力。此外,还有关于 Meta 发布 Llama2 等开源模型以及使用 Solar-10b 进行函数调用的策略讨论。

  • 故障排除与技巧:多位用户报告了问题,包括 切换 MoE 模型时的 Bug,以及最近 LM Studio 更新导致模型加载失败的错误,例如 @pdg 需要降级到 0.2.10 版本来解决该问题。@sunglasses.emoji 报告了 Autogen 中 空字符串的断开链接问题,并分享了提升模型性能的建议方案。

  • 软件故障:对话强调了开源模型框架的挣扎,以及模型表现出的古怪行为,例如 Mistral 会幻觉出不存在的目录。还有一个有趣的发现:OpenAI 的模型无法回想起当前的 API,这影响了训练期间的上下文。


Mistral Discord 总结

从 GPU 租赁到 Mistral 集成:讨论了包括 runpod、vast 和 lambda 在内的 GPU 租赁选项,还提到 Kaggle 提供每周高达 30 小时的免费访问额度。分享了 Mistral 7B 的使用案例和集成挑战,寻求有效实现的见解,并引用了 Hugging Face 的 Mistral 7B 模型

模型微调中的内存问题:围绕 Mixtral 推理时巨大的内存需求展开了讨论,强调在四个 T4 GPU 上需要 26GB 显存,实际使用量可能高于预期。效率辩论对比了用于量化(quantization)的 exllamav2bnb 4 bit,并推荐通过 exllamav2 GitHub 高效运行 LLM。

超越传统指标评估 LLM:强调了 BLEU 和 ROUGE 指标对 LLM 的局限性,建议使用 Elo 排名 (arena.lmsys.org) 以及 MMLUAlpaca eval 等基准测试(benchmarks)来更好地衡量性能。提到了归一化 Alpaca eval 市场版本的引入,但未提供更多细节。

创意展示与随机 RAG 技巧:展示了一个名为 SoContextual.com 的工具,它集成了 AI 进行浏览器搜索(包括 DOM 引用),支持 MistralAI,该工具曾在 Hacker News 上亮相。同时,简要涉及了 RAG 应用的 提示词优化(prompt optimization),推荐使用 DSPy 并分享了一份 提示词指南

平台困惑与 API 异常:报告了一个账单页面 Bug,导致月度限额重置为 €150;同时讨论了关于 ‘max_tokens’ 参数和提前停止(early stopping)问题的 API Bug,包括一个已发布的 GitHub issue。托管查询确认 Mistral 的 API 位于瑞典的 Azure 上。


Eleuther Discord 总结

  • 寻求 SAM 模型微调代码@the_alt_man 正在寻找用于微调 Meta 的 SAM 模型的代码库,结果发现原始发布版本中并未包含该代码。讨论中提到了 AutoGluon 这一与 Lightning 集成的工具,但也指出了其在 GPU 使用方面的局限性。

  • 联邦学习(Federated Learning)探索:成员们共同讨论了联邦学习的实用性,特别是没有 infiniband 的多节点训练以及模型合并的具体细节。引用了 DiLoCo 的研究,该研究可在 arXiv 上找到。

  • 深入探讨 LLMs 的代理微调(Proxy Tuning)@digthatdata 介绍了一种通过代理微调 Large Language Models (LLMs) 的方法,这可能会简化微调过程。这种替代方法的详细信息可以在 arXiv 上的论文中找到。

  • GPT-NeoX QLoRA 微调难题@kenakafrosty 寻求使用 QLoRA 微调 GPT-NeoX 20B 的帮助,面临 Loss 不下降的问题。会议澄清了 NeoX 目前不支持 QLoRA,并建议去 GitHub 寻找 trltransformerspeft 的解决方案。

  • GPT-NeoX 开发中的测试困扰与协作Python、PyTorch 和 CUDA 的更新导致运行测试时出现问题,引发了关于项目功能测试套件必要性的讨论。目前正在积极修复测试流程、追踪 fork 版本的测试失败,并为项目协作人员提供算力访问权限,例如 此 GitHub issue 所示。


LAION Discord 总结

  • 数据集消失困扰开发者:针对 laion2b-en aesthetics scoresLAION 数据集目前无法访问,因为数据集作者要求暂时关闭。建议工程师关注官方公告以获取数据集访问的更新。

  • 语音聊天界面即将推出:演示了一个集成 Whisper 和 WhisperSpeech 与 LLM 的新语音聊天界面,承诺降低延迟并使对话更自然。目前正在寻求合作者以进一步改进系统;详情可见 Hacker News 公告

  • 图像说明(Image Captioning)至关重要:使用 AI 进行图像说明的方法引发了关于清晰 Prompt 重要性的讨论,以减少幻觉(hallucinations),重点是仅对可见内容进行准确描述。

  • 竞赛征集创意编程者:AI Tech Sprint 邀请开发者参与一个专注于临床就诊记录的项目,并有机会赢取奖金。感兴趣的各方应登记意向

  • AI 的巨额开支报告:讨论了训练 Stable Diffusion 等 AI 模型所涉及的高昂成本,同时也承认随着时间的推移,技术进步将带来预期的成本降低。

  • Google 错失了 SaaS 班车?:Google 对广告收入的过度依赖受到了批评,有人建议关注 SaaS 模式(如 OpenAI 的模式)可能是另一条路径,可能会产生更深远的财务影响。

  • 字节级 Transformer(Byte-Level Transformers)指日可待:人们对字节级 Transformer 的兴趣日益增加,预计很快会有重大进展,最近相关的 arXiv 研究证明了这一点。

  • 修复与识别的重新构想:通过 text-to-image diffusion 技术ID 保持生成系统,突显了 text-to-image diffusion身份保持(identity preservation)方面的技术进步,为 AI 生成图像带来了新功能。

  • 凭借 SUPIR 登顶:一篇关于 SUPIR(一种利用生成先验和模型缩放的图像修复方法)的论文因其创新方法以及在 Hacker News 热门论文中的提及而受到关注,详见 arXiv 提交内容


Perplexity AI Discord 总结

  • Perplexity Pro 功能揭秘:爱好者们讨论了 Perplexity Pro 的功能,例如无限量的 Copilot 查询以及对 GPT-4 和 Claude 2.1 等 AI 模型的访问权限,揭示了其超越标准版的增强能力。

  • 隐私政策备受关注:对 Perplexity 数据保留政策 的担忧促使官方澄清:已删除的线程将在 30 天后清除;然而,隐私政策中关于账户和搜索数据的模糊性引发了用户要求更清晰沟通的呼声,以确保用户放心。

  • API 查询与计费不满:技术讨论揭示了 Perplexity AI 网站与 API 之间的差异,后者生成的代码质量较低;包括 @aiagileguy 在内的用户面临计费问题(如重复扣费),且未能得到快速解决。

  • Perplexity 在教程与教育中的应用:用户分享了 Perplexity AI 的成功案例和实际用途,例如平滑地完成从 Excel 到 Smartsheet 的过渡,以及在教育场景中辅助解释复杂的天文学概念。

  • 投票支持 Perplexity 而非巨头:一段名为“我使用 Perplexity 的频率超过了 Google 和 ChatGPT”的 YouTube 视频将 Perplexity AI 描述为在内容创作等任务中优于 Google 和 ChatGPT 等主流选择。


HuggingFace Discord 总结

  • HuggingFace 推出社交帖子探索者@lunarflu 邀请 HuggingFace 社区 加入 “Posts”功能的早期访问,该功能旨在为 AI 和 ML 讨论提供一个专注的空间,远离 Twitter 或 LinkedIn 等平台的噪音。

  • 预训练困境与高性价比策略:像 Llama-2-7B 模型 这样耗费 GPU 资源的模型预训练,让社区开始考虑资源消耗较少的替代方案,如微调或使用 LoRA/QLoRA 适配器

  • 迫切需要数据集评估标准@rosebei3ngan3g 强调了缺乏评估大语言模型(LLM)数据集的框架,这与众多的模型评估框架形成了鲜明对比。

  • 数据集分析与 Demo 展示的深刻创新:一个关于 数据集卡片分析的 GitHub 项目 和一个多语言文本转语音的 HuggingFace Demo WhisperSpeech,展示了 HuggingFace 生态系统中动态的工作范围。

  • 对革命性模型和指标的认可:Google 的 Lumiere 模型结合了 Space-Time UNET 以实现流畅的视频生成能力,在社区中备受关注;同时,大家对 gradio 4.16 的新版本也表现出浓厚兴趣,该版本包含对 Polars Dataframe 的支持和新的 Gallery 组件,详见 更新日志


LlamaIndex Discord 总结

  • LlamaIndex 举办 LLM 网络研讨会引人关注@jerryjliu0 宣布了一场关于 LLMCompiler网络研讨会,重点讨论了 Agent 中的并行函数调用,并提供了 LlamaPackNotebook 等资源。相关论文可以在这里找到,研讨会详情请见这里

  • 一系列创新成果揭晓@seldo 发布的 Slack Bot 教程指导如何将组织学习整合到 Bot 中;Zilliz Cloud Pipeline 最新集成了 LlamaIndex,详情见客座博客文章。LlamaIndex 0.9.38 版本现已支持 OpenAI 最新的 embedding 模型,更多细节见其发布说明;同时 TypeScript 用户迎来了支持相同功能的 LlamaIndex.TS 0.1.0 版本。

  • #general 频道关于检索和自定义的讨论升温:LlamaIndex 目前缺少针对 TextGenerationInference 的原生 LLM 支持,但与 Langchain 的兼容。此外,还讨论了复杂的检索场景以及 OpenAI 更新的 embedding 模型的整合。针对如何在上下文不足时提取答案的问题,分享了一个修改默认 Prompt 的链接:用法模式

  • Zep 的多功能聊天特性受到关注Zep 记忆对话和执行实体提取的能力引发了兴趣,@yoursaviorjesus 分享了 Zep 文档。在澄清 LlamaIndex 的功能时,@cheesyfishes 将其描述为类似于 Amazon Kendra,但可以适配任何 vector store 或语言模型

  • 知识图谱创新分享@chiajy 通过一个哈利·波特书籍演示展示了一个具有递归检索和多跳推理功能的自学习知识图谱。欲深入了解此项工作,请参阅 Harry Potter and the Self-Learning Knowledge Graph


Latent Space Discord 总结

  • LLM Paper Club 坚持不录音政策:Latent Space 的 LLM Paper Club 会议将不进行录音,以鼓励开放分享,且不提供回放选项。
  • Morpheus-1 让梦境与 AI 相遇:一条推文发布了关于 Morpheus-1 的消息,这是一款旨在诱导清醒梦的多模态生成式超声 Transformer,计划于 2024 年春季发布 Beta 版。其新颖的方法引发了广泛关注。
  • GPT-4 Turbo 和新 Embedding 模型发布:OpenAI 发布了更新的 GPT-4 Turbo 模型和新的 embedding 模型。相关详细说明和公告已分享,强调了改进点以及对 AI 应用的潜在影响。
  • Martian 的 LLM 基准测试上线:Martian 在 Martian’s LLM Leaderboard 推出了 Model Router,用于评估不同的 LLM 推理产品,并提供开源文档和工具支持。
  • LLM Paper Club 扩展至亚洲:LLM Paper Club 已扩展到亚洲,提供对 “Attention Is All You Need” 等开创性论文的讨论。该俱乐部正在征集未来论文的建议和反馈,以优化 beta 体验。

DiscoResearch Discord 总结

  • Mixtral 与模型合并(Merging Models)深度解析mergekit 的作者在 GitHub comment 中提供了见解,影响了 DiscoResearch Mixtral 训练方法。重点在于 Mixture of Experts (MoE) 训练中 auxiliary loss 的正确应用。

  • 重新思考数据过滤与模型训练方法:一篇新论文挑战了预训练数据质量过滤的有效性,指出数据选择应与模型在目标任务上的表现保持一致,详见此处。讨论围绕采用 Direct Preference Optimization (DPO) 和 Key Term Optimization (KTO) 等新训练方法展开,关于使用 DPO Trainer 的见解详见 Hugging Face 的 TRL 文档

  • Embedding 开发与使用的进展:德国 Jina embeddings 模型即将发布,有望增强排名应用。OpenAI 的新 Embedding 模型具有改进的多语言能力,标志着一次飞跃,详见此处

  • 翻译与语言模型微调成果DiscoLM German 7B v1 已成功使用自定义数据集进行微调,旨在将中古高地德语翻译为现代德语。该微调过程正热切期待基于 Mixtral-Instruct 的版本。

  • Embedding 技术即将迎来的效率提升:即将推出的 Embedding 模型在 MIRACL benchmark 上将超越 OpenAI,在仅 256 维度下即可实现 12 倍的向量数据库成本节省,正如 @Nils_Reimers这条推文中所预告的。


LLM Perf Enthusiasts AI Discord 总结

  • OpenAI 发布 Embedding 创新OpenAI 的最新公告详细介绍了 GPT-4 Turbo 和新 Embedding 模型的发布、更好的 API 控制工具,以及即将下调的 GPT-3.5 Turbo 价格。工程师们将缩短的 Embedding(shortened embeddings)视为效率的一次飞跃,并期待将其集成到系统中。

  • 更新后的 OpenAI API 简化开发者流程:OpenAI 致力于增强 API 体验,包括新的审核模型和旨在完善开发者监督的 API 使用管理工具。开发者现在可以参考更新后的文档指南来了解最新的模型和功能。

  • 便捷性胜过开源:关于 OpenAI 与开源模型之间的辩论正在展开,像 @res6969 这样的专业人士指出使用 OpenAI 实现功能的效率极高,而其他人则主张开源替代方案的可定制性。

  • 便利性可能优于定制化:尽管有开源模型可用于个人微调,但像 @potrock 这样的成员强调了 OpenAI Embedding 模型提供的简单、开箱即用的便利性。

  • 在成本效益之间取得平衡:经济方面的讨论转向了 OpenAI 新的大型 Embedding 模型的成本效益,正如 @shacrw@michelcarroll 所讨论的,在这些更新之后,需要在存储节省API 成本之间进行权衡。


LangChain AI Discord 摘要

  • 欢迎加入 LangChain 宇宙@quarknova 目前在 INRIA 实习,展示了在项目中使用 LangChain 的兴趣,并促使其考虑 GitHub 版本与其商业版本的优势对比。

  • 定制化 AI 人格现已实现@jstansbe 探讨了创建如 “Elon Musk AI” 等定制化 AI 实体的可能性,@ksolo__ 贡献了一个资源,介绍了 finetuning 的概念并分享了一个 深度学习课程链接

  • LangChain 助力聊天机器人创建获赞@johnnucleus 赞扬了 LangChain 社区在协助其使用 LangChain 和 Streamlit 快速开发集成网络搜索功能的聊天机器人方面所提供的有效帮助。

  • LLM 转型为数据合成器:讨论涉及使用 LLM 生成合成数据以供传统 ML 模型使用,特别提到了利用 LLM 进行 RAG 生成,从而根据上下文和 schema 创建 SQL 查询。

  • 在 LangChain 中操作 PARQUET@benjaminbascary@johnny2x2 交流了在 LangChain 中处理 PARQUET 文件的见解,并提供了通过 pandasDataFrameLoader 功能实现的示例代码。

  • 深入探索 LangServe 的能力@veryboldbagel 分享了使用 LangServe 和 LCEL 创建自定义工具和 Agent 的示例与资源,强调了使用 LangGraph 构建具有更强表达能力的 Agent 的实用性。

  • 流式响应缺失的神秘案件@hiranga.g 在实验 LangServe 的 agent_with_history 时遇到了流式响应挑战,指出了在通过 LangServe 使用 chain.streamLog() 集成 Agent 时可能存在的 bug。

  • SQL Chain 与大型数据库的博弈@johnny2x2 讲述了 SQL Chain 在处理大型数据库时的困难,并发现通过在数据库中构建具有描述性名称的 精选视图 (curated views) 可以显著提升性能。

  • 通过优化改进 SQL 查询管理@johnny2x2 描述了从使用本地 AI 转向依赖 OpenAI 进行 SQL 查询处理的转变,以在维护数据隐私的同时,在 LangChain 内部实现更高效的查询过程。

  • 通过链式工作流提升任务处理能力@johnny2x2 介绍了一种新方法,描述了在其 任务处理链 (task processing chain) 中将每个 SQL 查询作为独立工具使用的转变,从而显著改进了工作流管理。

请注意,任何对用户名的直接引用均已包含在内,因为根据提供的信息,这些引用被认为具有上下文相关性。


Datasette - LLM (@SimonW) Discord 摘要

  • LLM 库更新预告:@SimonW 宣布了 LLM 项目中 openai 库 即将进行的更新,并在 GitHub 评论 中为测试人员提供了详细信息。

  • LLM 迈向 0.13 版本:LLM 发布版本中即将到来的 0.13 里程碑 (Milestone) 旨在增强命令行对 LLM 的访问能力,相关信息已记录在 GitHub 里程碑页面 上。

  • 征集开发者解决 Readline Bug:正在公开征集关于 LLM 中 readline 问题的协助,该问题会导致方向键显示 ANSI 编码而非移动光标,详见此 GitHub issue

第 2 部分:详细的分频道摘要和链接

TheBloke ▷ #general (1212 条消息🔥🔥🔥):

  • 尝试 Hermes 2.5:用户 @sco7116 寻求帮助测试来自 Huggingface 的名为 OpenHermes-2.5-Mistral-7B-4.0bpw-h6-exl2 的模型,但遇到了错误 “Could not locate pytorch_model-00001-of-00002.bin”。@itsme9316 建议他们没有使用 exllamav2 加载,应该切换到正确的版本。
  • 在 ML 中使用 RHEL 的优缺点@kquant 报告成功运行了 Linux,并转向使用 Ubuntu 进行合成数据集生成。讨论包含了关于在机器学习中使用 Red Hat Enterprise Linux 的各种观点,@.dontriskit 分享了关于首选基础设施以及在 ML 开发环境中使用 RHEL 面临的挑战的见解。
  • 分享 DPO 脚本和技术@kaltcit 提供了关于他们对模型进行数据集剪枝优化(DPO)方法的信息,重点是生成一个捕捉常见 GPT 失败模式(如循环和话题漂移)的数据集。他们认为这样的数据集可能是 GPT 缺陷最全面的集合。
  • 对 LLM 预测的着迷:用户讨论了各种针对 Llama 和 ChatGPT 等模型的微调(finetunes)和合并(merges)。@itsme9316 发现一个基于 2000 万 token Discord 消息的 7B 微调模型在质量上超过了几个更大的合并模型,甚至表示他们可能会尝试 5 亿 token 的微调。
  • 在 Nintendo Switch 上运行 AI:用户分享了在令人惊讶的硬件上运行 LLM 的视频和评论。@kquant 对在 Nintendo Switch 上运行 Llama 和 Mistral 等模型的可能性表示惊讶,而 @kalomaze 则通过展示 LLM 在非常规平台上运行的媒体内容为这一话题做出了贡献。

提到的链接


TheBloke ▷ #characters-roleplay-stories (74 条消息🔥🔥):

  • ExLLamaV2 加载器支持问题@ks_c 最初质疑 oobabooga 中的 exllamav2 加载器是否支持 min_p(尽管它不是 hf loader),但随后确认该功能已合并到 exllama 中。
  • CPU 模式困惑已消除:在 @keyboardking 询问 exl2 在纯 CPU 模式下与 gguf 相比的实用性后,@neriss 告知 @keyboardking exl2 无法在 CPU 上运行。
  • 模型配置比较@dreamgen 询问了不同模型之间 rope_thetasliding_window 配置的差异,并分享了 bagelMistral instructdolphin 配置文件链接。@jondurbin 回复解释了这些配置是对基础模型的继承,并提到未来可能发生变化。
  • 角色扮演模型讨论@shadowplague 寻求擅长生成无礼、辱骂、种族歧视和脏话场景内容的角色扮演模型推荐。@c.gato@kalomaze 指出可以通过 Prompt 引导现有模型生成此类内容,并建议使用 Kunoichi DPO v2Fett-uccine 进行角色扮演。
  • 用于 RP 的 7B 参数模型:在讨论最佳的 7B 参数角色扮演模型时,成员们提供了各种建议,如 HamSter-0.2Kunoichi DPO v2Fett-uccine,同时还讨论了根据 VRAM 容量选择 6-bit 或 8-bit 量化的问题。

提到的链接


TheBloke ▷ #training-and-fine-tuning (20 条消息🔥):

  • 聊天机器人学习名称和风格@lordofthegoons 正寻求训练一个具有一致对话风格并能记住自己名字的聊天机器人,类似于 Samantha 模型。@amogus2432 建议使用 10 到 100 个示例进行风格迁移(style transfer),但 @dirtytigerx 建议使用更多,并提到 Samantha 模型使用了约 6,000 次多轮对话。
  • 寻求金融顾问聊天机器人@VR 正在寻求关于创建一个金融投资顾问聊天机器人的建议,该机器人需能在 24GB GPU 上运行,并利用 RAG 获取最新的股票价格信息、趋势和专家分析。他们正在考虑是使用 Prompt Tuning 还是对金融文档进行微调(Fine-tuning)。
  • 构建独特的聊天机器人人格@lordofthegoons 旨在通过制作自定义数据集来创建一个具有特定人格(persona)的聊天机器人。他们注意到使用 ChatGPT 生成示例时难以实现多样性,并且由于速率限制(rate limiting)的挑战,正考虑手动创建数据集。
  • 财务限制影响数据集构建@dirtytigerx 指出使用 GPT-4 API 生成数据集的高昂成本以及等待 ChatGPT 速率限制的低效率。他们建议尝试使用本地大语言模型(LLMs)作为更具成本效益的选择。
  • 速率限制催生创意解决方案@lordofthegoons 表示打算在应对速率限制的同时,使用 ChatGPT 手动构建聊天机器人数据集。@dirtytigerx 进一步建议,利用 runpod 等服务在本地运行大型 LLMs 可能比面对 OpenAI API 的速率限制更便宜且更高效。

TheBloke ▷ #model-merging (19 messages🔥):

  • 模型合并中的权重优化@sanjiwatsuki 提出了一个假设,认为将模型权重设置为 略高于 1.0 可能是最优的,因为 TIES 解析过程 可能会导致一些有效权重丢失。
  • 在脚本中探索负权重@kquant 询问 负数 是否会破坏合并脚本。@sanjiwatsuki 表示不确定,但推测代码可能会在没有问题的情况下处理负权重。
  • 选择性模型同化@kquant 讨论了选择性合并模型以同化所需特征的可能性,提到了 DARESLERP 等方法,这些方法可能结合两个在不同基准测试中具有高评分的模型。
  • SLERP 和过拟合模型的表现@kquant 注意到一个意外的结果,即使用 SLERP 合并了两个过拟合模型,并成功保持了它们的测试排名,这引发了关于模型合并背景下过拟合影响的疑问。
  • 合并方法需要进一步澄清@kquant 提到需要更好地理解 DARESLERP 在模型合并背景下的区别,并表示希望进行更多的研究和测试。

TheBloke ▷ #coding (1 messages):

  • 新用户寻求 LangChain 指导:用户 @nandavikas 表示难以用 LangChain 复制他们之前使用 PyTorch 完成的微调过程。他们正在寻求帮助以微调 Llama2,从而从 PDF 中提取特定信息,但在 LangChain 文档中找不到相关说明。

OpenAI ▷ #ai-discussions (35 messages🔥):

  • GPT-4 文档分析的速度问题@romansh2302 强调了网页版 GPT-4 与通过 API 访问的 gpt-4-1106-preview 模型之间存在显著的速度差异,后者速度较慢。@lugui 回复称,在高峰使用期间会出现 API 速度波动,并提到了 请求专用容量 的可能性,这通常针对公司规模的使用。

  • 寻找 GPT-4 性能解决方案:在寻求速度补救措施时,@romansh2302@lugui 告知速度差异与 高峰时段 和 API 负载有关,这种情况不易解决。@og_tort 建议考虑将 GPT-3.5 作为替代方案;然而,@romansh2302 发现它在文档分析方面的效果较差。

  • 用户面临账户问题@hellomyfriend1576 报告称在使用 GPT-4 时收到了 系统异常活动 的警告。来自社区成员如 @lugui@og_tort 的回答认为,使用 VPN 或代理以及潜在的 违规提示词 (flagged prompts) 可能是导致该问题的原因。

  • DALL-E 文本生成中的拼写错误引发疑问@alwayspercipient 注意到 DALL-E 在图像创建中经常包含 拼写错误。正如 @muyfashionista 所指出的,社区已经讨论过这个问题,他还提供了一个关于该主题的 社区链接,并提到使用较短的文本可能会减少错误。

  • 对 AI 服务和团队账户的困惑@paras4887@leithwhitley 等用户提出了关于特定用例的问题,例如在 Azure 上部署 GPT-4 Vision,以及关于使用共享的 付费团队 GPT 账户 进行协作的问题。在提供的消息链中未提供解决方案或明确指导。

提到的链接

TuringsSolutions/PFAF750 · Hugging Face 数据集:未找到描述


OpenAI ▷ #gpt-4-discussions (105 messages🔥🔥):

  • 排查 ‘Always expand code output’ 功能: @darthgustav.@angry_coder 澄清了“始终展开代码输出”的含义,在亲自测试该功能后确认,这意味着被折叠的代码块将始终保持展开状态以便阅读。
  • 在 GPT 中解压库文件: @bambooshoots 建议将库作为 zip 文件上传,并附带一个 .py 文件来解压它,并将 /mnt/data/ 文件夹添加到系统路径(system path)中,这是过去支持的一种方法。@darthgustav. 对潜在的安全问题表示担忧,并停止了对这种环境扩展方式的测试。
  • CustomGPT 编辑需要开启新对话: 针对 @elegante94 的疑问,@darthgustav. 确认要看到 CustomGPT 编辑后的效果,必须开启新对话,因为正在进行的对话不会同步更新更改。
  • GPT Prompt 指令中的图片附件: @elegante94 询问在 Prompt 指令中附加图片的有效性,@darthgustav. 回复称使用简洁的语言比附加图片更好,因为 DALL-E 会自行发挥创意元素。
  • 保存/更新 GPT Bots 的问题: @rodney.leonardo 在保存或更新 GPT Bot 时遇到错误并寻求帮助。@darthgustav. 建议先移除知识库(knowledge),保存为私有,然后逐个重新附加文件,并指出由于模仿在世艺术家(这是不被允许的)可能会导致封禁。

OpenAI ▷ #prompt-engineering (558 messages🔥🔥🔥):

  • 参与 Prompt Engineering: @darthgustav. 就为自定义工作流创建 API 配置向 @novumclassicum 提供了建议,包括在 Python 脚本中使用 OpenAPI 以及在 GPT 中使用 Custom Actions。他们还讨论了尽管存在潜在偏差,但仍确保标准化输出的策略。
  • 文档分块(Chunking)难题: @doublefelix 寻求一种将长文本切分为段落以便通过 AI 进行语法纠错的方法,而 @eskcanta 推荐了一种使用 Python 处理较小章节的方法。Avi 和 Felix 辩论了该任务的最佳实践,Avi 建议使用 AI 进行语义文本分割(semantic text splitting)。
  • AI 驱动的工作流挑战: @doublefelix 测试了多种方法,指导 GPT-3.5 为布道稿转录文本添加段落标记并解决语法问题,但在执行指令和幻觉(hallucinations)方面遇到了问题,这是由于 Token 限制和 AI 上下文中的记忆漏洞导致的。
  • 探索 GPT-4 Turbo 作为解决方案: @darthgustav. 提议利用 GPT-4 Turbo 的 Python Tool 来进行语义分析并生成段落,从而绕过 @doublefelix 在使用 GPT-3.5 时面临的分块限制。Darthgustav 还强调了在大文档处理中 Token 消耗过大和上下文丢失的问题。
  • 考虑使用 NLP 工具进行文本分割: 由于对管理 GPT-3.5 局限性的复杂性感到沮丧,@doublefelix 决定探索第三方 NLP 工具(如 semantic-text-splitter),以尝试自动化大文档的文本分块过程,同时也承认 GPT-4 Turbo 在此类任务中具有更强的能力。

提到的链接:

如何在重复的 API 调用中保持历史上下文?: 每次我调用 API 时,它都没有先前的上下文,这与 chat.openai.com 的场景不同。有没有办法在会话期间保持模型的状态? response = openai.Completi…


OpenAI ▷ #api-discussions (558 messages🔥🔥🔥):

  • Prompt Engineering 证明具有挑战性:用户 @doublefelix 一直在尝试通过 Prompt 引导 GPT 3.5 处理大量文本并添加段落分隔。尽管尝试了各种策略(包括将任务分解为更小的块),AI 在管理上下文方面仍有困难,经常忽略部分输入文本或产生幻觉 (hallucinates)。

  • 寻找正确的方法:对话强调了管理 AI 上下文的复杂性以及“文档检索曲线”的概念。@darthgustav. 建议 GPT-4(特别是 ChatGPT Plus)可能由于其更大的上下文窗口以及通过检索增强生成 (RAG) 处理附件的能力,能更好地完成该任务。

  • API 与 ChatGPT:高性价比方案之争@doublefelix 正在探索以最低成本自动处理布道文转录稿的方案。@darthgustav. 指出,使用带有自定义指令的 ChatGPT 界面可以避免与 API 方式相关的 Token 成本。

  • 自定义 Prompt 的潜力@darthgustav. 指出了使用明确指令和编码指令的“开放变量”来构建 Prompt 的重要性,这可能允许对 AI 输出进行更细致的控制,并有助于完成将文本分段的任务。

  • 探索替代方案并考虑下一步:对话指出了一个备选计划,包括使用 Custom GPTs 和结合 Python 工具的传统 NLP 方法。@doublefelix 计划研究 NLP 软件包,例如在 PyPI 上找到的 semantic-text-splitter,以寻找可行的解决方案。

提及的链接

如何在重复的 API 调用中保持历史上下文?:与 chat.openai.com 的场景不同,每次我调用 API 时,它都是在没有先前上下文的情况下开始的。有没有办法在会话期间保持模型的状态?response = openai.Completi…


Nous Research AI ▷ #ctx-length-research (7 messages):

  • 寻求最佳上下文扩展方案@cryptossssun 询问了目前扩展上下文能力的最佳方法。@_cherrry 对一篇论文给出了积极回应,建议微调 (finetuning) 是一个可行的解决方案。

  • Mistral Instruct 弃用滑动窗口@dreamgen 讨论了 Mistral instruct v0.2 禁用滑动窗口 (sliding windows) 转而采用缩放 rope_theta 的影响,并质疑了滑动窗口方法的有效性。他们分享了一个显示这些更改的 配置文件

  • MistralLite 模仿主分支配置@dreamgen 还注意到 amazon/MistralLite 在上下文窗口管理方面遵循与其主分支对应版本相同的配置策略。

  • LLaMA-2-7B-Chat 上下文扩展的卓越效率@stellaathena 强调了一项令人印象深刻的成就:LLaMA-2-7B-Chat 模型的上下文窗口仅通过 100 个样本和 6 个训练步骤就扩展到了 16,384。

  • SelfExtend 作为非微调替代方案:在关于上下文扩展的讨论中,@leontello 提到 SelfExtend 对于那些不想微调模型的人来说是一个有趣的选项。

提及的链接

config.json · mistralai/Mistral-7B-Instruct-v0.2 at main:未找到描述


Nous Research AI ▷ #off-topic (5 messages):

  • 技术对社会两极分化的影响@ldj 思考技术可能会导致进一步的两极分化,即能力最弱的个体在堕落中越陷越深,而能力最强的个体则被推向更高程度的自我提升。
  • Twitter 活跃度波动的谜团@fullstack6209 观察到 Twitter 新帖子发布频率发生了剧烈变化,询问是否有人注意到这种从每 10 分钟 2-3 条帖子到每分钟约 70 条帖子的转变。
  • Twitter AI 降速理论@fullstack6209 提出一种建议,认为 Twitter 可能故意放慢了 AI 的速度,以此来解释观察到的帖子频率变化。
  • LLM 量化变得简单@pradeep1148 分享了一个名为 “AutoGGUF Quantize LLMs in GGUF format in one click” 的 YouTube 视频,提供了一个使用共享 Notebook 将大型语言模型转换为 GGUF 格式的资源。

提及的链接


Nous Research AI ▷ #benchmarks-log (2 messages):

  • Everyone Coder 33B 的基准测试请求@benxh 请求对 Everyone Coder 33B 的量化版本进行 HumanEval 基准测试,该模型使用了 llama.cpp 引入的新 GGUF 格式。该模型由 TheBloke 在 Hugging Face 上发布,且量化工作由 Massed Compute 提供支持
  • 呼吁对 Hermes Mixtral 进行评估:用户 @teknium 表示希望看到 Hermes 和 Mistral 组合模型的基准测试,并将其称为 Hermes Mixtral,同时带上了一个充满期待的 🙏 表情符号。

提及的链接

TheBloke/Everyone-Coder-33B-Base-GGUF · Hugging Face:未找到描述


  • OpenAI 发布新 Embedding 模型@tsunemoto 分享了 OpenAI 的公告,揭晓了新一代 Embedding 模型、GPT-4 Turbo、更新的审核模型以及 GPT-3.5 Turbo 的降价。公告强调了默认的数据隐私和改进的 API 管理工具,以及新 Embedding 模型更低的价格

  • Genie:一种高质量合成数据的方法@metaldragon01 介绍了一篇关于 Genie 的论文,这是一种创建高质量基于内容(content-grounded)的数据的新方法,详见 arXiv 上的发表作品。据称 Genie 生成的数据非常精炼,在人工评估中被认为既自然又高质量,对于改进长篇问答(Long-Form Question-Answering)和摘要模型具有重要意义。

提及的链接


Nous Research AI ▷ #general (362 条消息🔥🔥):

  • 介绍 GPU 加速 AI:用户 @n8programs 讨论了利用 WebGL 进行 machine learning computations(机器学习计算)。由于 WebGL 不支持原始缓冲区(raw buffers),通常通过将数据打包进纹理(textures)来实现(正如 @everyoneisgross@n8programs 交流的想法)。这种方法可以实现 GPU 加速,正如 TensorFlow.js 所实践的那样,尽管目前存在一些限制,例如最大向量大小为 16,000 个元素。
  • 模型训练的明智建议@intervitens 建议,为了实现有效的多 GPU 设置,服务器或高端桌面(HEDT)主板是必要的,因为这需要充足的 PCI-e 通道。他建议使用二手 Gen2 EPYC 以平衡性能和经济性。讨论内容还包括矿机风格机箱、支持 4 张双槽显卡的双槽间距主板,以及定制水冷方案。
  • 实时词嵌入调整:用户 @everyoneisgross 描述了一个用于快速动态调整 word2vec 模型中词嵌入(word embeddings)的系统,允许根据用户输入增加或减少权重来提供实时反馈。该过程在小语料库上运行速度很快,非常适合基于 LLM(本例中为 Mistral instruct)获取的新数据进行扩展或优化。
  • Mixtral Instruct 表现出奇强劲@gabriel_syme 询问为什么 Mixtral instruct 的表现优于许多微调模型。@intervitens 回答说,Mixtral instruct 在遵循指令方面特别出色,而且 MoE 模型的微调可能还存在一些尚未解决的问题。
  • 探索模型的 GPU 增强@carsonpoole 分享了在适配 phi2 模型变体方面的进展,该变体采用了修改后的微调方法。他计划在 Hugging Face 上发布权重,并可能开发一个基于 LLaMA 的模型变体。该模型还使用了 chatml 数据和 token 进行微调,并将其整合到模型的知识库中。

提及的链接


Nous Research AI ▷ #ask-about-llms (35 条消息🔥):

  • 寻求 CodeLlama 微调规格@ganymede123 询问了微调 CodeLlama 34B 的工作站规格,并考虑使用 4xA6000 GPU。@teknium 回复称这仅够运行 qlora,并表示全量微调(full fine-tune)几乎需要一套完整的 DGX 设备。

  • T5 微调困难@maxpappa 在对微调版本的 T5 进行对齐时面临挑战,注意到输出具有确定性且奖励准确率(reward-accuracies)稳定在 0.5。尽管调整了优化器(optimizers)和调度器(schedulers),@locutusque 仍建议避免使用 paged 8bit Adam,@carsonpoole 则建议对 encoder 中的 infs 进行数值截断(clamping),以处理明显的数值不稳定性。

  • 用于进攻性网络安全和 CTF 的 LLM@useewhynot 寻求适用于进攻性网络安全或 CTF 挑战的 LLM 推荐。@kenakafrosty@georgejrjrjr 推荐了 WhiteRabbitNeo-13BWhiteRabbitNeo-33B-v1,这些模型可在 HuggingFace 上获取。

  • 评估 AI 编程器@findmyke 询问了目前最出色的编程 LLM。@.ben.com 链接到了 EvalPlus Leaderboard,该排行榜通过严格的测试评估 AI 编程器,可作为做出明智决策的资源。

  • 使用 Llama Factory 进行微调@moconna 表达了使用 Llama Factory 微调 Mixtral 的意图,并征求有关必要超参数(hyperparameters)的建议。随后的讨论中未提供具体的超参数或模板。

提到的链接


Nous Research AI ▷ #project-obsidian (3 条消息):

  • 寻求用于 3B Obsidian 的 Python 脚本@vic49. 正在寻找一个简单的 Python 脚本,利用 transformers 库来运行 3b Obsidian 模型。他们指定代码应允许远程执行(remote code = true)。
  • 代码重构进行中@qnguyen3 确认他们正在进行代码重构,以兼容最新的 llava repo,从而增强 3b Obsidian 的功能。

OpenAccess AI Collective (axolotl) ▷ #general (219 条消息🔥🔥):

  • 特定情况下微调首选 Base Model@le_mess 建议在针对基础训练数据有限的语言进行 Fine-tuning 时,优先选择 Base Model 而非 Instruct 变体。该建议是在 @henriklied 分享了其使用 10 万篇挪威语文章数据集进行 Fine-tuning 的方法后提出的。

  • 训练时长与过拟合担忧@le_mess 建议在 4 个 epoch 时停止训练以防止 Overfitting,这是针对 @henriklied 在 10 个 epoch 的 Fine-tuning 过程中观察到 eval loss 趋于平缓的回应。@henriklied 还分享了一个链接,指向 debug flag (prepare_dataset) 的输出,用于诊断训练设置。

  • 训练模型的有效聊天格式@suikamelon@c.gato 讨论了训练语言模型时不同聊天格式的有效性,@suikamelon 介绍了使用独特块字符的 “BlockML”,以期提高 token 效率。此外还提到了在训练中集成 ChatML token 的挑战,因为它们出现的频率较低。

  • 关于使用非常规 Token 进行模型训练的讨论@suikamelon 报告了使用独特块字符代替 ChatML 标签的初步成功,指出尽管数据集仅约 100 个样本,但 在 Mistral 上提供了可靠的 tokenization。

  • 关于模型量化与优化器设置@dangfutures 表达了对使用 AWQ 进行 Quantization 的偏好;@bjoernp 询问在配置中设置 Optimizer 是否会覆盖默认的 DeepSpeed Optimizer,@noobmaster29 确认由于已从默认 DeepSpeed 配置中移除,应使用配置中的 Optimizer。此外还提到了 @winglian 提交的一个相关的 DeepSpeed 配置 PR(PR #1208)。

相关链接


OpenAccess AI Collective (axolotl) ▷ #axolotl-dev (1 条消息):

  • gahdnah 的快速撤回@gahdnah 在注意到最新 commit 中的活跃开发后撤回了一条消息,这表明该项目区域受到了良好的监控且发展迅速。
  • 社区庆祝获得资助@gahdnah 对获得的一项资助表示兴奋和祝贺,用表情符号庆祝这一好消息。 🎉🎉🎉

OpenAccess AI Collective (axolotl) ▷ #general-help (47 messages🔥):

  • 不使用 BitsandBytes 加载模型@matanvetzler 在尝试将 qlora 训练的模型加载到 vLLM 时遇到了 ValueError,因为 vLLM 不支持 bitsandbytes 量化。他们得到的建议是:在 vLLM 中以 fp16 加载模型,或者使用 AutoAWQ 进行量化以适应 VRAM 限制。
  • 合并 QLoRA 训练的模型@stefangliga 提供了一个 GitHub 上的 合并脚本 链接,用于将 qlora 训练的模型合并回基础模型,这是一个独立于模型服务(serving)机制的过程。他们进一步提到 Tim Dettmers 建议合并量化模型,并链接到一条 Twitter 帖子 以作详细说明。
  • SQL 数据集的困惑@sadaisystems 对 SQL 数据集在训练几步后出现极低的 loss 表示担忧,怀疑这是否意味着数据集缺乏多样性或模型已过于熟练。@caseus_ 认为 SQL 的确定性(deterministic)特征可能解释了低 loss,并建议除非数据中有复杂案例,否则可以停止训练。
  • 使用 Axolotl 在训练期间进行 Benchmark 评估@caseus_ 告知 @sadaisystems 关于 axolotl 中的 do_bench_eval: true 选项,可以在训练期间运行小型评估,并指出他们使用来自 dharma-1 的数据集作为 Benchmark,这对于相对改进检查非常有用。
  • 持续预训练咨询@nickbro0355 寻求关于如何在 Mistral 上进行持续预训练(Continuous Pretraining)的帮助,@dangfutures 表示他们一直在尝试,@caseus_ 则询问具体的数据集以便提供进一步帮助。

提到的链接


OpenAccess AI Collective (axolotl) ▷ #datasets (7 messages):

  • 新数据集发布:用户 @dangfutures 强调了 Hugging Face 上一个用于训练 Snorkel 模型 的新数据集。该数据集仅利用了 UltraFeedback 的 Prompt,没有使用外部 LLM 的响应。

  • Snorkel-Mistral 训练方法论说明:该数据集的创建过程包括:针对每个 Prompt 使用 Mistral-7B-Instruct-v0.2 生成 5 个响应变体,使用 PairRM 对其进行重排序,然后应用 Direct Preference Optimization (DPO) 进行三次迭代的 LLM 更新。

  • Mistral 获得升级:用户 @dangfutures 表示 Mistral 7 已经过微调,这可能是指数据集方法论中提到的改进。

  • 提到 ALPACA 的评估指标:用户 @dangfutures 提到了一个与 ALPACA 相关的数字,尽管“34%”的具体背景或含义尚未明确。

  • 表现令人印象深刻@dangfutures 的后续发言指出,尽管最初感知的百分比较低,但其性能被指出 优于旧版本的 GPT-4

  • 俏皮的回应:用户 _dampf 分享了一个来自 Tenor 的 GIF,这可以被解释为对前述消息的反应,尽管 GIF 使用的具体背景在对话中并未阐明。

提到的链接


OpenAccess AI Collective (axolotl) ▷ #rlhf (2 条消息):

  • 寻求 DPO 训练图表方面的建议@noobmaster29 询问是否有资源可以帮助更好地理解 DPO 训练图表 (training plots)。然而,聊天记录中没有提供任何回复或资源。
  • DPO 训练的数据集困境@noobmaster29 询问了 DPO 数据集 的必要组成部分,提到他们已经包含了 prompt/inputchosen rejected pair 列,但在数据集处理过程中遇到了问题。聊天记录中没有提供进一步的说明或排错建议。

OpenAccess AI Collective (axolotl) ▷ #community-showcase (1 条消息):

pradeep1148: https://www.youtube.com/watch?v=wlPxEq_Mtkc


LM Studio ▷ #💬-general (115 条消息🔥🔥):

  • 寻求教室连接方案@josemanu72 询问如何在教室内将 LM Studio 作为服务器运行,并让学生从桌面端连接。@fabguy 建议使用 frontend 和反向代理 (reverse proxy) 设置;随后提到在另一个频道解决了该问题。
  • Ubuntu 上的 GPU 问题@xmiruso 在 Ubuntu 环境下使用 Geforce Nvidia 3090 时遇到了 LM Studio 无法利用 GPU 的问题。在与 @fabguy 等人讨论后,通过卸载并重新加载模型解决了问题,从而提升了处理速度。
  • 代理问题阻碍模型搜索:用户 @laooopooo_02864 由于代理问题在执行模型搜索功能时遇到挑战,@heyitsyorkie 推测他们可能处于 Hugging Face 被屏蔽的国家。
  • 从移动端访问本地模型@cloakedman 寻求从手机访问其 LLM 模型的方法,@wildcat_aurora 提供了一个指向 LM_Chat_TTS_FrontEnd (front-end) 的 GitHub 链接,该项目允许与 LM Studio 模型进行交互。
  • 讨论最佳实践与错误解决:不同用户讨论了 LM Studio 中最适合编码的 AI、并行模型运行、针对错误联系支持,并回顾了他们遇到的问题和修复方法,包括 @fate4real 分享的关于 AMD 显卡的 GPU 驱动警告。

提到的链接


LM Studio ▷ #🤖-models-discussion-chat (54 条消息🔥):

  • C++ Redist 解决模型加载错误@rparada 在加载包括 Stable CodeDeepseekCodellama 在内的多个模型时遇到了错误,但在 @heyitsyorkie 的建议下,通过更新 C++ Redistributables(可再发行组件)解决了该问题。

  • 模型能力评估@heyitsyorkie 评论称 Magicoder DS 6.7bGPT4 的性能非常接近,并进一步阐述目前还没有单一的本地多模态开源模型可以与 GPT4 抗衡。

  • 在 Azure 云上使用 GPT4@mickael6102 分享了他们公司在 Azure 云上本地运行 GPT4 的情况。这引发了与 @vbwyrde 关于数据隐私担忧、成本以及微软与 OpenAI 在专有数据的使用和控制权方面关系的讨论。

  • 开源模型选项@vbwyrde 讨论了一个名为 “Intern” (InternLM) 的新模型,并提供了一个链接,声称该模型具有卓越的能力,例如 200k 的上下文窗口(context window)和函数调用(function calling)。@mickael6102 对此表示感兴趣,并提到正在使用 Solar-10b 进行函数调用

  • 辩论 Meta Llama2 的策略:针对 @vbwyrde 的发言,@.gumdro@ptable 推测了 Meta 提供 Llama2 等开源模型 的动机,认为原因包括设定标准以从下游产品开发中获益,以及抢占 OpenAI 等竞争服务的市场空间。

提到的链接


LM Studio ▷ #🧠-feedback (4 条消息):

  • 切换 MoE 模型时的 Bug 警报@msz_mgs 报告了一个 Bug,即从 4X MoE 模型切换到 2X MoE 模型时会导致错误且无法更改,必须重启应用。
  • 感谢并请求模型详情@yagilb 确认了 @msz_mgs 的 Bug 报告,并请求分享所使用的 2x moe4x moe 模型的详细信息以便进一步调查。
  • 关于 MoE 模型配置的见解@dagbs 提供了关于设置 num_experts_used 配置的技巧,建议对于 4x 模型,正确的设置应该是 2 个专家(experts)。
  • 最新更新的性能问题@golangorgohome0.2.11 版本 在 32GB RAM 的 Windows 11 上的糟糕表现表示担忧,提到尽管网络连接很快,但搜索图标响应缓慢且搜索时间过长。

LM Studio ▷ #🎛-hardware-discussion (11 条消息🔥):

  • 高性价比 GPU 偏好@gitanos 询问了 4060ti 16GB RAM 的价值,@heyitsyorkie 回应建议投资二手的 3090 以获得更好的性价比,在英国其价格仅略高一点。
  • e0.211 的兼容性担忧:用户 @madan.pandit 报告了模型停止工作的问题,特别是在使用 e0.211 版本时。另一位用户 @heyitsyorkie 表示自己这边没有问题,但指出 GGML 模型已被弃用,转而支持 llama.cpp
  • GGUF 模型的内存错误@madan.pandit 提到在尝试使用 GGUF 模型 时收到内存不足的错误。
  • 推荐 M2 Mac Studio 运行 LLM@heyitsyorkie 建议购买 顶配 M2 Mac Studio 是运行 LLM 的完美选择,并称赞了其小巧的体积和美观的设计。
  • 对旧款 GPU 的不同看法@docorange88@wildcat_aurora@rugg0064 之间的对话讨论了使用 P40 或 M40 GPU 进行机器学习的可行性。共识似乎倾向于 P40 GPU,而通常不推荐 M40 GPU。

LM Studio ▷ #🧪-beta-releases-chat (46 messages🔥):

  • Nobara 上的 VRAM 检测问题@mudf00t 报告称 LM Studio 无法识别 Nobara 系统上 RTX 3090 的 VRAM。@yagilb 提供了一个变通方法,但指出该方案是针对不同配置下的 Nvidia 的,不适用于 @pdg 在 Mac M2 上的问题。

  • 最终版本中模型加载失败@pdg 在升级到 0.2.11 版本后遇到所有模型均无法加载的问题,而这些模型在旧版本中可以正常工作。通过 @yagilb 提供的此链接降级到 0.2.10 版本后出现了新的错误,随后用户请求获取更早的 0.2.9 版本的链接。

  • 应用下载停滞问题@khalifa007 遇到了应用下载卡住的问题。@yagilb 建议该问题可能与用户的网络连接或防火墙有关,并考虑使用 VPN 可能会有帮助。

  • 异常 RAM 错误及临时修复@pdg 报告了一个显示 RAM 不足的错误,尽管系统有 16 GB 可用空间。他们发现,先以短句开始并让模型先响应,可以避免在提交长文本时出现错误。

  • 关于上下文长度设置的见解@mattjcly_55150 建议 @pdg 遇到的错误可能是由于初始上下文长度(context length)设置引起的,并建议调整该设置或上下文溢出策略(context overflow policy),以避免在输入长文本时出错。


LM Studio ▷ #autogen (1 messages):

  • Autogen 中空字符串的链接失效@sunglasses.emoji 报告称有关空字符串的置顶链接已失效,并正在寻求关于在 autogen studio 中创建自定义 Agent 类的帮助。目前尚未提供更多细节或解决方案。

LM Studio ▷ #open-interpreter (10 messages🔥):

  • 开源模型框架的使用困境@pefortin 表达了挫败感,尽管运行着 mixtral8x7B 和 deepseek coder 33B 等中型模型,但 memGPTcrewaiOpen Interpreter 等开源模型仍无法正确使用它们所拥有的工具和元素。
  • mudf00t 的模型探索@mudf00t 正在测试各种模型,并强调拥有 RTX 3090 可以加载比其他设备大得多的模型。
  • API 健忘症@mudf00t 幽默地指出,OpenAI 的模型(包括通过 API 访问的模型)似乎无法记住当前的 API 本身,从而在训练期间导致上下文问题。
  • 微调重点@222gate 提到停止了与 memGPT 的集成,目前正在研究为特定函数调用(function calls)微调 mistral 模型,类似于在 memgpt 数据集上看到的努力。
  • Mistral 幻觉出的目录@mudf00t 分享了一个有趣的案例,Mistral 凭空创造了一个包含 node 应用的虚假目录结构,并展示了一个不存在的文件的代码。

Mistral ▷ #general (163 messages🔥🔥):

  • GPU 租赁方案讨论@mrdragonfox 推荐了 runpod, vast, and lambda 等按小时租赁 GPU 的服务,随后提到 Kaggle 每周提供高达 30 小时的免费 GPU 使用时长。
  • Mistral 消费限额与支持@glorfsf 提出了修改订阅选项中消费限额的问题,@mrdragonfox 澄清该限额默认为 €150。@mrdragonfox 还建议联系 support@mistral.ai 以寻求修改消费限额的帮助。
  • BART 模型局限性与 LLM 建议@miraimech 对 Hugging Face 上的 BART 模型在生产环境中的表现表示不满,@mrdragonfox 对此建议使用具有更高上下文窗口(context windows)的开源模型。
  • 模型讨论与 API 问题@ethux@i_am_dom 讨论了 Mistral 模型的应用以及 GitHub Copilot 所使用的模型版本背后的复杂性,@mrdragonfox 澄清了其当前的后端及对 GPT-3.5 的使用情况。
  • Mistral 7B 集成与用例咨询@sophiamyang 征集 Mistral 模型有趣的用例,而 @ethux@f127467 分享了他们在模型集成方面的经验和挑战,寻求社区对有效实现方案的见解。

提到的链接


Mistral ▷ #ref-implem (9 messages🔥):

  • 微调与推理的显存需求对比:用户 @l0gr1thm1k@ethux 澄清,所讨论的显存容量是针对微调(finetuning)而非训练(training)的,并强调重点在于将模型加载到内存中。
  • Mixtral 的显存占用:在回复 @ethux 时,@l0gr1thm1k 确认在四张 T4 GPU 上拥有足够的显存来处理 Mixtral 在 4-bit 推理时至少需要的 26GB 显存。
  • 实际显存使用报告@l0gr1thm1k 报告称,仅加载模型时的 GPU 显存占用就超出了预期,这表明实际使用量可能高于之前分享的预估数字。
  • 量化效率辩论@mrdragonfox 建议使用 exllamav2 进行量化,而不是 bnb 4 bit,并对在显存效率场景下使用 accelerate 表示质疑。

Mistral ▷ #finetuning (3 messages):

  • 传统指标不适用于 LLM@adrienbufort 强调 BLEU 和 ROUGE 对于评估大语言模型(LLMs)或指令微调后的 LLM 没有帮助,因为这些指标传统上是用于翻译性能评估的。
  • 用于类人 LLM 评估的 “Elo”@adrienbufort 强调了 “elo” 系统,这是一种模仿国际象棋排名的系统,非常接近人类对 LLM 评估的偏好,可在 arena.lmsys.org 查看,尽管它需要人工参与。
  • 通过 MMLU 和 Alpaca 进行结构化评估@adrienbufort 指出可以使用多选题,如 Massive Multitask Language Understanding (MMLU) 基准测试(MMLU 论文)来进行明确的 LLM 性能测量,以及使用 Alpaca evalAlpaca GitHub)通过另一个 LLM 来评估回答。
  • 标准化 Alpaca Eval 发布公告@akshay_1 宣布 标准化版本的 Alpaca eval 现已在市场上可用。

Mistral ▷ #showcase (1 messages):

  • 别具一格的 AI 浏览器查询:用户 @sublimatorniq 展示了 SoContextual.com,这是一个用于 AI 浏览器查询的工具,其中包含 DOM 节点引用。该工具支持 MistralAI,并曾在 Hacker News 上发布。

提到的链接

无标题: 未找到描述


Mistral ▷ #random (8 messages🔥):

  • 新人寻求 RAG 指导:用户 @xrdg 加入聊天,询问如何为 RAG 应用构建 prompt 结构的建议。未提供其具体用例的详细信息。
  • 使用 DSPy 进行 prompt 优化@akshay_1 建议使用 DSPy 来优化 prompt 结构,引发了与 @xrdg 的简短互动。
  • 来自危地马拉的问候:在后续消息中,@xrdg 发送了来自 🇬🇹 的问候,但没有提供进一步的讨论点。
  • 探索 Mistral prompt 示例@xrdg 分享了他们一直在使用 langchain, chroma, 和 Mistral 7B,并参考了一个 prompting guide。他们提供了一个包含 Mistral 7B 概述和各种相关资源的链接。
  • 优化 RAG 技术栈@akshay_1 建议 @xrdg 当前的 RAG 技术栈可以进一步优化,并询问该项目是业余爱好还是用于生产环境,但 @xrdg 未提供更多背景信息。

提到的链接

Prompt Engineering Guide:Prompt Engineering 的全面概述


Mistral ▷ #la-plateforme (35 messages🔥):

  • 早停(Early Stopping)难题仍在继续:用户 @digitalphotographer 在其 prompt 中仍面临早停问题,尽管未使用控制 token 或特殊字符。他们之前已向 Mistral 团队提供了带有可复现示例的 notebook,但尚未收到回复。

  • 报告每月使用限额 Bug:用户 @ewanhc, @ethux, 和 @fersingb 报告了一个 Bug:在账单页面尝试修改每月使用限额后,限额会重置为 150 欧元,即使初衷是降低限额。他们已通过电子邮件向 Mistral 支持团队报告了此问题。

  • API 托管查询已澄清@loicboutet 询问了 Mistral API 的托管位置,并获知其托管在瑞典的 Azure 上,该信息是在隐私页面找到的。

  • API 的 “max_tokens” Bug 浮出水面@mrxavierx 发现并报告了一个 Bug:将 “max_tokens” 设置为 1 会导致 500 内部服务器错误,而不是返回单个 token 响应或正确的验证错误。该问题已记录在 Mistral 的 GitHub 仓库中(Issue #122)。

提到的链接


Eleuther ▷ #general (29 messages🔥):

  • 寻找 SAM 微调方法@the_alt_man 询问了用于微调 Meta SAM 模型的代码库,发现原始代码中不包含该功能,并提到使用了采用 Lightning 但仅限于 GPU 使用的 AutoGluon 工具箱。

  • 讨论联邦学习的可行性@elyxlz 询问了在没有 infiniband 的情况下进行多节点训练以及模型合并步骤的可行性。@stellaathena 指出了关于类孤岛设备训练的实验,而 @smerkyg 指向了一项潜在的近期研究,@_r0n12 通过 arXiv.org 链接 确认其为 DiLoCo 论文。

  • 访问 Pile 数据集@sk5544 寻求如何访问 Pile 数据集的信息,得到了 @stellaathena 的指引以及 @elyxlz 提供的私信帮助。

  • 金融律师的类比描述@catboy_slim_ 提供了一个类比,将金融领域的律师比作战地救护兵,传达了他们在快节奏金融事件中的被动反应地位。

  • 项目贡献与数据集创建呼吁@pinconefish 提供了 ML 专业知识(特别是 CV 领域)以贡献于现有项目,而 @stellaathena@wonkothesensible 激发了一个想法:创建一个专注于显示 10:10 的模拟时钟数据集,以研究域外泛化(out-of-domain generalization),并指出潜在的模型崩溃和主动学习案例。

提到的链接

DiLoCo: Distributed Low-Communication Training of Language Models:大型语言模型 (LLM) 已成为机器学习许多应用中的关键组件。然而,训练 LLM 的标准方法需要大量紧密互连的加速器……


Eleuther ▷ #research (125 条消息🔥🔥):

  • Byt5 的效率受到质疑@main.ai 提到 Byt5 表明字节级 Transformer 的效率较低,这引发了与 @the_random_lurker 之间关于比较 token 和字节序列长度公平性的辩论。
  • 论文接收方面的困扰@stellaathena 对一篇评审分数看似很高但却被莫名拒绝的论文表示困惑,认为这涉及 meta-reviewer 的失误。讨论强调了学术会议中论文申诉流程的困难和缺乏透明度。
  • 大语言模型的 Proxy Tuning@digthatdata 分享了一篇关于 LLM Proxy Tuning 的论文链接,这是一种传统微调的高效替代方案,利用较小模型的预测来指导较大的基础模型,展示了显著的性能提升。
  • 对 Self-Rewarding LM 论文的批评@thatspysaspy 批评了一篇关于 Self-Rewarding LM 的论文,原因是其在训练期间使用了 Claude 2 和 Llama-2-chat 等更强的模型,认为这削弱了论文的论点,并可能导致未来研究工作的误导。
  • Chess.com 关于国际象棋 AI 对手的虚构文章@clockrelativity2003 分享了一篇 Chess.com 文章,预测了 2024 年 AI 在国际象棋领域的未来。然而,@alexanderrgriffing 认为该文章是由 GPT 编写的,并对其严肃性表示怀疑。

提到的链接


Eleuther ▷ #lm-thunderdome (2 条消息):

  • 确认修复集成问题@hailey_schoelkopf 表示如果针对某个未指明的集成问题有必要,已准备好合并修复程序,并对该行为表示惊讶,希望亲自进行测试。
  • 添加 Weights and Biases 支持@hailey_schoelkopf 分享了由 @ayulockin 提交的 GitHub pull request,该 PR 为 lm-evaluation-harness 添加了对 Weights and Biases 的支持。他们正在考虑新创建的 wandb.py 文件在项目结构中的最佳位置。

提到的链接

feat: Add Weights and Biases support by ayulockin · Pull Request #1339 · EleutherAI/lm-evaluation-harness:在 #359 中,@parambharat 曾提议添加对 W&B 日志记录的支持。然而,那是在重大的重构进入之前完成的。作为 lm-evaluation-harness 和 wandb 的用户,我提交了这个 PR …


Eleuther ▷ #gpt-neox-dev (16 条消息🔥):

  • 寻求 QLoRA 微调指导@kenakafrosty 询问了关于使用 QLoRA 微调 GPT-NeoX 20B 的资源或信息,并提到训练期间 loss 不下降的问题。@stellaathena 澄清说 NeoX 库不支持 QLoRA,并建议在 GitHub 上寻求有关 @kenakafrosty 正在使用的 trltransformerspeft 的帮助。

  • GPT-NeoX 的 pytest 问题@catboy_slim_ 提到从 pytest 中移除了 --forked,并强调需要单独投入精力让 pytest 在该项目中重新正常运行。

  • Fork 运行时测试失败@catboy_slim_ 报告了 Python、PyTorch 和 CUDA 的重大更新,虽然能够运行基础模型,但对无法手动验证每个可能的分支表示担忧,指出测试需要正常工作,并已在 GitHub 上创建了 issue

  • 关于 Torch 测试框架的讨论@catboy_slim_ 对现有的测试框架能否充分处理 PyTorch 代码表示怀疑,因为开发者很少对这类代码进行测试。

  • 项目协作者关于验证和算力访问的讨论@tastybucketofrice 正在为协作者(包括 @337128969059172353)安排算力访问,以便进一步测试他们对项目的更改,并向 @catboy_slim_ 提供了算力访问权限以协助测试。

提到的链接

Tests fail when run with pytest –forked · Issue #1132 · EleutherAI/gpt-neox:Bug 描述:当按照 /test/README.md 中的指令使用 pytest –forked 运行测试时,大量测试失败并报错:RuntimeError: Cannot re-initialize CUDA in forked subp…


LAION ▷ #general (59 条消息🔥🔥):

  • LAION 数据集寻求:用户 @ppwwyyxx 询问了 laion2b-en aesthetics scores,因为最初提供的数据集链接已失效。回复称,应数据集作者的要求,该数据集的访问权限已暂时关闭,建议查看公告以获取更新。
  • 语音聊天界面 Demo 发布@jpcl_ 发布了一个完整的 voice chat interface 新 Demo,结合了 Whisper 和 WhisperSpeech 以及开源 LLM,宣称降低了延迟以实现更自然的对话,并邀请合作以改进系统。他们分享了 Hacker News 公告 的链接。
  • 图像字幕(Image Captioning)策略讨论:用户 @pseudoterminalx@thejonasbrothers@limiteinductive 分享了使用 AI 进行图像字幕生成的方法,重点是提供清晰的 prompts 以避免 hallucination(幻觉),并专注于仅描述可见内容。
  • AI Tech Sprint 招募@ninjaa2377 正在寻找开发者加入 VA 的 AI Tech Sprint 团队,参与一个涉及临床就诊记录(clinical encounter notes)的宏大项目,提供潜在的奖金和声望。感兴趣的开发者请通过 DM 联系并访问 官方挑战赛网站
  • 盗版美国频道自由运营?@pseudoterminalx 提到当地有线电视公司在没有后果的情况下使用来自美国的盗版频道,声称其所在国家(未指明)的政府不受外国公司或贿赂的影响。

提到的链接


LAION ▷ #research (71 条消息🔥🔥):

  • Google 的变现困境:用户 @max_voltage 讨论了 Google 在过去 15 年中除了广告之外,难以找到具有财务意义的商业模式,指出他们或许应该采取类似于 OpenAI 的 SaaS 模式,而不是将 DeepMind 完全整合进 Google。
  • 对 Byte-Level Transformers 持谨慎乐观态度@marianbasti 引用了一篇 arXiv 论文,对 Byte-Level Transformers 表达了谨慎的乐观,而 @thejonasbrothers 则幽默地指出,进展似乎总是“还有一个月就到”。
  • 文本生成图像 Diffusion 和身份保持(Identity Preservation)进展@vrus0188 分享了两个描述最新进展的 GitHub 链接:用于文本生成图像 Diffusion 的 RPG-DiffusionMaster用于身份保持生成的 InstantID@chad_in_the_house 确认了其酷炫程度。
  • 扩展图像修复 (SUPIR)@thejonasbrothers 链接到了一篇 arXiv 投稿,介绍了 SUPIR 及其在文本提示引导下的图像修复能力,并强调该论文出现在 Hacker News 的热门论文之列。
  • 讨论 AI 模型训练的高昂成本:用户 @vrus0188@chad_in_the_house@thejonasbrothers@limiteinductive 参与了关于训练 Stable Diffusion 等 AI 模型巨大成本的对话,尽管他们承认随着时间和技术进步,成本预计会降低。

提到的链接


Perplexity AI ▷ #general (87 条消息🔥🔥):

  • Perplexity Pro 功能说明:针对 @winnie.zhao 的询问,@icelavaman@mares1317 提供了一个链接,详细介绍了 Perplexity Pro 的功能,如无限次 Copilot 查询、上传文件进行内容探索,以及访问包括 GPT-4 和 Claude 2.1 在内的强大 AI 模型。
  • 数据保留问题引发关注:以 @emisaurus_hex@firesonwires 为首的多位用户对 Perplexity 的数据保留政策表示困惑和担忧。据推测为 Perplexity 专家的 @icelavaman 澄清道,已删除的线程会在 30 天后从服务器中移除。
  • 关于使用 Perplexity 模型的问题@divyanshu0500@odobostudio@lukas8a 等用户提出了关于模型 JSON 输出、文件上传限制,以及 Claude 和 GPT-4 在总结 PDF 和学术著作方面的效率等技术问题。
  • 了解账户和搜索数据政策:关于 Perplexity 隐私政策的讨论凸显了一些模糊之处,促使人们建议使用更清晰的政策措辞以避免误解,并确认搜索数据是否确实在账户有效期内一直保留。
  • 社区互动与技术支持@danielagmz888@icelavaman 等成员就从申请信用代码到解决疑虑等各种问题提供了帮助。@reflext@sedierta 之间还就 Pro 订阅成本和各种模型的性能进行了轻松的交流。

提到的链接

  • Perplexity 会收集我的哪些数据?:浏览 Perplexity 博客,获取文章、公告、产品更新和优化体验的技巧。保持关注并充分利用 Perplexity。
  • 什么是 Perplexity Pro?:浏览 Perplexity 博客,获取文章、公告、产品更新和优化体验的技巧。保持关注并充分利用 Perplexity。
  • Perplexity - AI 助手:在浏览时随时提问
  • Perplexity 博客:浏览 Perplexity 博客,获取文章、公告、产品更新和优化体验的技巧。保持关注并充分利用 Perplexity。

Perplexity AI ▷ #sharing (4 条消息):

  • 搜索与 AI 的交汇@jsudaniel 强调了 CEO 与 Google Search 和 OpenAI 的联系,指出 Perplexity AI 是这些技术的交汇点。他们分享了一个名为“我使用 Perplexity 的频率超过了 Google 和 ChatGPT”的 YouTube 视频,讨论了使用 Perplexity AI 的好处。

  • Perplexity 降低了 Smartsheet 的学习曲线@nicknalbach 发现 Perplexity AI 为从 Excel 过渡到 Smartsheet 时遇到的问题提供了高效的解答。Perplexity 帮助他克服了陡峭的学习曲线,而其他资源提供的解决方案往往过于零散。

  • 天文学教育的概念辅助@coloradocomplex 提到使用 Perplexity 来帮助解释天文学课程中的概念,展示了 Perplexity AI 在教育中的实用性。

  • 无额外信息@coloradocomplex 分享了一个链接,但未提供关于该链接内容或目的的背景或额外信息。

提到的链接

我使用 Perplexity 的频率超过了 Google 和 ChatGPT:该视频的主要看点:“我使用 Perplexity 的频率超过了 ChatGPT、BARD 和 Microsoft Copilots,主要有五个原因,包括它在内容创作中的应用……”


Perplexity AI ▷ #pplx-api (5 messages):

  • 代码输出中的 Web 与 API 差异@benhirap 表示 Perplexity AI 的网页版生成的代码质量比 API 版本好得多。
  • 寻求 API 与 Labs 的一致性@stijntratsaert_01927 询问了 Perplexity AI labs 使用的默认参数,因为他们在通过 API 复现 labs 结果时遇到了困难。
  • 账单问题待解决@aiagileguy 报告了被重复收费的问题,并联系了 support@perplexity.ai 请求退还积分,但在超过 1-2 个工作日后仍未收到解决方案。
  • 请求协助处理支持事宜:针对账单问题,@aiagileguy 正在寻求帮助或指引,以加快 Perplexity AI 的退款流程。

HuggingFace ▷ #announcements (3 messages):

  • 社区亮点 - 社交探索@lunarflu 赞扬了 HuggingFace 社区对 ML 内容的专注,并邀请成员加入该组织以获取 “Posts”功能的早期访问权限。对于对 AI 和 ML 感兴趣的人来说,它被强调为一个比 Twitter 或 LinkedIn 噪音更小的替代方案。

提到的链接

I launched my first competition !

Goal : Use AI to…"](https://huggingface.co/posts/Tonic/783827682062088):未找到描述

Well, yes, if the models are…"](https://huggingface.co/posts/vicgalle/320544784279721):未找到描述


HuggingFace ▷ #general (40 messages🔥):

  • 解码训练困境@asprtnl_50418 强调了预训练模型所需的巨大资源规模,引用了 Llama-2-7b model,该模型在 A100 GPU 上需要约 18.4 万个 GPU 小时。他们还提到了其他具有成本效益的方法,如 fine-tuning 以及使用 LoRA/QLoRA adapters 来降低硬件需求。

  • 训练与评估集划分策略:用户 @enka55@the_aureo 讨论了在 LLM 训练中将数据划分为训练集和评估集的挑战,建议包括使用 pandas 的 train_test_split 配合 stratify 参数,并针对训练数据未涵盖的主题补充 RAG 等知识库。

  • 特征提取基础原理解析@vipitis 澄清了特征提取是指通过 BERT 等 encoder-only 模型进行序列嵌入(sequence embedding),可用于聚类等任务。他们还引导用户参考 MTEB leaderboard 以获取相关模型和指标。

  • 寻求模型评估见解@green_eye 对基准测试之外缺乏可获取的模型定性评估表示沮丧,寻求更多详细说明模型优缺点的、更具可读性的人类评论。

  • 排除模型加载故障@newincoding 在加载模型时遇到困难,@sebastian3079 诊断这可能是由于硬件限制,建议处理 400 亿参数(40 billion parameters)的模型至少需要 32GB 的 RAM。

提到的链接


HuggingFace ▷ #today-im-learning (1 messages):

  • 寻找数据集评估框架:用户 @rosebei3ngan3g 表示需要专门针对大语言模型的数据集评估框架,指出尽管有很多评估模型本身的框架,但仍缺乏此类工具。他们质疑在没有既定框架的情况下应如何进行数据集评估。

HuggingFace ▷ #cool-finds (7 条消息):

  • 显微镜下的 HuggingFace Datasets:用户 @andysingal 分享了一个 GitHub 项目,专注于对 HuggingFace 上的数据集卡片(dataset cards)进行大规模分析。对于任何深入研究 AI 数据集文档的人来说,这个项目都非常有启发性。
  • 从零到 ML 英雄:用户 @pacificvoltage 正在通过阅读《Understanding Deep Learning》(udlbook) 的第一章来探索机器学习的基础知识,并对最近 Machine Learning Street Talk 采访 Noam Chomsky 时使用的 deepfake 技术感到惊叹,可以在 YouTube 上观看。
  • AI 生成文本的双筒望远镜视野@tea3200 介绍了一篇 arXiv 论文,展示了 Binoculars,这是一种新型检测器,声称在不需要任何训练数据或特定模型修改的情况下,区分人类与机器生成文本的准确率超过 90%。
  • SemEval2024 共享任务焦点:用户 @vipitis 提到了 SemEval2024-task8 竞赛的一个 GitHub 共享任务,该任务专注于多领域、多模型和多语言的机器生成文本检测,可能与刚刚分享的 “Binoculars” 方法相关。
  • AI 助力 Flutter 腾飞@akindelemichael 凭借一个用于在 Flutter 应用中集成 ONNX 模型的新 package 引起了关注,这正好契合了 @osanseviero 注意到的 Flutter AI 能力增长趋势,包括一个 用于 HuggingFace Inference API 的 Flutter SDK

提到的链接


HuggingFace ▷ #i-made-this (12 messages🔥):

  • HuggingFace 上的 Nemo 项目启动平台@tonic_1 对启动 Nemo 模型项目 表达了热情,并提议在 HuggingFace 上撰写一篇详细的 blog post,这一想法得到了积极响应。@not_lain 表示赞同,并承诺将尽快撰写文章。

  • 托管在 HuggingFace 上的 WhisperSpeech 演示@tonic_1 介绍了 HuggingFace 上的 WhisperSpeech 演示,该演示支持多语言文本转语音,并能通过极短的音频输入创建声纹。

  • 开发中的 CheXRay 分析工具@tonic_1 分享了 CheXRay 的链接,这是一个正在开发中的胸部 X 光分析工具,展示了医学影像 AI 领域的活跃项目和进展。

  • @lunarflu 发起的社区博客外联@lunarflu 联系了 @mateomd_dev,建议通过社区博客文章来扩大其作品的影响力,并提供了 HuggingFace 博客板块的链接@mateomd_dev 表现出为 HuggingFace 受众优化其文章的兴趣。

  • 即将发布的 wav2vec2-bert 模型公告@yehors 宣布即将发布基于 Common Voice 10 数据集的 wav2vec2-bert 模型,表明该模型已进入最后准备阶段。

提到的链接


HuggingFace ▷ #reading-group (3 messages):

  • 对 Isamu 的鼓励@lunarflu 表达了对名为 Isamu 的用户的支持,告诉他们慢慢来,并添加了爱心表情符号。

  • 文本转视频模型 Lumiere 提高了标准@fishie22 讨论了 Google 的新模型 Lumiere,解释了其创新的 Space-Time UNET 用法,该技术保持了时间一致性,并能以 16fps 的速度生成 80 帧视频。他们提供了研究论文链接:Google 的 Lumiere 研究

  • 对 Medium 文章基准测试的正面反馈@starsupernova 在推特上提到了一篇 Medium 文章,称赞其基准测试“非常棒”,并添加了笑脸表情符号。

提到的链接

Lumiere: A Space-Time Diffusion Model for Video Generation:我们介绍了 Lumiere —— 一种文本转视频扩散模型,旨在合成展现真实、多样且连贯运动的视频,这是视频合成中的一个关键挑战。为此,我们……


HuggingFace ▷ #diffusion-discussions (1 messages):

spikespiegel5112: 如何在本地加载 LoRA 模型?


HuggingFace ▷ #computer-vision (5 messages):

  • 关于 LMM 架构的简短询问besiktas 询问了在当前训练的 LMM 中使用 idefics/flamingo resampler/cross-attention 的设计选择,而不是采用线性投影或预训练视觉编码器等更简单的方法。

  • Gemini Pro Vision AI 介绍ahmed3ibrahim 讨论了试用 Swift API 的 Gemini Pro Vision AI,提到了其关键特性,如在单个请求中处理多张图像,并提供全面的 API 健康报告

  • 对 CVPR2024 论文的好奇iloveh8 正在寻找查看 CVPR2024 所有论文(包括被拒绝和被接收的)的方法,但未收到回复。

提到的链接

[Gemini Pro Vision AI API 文档 (swift-api-swift-api-default) RapidAPI](https://rapidapi.com/swift-api-swift-api-default/api/gemini-pro-vision-ai1/):未找到描述

HuggingFace ▷ #NLP (15 messages🔥):

  • TorToiSe 发音引擎获得认可@mr_nilq 提到 TorToiSe 在 TTS 领域提供了最佳质量但速度较慢,并分享了一个快 5 倍的修改版本 链接
  • 寻求训练问答 AI 的建议:用户 @ysk.dev 正在考虑训练包含 1 万个问答对的 AI 方案,在 Amazon Lex 和训练 VDS 之间犹豫,并询问运行长回答服务器所需的硬件规格。
  • 请求解决 Transformer 导入错误:用户 @srovnbh 在从 transformers 包导入 TFTrainer 时遇到错误,并收到了确保安装正确版本的建议。
  • 关于信任“黑盒”模型的演讲@vipitis 分享了一个关于评估“黑盒”模型的 演讲链接,质疑在用户无法看到 API 背后运作的情况下对模型的信任度。
  • Windows 兼容性问题导致 Bits and Bytes 报错@kingpoki 意识到他们的问题原因是 bitsandbytes 缺乏对 Windows 的支持。

提到的链接

talks.cam : 复制与审计黑盒语言模型。:未找到描述


HuggingFace ▷ #diffusion-discussions (1 messages):

spikespiegel5112: 如何在本地加载 LoRA 模型?


HuggingFace ▷ #gradio-announcements (1 messages):

  • Gradio 4.16 发布,功能强大@abidlabs 宣布发布 gradio 4.16,其主要特性包括对 Polars Dataframe 的原生支持、可作为输入使用的新 Gallery 组件、改进的 Chatbot 低延迟流式传输,以及自定义组件的自动文档。这个“重磅发布”的详细变更日志可以在 这里 查看。

提到的链接

gradio/CHANGELOG.md at main · gradio-app/gradio:完全使用 Python 构建和分享令人愉悦的机器学习应用。🌟 点赞以支持我们的工作! - gradio-app/gradio


LlamaIndex ▷ #announcements (1 messages):

  • LLMCompiler 网络研讨会即将开始@jerryjliu0 提醒大家,10 分钟后将举行一场关于 LLMCompiler 论文作者的网络研讨会,该论文详细介绍了一个用于 Agent 并行函数调用 的框架。该框架旨在提升性能和效率,可以通过他们的论文 (LLMCompiler Paper) 进行探索,更多资源如 LlamaPackNotebook 可在专用链接获取。

提到的链接

LlamaIndex Webinar: Efficient Parallel Function Calling Agents with LLMCompiler · Zoom · Luma:LLM 非常擅长推理和采取行动。但之前的 Agent 推理框架(如 ReAct)主要集中在顺序推理,导致了更高的……


LlamaIndex ▷ #blog (7 条消息):

  • Slack Bot 教程分享:IFTTT 宣布了一个新的 OSS 仓库,其中包含由 @seldo 编写的分步指南,用于构建一个可以从对话中学习并回答组织问题的 Slack Bot。该 Bot 基于 @SlackHQ 平台构建。构建你的 Slack Bot

  • Zilliz Cloud Pipeline 与 LlamaIndex 集成:LlamaIndex 强调了他们与 @zilliz_universe 的合作,将 Zilliz Cloud Pipeline 集成到 LlamaIndex 中,增强了检索服务和多租户支持。查看客座博客文章

  • LlamaIndex 支持新的 OpenAI Embedding 模型:LlamaIndex 团队发布了 0.9.38 版本,其中包含对 @OpenAI 最新 Embedding 模型的 Day 0 支持。更多详情请参阅发布说明

  • LlamaIndex 开箱即用的优质 Prompting:IFTTT 提到了 LlamaIndex 一个经常被忽视的特性,即它默认会创建有效的 Prompt,如果需要也可以进行自定义。更多见解请点击此处

  • LlamaIndex 现已支持 TypeScript:IFTTT 宣布 LlamaIndex.TS 0.1.0 版本已发布,感谢 @yi_ding 的快速贡献,将对 @OpenAI 最新 Embedding 的支持扩展到了 TypeScript。TypeScript 爱好者请访问 LlamaIndex.TS 0.1.0 发布页面

  • LlamaIndex.TS 发布版包含 Qdrant 引擎:LlamaIndex.TS 的 0.1.0 版本还增加了对 @qdrant_engine 的支持。该更新被强调为 TypeScript 发布版中的一项额外功能。查看此功能

提到的链接


LlamaIndex ▷ #general (38 条消息🔥):

  • LlamaIndex Text Inference Server 暂无可用 LLM@cheesyfishes 确认 LlamaIndex 目前没有用于 TextGenerationInference 服务器的 LLM,但提到 Langchain 的模型可以通过 Wrapper 配合使用。
  • 使用 similarity_top_k 配置 Chat Engine:针对 @richard1861 的提问,@whitefang_jr 提供了一段 Python 代码片段,用于在 LlamaIndex 中配置 Chat Engine 的相似性检索数量,使用 similarity_top_k=5
  • 特定领域用例中的检索挑战@lancerninja@cheesyfishes 讨论了一个更复杂的检索场景,涉及在执行另一次检索之前使用 LLM 重写问题,旨在提高性能,但担心多步骤会导致响应时间增加。
  • 期待与新 OpenAI Embedding 模型的集成@ayfri 分享了 OpenAI 关于新 Embedding 模型和 API 更新的公告链接。@cheesyfishes 做出回应,暗示 LlamaIndex 即将支持这些新功能。
  • 在 LlamaIndex 中自定义 Prompt 以实现上下文响应@shri_j 询问当查询信息不在提供的上下文中时,如何从 OpenAI 获取答案。@cheesyfishes 指导其修改默认 Prompt 以实现此类功能,并分享了文档链接。

提到的链接


LlamaIndex ▷ #ai-discussion (5 条消息):

  • 探索 Zep 的功能:用户 @yoursaviorjesus 询问是否有人有使用 Zep 的经验,并指出了其聊天历史记忆(chat history memory)和实体提取(entity extraction)等功能。他们提供了 Zep 文档和各种快速入门指南的链接:Zep Documentation

  • 询问 LlamaIndex 的本质@zeekg_46676 询问 LlamaIndex 是一个 vector store,还是像使用自然语言搜索的 Amazon Kendra 那样运作。@cheesyfishes 澄清说 LlamaIndex 更类似于 Kendra,并且功能多样,能够使用任何 vector store 或语言模型进行各种操作。

  • 展示自学习知识图谱@chiajy 分享了他们在自学习知识图谱 RAG 工作流方面的工作,该工作流具有递归检索(recursive retrieval)、自动创建和多跳推理(multi-hop reasoning)的特点,并以《哈利·波特》书籍演示为例。关于该知识图谱的详细解释及其影响,可以在他们的文章中找到:Harry Potter and the Self-Learning Knowledge Graph

提到的链接


Latent Space ▷ #ai-general-chat (36 messages🔥):

  • 无 LLM Paper Club 录制@kbal11 回复了 @farrealdori,告知 LLM Paper Club 的会议不会录制,以便参与者能更自由地分享工作细节,因此没有回放。
  • 介绍 Morpheus-1@shivdinho 分享了一个推文链接,宣布推出 Morpheus-1。它被描述为世界上首个多模态生成式超声 Transformer,旨在诱导和稳定清醒梦(lucid dreams),并强调了其创新性。
  • Go-Go-Labs 编程冲刺@slono 提供了一个 GitHub 仓库链接,展示了在 4 天内为 yaml-custom-tags 实验编写了 5000 行代码,表明项目进展迅速,即将完成。
  • GPT-4 Turbo & Embedding Models 更新@dimfeld 分享了 OpenAI 关于发布更新版 GPT-4 Turbo 预览模型和新 Embedding Models 的公告,同时 @swyxio 链接了来自 Twitter 的相关笔记。
  • Martian 的 LLM 排行榜发布@cute_hamster_07119 宣布在 https://leaderboard.withmartian.com/ 发布 Martian 的 Model Router,这是一个帮助评估各种 LLM 推理产品的工具。@coffeebean6887@fanahova 讨论了该项目的文档和开源方面。

提及的链接


Latent Space ▷ #ai-event-announcements (1 messages):

  • LLM Paper Club 亚洲版启动@ivanleomk 宣布 LLM Paper Club 亚洲版正式启动,首场将讨论 “Attention Is All You Need” 论文。感兴趣的人员可以注册以获取未来通知在此处参加活动。

提及的链接


Latent Space ▷ #llm-paper-club (8 messages🔥):

  • 亚洲论文俱乐部时间安排@ivanleomk 感谢大家参加今天的论文俱乐部,并提到下周的讨论可能涵盖 Self-Rewarding Language Models。他们对其他论文建议持开放态度,并指出如果没有志愿者,@796917146000424970 或他们自己将负责讲解。
  • Beta 测试反馈请求@aimuggle 对大家的参与表示感谢,并请求提供反馈以改进仍处于 beta 阶段的论文俱乐部。
  • 关于 Self-Instruction 的澄清@stealthgnome 询问 “self-instruct” 是否是 “self-reward” 的输入,表明对讨论这些概念之间相互作用的兴趣。
  • 即将到来的美国论文俱乐部日程@ivanleomk 询问了下周美国论文俱乐部的预定论文,@eugeneyan 提供了 Pythia paper 作为讨论主题,并列出了作者及其 arXiv 链接。
  • 对 Pythia 论文信息的感谢@ivanleomk@eugeneyan 为即将进行的 Pythia 论文讨论提供的详细信息表示感谢。

提到的链接

Pythia: A Suite for Analyzing Large Language Models Across Training and Scaling:大型语言模型 (LLMs) 在训练过程中是如何发展和演变的?这些模式如何随着模型规模的变化而改变?为了回答这些问题,我们推出了 \textit{Pythia},一套包含 16 个模型的系列…


DiscoResearch ▷ #mixtral_implementation (2 messages):

  • Mixtral 训练的 Mergekit 指南@philipmay 分享了来自 mergekit 作者的 GitHub issue comment,这可能会为 DiscoResearch mixtral training 提供参考,文中质疑了在使用 “hidden” 或 “random” 等选项合并模型后的 finetuning 过程。
  • MoE 训练的关键辅助损失 (Auxiliary Loss)@bjoernp 承认分享的 mergekit 信息可能很有帮助,并强调正确处理 auxiliary loss 对于 MoE (Mixture of Experts) training 至关重要。

提到的链接

Mixtral branch: What option should I choose when I want to do some finetuning after the merge? · Issue #116 · cg123/mergekit:”hidden” 和 “random” 的参数描述并没有准确解释当我之后想要进行 finetune 时该怎么做。在合并后进行 finetune 是否有用(可能)…


DiscoResearch ▷ #general (23 条消息🔥):

  • 高质量数据过滤可能并非王道@bjoernp 分享了一篇来自 arXiv 的引人入胜的论文,该论文挑战了过滤预训练数据质量的标准做法,表明“质量”过滤并不总是与模型性能的提升正相关。研究建议选择能够最大化模型在目标任务上性能的数据,从而避免人为挑选数据质量概念带来的偏见。在此阅读摘要

  • 实验 LLM 的偏好信号:用户 @hammadkhan 建议进行一项涉及有监督微调 (SFT) 的实验,其中将提示词的补全内容从正面改为负面,这可能会影响语言模型的学习。

  • KTO:一种不同的模型训练方法@bjoernp 提到 Key Term Optimization (KTO) 可用于训练模型。它被比作 Direct Preference Optimization (DPO),但使用二进制信号,将补全内容关联为理想或不理想。

  • 在数据集上使用 KTO 的指南:在详细解释中,@hammadkhan 概述了如何最大化 KTO loss 以提高模型生成效用,并将其与需要基于偏好的成对数据的 DPO 进行了对比。Hugging Face 的 TRL 文档和 Rafailov 等人 (2023) 的论文为 DPO Trainer 和预期的数据集格式提供了进一步的背景信息。查看 TRL 文档

  • 用于持续模型更新的二进制标签@hammadkhan 提到了 ContextualAI 建议的 Kahneman-Tversky Optimisation (KTO),它使用二进制的“好”或“坏”标签进行模型更新,简化了生产环境中的标注过程。

  • OpenAI 发布 GPT4-Turbo 并降低 GPT3.5 价格@rasdani 强调了 @OfficialLoganK 关于 OpenAI 发布 GPT-4 Turbo 的公告,以及对 GPT-3.5 Turbo 的更新,包括大幅降价,以及新的 API 功能,如作用域 API Key 和嵌入维度规范。更多详情请见 OpenAI 博客

提到的链接


DiscoResearch ▷ #embedding_dev (12 条消息🔥):

  • 新的德国 Jina 模型发布公告@sebastian.bodza 告知了即将发布的 德国 Jina 模型 “jinaai/jina-embeddings-v2-base-de” 在 hf 上的消息。这可能对 Ranking 任务有所帮助。

  • 探索使用 Mixtral 进行问题生成@sebastian.bodza 在 GitHub 上分享了 问题生成示例,并提到在该任务中使用了 4 bit gptq 格式的 Mixtral 配合 vllm

  • 社区协作努力@bjoernp@sebastian.bodza 的工作表示感兴趣并愿意提供支持,特别是在生成正样本和困难负样本(hard negative examples)方面。

  • 新的 OpenAI Embedding 模型发布@bjoernp 指出了 OpenAI 发布了新的 Embedding 模型,这些模型在多语言能力上有所提升。该帖子包含一个包含更多信息的链接:在此阅读更多内容

  • 使用 Genie 自动生成高质量数据@bjoernp 分享了一篇关于 Genie 方法的 研究链接,该方法用于自动创建高质量的基于内容的数据,其中可能包含有用的过滤机制。

提到的链接


DiscoResearch ▷ #discolm_german (6 条消息):

  • DiscoLM German 微调成功@thomasrenkert 报告了使用 unsloth 成功 微调 DiscoLM German 7B v1 的消息,并期待基于 Mixtral-InstructDiscoLM German 版本。
  • 中古高地德语翻译数据:在回答 @hammadkhan 的询问时,@thomasrenkert 澄清微调是在一个用于将中古高地德语翻译为现代德语的 自定义数据集 上进行的。
  • Bjoernp 认可 DiscoLM 更新@bjoernp 通过一条简短的确认消息赞扬了 @thomasrenkert 的微调成果。
  • 宣布令人印象深刻的 Embeddings 效率@hammadkhan 分享了 @Nils_Reimers 的一条推文,内容是关于即将推出的 embeddings,其在 MIRACL 基准测试中仅用 256 维度就显著优于 OpenAI,有望节省 12 倍的向量数据库成本

提到的链接

Nils Reimers (@Nils_Reimers) 的推文:@OttoZastrow @jerryjliu0 是的,embeddings 是我们的重点关注领域,即将有惊人的发布。例如,OpenAI 在 MIRACL 上使用 3072 维度获得 54.3 分,而我们即将推出的 256 维度模型…


LLM Perf Enthusiasts AI ▷ #embeddings (2 messages):

  • OpenAI 发布下一代 Embedding 模型:用户 @potrock 分享了 OpenAI 的公告,内容涉及新 Embedding 模型的发布、GPT-4 Turbo 和 Moderation 模型、API 使用管理工具,以及即将下调的 GPT-3.5 Turbo 价格。这些增强功能旨在优化开发者对 API Key 的控制,并提供 API 使用情况的洞察。
  • 新功能文档已上线:伴随公告,OpenAI 更新了其 文档,以指导用户使用新的 Embedding 模型以及更新后的 GPT 和 Moderation 模型。该文档是开发者使用这些 API 的关键资源。
  • 消息发布位置有误@shacrw 注意到消息发布位置不对,建议该公告应在不同的频道分享,以便针对新更新进行集中讨论。正确的频道已通过链接指出。

提及的链接

New embedding models and API updates:我们正在发布新一代 Embedding 模型、新的 GPT-4 Turbo 和 Moderation 模型、新的 API 使用管理工具,并且很快将降低 GPT-3.5 Turbo 的价格。


LLM Perf Enthusiasts AI ▷ #announcements (1 messages):

mat_mto: 谢谢 Jeff!非常喜欢你目前所做的一切工作。


LLM Perf Enthusiasts AI ▷ #openai (16 messages🔥):

  • OpenAI 发布新模型并降价@potrock 分享了一篇 博客文章,宣布了新的 Embedding 模型、GPT-4 Turbo 和 Moderation 模型的更新、新增的 API 管理工具,以及即将推出的更低价格的 GPT-3.5 Turbo。
  • Embedding 效率的胜利@potrock 强调了新缩短版 Embedding 的优势,而 @res6969 表示渴望升级其系统以包含更新后的模型,并提到鉴于这些改进,转向开源 Embedding 变得不再必要。
  • OpenAI:交付功能的简单解决方案@res6969 反思了使用 OpenAI 快速实现功能的便捷性,相比之下管理独立的开源模型则较为繁琐。
  • 便捷性与社区模型之间的抉择:虽然 @potrock 承认了 OpenAI 解决方案的便捷性,但也指出有许多优秀的开源 Embedding 模型可供选择,并允许个人进行 Fine-tuning。
  • 模型选择中的经济权衡@shacrw@michelcarroll 讨论了使用 OpenAI 最新的、维度可缩短的大型 Embedding 模型的成本优势,提到了存储节省和具有竞争力的 API 成本,这可能会降低整体支出。

提及的链接

New embedding models and API updates:我们正在发布新一代 Embedding 模型、新的 GPT-4 Turbo 和 Moderation 模型、新的 API 使用管理工具,并且很快将降低 GPT-3.5 Turbo 的价格。


LangChain AI ▷ #general (12 messages🔥):

  • 欢迎来到 AI 银河系@quarknova 是来自 ENS 并在 INRIA 实习的新人,表达了在项目中使用 LangChain 的兴趣,并向社区征求建议,考虑使用 GitHub 版本而非商业版本。

  • 打造 AI 个性@jstansbe 询问是否可以在不依赖外部 AI API 的情况下创建自定义 AI 个性(如 “Elon Musk AI”)。@ksolo__ 提供了资源,指出该过程被称为 finetuning,并提供了一个深度学习课程链接

  • 致敬 LangChain 的效率@johnnucleus 赞扬了 LangChain 社区,称其能够使用 LangChain 和 Streamlit 快速创建一个具备网页搜索能力的聊天机器人,并对其效率和简洁性感到惊讶。

  • 使用 LLM 生成合成数据@rajib2189 正在探索使用 Large Language Models (LLM) 合成数据来训练传统的机器学习模型,而 @johnny2x2 分享了他如何将 LLM 用于 RAG 生成,从而根据上下文和 schema 生成 SQL 查询。

  • 在 LangChain 中处理 PARQUET@benjaminbascary 寻求在 LangChain 中操作 PARQUET 文件的帮助,随后 @johnny2x2 提供了一个代码片段,展示了如何使用 pandas 加载并利用 LangChain 的 DataFrameLoader 将 PARQUET 文件作为文档源导入和使用。

提到的链接

Finetuning Large Language Models:未找到描述


LangChain AI ▷ #langserve (3 messages):

  • 推广 LangServe Agent 示例:用户 @veryboldbagel 分享了 LangServe agent 示例的链接,包括一个未列在 LangServe 主示例部分的示例,以及一个针对 可配置 agent 执行器 的特定示例。
  • 使用 LCEL 构建自定义 Agent@veryboldbagel 澄清说,对于定义自定义工具,现成的 OpenAI tools agent 就足够了,并进一步指导了如何使用 LCEL 构建自定义 agent,推荐使用 LangGraph 来定义具有更强表达能力的自定义 agent 运行时。
  • LangServe 中的流式响应问题@hiranga.g 报告了在使用 agent_with_history 示例并尝试使用 langchain.jsRemoteRunnable 时,无法接收到 stream response 的问题;还提到了在 LangServe 中使用 Agent 时的 bug,建议 chain.streamLog() 可能是一种变通方法,但并未达到预期效果。

提到的链接


LangChain AI ▷ #share-your-work (2 messages):

  • 探索 SQL chain 的局限性@johnny2x2 分享了使用 LangChain 处理一家制造公司订单延迟的 SQL 查询 的见解。他们发现 SQL Chain 在处理大型数据库时表现不佳,但在数据库中创建具有描述性名称的精选视图 (curated views) 可以提高性能。
  • 优化带来更好的查询管理:通过在自定义多向量检索器中嵌入返回查询的问题,@johnny2x2 最初发现本地 AI 运行示例过于频繁——通过使用 OpenAI 处理 SQL 查询,同时使用本地 LLM 保持数据隐私,这一挑战得到了缓解。
  • 通过面向工具的查询增强链式工作流@johnny2x2 现在放弃了使用本地 AI 进行 SQL 代码生成,转而采用一种新策略,即每个查询在他们的任务处理链中充当一个工具,从而在涉及生成任务、使用 SQL 工具处理任务以及评估任务循环信息的流程中获得了更好的结果。

Datasette - LLM (@SimonW) ▷ #llm (3 messages):

  • 即将发布的 LLM 版本升级预览@simonw 宣布计划发布 LLM 的更新,其中涉及对 openai 库 的重大升级。邀请测试人员参与,详情见 GitHub 评论

  • 期待 0.13 里程碑:关于即将发布的 LLM 版本(标记为 0.13 Milestone)的更多信息,可以在专门的 GitHub 里程碑页面 找到。

  • 请求解决 Readline 问题@simonw 正在寻求帮助解决 LLM 中的 readline 问题,即方向键产生 ANSI 编码而不是光标导航,如该 GitHub issue 所述。

提到的链接


Skunkworks AI ▷ #off-topic (1 messages):

pradeep1148: https://www.youtube.com/watch?v=wlPxEq_Mtkc


Skunkworks AI ▷ #bakklava-1 (1 messages):

arielnlee: 有人在研究 bakklava-2 吗?!