ainews-not-much-happened-today-2070
今天没什么事。
Reddit 社区 /r/LocalLlama 经常讨论大语言模型(LLM)的微调与训练,包括使用词典等特定数据以及规模超过 250 亿 token 的合成数据集进行模型训练的教程和疑问。
用户们还在探索 mistral-7b 等模型在检索增强生成(RAG)方面面临的挑战,以及针对 EEG 脑电活动的嵌入生成(embedding generation)。讨论内容还涉及在预算有限的情况下,如何在本地运行 llama-2-70b 的硬件优化方案,以及 qwen-1.5 模型的性能基准测试。此外,社区对扩展 LLM 的功能表现出浓厚兴趣,例如将 llama-2-7b 转化为像 llava 这样的视觉模型,以及通过改进模型记忆来提升长上下文的保留能力。
2024年3月21日至3月22日的 AI 新闻。我们为您查看了 364 个 Twitter 账号 和 22 个 Discord 社区(341 个频道,共 5210 条消息)。预计为您节省阅读时间(以 200wpm 计算):526 分钟。
当我们可以说一整天的新闻都可以跳过时,我们为您节省了最多的时间……如果我们错了,我们也很喜欢这种(伪托的)讽刺!
祝阅读愉快,或者查看 Latent Space 关于 Adept 的新剧集。下周我们将扩大对 Reddit 的覆盖。
目录
[TOC]
目前仅从 /r/LocalLlama 开始,我们很快会总结评论,但接下来我们已经规划好了 r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence。如果您发现我们遗漏了任何主要的 alpha drop 子版块,请告知我们。
/r/LocalLlama
Fine-Tuning 和训练 LLM:
- 学习如何进行 Fine-Tuning(第一次),我提供了找到的教程链接,还有人推荐其他资料吗? 一位用户正尝试学习如何对模型进行 Fine-Tuning,并整理了来自 Reddit 和 DuckDuckGo 的阅读材料。他们提出了关于在特定主题(如《赛博朋克 2077》和业务数据)上训练模型的问题,并正在寻找使用 llama.cpp 进行 Fine-Tuning 的技巧。链接
- LLM 可以在词典上训练吗?如果可以,该如何操作? 一位用户希望在本地语言词典上训练像 Gemma 这样的多语言模型,并正在为非技术外行寻找操作步骤。链接
- 如何生成大规模合成数据。 一篇关于如何使用 Mixtral 模型构建超过 25B+ tokens 的大规模合成数据集的博客文章,类似于微软用于训练 Phi 模型的数据集。链接
检索增强生成 (RAG) 和 Embeddings:
- [问题] RAG 中的查询没有返回 chunks,也没有结果? 一位用户正尝试基于 mistral 7b 模型、chroma DB 和 markdown 文本作为输入数据源开发 RAG。他们正在进行自定义的 chunking 和 embedding,但在进行常规查询时,没有返回任何 chunks 或响应。他们提供了示例代码和 markdown 文件。链接
- 有人研究过生成脑活动的 Embeddings 吗? 一位用户正在处理 EEG 数据,并希望匹配类似的 EEG 信号模式。他们引用了一篇论文,并想知道是否有人在这个领域取得了成功。链接
- 关于理解为什么你的 RAG/LLM 组合不起作用的精彩视频。 一位用户推荐了一个经过深入研究的视频,讨论了为什么 Fine-Tuning 加 RAG 优于单纯的 RAG、大参数模型与小参数模型的区别,以及如何将 RAG 查询中的偏差情境化。链接
部署和优化 LLM:
- llama 2 70b 的硬件建议。 一位用户的上司要求他们构建一个合适的工作站机架来本地运行 llama 模型,目标是将查询时间从目前 7b 模型的 3 分钟缩短到 10 秒以内。他们的预算在 1.5 万欧元以下,正在寻求建议。链接
- 一个用于测量 ollama 模型每秒 token 数 (tokens per second) 的脚本(在 Nvidia 4090 上测得 llama2:13b 为 80t/s)。 一位用户分享了他们制作的用于测量 ollama 模型 tokens per second 的脚本。在 Nvidia 4090 上,他们在 llama2:13b 上获得了 80t/s,在 llama2:7b 上获得了 127t/s。链接
- Qwen1.5 模型的速度和内存基准测试。 指向 Qwen1.5 模型在速度和内存占用方面的基准测试链接。链接
扩展 LLM:
- 是否可以将 LLaMA 转换为 LLaVA。 一位用户微调了 LLaMA 2 7B 模型,并想知道是否可以在不需要单独微调 LLaVA 的情况下为其添加视觉能力。链接
- 模型“记忆”。 一位用户询问是否可以改进模型的“记忆”,使其能够记住至少 5 条消息之前的内容。他们知道 Context Size(上下文窗口大小)很重要,但想知道是否还有其他方法。他们还询问是否有支持 CS 8K 的 13B 模型。链接
- 推理时的深度上采样(Depth upscaling)。 一位用户分享了一个在推理时实现深度上采样的实验,而无需实际增大模型,因此对 GPU 资源匮乏的用户非常友好。由于模型目前存在一定的重复性,因此仍需要进行微调。链接
应用与使用案例:
- 说实话:真的有人在运行能赚钱的 Agent 吗? 一位用户询问是否有人在运行能够自主赚钱的 LLM Agent,哪怕每天只有几美元。如果有人愿意分享,他们希望了解所使用的架构和模型的模糊信息。链接
- 如何高效地利用 LLM 并根据自己的写作风格训练出专属写作助手? 一位用户正在寻求一种快速且高效的方法,来训练已安装的 LLM 或 chat.ml,使其写作风格与用户一致,因为仅靠 Prompting 仍然会导致输出风格像 ChatGPT。链接
- 与大型 PDF 库交互。 一位用户拥有数千篇以 PDF 格式存储的科学论文,并希望有一个聊天机器人能够回答关于整个库内容的问题,从多个 PDF 中检索信息,而无需用户指定是哪些文件。他们询问是否存在这样的工具。链接
第 X 部分:AI Twitter 综述
所有综述由 Claude 3 Opus 完成,从 4 次运行中选取最佳结果
开源模型与框架
- Open-Sora 1.0:开源文本转视频模型,提供完整的训练过程、数据和 Checkpoints(10 万次观看)
- Thunder:PyTorch 的新型开源编译器,在 Llama 2 7B 等 LLM 训练任务中比常规 PyTorch 提速 40%(8.7 万次观看)
- Jan:开源 ChatGPT 替代方案,可在电脑本地运行,支持多种架构(5.1 万次观看)
- LLaVA-NeXT (LLaVA-1.6):强大的开源 Vision-Language 模型,现已加入 Hugging Face Transformers 库(1 次转发)
- Transformers 4.39:新版本包含大量模型更新,如 Mamba, Command-R, LLaVA-NeXT, MusicGen Melody, StarCoder2, SegGPT 等(1.1 万次观看)
计算趋势与硬件
- Sam Altman 认为计算力将成为未来最重要的货币,世界对日益增长的计算需求准备不足(18.1 万次观看)
- 在 Groq 硬件上运行 Grok 可能会改变游戏规则(3.8 千次观看)
- Nvidia 是 AGI 公司的最佳典范,完全掌控了整个硬件/软件栈(6 千次观看)
进化模型合并
- Sakana AI Labs 发布了模型合并的进化方法,通过优化参数和层排列,实现专用模型的创建(1.9 万次观看)
- Sakana AI 的进化模型合并技术被用于创建具备数学推理能力的日语 LLM、Vision LLM 以及图像生成模型(2 次转发)
检索增强生成 (RAG)
- RAFT (Retrieval Augmented Fine-Tuning):通过在特定领域文档上进行微调来提升 LLM 在 RAG 中表现的方法,性能优于标准 RAG(2.7 万次观看)
- 结合合成数据生成的 RAG 差分隐私技术,实现了敏感数据集的知识共享(3.6 万次观看)
新兴趋势与应用
- 来自 Meta AI 的 SceneScript:一种使用端到端 Machine Learning 重建环境并表示物理空间布局的新方法(23 万次观看)
- Suno AI 发布 v3 模型,可在数秒内生成广播级音质的音乐(15.2 万次观看)
- Cohere 正在通过长文本摘要和知识助手改变保险业(4 千次观看)
- Runway 与 Musixmatch 合作,简化歌词视频的创建与定制(8 千次观看)
提示工程作为一种职业
第 0 部分:摘要之摘要之摘要
我们得出结论,Claude Opus 是顶级摘要的最佳模型,因此我们将停止 A/B/C 测试(见存档了解我们的尝试/记录)。我们将为所有 3 个及更多模型(包括 Gemini 1.5!!)提供并行运行,因为这个问题在拓扑上与我们即将推出的个性化应用相似。
-
Stable Diffusion 3 期待值升温:Stability.ai 社区热切期待 Stable Diffusion 3 (SD3) 的发布,讨论了用于艺术生成的最佳 control nets、AMD GPU 兼容性,以及为硬件受限用户提供的 cloud GPU services。分享了故障排除技巧,例如使用 lshqqytiger’s fork 以支持 AMD。
-
Unsloth AI 的即将推出的功能:Unsloth AI 正在致力于集成 multi-GPU support 和用于自动数据策划的平台 UI。社区还辩论了评估框架、数据质量以及 Benchmark 透明度的重要性,例如纠正 MMLU dataset 中 25% 样本参考答案错误的问题。
-
OpenInterpreter 的 01 Light 发布:01 Developer Preview 发布,这是一款通过语音控制计算机的便携式 AI 设备,引发了热议。社区分享了组装说明、Bill of Materials 和 3D print designs,同时还讨论了发货和软件功能。
-
LM Studio 更新引发讨论:LM Studio 的新功能(如多模型支持和 ROCm 0.2.17 Beta v3 发布)引发了围绕 ejecting models、GPU offloading、ZLUDA interference 和 high CPU usage 的故障排除讨论。社区还推荐了用于结构化 LLM 输出的 Instructor library。
-
AI 伦理与安全担忧:Perplexity AI 和 HuggingFace 的对话涉及了 AI 访问敏感信息的伦理问题,例如在 ‘Guardrails Arena’ 实验中,以及允许拦截加密 AI 聊天机器人 Token 的安全漏洞(详细解释)。
- 新兴技术与数据集:多个频道讨论了新的 AI 技术和数据集,例如:
- DenseFormer 提出 Depth-Weighted-Average 以改进 Transformer 模型
- Quiet-STaR 用于为每个 Token 生成理由,以增强 LM 文本解释
- Cosmopedia,一个用于 LLM 预训练的大型合成数据集
- ASCII Art Dataset 引发了对 ASCII 艺术扩散模型的兴趣
- 优化 AI 性能:讨论涵盖了各种优化技术,包括:
- 1-bit LLMs like BitNet b1.58 以更高的效率匹配全精度模型
- Galore optimizer 用于大模型的内存高效微调
- 将 GaLore’s Adam optimizer 与 Triton 融合,以实现更快的预训练和微调
- 最大化 Transformer 模型 GPU 性能的指南(论文)
第 1 部分:高层级 Discord 摘要
Stability.ai (Stable Diffusion) Discord
-
Stable Diffusion 3 热潮兴起:社区正热切期待 Stable Diffusion 3 (SD3) 的发布,讨论重点集中在为艺术生成选择最佳的 ControlNets。此外,针对 AMD GPU 兼容性 的见解交流也非常活跃,并为硬件受限的用户推荐了 云端 GPU 服务。
-
深入 AMD 领域:一位在 AMD 系统上遇到 NVIDIA 驱动 RuntimeError 的用户得到了帮助,被引导至支持 AMD GPU 的 lshqqytiger’s fork,并附带了详尽的安装指南。
-
显存门 (VRAM-Gate):技术讨论正围绕即将发布的 SD3 的 显存 (VRAM) 需求 展开,引发了关于在本地机器上运行资源密集型模型可行性的推测。
-
提示词工程即服务 (Prompt Engineering-as-a-Service):社区成员正在分享磨炼 提示词 (Prompting) 技巧的方法,涵盖从“部落视频”到 D&D 战役 视觉效果的创作,并寻找经过微调、能理解复杂角色和场景艺术详细提示词的特定模型。
-
AI 工具:是祸还是福?:关于 AI 对就业和创造力影响的辩论正在升温,观点从谨慎到乐观不等,认为 AI 是增强人类能力的 进化工具。
Unsloth AI (Daniel Han) Discord
-
多 GPU 支持和数据策展即将登陆 Unsloth AI:Unsloth AI 正在积极将 多 GPU 支持 作为开源功能进行集成,旨在兼容 Kaggle 等平台。此外,他们正在开发一个用于自动数据策展 (Data Curation) 的平台 UI,以简化模型微调中的数据准备步骤。
-
探索 Unsloth AI 安装问题的解决方案:用户报告了安装 Unsloth AI 时的问题,包括 ‘no matching distribution’ 错误以及在单 GPU 限制设置下的
RuntimeError。还有关于 4-bit 量化模型 可能的 CUDA 级别更改 以及量化模型显存限制超过 15GB 可能导致显存溢出 (Out-of-memory) 错误的讨论。 -
Unsloth AI 社区解决多样化问题:讨论围绕配置 LoRA 设置、通过调整训练参数处理显存溢出错误,以及本地保存/加载模型和 Tokenizer 的技巧展开。对缺少
protobuf等依赖项的担忧以及对某些技术领域最佳模型的困惑也值得关注。 -
社区焦点:Samantha Mistral Instruct 7B:社区成员 cognitivetech 展示了他们使用 Samantha Mistral Instruct 7B 的成果,专门用于总结心理学书籍。分享了模型量化方面的困难以及向 Hugging Face 上传可用版本的承诺。
-
Lightning Thunder 在 Unsloth AI 社区引起轰动:社区成员指出了 Unsloth AI 与 Lightning Thunder 集成中可能存在的失误,指出了性能问题和实现错误的内核 (kernels)。有人呼吁在基准测试 (benchmarks) 中进行协作并准确展示 Unsloth 的能力,一些人对 Twitter 上误导性的性能对比表示沮丧。
OpenInterpreter Discord
-
01 Light 全球发布会:工程师们对 01 Developer Preview 的发布感到兴奋,这是一款便携式计算机语音界面设备,具备识别屏幕和使用 App 的能力。社区正在分享组装说明和 Bill of Materials,并对发货至印度和欧盟等地区表示关注。
-
硬件爱好者大显身手:DIY 社区成员正在讨论 3D 打印他们自己的 01 Light 版本,设计文件可在 Printables 获取,源代码可在 OpenInterpreter GitHub 找到。
-
跨时区故障排除:广泛的故障排除主题包括在各种操作系统上设置 01,以及解决国际物流问题。有人提出了一个 Windows 兼容性的变通方案——
poetry run 01 --client --client-type linux --server-host localhost。 -
对软件功能的关注与疑问:成员们深入探讨了 OpenInterpreter 的软件层面,讨论了本地运行与云端运行、API keys、语言兼容性和电池寿命,突出了 AI 工程师理解产品易用性和技术规格的关键方面。
-
预告片发布:在 #ai-content 频道中只有一条简洁的消息,包含一个与 OpenInterpreter 相关的 YouTube 链接,未提供背景或内容详情。
LM Studio Discord
Hermes 2.5 稳坐头把交椅:在添加了 代码指令示例 后,Hermes 2.5 在各项基准测试中表现优于 Hermes 2,用户正在讨论不同模型和配置对 LM Studio 性能的影响。
解决 LM Studio 的小毛病:成员们报告了 LM Studio 版本 0.2.17 的问题,包括符号链接(symlinks)无法识别,以及提示 “Model with key Mistral/Herm… not found” 的错误。此外,性能讨论还涉及异常的 CPU usage 以及与 AMD ROCm 和 RX 570 显卡的 compatibility。
AI 伦理与安全:热烈讨论:社区通过讨论在 Hugging Face 的 ‘Guardrails Arena’ 中与模型交互,深入探讨了 AI 的伦理和安全问题,以及允许拦截加密 AI 聊天机器人 Token 的安全漏洞(详细解释见此)。
模型掌握与多任务处理:用户交流了在 LM Studio 中优化多模态模型功能的知识,处理 VRAM limitations 问题,并使用多模型设置来改进复杂任务。对话还包括了关于在具有特定容量的个人机器上实现 “Full GPU Offload Possible” 的模型建议。
AMD ROCm:追求稳定还是引发风暴?:ROCm 0.2.17 Beta v3 的发布反响不一,成员们报告了与 ejecting models、GPU offloading、ZLUDA interference 以及 high CPU utilization 相关的问题。尽管存在这些挑战,仍有几位报告在 AMD GPUs 上表现稳定,表明最新的 ROCm beta 版本可能有潜在改进。
简化 AI 工作流:工程师们建议探索用于语言模型工作流结构化输出的 Instructor library,并分享了将特别微调版的 OpenChat 与 dolphin mistral 微调版成功集成的经验,以提高语言建模效率。
Perplexity AI Discord
-
模型对决:Claude 3 Opus vs. Gemini:用户讨论了 Claude 3 Opus 与 Gemini 之间的性能细微差别,探讨了哪款 AI 感觉更像人类。讨论还延伸到了 Inflection-2.5 和 Pi.AI 等个人 AI 模型,强调了它们的对话优势以及对其平台未来的担忧。
-
使用 Perplexity 探索 AI:关于 Perplexity AI 如何进行网页搜索和图像生成的查询非常突出,表明用户对 Unlimited Claude3 Opus 等功能的移动端可访问性很感兴趣。咨询内容还涉及使用 Perplexity AI 探讨从最大的行星到 GPT-5 发布传闻等各种话题。
-
社区呼吁更暗的 iOS 主题:精通技术的 Discord 用户对 iOS App 更新中缺乏更暗的午夜/黑色主题表示沮丧,理由是在数字环境中需要视觉舒适度。
-
达到 Token 限制!惨痛的教训:一名 API 用户因 6621 token 的 Prompt 和 9900 token 的输出超过了 Perplexity 的 16384 token 限制而导致 BadRequestError,这凸显了在 API 请求中准确计算 Token 数量的重要性。
-
对 Cloudflare 过度验证码(CAPTCHA)的沮丧:一位用户抱怨 Cloudflare 验证码挑战的侵入性,尤其是在使用 VPN 时,并表示即使是常规浏览也可能触发这些防御机制。
引用的技术参考资料包括 Inflection-2.5、Neuralink 首位人类受试者的见解,以及根据 Analytics India Magazine 的说法,Perplexity 可能是一个 Google Search 封装器。Perplexity 文档被提及用于澄清 Token 计数。
LAION Discord
-
缺失的人格预测:对话显示了对 “mypersonality” 数据集的兴趣,特别是其在根据文本预测作者人格方面的应用,但对其可访问性存在担忧。
-
为卓越 AI 进行池化(Pooling):Hugging Face diffusers 库的 Embedding 实现受到了批评,建议修改文本 Embedding 的池化方法以提升模型性能。
-
数据集未来充满不确定性:在新的欧盟法规背景下,LAION-5B 数据集的移除导致了对 Datacomp 和 DFN 等替代数据集的探索,人们怀疑 LAION 是否能克服法律障碍重新发布其数据集。
-
呼吁 OpenAI 提高透明度:尽管 OpenAI 此前犹豫不决,但社区预期其可能会开源即将推出的模型(如 SD3)的训练代码,这对于追求 AI 进步的人来说是一个重要话题。
-
AI 破坏还是安全?:成员们对研究人员关注包含敏感材料的数据集的意图持怀疑态度,思考此类行为究竟是不必要的 AI 进步阻碍,还是解决安全问题的真诚努力。
-
建议创新的图像缩放:arXiv 上的一项研究建议使用图像的多尺度(multiple scales)来增强模型效果,为视觉 AI 工程指明了潜在路径。
-
图像编码的时间技巧:通过一篇 arXiv 论文介绍的一种有趣方法采用了六倍于时间戳数量的方式对图像进行编码,尽管一些社区成员认为这更多是一种变通方案(workaround)。
-
神秘推文暗示技术趋势:Bindu Reddy 的一条推文被提及可能暗示了未来的发展,引发了成员们对其影响的好奇。
Nous Research AI Discord
-
探索 AI 中的“扩展思维” (Extended Mind):工程师们讨论了“Extended Mind”概念,该概念涉及存储用于联想记忆的向量,并在前向传播 (forward pass) 期间获取前 k 个向量,从而增强模型的推理和记忆能力。这场辩论基于 Phoebe Klett 的推文,而与 Mistral 的集成被视为一个极具前景的未来实验。
-
微调挑战与 AI 设备热潮:一个新的 YouTube 教程 提供了微调 LLaVA 模型 的指导;同时,讨论也集中在最新的开源 AI 设备 01 Light 上,旨在通过语音控制电脑,该消息分享自 OpenInterpreter 的推文。
-
Cosmopedia 和 Quiet-STaR 引起关注:Hugging Face 博客关于 Cosmopedia 的文章展示了为 AI 创建合成数据集的过程;而关于 Quiet-STaR 的论文则建议 LM 可以为每个 token 生成解释,从而增强文本解读能力。
-
AI 模型改进工作势头正盛:工程师们在 Embedding 模型中遇到了 BatchAllTripletLoss 性能问题,并分享了开源 Rainfall API (RAG) 平台等项目的进展。讨论还涉及了使用手势甚至直接脑机接口进行 AI 交互的可能性。
-
量化查询与协作进展:成员们分享了关于模型量化 (Quantization) 的信息,包括一个用于 4-bit 量化的旧仓库 AutoAWQ (GitHub 链接),并思考了 Attention 机制中因果掩码 (causal masking) 的理论基础。
-
数据工具与技术稳步推进:用户们对 LanceDB 的混合搜索能力及生成式界面表示支持,而 Polars 等集成技术和一个共享的 GitHub 仓库 (Neural-Dragon-AI/Cynde) 展示了将语义智慧与预测性机器学习模型结合的潜力。
OpenAccess AI Collective (axolotl) Discord
-
RAG 辩论升温:关于检索增强生成 (RAG) 与 AI 中基于 Agent 的模型展开了激烈辩论,一些人认为 RAG 仅仅是弥补知识缺失的权宜之计,而另一些人则支持基于 Agent 模型的复杂性和鲁棒性。
-
FastChat 的格式混乱:FastChat 的 alpaca 模型因与 Stanford 的 alpaca 格式不一致而受到关注,促使人们建议提交 Pull Request 以统一格式,详见 FastChat GitHub 仓库。
-
Galore 的优雅集成:Galore 优化器备受关注,它在微调大模型时具有极高的显存 (VRAM) 效率,最近已合并至 Hugging Face Transformers,并且能够以更少的内存占用管理全参数微调,正如 benchmark issue 中所强调的那样。
-
GPT-3.5 查询引发兴趣:由于处理病人信息等敏感数据的隐私限制绕过方案,导致 Mac 上的本地推理速度变慢,关于 GPT-3.5 性能和推理时间的讨论因此展开。
-
文本分类思考:在文本分类领域,微调 LLM 以生成类别名称作为输出(而非添加分类头)的策略因其灵活性以及鼓励模型遵循思维链 (chain of thoughts) 的优势而受到讨论。
Latent Space Discord
-
AI 进化融合方法揭晓:Hardmaru 最近发表的一篇 论文 介绍了一种用于基础模型融合的 自动化进化算法,引发了关于其在无需重度训练的情况下结合开源模型并提升性能潜力的讨论。
-
AI 社区在巴黎蓬勃发展:成员们积极分享了他们在巴黎参加 AI 见面会的经验和计划,特别是对 Paris Retrieval Augmented Generation group 表现出极大的热情,凸显了当地强劲的数字技术氛围。
-
Zoom 拯救论文俱乐部:为了解决 Discord 频道中的 发言权限 (speaker rights) 问题,有人建议创建一个 Zoom 房间,展示了在面对技术限制时的灵活性。
-
AI 实用工具的创新与讨论:小组深入探讨了 llama.cpp 的潜在 GPU 使用、“pad and pray” 张量维度解决方案,以及 bbycroft.net 提供的用于理解 Transformer 模型的视觉化工具。此外,还展望了关于音乐生成模型和处理大型代码库的讨论。
-
播客揭秘 AI 巨头:一个包含 OpenAI、Google 和 Adept 等公司见解的新播客引起了关注,并辅以一篇 Twitter 帖子。一场名为 AI In Action 的 AI 活动重点介绍了 Llama.cpp,并邀请通过 Discord 频道 加入。
LlamaIndex Discord
敏感数据与 AI 的安全碰撞:LlamaIndex 博客强调了使用患者临床报告等敏感数据训练 LLM/RAG 应用的风险,并建议使用 差分隐私 (differential privacy) 来保护个人信息,相关见解通过 博客推文 分享。
Navarasa 2.0 拥抱多样性:博客介绍了 Navarasa 2.0,这是针对 15 种印度语言进行微调的升级版 Google Gemma 7B,强调了 AI 中本地语言支持的价值,并通过 发布推文 进行了重点介绍。
UX 变得更智能:LlamaIndex 上的一款新 UX 模板旨在通过限制 Agent 仅在必要时请求人类输入,从而增强 Agent 与人类的交互,更多信息请见 相关推文。
集成难题!:Discord 成员讨论了将各种工具与聊天机器人集成的复杂性,并遇到了诸如 “BadRequestError” 之类的问题,在激烈的讨论中分享了 文档建议 和故障排除建议。
文档风波:在 MKDocs 更新期间,用户在访问 LlamaIndex 文档时遇到了困难,分享了 新文档格式的链接,并对 此处 详细说明的查询管道 DAG 混淆提供了澄清。
Eleuther Discord
寻求紧凑型代码数据集:CodeSearchNet corpus 被考虑作为预训练数据集,但遇到了上下文长度的问题;相反,The MiniPile(一个包含 1M 文档的语料库)因其多样性和紧凑的规模被推荐,适合在性能损失最小的情况下进行预训练。
揭秘闭源模型内部:社区讨论了在 Claude 和 Gemini 等闭源模型中无法访问 logprobabilities 和 tokenizers 的问题,这与 OpenAI 等随时提供这些功能的平台形成鲜明对比,并推测这种限制背后的专有原因。
最大化模型的 GPU 潜力:一份关于最大化 Transformer 模型 GPU 运行时性能的最新论文给出了指南,包括超参数微调和高效的模型形状,可能将吞吐量提高多达 39%。
AI 进军生物技术领域:一篇关于 AI 用于抗体设计的 Ars Technica 文章引发了讨论,既展现了对 Diffusion 模型前景的兴奋,也对其实际经济应用持怀疑态度。
缓解调试难题:参与者在将 megatron-deepspeed 与 lm-eval 0.3.0 配合使用时遇到了问题,并提出了变通方案,如从旧版本的 cais/mmlu 加载,但由于辅助训练拆分重定位,这仍然存在问题,如 Gist traceback 所示。
HuggingFace Discord
ASCII 艺术获得数据集并在 Diffusion 中发展:随着 ASCII Art 数据集的发布,工程师们分享了对 ASCII Art 的兴奋,并讨论了微调 LLM 和 Diffusion 模型以生成 ASCII 艺术。一个特别的挑战是微调语言模型以生成复杂的设计,这促使人们寻找高效的训练方法以及开发 ASCII 适配的 Diffusion 模型的想法。
SMIT 为语言模型引入音频:引入了一种名为 SMIT 的新模态集成工具,使得在语言模型中包含音频变得更加容易。SMIT 用于音乐生成模型的 YouTube 演示因其潜在应用引起了关注。同时,Fluently-v4 全球发布,为多项任务提供了单一模型解决方案。
1-bit LLM 承诺高效能:关于 1-bit LLM BitNet b1.58 的论文表明,其性能在与全精度模型匹配的同时,优化了成本效益。这可能会导致针对 LLM 的 1-bit 优化硬件的开发。
各个 AI 领域的新方法和工具:SegGPT 的引入增加了图像分割任务的工具集,承诺提供 one-shot 结果。UniProt 项目 的 1024 维 embeddings 准备使用 Matryoshka embeddings 进行重新训练,以便在蛋白质数据库中获得更好的可搜索性。一项利用数据分析对肥胖趋势进行的深度探索为健康相关的 AI 研究树立了新典范。
模型开发和联邦学习中的社区协作蓬勃发展:协作需求日益增长,成员们在负荷预测的联邦学习等项目上寻求帮助,分享了用于深度代码生成的 6TB “The Stack” 数据集等可能性,并调用 BERTopic 进行现代化的主题建模。讨论了对微调模型进行量化(quantizing)的担忧以及 Huggingface 中 Trainer 类的问题,反映了共同克服技术障碍的承诺。
OpenAI Discord
-
关于 AI 成本及其应用的讨论:成员们讨论了在 Discord 中添加 Chat GPT 机器人的成本,以及尽管配置正确但在 Postman 中未收到响应的痛点。关于 Perplexity AI 作为 Google Search 封装层的热议引发了讨论,引用了 Mohit Pandey 的文章,暗示其总结了 Google Search 的顶级搜索结果。对比了 AI 在视频压缩方面的潜力与深度学习超采样(DLSS),并以现有博客文章作为参考。在效率方面,一名成员声称通过将向量数据库的 Float32 嵌入转换为 Int8,实现了 80% 的存储成本降低 Deep Compression with AI 和 Perplexity article。
-
GPT-4 自定义模型与可用性查询:关于通过 API 连接到自定义 GPT-3 模型的咨询引出了分享的 Assistants API Guide。一个为用户分配动物化身的 GPT 征求反馈,并提供了 Prompt 示例。固定自定义 GPT 的数量突然减少到 4 个让用户感到困惑,这可能是一个未记录的变化。讨论还涉及了将知识文件分布在多个 GPT 中与将 Prompt 的不同部分整合到单个 GPT 中的效率对比 Assistants API Guide。
-
服务器规则和产品描述主导 Prompt Engineering 讨论:Rule 7 成为焦点,在一名用户发布关于 Prompt Engineering 工作的帖子以及另一名用户尝试推广 Prompt 链/Prompt Engineering 工具包后,重申了禁止自我推广的准则。对于 GPT-4 Vision 无法协助残障人士的情况出现了挫败感,而另一位成员则寻求挑战 ChatGPT 生成自然的产品描述,建议将任务拆分为生成特定部分可能会更有效。
-
API 频道呼应规则强化和模型限制:与 Prompt Engineering 频道的讨论类似,API 讨论强调了 Rule 7,并对之前的违规行为表示歉意。GPT-4 Vision 在识别残障人士方面的局限性催生了关于 AI 包容性的对话。提出了在没有人工监督的情况下使用 ChatGPT 进行自动化产品描述的挑战,质疑 AI 生成内容的精确性。
LangChain AI Discord
-
Python 依赖难题困扰 Langchain 爱好者:Python 版本冲突和依赖问题在 langchain-ai/weblangchain 中引发了麻烦,
TypeError: Type is not JSON serializable: numpy.float64等错误导致程序崩溃。GitHub 上正在跟踪一个相关问题:TypeError: Type is not JSON serializable: numpy.float64。 -
寻求序列化解决方案:尽管使用了 Poetry 并固定了旧版本的 Starlette,
numpy序列化问题仍然存在,最终导致了一个新的 GitHub Issue,标题为 TypeError: Type is not JSON serializable: numpy.float64,旨在解决 Langchain/Langserve 的不兼容问题。 -
Token 限制引发技术讨论:Langchain 用户正在探索处理超出模型 Token 限制的大型输出的功能,例如 OpenAI GPT-4-Turbo 的 4k 输出 Token,考虑通过发送额外请求让链(Chains)继续生成输出的方法。
-
Promptsage 旨在优化 Prompt 体系:一个新项目 Promptsage 为 LLM 提供了一种简化的 Prompt 构建和清理方法,同时具备安全和隐私护栏,专为兼容 Langchain 而设计。
-
数据分析师赞赏 AI 驱动的演进:一篇题为《利用 Langchain、Instructor 和 Pydantic:用 AI 重新定义数据分析》的文章赞扬了集成各种工具以增强数据分析的做法。可以在 Medium 上阅读相关见解。
OpenRouter (Alex Atallah) Discord
-
西海岸用户面临延迟困扰:西海岸的用户正面临请求缓慢的问题,怀疑与云服务故障有关;目前正在进行调查。
-
Gemini 1.5 Pro 引发关注与咨询:尽管官方文档除 1.0 版本外未提及其他信息,但关于 Google 的 Gemini 1.5 Pro 及其令人印象深刻的 100 万词上下文窗口的讨论非常热烈;部分成员已联系 Google 申请访问权限。
-
模型对决:C3 vs. Claude 3 vs. GPT-4:工程师们对模型进行了辩论,C3 Model 因其不稳定性受到批评,而 Claude 3 的一个自我审核变体在内容审核方面被认为可与 GPT-4 媲美。
-
对 Grok AI 性能的看法分歧:关于 Grok AI 的评价出现分歧,有人批评其可能训练不足且成本高昂,而另一些人则为其作为基础模型的能力辩护,认为它不应直接与 Mixtral 等经过聊天微调(chat-tuned)的模型进行比较。
-
Grok 的基准测试和公开测试引发辩论:工程师们讨论了 Grok AI 基准测试的价值,并分享了试用该模型的链接,强调通过 xAI 平台可能无需 Twitter Premium+ 即可访问。讨论还涉及哪些内容最适合评估 Grok 的性能。
CUDA MODE Discord
-
用于机器学习加速的 Nanobinding:在讨论中,nanobind 被推荐用于提高机器学习的效率,特别是针对 MLX。与此同时,成员们在 GTC 活动期间遇到了 Discord 舞台频道的问题,建议未来转向语音频道以避免类似问题。
-
前沿的优化器与编译器:一位成员透露成功将 GaLore 的 Adam 优化器 与 Triton 融合,以提高模型的显存效率,并提供了 GitHub pull request 支持。另外,micrograd-cuda 库被引入用于 CUDA 加速基于 Python 的 micrograd 扩展,而 PyTorch 编译器 Lightning Thunder 因其在加速器上显著的性能提升而受到关注。
-
矩阵乘法、求和与标准启发:社区分析了用于增强矩阵乘法的 Ozaki scheme,并得到了 Jeremy Howard 的认可,同时讨论了用于减少计算误差的 Kahan summation algorithm。此外,IEEE 754 浮点标准被指出至关重要,并引用了一篇关于该主题的 ITU 论文。
-
虚拟对话规范与知识孵化:一位成员建议使用结构化消息以提高对话清晰度,并向在另一个服务器上以此为典范的 <@272654283919458306> 致敬。在教育方面,分享了一个关于 PPAM 2022 的 Springer 图书链接,提供了通往并行处理当代进展的门户。
-
CUDA 知识寻求者的分享与幽默:一位正在确认 “pmpp-book” 第 2 章练习题 的成员建议通过私信验证答案。在轻松的一面,GTC 上发布了一个针对 Python 和 PyTorch 用户的全新 Zero to Thunder 教程,同时有人观察到新的 Blackwell GPU 设计看起来像笑脸,引发了 Twitter 上的趣谈。
-
Triton 的顽强排错:在 triton-puzzles 频道中,社区解读了张量颜色编码,并讨论了越界指示器中潜在的误导。
tl.exp算子的问题引发了关于解释器模式下 NotImplementedError 的讨论,Triton puzzles 的工作取得进展,完成了 Puzzle 3 并对 Puzzle 4 进行了协作调试。
LLM Perf Enthusiasts AI Discord
-
GPT4.Turbo 的匹配功能故障:Uniti AI 正在努力解决 GPT4.Turbo 错误建议房产空间的问题,匹配误差非常明显,例如在请求 2,000 - 4,000 平方英尺时却提供了 17,000 平方英尺。当试图遵循特定的房产面积百分比范围时,挑战进一步加剧,这促使人们建议采用更简单的解决方案,如 直接 SQL 查询。
-
警惕“常见的 LLM 陷阱”:工程师们讨论了在某些任务中过度使用 LLM 的潜在问题,而这些任务通过基础数据库查询可能效率更高。分享了 Jason Liu 关于 Retrieval Augmented Generation (RAG) 的博客文章,强调了将 LLM 与标准数据库交互相结合如何改进日期范围提取等任务。
-
对 Claude 而言,直接集成优于 Bedrock:在 AI 接口领域,一位用户报告称,与使用 Bedrock 等框架相比,与 AI 模型 Claude 进行 直接集成 更为理想,理由是可靠性和运行时间表现更好。即使是拥有优先速率限制、绕过了超过 20 万等待名单的用户,也选择了与 Claude 直接连接。
-
Jeffreyw128 和 ibash 留下神秘评论:在讨论中,jeffreyw128 的“lol wut”和 ibash 对高质量代码编写的一字评价“Damn”等简洁消息点缀了对话,但提供的上下文或可讨论的观点有限。
-
基础 Prompting 是否不足?:一条孤立的消息质疑了基础 Prompting 的有效性,暗示在与 AI 交互时需要更高级或更细致的技巧,特别是对于技术领域的从业者。
Interconnects (Nathan Lambert) Discord
-
合成基准测试 (Synthetic Benchmarks) 的探索升温:工程师们正在研究 全合成基准测试 (fully synthetic benchmarks) 以研究语言模型的能力,初创公司正在生成数据以支持这项研究。目标是通过操纵训练数据中的多样性和推理等因素,更好地理解 LLM 的能力。
-
工程师们热议合成数据和开放策展:合成数据和合成世界 (synthetic data and worlds) 领域引起了广泛关注;一位工程师甚至考虑为此撰写论文。此外,有人建议采用系统化的开源数据策展方法进行模型预训练,以改进该领域的集体努力。
-
ChatGPT:学术界的新助手:讨论强调了在学术项目中使用 ChatGPT 重写内容以追求 State-of-the-art 结果,目前正在进行一个 Side project 以探索进一步的应用,这表明重写任务现在已成为一种主流策略。
-
国际象棋、围棋与人类心理:AI 驱动世界中的科技巨头:成员们思考了 AI 进步带来的心理影响,引用了卡斯帕罗夫输给 Deep Blue 等历史事件,并反思了个人对 AI 的态度。重点讨论了在 Reinforcement Learning 中创建通用 Agent 的潜力,其中包含了 Minqi Jiang 和 Marc Rigter 的见解,并通过 MLStreetTalk 推文 进行了分享。
Alignment Lab AI Discord
召集所有开源爱好者:一位社区成员正在寻求关于 the 01(一款完全开源的硬件设备)的合作,并在 公开推文 中分享了细节。
PART 2: Detailed by-Channel summaries and links
Stability.ai (Stable Diffusion) ▷ #general-chat (884 messages🔥🔥🔥):
- 模型热潮开启:成员们正在热烈讨论 Stable Diffusion models,特别是对 Stable Diffusion 3 (SD3) 的期待,以及为艺术创作精心选择 control nets 和插件。关于 AMD GPU compatibility 的问题以及针对硬件配置较低用户的 cloud GPU services 建议非常普遍。
- 技术故障排除进行中:一位成员在尝试使用 Stable Diffusion WebUI 时,在 AMD GPU 系统上遇到了关于 NVIDIA drivers 的 RuntimeError。他们被引导至 lshqqytiger’s fork 以获取 AMD 支持,并获得了详细的安装步骤指南。
- 对更高质量的热捧:讨论转向了关于不同 Stable Diffusion models 的 V-RAM requirements 的技术细节。随着即将发布的 SD3 被认为需要高 VRAM,成员们正在推测在本地运行此类大型模型的实际可行性。
- Prompt 编写与艺术创作:用户正在分享各种创意项目的 prompting techniques 和 AI results,例如为“部落视频”和 D&D campaigns 生成图像,一些人正在寻找能够理解详细 prompt 以生成角色艺术和场景的特定模型。
- 社区观点的多样性:围绕 AI 的优缺点展开了辩论,一些人对 AI’s impact 对就业和创造力的影响表示怀疑。与此同时,其他人强调了 evolutionary nature of AI tools 及其增强人类工作流程的潜力。
- Stability AI - Developer Platform: 未找到描述
- no title found: 未找到描述
- Kitty Cat Groove | Suno: 雷鬼、舞厅乐风格歌曲。在 Suno 聆听并创作你自己的作品。
- ComfyUI - Stacker Nodes 指南 | Civitai: 这篇文章是关于 Stacker Nodes 及其在工作流中的使用方法。适用于 ComfyUI 的初学者和高级用户。Stacker nodes 是 ...
- Arch Arch Linux GIF - Arch Arch Linux Btw - 发现并分享 GIF: 点击查看 GIF
- Generative AI | Suno: 流行歌曲。在 Suno 聆听并创作你自己的作品。
- Schnappi rock version | Suno: 摇滚、硬核、Breakcore、摇摆电子乐风格歌曲。在 Suno 聆听并创作你自己的作品。
- BABY SHARK | Suno: 前卫摇滚、电吉他、电贝斯、切分音风格歌曲。在 Suno 聆听并创作你自己的作品。
- JBOOGX & THE MACHINE LEARNER'S ANIMATELCM SUBJECT & BACKGROUND ISOLATION via INVERTMASK VID2VID + HIGHRESFIX - v1.0 | Stable Diffusion 工作流 | Civitai: 这是我的 AnimateLCM 工作流的进化版。经过精简和整合以方便使用。该工作流最多需要 12-14GB 的 VRAM...
- ControlNet 1.1 模型 - Tile (e) | Stable Diffusion Controlnet | Civitai: 停止!这些模型不用于提示词/图像生成。这些是 ControlNet 扩展所需的全新 ControlNet 1.1 模型,已转换...
- ControlNet 1.1 模型 - Softedge | Stable Diffusion Controlnet | Civitai: 停止!这些模型不用于提示词/图像生成。这些是 ControlNet 扩展所需的全新 ControlNet 1.1 模型,已转换...
- Listen | Suno: 工业金属风格,带有厚重的吉他和警报声般的合成器节奏。包含钢琴对位桥段。在 Suno 聆听并创作你自己的作品。
- 在 AMD GPU 上安装与运行: Stable Diffusion web UI。通过在 GitHub 上创建账户来为 AUTOMATIC1111/stable-diffusion-webui 的开发做出贡献。
- 在最佳免费 COLAB 替代方案上运行的一键式 STABLE DIFFUSION NOTEBOOK: 各位 Stable Diffusion 爱好者们,大家好!创建一个免费的 Kaggle 账户并验证你的手机号码。你可以从我的 Discord 频道免费下载该 Notebook:h...
- Automatic1111 stable diffusion dreamartist 无法工作。我是新来的,请求帮助 🙏 :) · AUTOMATIC1111/stable-diffusion-webui · Discussion #14029: *** 加载脚本错误:dream_artist_main.py Traceback (most recent call last): File "D:\automatic1111\sd.webui\webui\modules\scripts.py", line 383, in load_scripts script_module = script_...
- GitHub - castorini/daam: 用于解释 Stable Diffusion 的扩散注意力归因图(Diffusion attentive attribution maps)。: 用于解释 Stable Diffusion 的扩散注意力归因图。 - castorini/daam
- GitHub - stitionai/devika: Devika 是一个 Agentic AI 软件工程师,能够理解人类的高级指令,将其分解为步骤,研究相关信息,并编写代码以实现给定目标。Devika 旨在成为 Cognition AI 的 Devin 的竞争性开源替代方案。: Devika 是一个 Agentic AI 软件工程师,能够理解人类的高级指令,将其分解为步骤,研究相关信息,并编写代码以实现给定目标...
- GitHub - lshqqytiger/stable-diffusion-webui-directml: Stable Diffusion web UI: Stable Diffusion web UI。通过在 GitHub 上创建账户来为 lshqqytiger/stable-diffusion-webui-directml 的开发做出贡献。
- GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusio n web UI</a>: Stable Diffusion web UI。通过在 GitHub 上创建一个账户来为 AUTOMATIC1111/stable-diffusion-webui 的开发做出贡献。
- Replicate: 使用云端 API 运行开源机器学习模型。
- ControlNet: A Complete Guide - Stable Diffusion Art: ControlNet 是一个通过添加额外条件来控制 Stable Diffusion 图像生成的神经网络。详情请参阅文章。
- 立即创建您的 Azure 免费账户 | Microsoft Azure: 开始使用 12 个月的免费服务、40 多项始终免费的服务以及 200 美元的额度。立即在 Microsoft Azure 创建您的免费账户。 </ul> </div> --- **Unsloth AI (Daniel Han) ▷ #[general](https://discord.com/channels/1179035537009545276/1179035537529643040/1220289632831279135)** (696 messages🔥🔥🔥): - **Unsloth AI 正在筹备 Multi-GPU 支持**:Unsloth AI 团队确认 Multi-GPU 支持最终将作为开源功能提供,旨在允许在 Kaggle 等平台上免费使用 Mixtral。目前的重点仍然是启动 Unsloth Studio (Beta)。 - **改进用于 Fine-Tuning 的数据清洗(Data Curation)**:Unsloth AI 正在探索创建一个高效的平台 UI,用于自动数据清洗,目标用户是那些觉得为模型 Fine-Tuning 准备数据具有挑战性的用户。该平台旨在解决数据格式化和问答准备步骤。 - **关于评估框架和数据质量的辩论**:进行了一场关于建立稳健评估框架的重要性,以及定义和获取高质量数据进行模型训练所面临挑战的漫长讨论。一个重要的部分是确保基准测试(Benchmarks)的透明度和准确性,例如纠正所使用的数据集,比如 MMLU 中有 25% 的示例参考答案是错误的。 - **尽管遇到挫折,社区支持依然坚定**:尽管之前社区中存在误导信息传播的情况,但 Unsloth AI 已经获得了显著的关注和支持,其 VRAM 减少技术已得到广泛认可。热情的社区成员对即将推出的 Multi-GPU 支持和其他功能表示期待。 - **庆祝协作与开源贡献**:提到了 OpenInterpreter 的第一批产品售罄,其利润被重新分配给开源贡献者等项目。这突显了 AI 工具社区内协作和再投资的积极趋势。
- Unstructured 0.12.6 文档: 未找到描述
- Inflection-2.5: 遇见世界上最好的个人 AI: 我们是一家 AI 工作室,为每个人创造个人 AI。我们的第一个 AI 名为 Pi,代表个人智能(personal intelligence),是一个具有支持性和同理心的对话式 AI。
- stabilityai/stablelm-2-1_6b · Hugging Face: 未找到描述
- NousResearch/Genstruct-7B · Hugging Face: 未找到描述
- Reddit - 深入探索: 未找到描述
- ISTA-DASLab (IST Austria 分布式算法与系统实验室): 未找到描述
- David (@DavidSHolz) 的推文: @theashbhat 正在生成文本
- Unsloth 更新:支持 Mistral 及更多: 我们很高兴发布对 Mistral 7B、CodeLlama 34B 以及所有其他基于 Llama 架构模型的 QLoRA 支持!我们添加了滑动窗口注意力(sliding window attention)、初步的 Windows 和 DPO 支持,以及...
- SFTTrainer 中生成任务的计算指标 · Issue #862 · huggingface/trl: 你好,我想在 SFTTrainer 中包含一个自定义的基于生成的 compute_metrics,例如 BLEU。但是,我遇到了困难,因为:compute_metrics 的输入 eval_preds 包含一个 .predicti...
- GitHub - InflectionAI/Inflection-Benchmarks: 公开的 Inflection 基准测试: 公开的 Inflection 基准测试。通过在 GitHub 上创建一个账户来为 InflectionAI/Inflection-Benchmarks 的开发做出贡献。
- DataDreamer: 未找到描述
- bitsandbytes/bitsandbytes/autograd/_functions.py at main · TimDettmers/bitsandbytes:通过 PyTorch 的 k-bit 量化实现可访问的大语言模型。- TimDettmers/bitsandbytes
- GitHub - unslothai/unsloth: 2-5X faster 70% less memory QLoRA & LoRA finetuning:速度快 2-5 倍,显存占用减少 70% 的 QLoRA 和 LoRA 微调 - unslothai/unsloth
- 来自 killian (@hellokillian) 的推文:..天哪,Open Interpreter 的首个 Vision 模型,正在我的 8GB M1 MacBook 上运行。100% 离线。这将进入世界上的每一台电脑。
- 未找到标题:未找到描述
- 来自 undefined 的推文:未找到描述
- OpenAI - Open Interpreter:未找到描述
- 不再有形状错误!针对 Tensor/数组形状和数据类型的类型注解。:TL;DR:你可以显式使用形如 def f(x: Float[Tensor, "channels"], y: Float[Tensor, "channels"]): ... 的类型注解来指定 Tensor/数组的形状和数据类型;声明...
- OpenInterpreter/01 的 01/ROADMAP.md:开源语言模型计算机。通过在 GitHub 上创建账号来为 OpenInterpreter/01 的开发做出贡献。
- OpenInterpreter/open-interpreter 的 open-interpreter/interpreter/terminal_interface/utils/count_tokens.py:计算机的自然语言接口。通过在 GitHub 上创建账号来为 OpenInterpreter/open-interpreter 的开发做出贡献。
- 来自 Alex Volkov (Thursd/AI) (@altryne) 的推文:https://twitter.com/i/spaces/1YpKkwdyWjdKj
- 介绍 Light 01:Open Interpreter 推出的全球首款个人 AI 助手(完整设置):在这段视频中,我们将查看 OpenInterpreter Light 01 的 GitHub 仓库,这是一个正在彻底改变我们与计算机交互方式的前沿项目...
- GitHub - OpenInterpreter/01:开源语言模型计算机:开源语言模型计算机。通过在 GitHub 上创建账号来为 OpenInterpreter/01 的开发做出贡献。
- GitHub - OpenInterpreter/open-interpreter:计算机的自然语言接口:计算机的自然语言接口。通过在 GitHub 上创建账号来为 OpenInterpreter/open-interpreter 的开发做出贡献。
- 01 Light - 第 1 版:由 01 推出的全球首款语言模型计算机 | 下载免费 STL 模型 | Printables.com:01 项目展示了 01 Light v1 | 下载免费的 3D 打印 STL 模型
- GitHub - patrick-kidger/jaxtyping:针对 JAX/NumPy/PyTorch 等数组形状和数据类型的类型注解及运行时检查。:针对 JAX/NumPy/PyTorch 等数组形状和数据类型的类型注解及运行时检查。https://docs.kidger.site/jaxtyping/ - patrick-kidger/jaxtyping
- GitHub - stanfordnlp/dspy:DSPy:用于编程(而非提示)基础模型的框架:DSPy:用于编程(而非提示)基础模型的框架 - stanfordnlp/dspy
- 01 Light - 第 1 版:由 01 推出的全球首款语言模型计算机 | 下载免费 STL 模型 | Printables.com:01 项目展示了 01 Light v1 | 下载免费的 3D 打印 STL 模型
- 01 Light - 第 1 版:由 openinterpreter 推出的全球首款语言模型计算机:设计概览:01 Light 是有史以来第一台语言模型计算机。第一版 01 Light 的设计时尚且符合人体工程学,并且没有屏幕。内部有多个凹槽和...
- OpenInterpreter/01 的 01/hardware/light:开源语言模型计算机。通过在 GitHub 上创建账号来为 OpenInterpreter/01 的开发做出贡献。
- Introduction - 01:未找到描述
- 无标题:未找到描述
- 来自 undefined 的推文:未找到描述
- The 01 Project:01 Project 是一个用于家用电脑的语音界面。
- Introduction - 01:未找到描述
- Mike Bird:AI 工程
- Her Theodore GIF - Her Theodore Joaquin Phoenix - 发现并分享 GIF:点击查看 GIF
- Contact Us:使用 Typeform 将数据收集转化为一种体验。创建精美的在线表单、调查、测验等。免费试用。
- Shut Up And Take My Money Futurama GIF - Shut Up And Take My Money Futurama Fry - 发现并分享 GIF:点击查看 GIF
- 来自 Open Interpreter (@OpenInterpreter) 的推文:介绍 01 Developer Preview。立即订购或构建你自己的设备:http://openinterpreter.com/01 。01 Light 是一款控制家用电脑的便携式语音界面。它可以看见你的屏幕...
- 01/hardware/light/BOM.md at main · OpenInterpreter/01:开源语言模型计算机。通过在 GitHub 上创建账号为 OpenInterpreter/01 的开发做出贡献。
- Issues · OpenInterpreter/01:开源语言模型计算机。通过在 GitHub 上创建账号为 OpenInterpreter/01 的开发做出贡献。
- Discover Typeform, where forms = fun:无需代码,在几分钟内创建精美、互动的表单。免费开始使用。
- 01 Light - Version 1: The World's First Language Model Computer by 01 | 下载免费 STL 模型 | Printables.com:01 Project 展示 01 Light v1 | 下载免费 3D 打印 STL 模型
- 01 Light - Version 1: The World's First Language Model Computer by openinterpreter:设计概述 01 Light 是有史以来第一台语言模型计算机。第一版 01 Light 的设计简洁且符合人体工程学,并且没有屏幕。内部有多个凹槽和专业...
- 01/hardware/light at main · OpenInterpreter/01:开源语言模型计算机。通过在 GitHub 上创建账号为 OpenInterpreter/01 的开发做出贡献。
- roborovski/superprompt-v1 · Hugging Face: 未找到描述
- 正在重定向...: 未找到描述
- TheBloke/dolphin-2.7-mixtral-8x7b-GGUF · Hugging Face: 未找到描述
- 使用 AutoGPTQ 和 transformers 让 LLM 更轻量化: 未找到描述
- 入门指南 | 🦜️🔗 Langchain: LCEL 使得从基础组件构建复杂链变得简单,并且
- OpenAI 状态: 未找到描述
- stition: stition 有 3 个可用的仓库。在 GitHub 上关注他们的代码。
- GitHub - stitionai/devika: Devika 是一个 Agent 化的 AI 软件工程师,能够理解高层级的人类指令,将其分解为步骤,研究相关信息,并编写代码以实现给定目标。Devika 旨在成为 Cognition AI 的 Devin 的竞争性开源替代方案。: Devika 是一个 Agent 化的 AI 软件工程师,能够理解高层级的人类指令,将其分解为步骤,研究相关信息,并编写代码以实现给定目标...
- 发布更快的 CPU Prompt 处理 (v1.57, CUDA 12) · kalomaze/koboldcpp: 我还原了上游 llama.cpp 中导致线程让步(thread yielding)变为条件触发的更改,改为始终执行。这提高了我 CPU 上的 Prompt 处理性能,我的 CPU 具有...
- 发布 Kobold.CPP_Frankenstein_v1.59d_b2254_4x3bits_SOTA · Nexesenex/kobold.cpp: Kobold.CPP Frankenstein v1.59 的源码和适用于 Windows 的 .exe 文件,使用 Openblas/Clblast/Vulkan 构建(小体积 .exe),以及包含 Cublas 的版本(大体积 .exe):基于 LlamaCPP b2254 和 LostRuin 的 Kobol...
- GitHub - caddyserver/caddy: 快速且可扩展的多平台 HTTP/1-2-3 Web 服务器,支持自动 HTTPS: 快速且可扩展的多平台 HTTP/1-2-3 Web 服务器,支持自动 HTTPS - caddyserver/caddy
- GitHub - BBC-Esq/ChromaDB-Plugin-for-LM-Studio: 为在服务器模式下运行的 LM Studio 创建 ChromaDB 向量数据库的插件!: 为在服务器模式下运行的 LM Studio 创建 ChromaDB 向量数据库的插件! - BBC-Esq/ChromaDB-Plugin-for-LM-Studio
- GitHub - czkoko/SD-AI-Prompt: 一个基于 Llama 2 的快捷指令,用于扩展 Stable Diffusion 的 Prompt,由 llama.cpp 提供支持。: 一个基于 Llama 2 的快捷指令,用于扩展 Stable Diffusion 的 Prompt,由 llama.cpp 提供支持。 - czkoko/SD-AI-Prompt
- GitHub - kyegomez/BitNet: 在 PyTorch 中实现 "BitNet: Scaling 1-bit Transformers for Large Language Models": 在 PyTorch 中实现 "BitNet: Scaling 1-bit Transformers for Large Language Models" - kyegomez/BitNet
- Guardrails Arena - lighthouzai 的 Hugging Face Space:未找到描述
- Dont Say That Ever Again Diane Lockhart GIF - Dont Say That Ever Again Diane Lockhart The Good Fight - 发现并分享 GIF:点击查看 GIF
- nemoguardrails_config/prompts.yml · lighthouzai/guardrails-arena at main:未找到描述
- 论文页面 - Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking:未找到描述
- dagbs/quietstar-8-ahead-GGUF · Hugging Face:未找到描述
- EvalPlus Leaderboard:未找到描述
- 专家发现,黑客几乎可以监视任何 AI 的聊天内容:小心你对 AI 聊天机器人说的话,因为显然黑客很容易就能破解。“目前,任何人都可以读取从 ChatGPT 和其他服务发送的私密聊天内容,”Yisroel ...
- 尽管已加密,黑客仍能读取私密的 AI 助手聊天内容:所有非 Google 的聊天 GPTs 都会受到侧信道攻击的影响,从而泄露发送给用户的响应。
- GitHub: Let’s build from here:GitHub 是超过 1 亿开发者共同塑造软件未来的地方。为开源社区做出贡献,管理您的 Git 仓库,像专业人士一样审查代码,跟踪错误和功能...
- GitHub - jxnl/instructor: structured outputs for llms:为 LLM 提供结构化输出。通过创建账户为 jxnl/instructor 的开发做出贡献。
- 未找到标题:未找到描述
- Inflection-2.5:遇见世界上最好的个人 AI:我们是一家 AI 工作室,致力于为每个人创造个人 AI。我们的第一个 AI 名为 Pi,代表个人智能(personal intelligence),是一个具有支持性和共情能力的对话式 AI。
- Neuralink 揭晓首位人体试验患者,一位 29 岁的四肢瘫痪者表示脑机芯片“并不完美”但改变了他的生活:Elon Musk 的 Neuralink 揭晓了首位人体试验患者,这位 29 岁的四肢瘫痪者表示,脑机芯片虽然“并不完美”,但已经改变了他的生活。
- Tradershub Ninja:未找到描述
- The Batman No Selfpromo GIF - The Batman No Selfpromo No Self Promotion - Discover & Share GIFs:点击查看 GIF
- Thanos Talking GIF - Thanos Talking Meme - Discover & Share GIFs:点击查看 GIF
- Light Thme Light GIF - Light Thme Light Dark Theme - Discover & Share GIFs:点击查看 GIF
- Reddit - 深入探索一切:未找到描述
- Perplexity 极有可能是一个 Google 搜索外壳:一位用户在 Reddit 的 LocalLLaMA 板块发帖称,Perplexity 总结了来自 Google 搜索前 5-10 条结果的内容。
- 在 X 上点击链接并不安全:当有人在 X 上发布链接时,该网站会生成链接预览。但据报道,这个系统可以被欺骗,恶意行为者可以通过虚假的链接预览将你重定向到恶意网站……
- OpenAI 将于下周与好莱坞制片厂和人才机构会面商讨 Sora 整合:OpenAI 下周将与好莱坞制片厂和人才机构举行会议,向电影制作人推介 Sora 的整合。
- SVGDreamer:基于 Diffusion Model 的文本引导矢量图形生成:未找到描述
- Annoyed Fuck GIF - Annoyed Fuck Frustrated - 发现并分享 GIF:点击查看 GIF
- transformers/src/transformers/models/clip/modeling_clip.py at main · huggingface/transformers:🤗 Transformers:适用于 Pytorch、TensorFlow 和 JAX 的先进机器学习库。- huggingface/transformers
- 提供的 pooled_prompt_embeds 被 prompt_embeds[0] 覆盖 · Issue #7365 · huggingface/diffusers:diffusers/src/diffusers/pipelines/stable_diffusion_xl/pipeline_stable_diffusion_xl.py 第 386 行 25caf24 pooled_prompt_embeds = prompt_embeds[0] 简单修复:pooled_prompt_embeds = prompt_embeds[0]...
- CLIP/clip/model.py at main · openai/CLIP:CLIP (Contrastive Language-Image Pretraining),根据图像预测最相关的文本片段 - openai/CLIP
- 模型输出:未找到描述
- Cosmopedia:如何为预训练 Large Language Models 创建大规模合成数据:未找到描述
- Quiet-STaR:语言模型可以在说话前教自己思考:在写作和交谈时,人们有时会停下来思考。虽然以推理为中心的工作通常将推理框架化为回答问题或完成 Agent 任务的方法,但推理其实是……
- 来自 Open Interpreter (@OpenInterpreter) 的推文:介绍 01 开发者预览版。立即订购或自行构建:http://openinterpreter.com/01 。01 Light 是一个可以控制家用电脑的便携式语音界面。它可以查看你的屏幕……
- Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking: 在写作和交谈时,人们有时会停下来思考。虽然以推理为中心的研究通常将推理框架化为回答问题或完成 Agent 任务的方法,但推理其实是...
- Spongebob Why Why Why Why Why Why Why GIF - Spongebob Why Why Why Why Why Why Why Why - Discover & Share GIFs: 点击查看 GIF
- Abstractions/abstractions/goap/system_prompt.md at main · furlat/Abstractions: 一个用于抽象 IRL 的 Pydantic 模型集合。通过在 GitHub 上创建账号来为 furlat/Abstractions 的开发做出贡献。
- - Fuck You, Show Me The Prompt.: 通过拦截 API 调用,快速理解难以捉摸的 LLM 框架。
- Abstractions/abstractions/goap/spatial.py at main · furlat/Abstractions: 一个用于抽象 IRL 的 Pydantic 模型集合。通过在 GitHub 上创建账号来为 furlat/Abstractions 的开发做出贡献。
- Open Interpreter's 01 Lite - WORLD'S FIRST Fully Open-Source Personal AI AGENT Device: Open Interpreter 推出的 01 Lite 是全球首款 100% 开源的个人 AI Agent 设备,可以控制你的电脑。让我们来评测一下,我将向你展示如何安装 open...
- graph_workflow.py: GitHub Gist:即时分享代码、笔记和片段。
- scratchTHOUGHTS/embed4all2graph_01.py at main · EveryOneIsGross/scratchTHOUGHTS: 第二大脑草稿记忆,用于避免 self 的溢出错误。 - EveryOneIsGross/scratchTHOUGHTS
- scratchTHOUGHTS/w2v2graph_01.py at main · EveryOneIsGross/scratchTHOUGHTS: 第二大脑草稿记忆,用于避免 self 的溢出错误。 - EveryOneIsGross/scratchTHOUGHTS
- Steering GPT-2-XL by adding an activation vector — LessWrong: 给模型的 Prompt [1] I hate you because GPT-2 I hate you because you are the most disgusting thing I have ever seen. GPT-2 + "Love" vector I hate…
- Representation Engineering: A Top-Down Approach to AI Transparency: 在本文中,我们确定并描述了表征工程(RepE)这一新兴领域,这是一种借鉴认知神经科学见解来增强 AI 系统透明度的方法...
- Steering GPT-2-XL by adding an activation vector — LessWrong: 给模型的 Prompt [1] I hate you because GPT-2 I hate you because you are the most disgusting thing I have ever seen. GPT-2 + "Love" vector I hate…
- 快速开始:未找到描述
- GitHub - Neural-Dragon-AI/Cynde: Integrating Semantic Wisdom with Predictive Models:将语义智慧与预测模型集成 - Neural-Dragon-AI/Cynde
- FastChat/fastchat/conversation.py at main · lm-sys/FastChat: 一个用于训练、部署和评估大型语言模型(LLM)的开放平台。Vicuna 和 Chatbot Arena 的发布仓库。 - lm-sys/FastChat
- Third-party benchmark · Issue #6 · jiaweizzhao/GaLore: 你好,非常感谢这项出色的工作。我们使用 Llama-Factory 进行了一些实验,结果表明 GaLore 在全参数...过程中可以显著减少显存占用。
- georgehotz - Twitch: georgehotz 在 Twitch 上直播!查看他们的视频,注册聊天并加入他们的社区。
- VideoDB: 只需 2 行简单的代码,即可在各种类型的视频上构建智能应用。由开发者构建,为开发者服务。
- Evolutionary Optimization of Model Merging Recipes: 我们提出了一种进化算法的新颖应用,用于自动创建强大的基础模型。虽然模型合并已成为 LLM 开发中一种极具前景的方法,因为其……
- How we got fine-tuning Mistral-7B to not suck: Helix Project Report, Feb 2024: 发布 Helix v0.5,改进了文本微调并支持 OpenAI API 🎉
- VideoMamba: State Space Model for Efficient Video Understanding: 未找到描述
- Tweet from the tiny corp (@__tinygrad__): 很少有人能成功制造出这些机器。复杂性主要体现在几个方面。1) PCI-E AER 错误。很难获得可靠的 PCI-E 扩展。我们不得不定制电缆……
- Tweet from The Information (@theinformation): Perplexity AI 是一家 AI 驱动的搜索引擎,因挑战 Google 而成为硅谷初创公司的宠儿。它也在悄悄使用 Google 的数据。 https://www.theinformation.com/articles/a...
- Tweet from Maxime Labonne (@maximelabonne): ♾️AutoMerger 我制作了一个简洁的小工具,可以在 @huggingface 上自动合并模型。它在周末已经创建了几个具有竞争力的模型。以下是它的工作原理。🧵 Space: https://h...
- Tweet from the tiny corp (@__tinygrad__): @luka_emon 当我开始时,我不明白 AMD 的问题出在哪里。我以为是驱动程序,其实不是。tinygrad 现在直接向 GPU 提交 AQL 队列。是……
- Tweet from Nucleus☕️ (@EsotericCofe): 结束了
- Tweet from David (@DavidSHolz): 我很乐意资助 7B 级别的开源文本扩散模型(对混合扩散/AR 持开放态度)的研究和创建。有人有兴趣参与吗?接受资助、兼职或全职……
- Multimodal AI that understands videos like humans: 为任何应用带来类人视频理解能力,无论你拥有 TB 级还是 PB 级的视频。
- Jan | Rethink the Computer: Jan 通过在你的计算机上本地运行 LLM,将你的电脑变成一台 AI 机器。这是一个注重隐私、本地优先、开源的解决方案。
- Deep dive: model merging: 模型合并是一种日益流行的技术,它可以在不需要任何额外……的情况下,为 Transformer 模型添加或移除功能。
- GitHub - simonw/files-to-prompt: Concatenate a directory full of files into a single prompt for use with LLMs: 将包含文件的整个目录连接成一个单独的 Prompt,以便与 LLM 配合使用 - simonw/files-to-prompt
- GitHub - stitionai/devika: Devika is an Agentic AI Software Engineer that can understand high-level human instructions, break them down into steps, research relevant information, and write code to achieve the given objective. Devika aims to be a competitive open-source alternative to Devin by Cognition AI.: Devika 是一个 Agent 架构的 AI 软件工程师,能够理解人类的高层指令,将其分解为步骤,研究相关信息,并编写代码以实现给定目标。Devika 旨在成为 Cognition AI 的 Devin 的有力开源替代方案。
- Paris RAG User Group (Retrieval Augmented Generation) | Meetup: 欢迎来到巴黎 RAG!我们是一个由对 RAG 及其相关技术感兴趣的专业人士和爱好者组成的社区,这些技术可以增强大语言模型和 AI!
- LLM Visualization: 未找到描述
- Graph-Mamba: Towards Long-Range Graph Sequence Modeling with Selective State Spaces: Attention 机制已被广泛用于捕捉 Graph Transformers 中节点间的长程依赖。受限于二次计算成本,Attention 机制无法扩展到...
- Did We Just Become Best Friends? GIF - Friends Bestfriends Yep - Discover & Share GIFs: 点击查看 GIF
- AI In Action: Weekly Jam Sessions: 2024 主题, 日期, 协调人, 资源, @dropdown, @ GenAI 的 UI/UX 模式, 1/26/2024, nuvic, <a href="https://maggieappleton.com/squish-structure">https://maggieappleton.com/squish-stru...
- slono: 艺术家 · 每月 107 名听众。
- Merlin API Platform:在几分钟内将 LLMs 集成到您的生产应用中。
- Google Colaboratory:未找到描述
- Using Documents - LlamaIndex:未找到描述
- Running Mixtral 8x7 locally with LlamaIndex and Ollama — LlamaIndex, Data Framework for LLM Applications:LlamaIndex 是一个简单、灵活的数据框架,用于将自定义数据源连接到大语言模型 (LLMs)。
- LlamaIndex - LlamaIndex:未找到描述
- Streaming - LlamaIndex:未找到描述
- Build your own OpenAI Agent - LlamaIndex:未找到描述
- 10Q Analysis - LlamaIndex:未找到描述
- LocalAI - LlamaIndex:未找到描述
- Migrating from ServiceContext to Settings - LlamaIndex:未找到描述
- Release v2.6.0 - Embedding Quantization, GISTEmbedLoss · UKPLab/sentence-transformers:此版本带来了 Embedding 量化:一种大幅加速检索和其他任务的方法,以及一个新的强大损失函数:GISTEmbedLoss。使用 pip install sentence-trans... 安装此版本
- Qdrant Vector Store - LlamaIndex:未找到描述
- llama_index/llama-index-integrations/vector_stores/llama-index-vector-stores-qdrant/llama_index/vector_stores/qdrant/base.py at f5263896121721de1051ce58338a1e0ea6950ca7 · run-llama/llama_index:LlamaIndex 是一个用于您的 LLM 应用程序的数据框架 - run-llama/llama_index
- Index - LlamaIndex:未找到描述
- llama_index/llama-index-integrations/embeddings/llama-index-embeddings-huggingface/llama_index/embeddings/huggingface/base.py at 4394c7f11e907c4a7c9926ae98eb53e6d60a1619 · run-llama/llama_index:LlamaIndex 是一个用于您的 LLM 应用程序的数据框架 - run-llama/llama_index
- Query Pipeline for Advanced Text-to-SQL - LlamaIndex:未找到描述
- GitHub - run-llama/rags: Build ChatGPT over your data, all with natural language:完全使用自然语言在您的数据上构建 ChatGPT - run-llama/rags
- fix async streaming by logan-markewich · Pull Request #12187 · run-llama/llama_index:需要确保延迟声明的 queue/async 内容在访问前已实际实例化。修复了 #12180
- BatchEvalRunner - Running Multiple Evaluations - LlamaIndex:未找到描述
- [Bug]: AttributeError: 'NoneType' object has no attribute 'wait' · Issue #12180 · run-llama/llama_index:Bug 描述:Async Streaming Chat 示例:https://docs.llamaindex.ai/en/stable/examples/agent/openai_agent/#async-streaming-chat 产生异常:AttributeError: 'NoneType' object has n...
- [Question]: benchmark for the llama_index, but the latency is so weird. · Issue #12143 · run-llama/llama_index:问题验证:我已在文档和 Discord 中搜索过答案。问题:你好,我想对 LlamaIndex 系统进行性能分析。我的代码片段如下。我的 GPU 是单块 A10,24G...
- developer.twitter.com/en/products/twitter-a pi">来自 Twitter API 的推文 | 产品</a>:使用 Twitter API 分析、学习并与推文、私信和用户互动。扩展您的访问权限以实现增长、实验和创新。
- Vector - LlamaIndex:未找到描述
- Embedding Similarity Evaluator - LlamaIndex:未找到描述
- Faithfulness Evaluator - LlamaIndex:未找到描述
- The Case for Co-Designing Model Architectures with Hardware:虽然 GPU 负责训练绝大多数最先进的深度学习模型,但在设计新的深度学习 (DL) 模型时,其架构的影响往往被忽视...
- The MiniPile Challenge for Data-Efficient Language Models:预训练文本语料库日益增长的多样性使语言模型具备了跨各种下游任务的泛化能力。然而,此类多样化的数据集往往过于庞大...
- Something weird with Instruct Model · Issue #518 · allenai/OLMo:🐛 描述 Bug。这是我正在运行的代码。目标是获取 Chat 模型生成的每个 Token 的 logprob。olmo = AutoModelForCausalLM.from_pretrained("allenai/OLMo-7B-Instruct&quo...
- code_search_net · Datasets at Hugging Face:未找到描述
- September | 2023 | Ars Technica:未找到描述
- September | 2023 | Ars Technica:未找到描述
- Catformer: Designing Stable Transformers via Sensitivity Analysis:Transformer 架构被广泛使用,但训练它们并非易事,需要自定义学习率调度、缩放项、残差连接以及对子模块(如 n...)的精心布置。
- DenseFormer: Enhancing Information Flow in Transformers via Depth Weighted Averaging:Vaswani 等人 (2017) 提出的 Transformer 架构现在在从自然语言处理到语音处理和图像理解的各个应用领域都无处不在。我们提出了 DenseForme...
- OmniNet: Omnidirectional Representations from Transformers:本文提出了来自 Transformer 的全向表示 (OmniNet)。在 OmniNet 中,不再维持严格的水平感受野,而是允许每个 token 关注所有 token...
- The Unlocking Spell on Base LLMs: Rethinking Alignment via In-Context Learning:大型语言模型 (LLM) 的对齐微调过程通常涉及通过监督微调 (SFT) 进行指令学习,以及通过人类反馈强化学习 (RLHF) 进行偏好微调...
- Enzymes Built from Scratch:研究人员使用一种新的计算技术设计了前所未见的催化剂。
- Antibodies against anything? AI tool adapted to make them:现在,制造抗体意味着免疫动物。但这可能会改变。
- GitHub - marc-rigter/waker: Official code for "Reward-Free Curricula for Training Robust World Models" accepted to ICLR 2024.:被 ICLR 2024 接收的论文 "Reward-Free Curricula for Training Robust World Models" 的官方代码。 - marc-rigter/waker
- MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training:在这项工作中,我们讨论了构建高性能多模态大语言模型 (MLLMs)。特别是,我们研究了各种架构组件和数据选择的重要性。通过仔细的...
- Stella Biderman (@BlancheMinerva) 的推文:我们非常有兴趣扩大 eval harness 的范围,以包括多模态模型、RAG 和 AI 评分设置等内容。正在寻找构建此功能的最佳方式...
- Stella Biderman (@BlancheMinerva) 的推文:“我们所有的多模态预训练评估都是在 @AiEleuther 的 lm-evaluation-harness 的内部 fork 中实现的” 有机会分享代码吗 @mckbrando?那将是一个巨大的...
- hendrycks_test.py · cais/mmlu at main:未找到描述
- gist:d99bb92be81a5af6b01f81b589b68d21:GitHub Gist:即时分享代码、笔记和片段。
- Quantization:未找到描述
- Implement a way test local models · Issue #149 · MineDojo/Voyager:你好,Voyager 的工作非常出色。请考虑增加对本地模型的支持(不使用 openai 包,而是使用类似 Python requests 包连接到使用 openai 接口的本地模型...
- lm-evaluation-harness/lm_eval/tasks/hendrycks_test.py at master · EleutherAI/lm-evaluation-harness:一个用于语言模型 few-shot 评估的框架。- EleutherAI/lm-evaluation-harness
- lm-evaluation-harness/lm_eval/logging_utils.py at 34c9b7e40825ec998e44c5f45041953249c06a7b · EleutherAI/lm-evaluation-harness:一个用于语言模型 few-shot 评估的框架。- EleutherAI/lm-evaluation-harness
- GitHub - danijar/diamond_env: Standardized Minecraft Diamond Environment for Reinforcement Learning:用于强化学习的标准 Minecraft 钻石环境 - danijar/diamond_env
- GitHub - EleutherAI/lm-evaluation-harness: A framework for few-shot evaluation of language models.:一个用于语言模型 few-shot 评估的框架。- EleutherAI/lm-evaluation-harness
- Csplk/THE.ASCII.ART.EMPORIUM · Hugging Face 数据集:未找到描述
- GitHub - Thytu/SMIT: SMIT: A Simple Modality Integration Tool:SMIT:一个简单的模态集成工具。通过在 GitHub 上创建账号来为 Thytu/SMIT 的开发做出贡献。
- fine-tuning musicgen + making an infinite remix - special episode - captains chair 18:本周 Kev 尝试使用 @bleepybloops 的艺术家列表和 Colab Notebook 快速微调 MusicGen,进行一场有史以来最奇特的合作:https://github.co...
- fluently/Fluently-v4 · Hugging Face:未找到描述
- Exploring Open Records Law with AI | KOGC:未找到描述
- SVGDreamer: Text Guided Vector Graphics Generation with Diffusion Model:未找到描述
- GitHub - dominiquegarmier/grok-pytorch: pytorch implementation of grok:Grok 的 PyTorch 实现。通过在 GitHub 上创建账号来为 dominiquegarmier/grok-pytorch 的开发做出贡献。
- Sparse Mixture of Experts Language Model from Scratch: Extending makeMoE with Expert Capacity:未找到描述
- GitHub - andrew-m-holmes/nura:通过在 GitHub 上创建账号来为 andrew-m-holmes/nura 的开发做出贡献。
- VideoMamba: State Space Model for Efficient Video Understanding:未找到描述
- GitHub - di37/coding-assistant-codellama-streamlit: This project demonstrates how to utilize Codellama, a local open-source Large Language Model (LLM), and customize its behavior according to your specific requirements using a Modelfile.:该项目演示了如何利用本地开源 LLM CodeLlama,并使用 Modelfile 根据您的特定需求自定义其行为。 - di37/codi...
- Giskard Bot: Identifying robustness, performance and ethical vulnerabilities in the Top 10 Most Popular Hugging Face Models:未找到描述
- Just Say the Name: Online Continual Learning with Category Names Only via Data Generation:在现实场景中,由于成本高昂,持续学习的大量手动标注是不切实际的。虽然之前的研究受大规模网络监督训练的影响,建议...
- Releasing Common Corpus: the largest public domain dataset for training LLMs:未找到描述
- What's Automatic Differentiation?:未找到描述
- Dive Deeper into Yi-9B:未找到描述
- Better RAG 1: Advanced Basics:未找到描述
- Coqui Bark Voice Cloning Docker - fffiloni 开发的 Hugging Face Space:未找到描述
- HF-Mirror - Huggingface 镜像站:未找到描述
- GitHub - suno-ai/bark: 🔊 文本提示生成音频模型:🔊 文本提示生成音频模型。通过在 GitHub 上创建账号为 suno-ai/bark 的开发做出贡献。
- Coffee Shop AI - 咖啡师追踪:咖啡店使用 AI 追踪咖啡师的生产力以及顾客在店内停留的时间。伙计们,我找到了源代码,就在这里:https://...
- t-SNE 简单原理解析:清晰且仔细地解释了数据科学中的 t-SNE 方法!0:00 邻居的概念 6:25 邻居相似度 8:17 关于标准差的说明 10:48 移动...
- GitHub - coqui-ai/TTS: 🐸💬 - 一个用于文本转语音的深度学习工具包,经过研究和生产环境的考验:🐸💬 - 一个用于文本转语音的深度学习工具包,经过研究和生产环境的考验 - coqui-ai/TTS
- UniProt:未找到描述
- sentence-transformers/examples/training/matryoshka/README.md at master · UKPLab/sentence-transformers:使用 BERT 的多语言句子和图像 Embeddings - UKPLab/sentence-transformers
- The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits:最近的研究(如 BitNet)正在为 1-bit Large Language Models (LLMs) 的新时代铺平道路。在这项工作中,我们引入了一个 1-bit LLM 变体,即 BitNet b1.58,其中每一个参数...
- Exploring Lightweight Federated Learning for Distributed Load Forecasting:Federated Learning (FL) 是一种分布式学习方案,使深度学习能够以隐私保护的方式应用于敏感数据流和应用。本文重点关注...
- Harnessing Langchain, Instructor, and Pydantic: Redefining Data Analysis with AI:Ankush k Singal
- Understanding early visual processing mechanisms by the principle of efficient encoding:这是 CVPR 2022 教程“关于生物(人类)视觉如何工作的后马尔计算概述”五个讲座中的第 2 讲,日期为 2022 年 6 月 19 日...
- CONCEPTUAL FRAMEWORK TO STUDY TEAM COHESION IN HUMAN-ROBOT TEAMS | Proceedings of the Design Society | Cambridge Core:研究人机团队凝聚力的概念框架 - 第 3 卷
- Csplk/THE.ASCII.ART.EMPORIUM · Hugging Face 数据集: 未找到描述
- GitHub - ADG4050/Exploring-Lightweight-Federated-Learning-for-load-forecasting: 使用聚类和序列 DNN 方法在能源数据集上进行负荷预测的 Federated Learning: 使用聚类和序列 DNN 方法在能源数据集上进行负荷预测的 Federated Learning - ADG4050/Exploring-Lightweight-Federated-Learning-for-load-forecasting
- Leaderboard: 未找到描述
- 白皮书 | Chaiverse | Chai AI 开发者平台: 探索 Chai AI 通过众包实现万亿参数 AGI 跨越的愿景。
- LoRA:未找到描述
- bigcode/the-stack · Datasets at Hugging Face:未找到描述
- Home:利用 BERT 和基于类的 TF-IDF 来创建易于解释的主题。
- Quantized Retrieval - a Hugging Face Space by sentence-transformers:未找到描述
- Binary and Scalar Embedding Quantization for Significantly Faster & Cheaper Retrieval:未找到描述
- Embedding Quantization — Sentence-Transformers documentation:未找到描述
- CiroN2022/ascii-art · Hugging Face:未找到描述
- ASCIIfy:使用 OpenCV、Pillow 和 Python 3 将图像转换为 ASCII
- Extreme Compression with AI: Fitting a 45 Minute Podcast into 40kbs:关于技术、文化、媒体、数据及其交互方式的文章。
- ClickUp Brain | One AI to Replace them All:未找到描述
- Perplexity is Most Likely a Google Search Wrapper:一位用户在 Reddit 的 LocalLLaMA 板块发帖称,Perplexity 总结了来自 Google Search 前 5-10 条结果的内容。
- A Practical Introduction to AI for Developers – TakeHomes Library: 未找到描述
- Quickstart | 🦜️🔗 Langchain: 在本指南中,我们将介绍在...上创建问答链(Q&A chain)的基本方法。
- Web scraping | 🦜️🔗 Langchain: 在 Colab 中打开
- Ideas Genius GIF - Ideas Genius George - Discover & Share GIFs: 点击查看 GIF
- ConversationChain default prompt leads the model to converse with itself · Issue #6138 · langchain-ai/langchain: 系统信息 langchain==0.0.195 python==3.9.6 谁能帮忙?@hwchase17 信息 官方示例 notebooks/脚本 我自己修改的脚本 相关组件 LLMs/Chat Models Embedding Models...
- Web scraping | 🦜️🔗 Langchain: 在 Colab 中打开
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号为 langchain-ai/langchain 的开发做出贡献。
- Issues · langchain-ai/langchain: 🦜🔗 构建上下文感知的推理应用。通过在 GitHub 上创建账号为 langchain-ai/langchain 的开发做出贡献。
- LangSmith: 未找到描述
- GitHub - langchain-ai/weblangchain: 基于 LangChain 的网络研究员聊天机器人。在网络上搜索来源并在生成的回答中引用它们。: 基于 LangChain 的网络研究员聊天机器人。在网络上搜索来源并在生成的回答中引用它们。 - langchain-ai/weblangchain
- GitHub - mieslep/weblangchain at compoent_and_update: 基于 LangChain 的网络研究员聊天机器人。在网络上搜索来源并在生成的回答中引用它们。 - GitHub - mieslep/weblangchain at compoent_and_update
- TypeError: Type is not JSON serializable: numpy.float64 · Issue #551 · langchain-ai/langserve: 我已将问题缩小到可以在 weblangchain 仓库 https://github.com/langchain-ai/weblangchain 中复现的范围。我正尝试更新到最新版本的 LangChain/LangSmith/L...
- TypeError: Type is not JSON serializable: numpy.float64 · langchain-ai/langchain · Discussion #17876: 检查了其他资源。我为此 Issue 添加了一个非常详细的标题。我使用集成搜索查阅了 LangChain 文档。我使用 GitHub 搜索查找了类似问题并...
- xAI Grok:未找到描述
- Announcing Grok:未找到描述
- 无标题:未找到描述
- 来自 Delip Rao e/σ (@deliprao) 的推文:我看着这个,并不觉得 Grok 更好。作为一个务实的人,我看着它并怀疑既然已经有了性能几乎相似的 Mixtral,为什么还要费心去用 Grok (314B),而且它还是一个...
- NVIDIA #GTC2024 会议议程目录: 立即注册。在线直播。2024年3月18-21日。
- GitHub - Lightning-AI/lightning-thunder: PyTorch 的源码到源码编译器。它使 PyTorch 程序在单个加速器和分布式环境下运行更快。: PyTorch 的源码到源码编译器。它使 PyTorch 程序在单个加速器和分布式环境下运行更快。 - Lightning-AI/lightning-thunder
- Kahan 求和算法 - 维基百科:未找到描述
- 使用 Ozaki 方案加速多精度矩阵乘法:优化的多精度基础线性计算,特别是矩阵乘法,对于解决病态问题至关重要。最近提出的 Ozaki 方案实现了精确的...
- zero-to-thunder-tutorial - t-vi 开发的 Lightning Studio:快速上手 ⚡ Lightning Thunder。
- Tanishq Mathew Abraham, Ph.D. (@iScienceLuvr) 的推文:为什么没有人讨论新款 Blackwell GPU 真的在对着我们微笑这件事,哈哈。