ainews-mergestral-meta-mtiav2-cohere-rerank-3
Mergestral、Meta MTIAv2、Cohere Rerank 3、Google Infini-Attention
Meta 宣布了其新款 MTIAv2 芯片,旨在通过改进的架构以及与 PyTorch 2.0 的集成,实现训练和推理加速。Mistral 发布了 8x22B Mixtral 模型,该模型被重新合并为一个稠密模型,从而有效地创建了一个 22B 的 Mistral 模型。Cohere 推出了 Rerank 3,这是一款旨在增强企业搜索和检索增强生成 (RAG) 系统的基础模型,支持 100 多种语言。Google 发表了一篇关于 Infini-attention 的论文,这是一种超可扩展的线性注意力机制,已在 1B 和 8B 模型上进行了演示,支持高达 100 万的序列长度。此外,Meta 的 Llama 3 预计很快将开始推出。其他值得关注的更新包括 Command R+,这是一款在聊天机器人性能上超越 GPT-4 的开放模型,拥有 128k 的上下文长度,以及 Stable Diffusion 模型和 RAG 流水线方面的进展。
2024年4月10日至4月11日的 AI 新闻。我们为您检查了 5 个 Reddit 分区、364 个 Twitter 账号以及 26 个 Discord 社区(包含 389 个频道和 4843 条消息)。为您节省了预计阅读时间(以 200wpm 计算):540 分钟。
今天有一系列小的更新,虽然都值得关注,但没有一个能明确成为“今日头条”:
- 全新的 8x22B Mixtral 被这位大神合并回了稠密模型(dense model)——从 8 个专家中提取出单个专家,实际上为我们提供了一个 22B 的 Mistral 模型。
- Meta 发布了他们的 MTIAv2 芯片,虽然你买不到也租不到,但可以远观仰慕。
- Cohere Rerank 3,一个用于增强企业搜索和 RAG 系统的基础模型。它支持 100 多种语言,能够实现对多维度和半结构化数据的准确检索。@aidangomez 的评论。
- 谷歌关于 Infini-attention 的新论文展示了另一种超大规模线性注意力(linear attention)替代方案,此次展示了具有 100 万序列长度的 1B 和 8B 模型。
与定于下周开始推出的 Llama 3 相比,这些都是小更新。
目录
[TOC]
AI Reddit 回顾
涵盖 r/LocalLlama, r/machinelearning, r/openai, r/stablediffusion, r/ArtificialInteligence。评论抓取功能现已上线,但仍有很大改进空间!
新模型与架构
- Mistral 8x22B:已可在 M2 Ultra 192GB 上以 4-bit 量化运行,在 128GB RAM 的 M3 Max 上表现出色,达到每秒 4.5 个 token。可通过 API 获取,并在 Benchmarks 中有所展示。
- Command R+:首个在 Chatbot Arena 中击败 GPT-4 的开放模型,现已在 HuggingChat 上免费提供。实现了 128k 上下文长度,表现优于其他长上下文模型。
- MTIA 芯片:Meta 发布了其下一代训练和推理加速器,具有改进的架构、稠密计算性能、更高的内存容量和带宽。旨在与 PyTorch 2.0 完全集成。
- UniFL:通过统一反馈学习改进 Stable Diffusion,在 4 步推理中分别比 LCM 和 SDXL Turbo 提升了 57% 和 20%。
- Infini-attention:支持高效的无限上下文 Transformer,允许模型处理长程依赖关系。
Stable Diffusion 与图像生成
- ELLA SDXL 权重:确认永远不会发布,因为作者优先考虑发表论文而非可用性。社区对此表示失望,并转向关注 SD3。
- SD 1.5:仍被部分用户视为“王者”,并展示了令人印象深刻的效果。
- 16 通道 VAE:Stable Diffusion 训练的实验证明具有挑战性,模型难以达到 SDv1.5 的质量。社区讨论了潜空间(latent space)通道或特定 VAE 对扩散模型训练的影响。
- CosXL:来自 Stability AI 的新模型在彻底改变图像编辑方面展现出潜力。Demo 已在 Hugging Face 上线。
检索增强生成 (RAG) 与上下文处理
- RAG 流水线评估:分享了实用指南,强调了构建生产级系统面临的挑战,尽管基础 Demo 制作简单。
- 本地 RAG:使用 R2R、SentenceTransformers 和 ollama/Llama.cpp 进行部署的易懂教程。
- RAG vs 长上下文模型:Gemini 概览对比了两种方法,讨论了未来的相关性及对具体用例的依赖。
开源努力与本地部署
- LocalAI:发布 v2.12.3 版本,包含增强的一体化图像生成、Swagger API、OpenVINO 支持以及社区驱动的改进。
- 本地 AI 之旅:用户分享了使用 HP z620 和 ollama/anythingllm 的经验,并寻求关于持久化和升级的建议。
- Llama.cpp:不再提供二进制文件,使得某些用户的编译变得更加困难。社区讨论了挑战与替代方案。
- 配备 ROCm 的 AMD GPU:分享了通过 Docker 使用 AUTOMATIC1111 和 kohya_ss 的指南,解决了兼容性问题。
提示工程与微调
- 用于微调的提示-响应示例:用户就遵循特定输出格式所需的示例数量寻求建议,估计范围从 50 到 10,000 个不等。
- 使用大型 LLM 生成提示词:讨论了为较小模型生成更好提示词的潜力,特别是在 RAG 框架中。
基准测试、对比与评估
- Cohere Command R+:尽管在 lmsys chat arena 基准测试中表现出色,但用户对其与 Claude 3、Qwen 1.5 72B 和 GPT-4 相比的写作风格自然度表示轻微失望。
- Intel Gaudi:据报道,在 LLM 训练方面比 NVIDIA 的产品快 50% 且价格更低。
- 测试新方法:讨论了推荐的数据集、模型大小和基准测试,以向社区证明新架构/优化器的优越性。
迷因与幽默
- Oh deer
- 拿到了我的 RTX 3060 12GB,但 SD1.5 依然好到让人舍不得离开
- OpenAI,请发布你们的捉迷藏游戏吧,自第一次演示以来已经过去 5 年了。我只想整天和这些小神经元家伙一起玩
- GPT 与 XFinity 客服聊天获取折扣
AI Twitter 摘要
所有摘要均由 Claude 3 Opus 完成,从 4 次运行中选取最佳结果。我们正在尝试使用 Haiku 进行聚类和流程工程(flow engineering)。
LLM 进展
- Mixtral-8x22B 发布:@MistralAI 发布了 Mixtral-8x22B,这是一个拥有 176B 参数的 MoE 模型,包含约 40B 激活参数,上下文长度为 65k,采用 Apache 2.0 许可证。早期评估显示其 MMLU 得分为 77.3%,优于其他开源模型。@_philschmid @awnihannun
- GPT-4 Turbo 改进:新的 GPT-4 Turbo 表现出显著改进,特别是在代码基准测试中,在大多数任务上超越了 Claude 3 Sonnet 和 Mistral Large。@gdb @gdb @bindureddy
- Command R+ 发布:@cohere 发布了 Command R+,这是一款具有强大多语言能力的全新开放词表模型,在某些非英语基准测试中表现优于 GPT-4 Turbo。它拥有高效的 Tokenizer,可实现更快的推理和更低的成本。@seb_ruder @aidangomez
- Gemini 1.5 Pro:Google 发布了 Gemini 1.5 Pro,增加了音频和视频输入支持。现在可通过 API 在 180 多个国家/地区使用。@GoogleDeepMind
高效 LLM
- Infini-attention 实现无限上下文:Google 推出了 Infini-attention,这是一种将 Transformer LLM 扩展到具有有限内存和计算量的无限长输入的高效方法。它将压缩内存(compressive memory)整合到 attention 中,并内置了局部和长期 attention 机制。 @_akhaliq @_akhaliq
- 将 LLaMA Decoder 适配至视觉任务:这项工作研究了将 decoder-only 的 LLaMA 适配到视觉任务。直接应用因果掩码(causal mask)会导致 attention 崩溃,因此他们重新定位了 class token 并使用了软掩码(soft mask)策略。 @arankomatsuzaki
- llm.c:@karpathy 发布了 llm.c,这是一个约 1000 行 C 语言编写的 GPT-2 实现,直接调用 CUDA kernel。虽然灵活性较低且比 PyTorch 慢,但它提供了核心算法的一个简单、极简的实现。 @karpathy @karpathy
Robotics and Embodied AI
- 学习敏捷足球技能:DeepMind 使用强化学习训练 AI Agent 展示敏捷的足球技能,如转身、踢球和追逐球。这些策略可以迁移到真实机器人上,并结合起来实现进球和扑救。 @GoogleDeepMind
- OpenEQA 基准测试:Meta 发布了 OpenEQA,这是一个通过开放词汇问题来衡量具身 AI Agent 对物理环境理解能力的基准测试。目前的视觉语言模型在性能上远低于人类,尤其是在空间理解方面。 @AIatMeta @AIatMeta
Hardware and Systems
- MTIAv2 推理芯片:Meta 发布了其第二代推理芯片 MTIAv2,采用 TSMC 5nm 工艺制造,具有 708 TFLOPs 的 int8 算力。它使用标准的 PyTorch 堆栈以保证灵活性,并针对 Meta 的 AI 工作负载进行了优化。 @ylecun @AIatMeta @soumithchintala
Miscellaneous
- Rerank 3 发布:@cohere 发布了 Rerank 3,这是一个用于增强企业搜索和 RAG 系统的基础模型。它支持 100 多种语言的多维度和半结构化数据的准确检索。 @aidangomez
- Zephyr 对齐:一个新的 Zephyr 模型在包含 7000 条偏好对比的数据集上使用 Odds Ratio Preference Optimization (ORPO) 进行了训练,在 IFEval 和 BBH 上取得了高分。代码已在 Alignment Handbook 中开源。 @osanseviero @_lewtun
- Suno Explore 上线:@suno_ai_ 推出了 Suno Explore,这是一种发现由其 AI 系统生成的全新音乐流派的听觉体验。
- Udio 文本生成音乐:Udio 是来自 Uncharted Labs 的新型文本生成音乐 AI,可以根据文本描述生成多种风格的完整歌曲。早期的演示效果非常令人惊叹。 @udiomusic
AI Discord 回顾
摘要之摘要的摘要
-
新 AI 模型发布在即,备受期待:AI 社区正热切期待几个新模型的发布,包括预计在未来 1-3 周内推出的 Stability.ai 的 SD3,Meta 已确认即将推出的 Llama 3(TechCrunch 文章),以及 MistralAI 的 Mixtral-8x22b 指令微调版。此外,Sophia Yang 预告了一个全新的 Apache 2.0 协议模型,其在初步的 AGIEval 结果中表现优于其他开源基座模型。
-
Mixtral 模型性能表现亮眼:新发布的 Mixtral-8x22b 引起了轰动,根据 AGIEval 结果,它在 PIQA 和 BoolQ 等基准测试中显著优于其他开源模型。讨论还强调了 Mixtral 8x7b 模型即使在量化后仍具有强劲性能。社区正在分析这些模型的能力,并将其与 GPT-4 及其他领先系统进行比较。
-
CUDA 与量化效率提升:在 CUDA MODE Discord 中,一位用户报告称实现了 GPT-2 的纯 CUDA 前向传递,每轮迭代耗时 110ms,性能超越了 PyTorch。目前正在探索使用 CUDA 的 C 子集、内联汇编(inline assembly)和协作组(cooperative groups)进行优化。HQQ (Half-Quadratic Quantization) 社区正在深入研究量化脚本、int4 kernel 的性能以及困惑度(perplexity)分数的差异,并在 GitHub 上分享了最新的 HQQ 代码。
-
新应用与集成让 AI 触手可及:多个新的 AI 应用和集成方案发布,包括具备 GPT-4 和 Vision AI 功能的 GPT AI,提供免费高级模型 API 的 Galaxy AI,用于直观构建应用的 Appstorm v1.6.0,以及 Perplexity AI 与 Raycast 的合作——为 Raycast 订阅者免费提供 Perplexity Pro(Raycast 博客文章)。OpenAI 的 ChatGPT 用户数也达到了 1 亿,并正在转向预付费信用系统。
-
AI 硬件与基础设施的进展:Meta 展示了其 Meta Training and Inference Accelerator (MTIA),在 90W TDP 下可提供 354 TFLOPS/s (INT8) 的算力用于 AI 工作负载(Meta 博客文章)。Intel 即将推出的 Lunar Lake CPUs 将配备 45 TOPS 的 NPU,以便在本地运行 Microsoft 的 Copilot AI。芯片设计商与台积电(TSMC)等代工厂之间的供应链动态也成为了关注焦点。
第一部分:Discord 高层级摘要
Stability.ai (Stable Diffusion) Discord
-
SD3 的到来备受期待:社区里充斥着关于 SD3 发布时间的询问,预计将在未来 1-3 周内推出。Beta 测试正在顺利进行中,人们对强大的基座模型和发布后的微调(finetuning)能力寄予厚望。
-
UI 对决:Forge 比 ComfyUI 和 Automatic1111 更受青睐:关于 Stable Diffusion 等图像生成模型用户界面的优劣争论中,Forge 的速度和模型管理、ComfyUI 的精细控制机制,以及 Automatic1111 卓越的图生图(image-to-image)性能和 controlnet 实现均被提及。
-
通往更好 UI 之桥:考虑 LaVi Bridge:虽然目前人们对将 LaVi Bridge(一种类似于 ELLA 的技术)与 ComfyUI 合并很感兴趣,但目前尚无具体的集成计划,AI 工程师们正期待未来的发展。
-
VRAM:AI 训练者的最佳伙伴:在 AI 模型训练的讨论中,重点仍然是 VRAM 的关键作用。共识认为,减少 VRAM 占用可能会限制扩展能力,或者需要通过改进 AI 功能来抵消,从而利用额外的显存容量。
-
探索更智能的 Inpainting 方法:关于结合使用“Fill”功能与 ControlNet Inpaint 来处理移除背景后的图像的咨询,表明 AI 社区正在不断寻求增强的 Inpainting 技术。
Unsloth AI (Daniel Han) Discord
-
CodeGemma 的重任:用户报告了在微调 CodeGemma 模型时的 VRAM 消耗问题,并建议使用 paged_adamw_8bit 优化器以提高效率。社区正在关注 optimizer techniques 和 Apple Silicon support 的进展,分享了与 Silicon 支持相关的 GitHub issue (Apple Silicon Support #4),并期待能提升性能的移植项目。
-
Triton DSL 学习曲线:随着 Triton tutorials 等有用资源的分享,学习 Triton DSL 的兴趣达到顶峰。然而,用户在处理 Gemma 等模型时面临 Out of Memory (OOM) 挑战,这预示着可能会转向更高效的替代方案。
-
Unsloth 微调轶事:使用 Unsloth 进行微调的经验引发了关于 VRAM 需求和重复错误的讨论。当 Andrei Karpathy 认可 Unsloth 时,社区反响热烈,强调了围绕微调实践持续对话的必要性。
-
Perplexity 之旅:关于 Perplexity Labs 进行 instruction tuning 的讨论揭示了输出结果与搜索结果相似的观察。即将推出的 Mixtral-8x22b model 备受关注,人们对其潜力和边际优势产生了浓厚兴趣。
-
周边建议激增:偶然提到的 Unsloth 周边商品引发了轻松的闲聊,表明了社区对品牌的认同感。同时,有信号表明团队需要更多设计师,这可能会推动未来的合作或招聘。
-
Unsloth 资源配置:成员们寻求关于 multi-GPU support 的澄清,揭示了一个正在开发中的 pre-alpha 功能,该功能可能对超过四个 GPU 的使用进行许可控制。对话模型的 dataset formatting 进展已被消化,并对群聊中的配对方法提出了见解。
-
内核横向对比:为了一篇研究论文对开源内核竞争力的深入研究,揭示了对 Unsloth 集成能力的赞赏。在认可开源项目贡献的背景下,强调了使用 multi-GPU support 时的伦理考量。
-
Unsloth AI 部署一帆风顺:训练后的部署咨询引导用户查阅 Unsloth documentation,重点关注模型保存和部署设置。讨论确认虽然 Unsloth 是为其内部功能量身定制的,但适应更广泛用例的可能性已近在咫尺。
-
StegLLM 成为焦点:创新模型的展示中出现了 StegLLM(一种带有 backdoor mechanism 的语言模型)和 StegBot,两者均使用 Unsloth 进行了精炼 (StegLLM, StegBot)。这些发布突显了社区在模型功能方面的尖端实验。
-
Sophia 的进步与 AdaLomo 的突破:Sophia 的性能提升受到关注,可能达到 AdamW 的效率,而 AdaLomo 在 LLaMA 模型上的测试展示了内存效率 (AdaLomo PDF)。这些见解激励了社区,因为他们正关注其对模型优化的影响。
-
LLaMA 3 期待:关于即将推出的 multi-GPU support 的预告取决于 LLaMA 3 的发布,这为社区未来的工程壮举奠定了基础。
LM Studio Discord
关于 LLM 性能的大胆言论:LM Studio 的用户报告了 GPT “GPT Builder” 的性能问题,并讨论了最佳 Prompt 策略,相比系统生成的 Prompt,他们更倾向于手动编写。此外,Mistral 家族的新成员 8x22b 模型 备受关注,目前正在等待 GGUF 量化 版本,以便在 LM Studio 中运行。
代码能力对比:关于 Python 编程模型能力的讨论主要集中在 GPT-4、Claude3 Opus 和 Phind,特别提到了 Phind 具备联网查询的独特功能。Mixtral 8x22B 的发布因其与 Command R+ 的对比而引发热议,后者在底层编程和数学问题上具有优势,并支持使用 LaTeX 格式化响应。
挑战硬件极限:成员们交流了 AI 模型的硬件适配知识,提到了 Codegemma 运行的成功案例与崩溃情况,以及 Mac Studio (192 GB RAM) 在运行大型模型时的出色表现。关于云端成本的讨论指向了替代方案,例如使用消费级硬件进行本地部署以提高性价比,并提到了 AWS 最近取消了数据传出(egress)费用。
Beta 版本亟需修复与新功能:LM Studio 用户指出 0.2.19 beta 版本需要进行故障排除,提到了 LaTeX 渲染以及与 n8n 等其他工具对接时的挑战。特别强调了在 AMD ROCm 平台上运行模型的问题,2.17 之后的 Beta 版本运行效果不尽如人意。
模型部署策略浮现:通过对话,一种关于模型部署的叙事逐渐浮现,强调了优化方式,如权衡云端与本地部署,以及本地硬件增强的实用性(例如利用 eGPU 和探索云端 GPU 服务集成)。有人呼吁开发适合在 3080 GPU 上托管、用于 AutoGen 任务的 12GB AI 模型,但目前尚无直接解决方案。
Nous Research AI Discord
Google 代码助手上线:Google 的 CodeGemma(一个 7B 模型)旨在通过先进的代码补全功能提高开发人员的生产力,体现了 AI 在编程辅助领域日益增长的影响力。
World-Sim 的回归:World-Sim 爱好者们正为它的重新发布做准备,在 teknium 的神秘信息 轰炸下,大家纷纷猜测其可能的新功能和应用场景,范围涵盖从教育到 AGI 开发。
弥合 AI 沟通鸿沟:社区讨论了 LLM 中双向注意力(bidirectional attention)的优势,引用了 SD3 在文本渲染方面的成功,并研究了 Infini-attention(研究论文)作为在 Transformer 模型中高效处理长输入的方法。
模型微调的财务挑战:围绕 Nous-Hermes-8x22b 等大型模型微调的讨论揭示了成本问题,用户正在评估 QLoRA 和 LISA 相对于全参数微调的优劣,而像 Vast 这样的云服务虽然提供了强大的 GPU 选项,但价格昂贵。
备受期待的模型进展引发热议:随着 Meta 宣布 Llama 3 即将发布(TechCrunch 文章),以及 MistralAI 预计将发布其 Mixtral-8x22b 的 instruct 版本,社区对新的 AI 里程碑保持高度期待。
Latent Space Discord
-
Nuzzy Bot 加入聊天:引入了一个名为 Nuzzy 的互动机器人用于用户参与,建议使用专用频道进行交流,并通过特定命令激活。
-
Udio 备受瞩目:Udio 音乐生成器 成为热门话题,因其每位用户每月提供 1200 首免费歌曲以及创作 90 秒歌曲的能力而受到关注,被视为 Suno 的强力竞争对手,在 Twitter 和 Reddit 上引发了大量对比讨论。
-
Nvidia GPU 对比升温:通过一份分享链接,对 Nvidia 的 Blackwell GPU 进行了详细分析,对比了 B100、B200 和 GB200 型号,讨论了它们的总体拥有成本 (TCO) 和推理成本。
-
AI 工程手册 (AI Engineering Playbook) 正在编写中:呼吁共同努力创建一份 AI 工程手册,重点关注从 Jupyter notebooks 到生产环境的过渡。敦促在部署 LLM 方面有丰富经验的高级工程师和团队负责人贡献力量。
-
1-bit LLMs 展示与技术故障:“1-bit Large Language Models” 论文演示在 Discord 上遇到了技术问题,促使未来的会议可能会更换平台,同时也引发了关于 BitNet b1.58 等模型的效率和实际应用的讨论,及其在 GitHub 上的实现 BitNet-Transformers。Mixture of Experts (MoEs) 模型也受到了关注,相关讨论引用了 Hugging Face 博客文章,并进一步探讨了其使用场景以及专家专业化 (expert specialization) 和语义路由 (semantic routing) 的底层概念。
HuggingFace Discord
- Hugging Face 推出免费的 Command R+:Hugging Chat 现在可以免费访问 Command R+ 模型,该模型具备网页搜索与聊天集成功能。
- 暂停并恢复你的模型训练:Hugging Face 的
Trainer支持通过resume_from_checkpoint函数暂停和恢复训练会话,这是 AI 工程师管理长周期训练过程的一个实用功能。 - 多语言提取模型表现亮眼:用户对一个多语言信息提取演示非常感兴趣,展示了一个小型但功能强大的模型在处理跨语言任务时的高效性。
- Podman 在 AI 安全领域崭露头角:讨论的关于 Podman 的视频强调了其在增强微服务中 AI 安全性的作用,被推崇为在容器化环境中部署 AI 时比 Docker 更安全的替代方案 Podman 视频。
- 使用 Diffusers 进行多 GPU 编排:Diffusers 中的
device_map功能因其能有效地在多个 GPU 之间分配模型流水线 (pipeline) 而受到关注,这对于在显存 (VRAM) 较小的 GPU 上运行的用户具有重要意义 Diffusers 文档。
Perplexity AI Discord
-
Perplexity 与 Raycast 联手:Perplexity AI 为新的 Raycast Pro 年度订阅用户提供 3 个月的免费 Perplexity Pro,AI 插件订阅者的优惠更是延长至 6 个月。此次合作强调了 AI 在 Mac 上的无缝集成,详见 Raycast 的 更多 AI 模型博客文章。
-
ChatGPT 突破用户里程碑:根据其 公告,OpenAI 的 ChatGPT 在发布后短短两个月内,月活跃用户数就达到了 1 亿。
-
AI 模型实践:工程师们辩论了小上下文窗口 AI 模型与大上下文窗口模型的效率和有效性,其中 Opus 4k 在快速查询中更受青睐。社区还解决了诸如关闭 Claude 3 Opus 中的 Pro 模式,以及寻找 Perplexity 局限性(如在回复中包含图片)的变通方法等问题。
-
集成见解与 API 困扰:公会讨论了 AI 与 Raycast 等工具集成的优势,并思考了 Perplexity API,指出可以在回答中模拟网页版,并引用了官方 模型文档。一位用户通过重新激活支付自动充值解决了 API 认证和 401 错误的问题。
-
Perplexity 搜索反映趋势与好奇心:公会成员利用 Perplexity 进行各种查询——从视频游戏分析、农产品的财务评估,到技术爱好者探索 Gaudi 3 等 AI 芯片的进展。这些搜索显示出利用 AI 在技术和金融领域获取多样化见解的浓厚兴趣。
CUDA MODE Discord
-
Meta 发布 AI 省电神器:Meta 的 AI Training and Inference Accelerator (MTIA) 表现出色,在功耗仅为 90 瓦的情况下实现了 354 TFLOPS/s (INT8) 的性能,彰显了其对可扩展 GenAI 产品和 AI 研究的承诺。Meta 官方博客文章 概述了其 AI 基础设施的发展雄心。
-
CUDA 征服:纯 CUDA 实现 的惊人效率使得 GPT-2 模型运行的前向传播时间仅为 110ms,优于 PyTorch 的 180ms,引发了关于微调和优化的讨论,范围涵盖内联汇编到使用 cooperative groups 和 C++。CUDA 开发对话包括分享 LayerNorm kernel 示例,并辩论了 CUDA 编程中 C 与 C++ 的优劣。
-
CUDA Kernel 集合:llm.c 仓库现在包含了一系列 CUDA kernel,而另一个独立项目报告称,使用他们自己的闪电级线性层库在 4090 GPU 上实现了 >300 tflops。社区讨论了其影响并详细说明了性能对比,重点是 FP16 精度,并暗示未来将添加梯度支持。可以在 GitHub 上的 llm.c 查看这些 kernel,快速线性层库为 GitHub 上的 torch-cublas-hgemm。
-
学习小组集结:关于学习会议的建议围绕 PMPP 书籍讲座 展开,提供了一个互动交流的论坛。已为参与者建立了一个小组,第一节课将在不同时区友好的时间开始,可通过 学习小组邀请 加入。
-
HQQ 引发量化困惑:激烈的讨论转向了 量化基准测试 和可复现性,特别是 Hugging Face 模型的性能脚本,可在 hqq core torch_lowbit 获取。int4 kernel 性能的挑战以及量化 Transformer 中的 perplexity 指标突显了技术叙事,强调了对量化霸权的追求。
-
可视化工具开发中:triton-viz 聊天机器人 的增强功能正在进行中,计划改进超链接和逐步代码注释,以提升机器人的功能和可用性。
Eleuther Discord
知识缩放 (Knowledge Scaling):最近的一篇 论文 提出,语言模型在 每个参数 2 bits 知识 时达到极限,这引发了关于训练时长和模型架构等各种因素如何影响这一限制的讨论。社区认为其影响不容小觑,并正考虑进行深入讨论以澄清论文的见解。
RNNs 再次兴起:研究表明,为 Transformer 开发的可解释性工具同样适用于现代 RNN,并在 Mamba 和 RWKV 模型中展示了有效性。这一发现得到了 配套论文 和 代码库 的支持,突显了 RNN 在语言建模中的复兴,该 研究 中体现了强大的社区协作。
微调技巧 (Fine-Tuning Finesse):一种新技术 子集微调 (SubTuning) 正在引起关注,它通过仅调整部分层来实现具有竞争力的性能,这可能会减轻多任务学习等任务的计算需求。论文 详细介绍了这种方法,与优先考虑微调预算限制的讨论相一致。
模型评估博览 (Model Evaluation Expo):Mixtral 8x22B 模型 凭借其 AGIEval 结果备受瞩目,人们对其社区发布充满期待。与此同时,对在选举安全中利用 Deepfakes 等 AI 的担忧,以及关于下载 The Pile 用于研究的查询也相继出现,强调了学术诚信。
聊天模板演进 (Chat Templating Evolution):lm-evaluation-harness 项目中关于 聊天模板化 (chat templating) 的 Pull Request 引起了关注,特别是 Hailey 针对 HF 模型的 PR 和另一个 开放 PR。社区看到了通过为 apply_chat_template 添加批处理操作支持来增强项目的机会。
Modular (Mojo 🔥) Discord
Mojo 的新阶段:Mojo 语言的发展包括 路线图亮点,揭示了未来的增强功能和核心编程特性的优先级。同时,关于集成 Objective-C 或 AppKit 以构建针对 MacOS 的新 UI 库的讨论正在酝酿,社区还就 Mojo 中的 GUI 设计模式和错误处理实践展开了辩论,凸显了一个正处于大幅增长边缘的充满活力的生态系统。
高级存储策略分析:一篇 Modular 博客文章 探讨了行主序 (row-major) 和列主序 (column-major) 内存布局对性能的影响。它阐明了开发者面临的权衡,以及在使用 Mojo 和 NumPy 等语言和库时存储顺序的影响。
社区参与和贡献增加:开源参与度有所提高,对 Modular standard library 和 Lightbug 框架等项目做出了重大贡献,后者现在的性能已优于 Python 的 Flask。Mojo 的词法灵活性在 mojo-ui-html 中添加键盘事件处理以及创建 lightbug_api 中得到了体现,表明社区驱动的势头正盛。
在 UI 开发中使用 Mojo 进行创新:Mojo 在 UI 开发中的应用通过一个受 lipgloss 启发、简洁的终端文本渲染工具——可在 GitHub 上获得——以及 Basalt 的视觉实力得到了展示。这些发展表明,人们正在努力利用 Mojo 提升终端应用程序的美学和功能能力。
Modular 思想保持同步:Modverse 社区通过 “Modverse Weekly - Issue 29” 通讯(可在 Modular Newsletters 获取)和提供简短更新的推文保持信息同步,所有这些都维持了这个技术中心内的知识交流。
OpenAccess AI Collective (axolotl) Discord
量化技术的飞跃:讨论集中在量化后将 Mistral 等模型适配到具有 16k 上下文的单张 24GB 显卡上的挑战,并有证言验证了 Mixtral 8x7b 的性能。
对 MLLMs 的好奇:社区成员对多模态大模型(如 LLaVA 和 Qwen VLM)表现出浓厚兴趣,但在许可证导航和微调指导方面面临资源有限的问题。
推理服务器的 GPU 选择困境:工程师们讨论了在推理服务器上使用 Nvidia 4090s 替代 3090s 的可行性,考虑到缺乏 NVLink 和 PCIe 5,有人建议更好的卡间带宽可能使 3090s 更合适。
黑客松活动提醒:重点介绍了将于 5 月 11 日举行的 Samsung Next 2024 Generative AI Hackathon,重点关注健康与福祉以及媒体技术领域。
深入文档建设:鼓励 Axolotl 社区为不断完善的 Axolotl 文档做出贡献,并分享了关于动态偏好优化 (DPO) 可能比有监督微调 (SFT) 更有效地引导生成响应的见解。
OpenRouter (Alex Atallah) Discord
Mixtral 加入路由机群:Mixtral 8x22B 已上线 OpenRouter,在指令模板方面表现强劲,目前提供免费试用。
Gemma 新变体与价格调整:OpenRouter 已将 Gemma 7B 替换为升级后的 Gemma 1.1-7B,并调整了多个模型的价格——包括 LZLV 70B 和 Databricks DBRX 132B——同时指出 Gemini 1.5 目前缺乏免费层级。
反馈促成快速修复与澄清:用户反馈促使 OpenRouter 修正了模型上“Updated”标签的问题,并部署了针对速率限制问题的修复程序。平台还澄清了 Gemini 模型的 Token 是按单个字符计数的,这会影响“上下文”成本。
深入探讨模型限制:OpenRouter 上受到严格速率限制的模型被限制在每分钟 10 次请求左右,类似于其他地方的免费层级。
社区对 Mixtral 与 GPT-4 的对比评价:社区中 Mixtral 8x22b 与 GPT-4 的对比显示,用户更青睐 Mixtral 的推理能力和成本效率,尽管 GPT-4 被认为更具文采。
OpenInterpreter Discord
-
Command r+ 广受好评:Command r+ 因在基准测试和角色扮演场景中超越 GPT-3.5 和 Claude 3 而备受关注,暗示其性能接近 GPT-4。
-
Open-Interpreter 解决安装问题:围绕 open-interpreter 安装出现了技术挑战,解决方案涉及使用 git+https 命令和正确的 OPENAI_API_KEY 设置。
-
Mixtral 与 OI 结合的乐观预期:关于 Mixtral 8x22b 与 Open-Interpreter (OI) 潜在协作的讨论非常热烈,爱好者们希望其性能能超越 8x7b 版本。
-
OpenAI 转向预付费模式:一条关于 OpenAI 转型为预付费模式的消息在流传,并附带促销信用额度优惠,有效期至 2024 年 4 月 24 日。
-
Open-Interpreter 代码库学习机会:社区分享了包括一个带有 Python 模板的 GitHub 仓库在内的资源,用于将 Open Interpreter 作为库使用,促进了社区内进一步的教育交流。
-
ngrok 绑定困扰与设置方案分享:技术讨论确定了一个
ngrok无法绑定到用户指定域名的问题,这可能暗示配置错误;同时分享了一个用于设置 01 Light 设备的实用视频演示。 -
将机器学习模型引入浏览器:介绍了 Transformers.js(HuggingFace Transformers 库的 JavaScript 实现),它能够实现在浏览器中运行复杂的 ML 模型,而无需服务器依赖。
OpenAI Discord
-
提示词管理激发参与度:对 vellum.ai 的兴趣日益增长,工程师们正在讨论其在更高效地构建、测试和部署适用于各种 AI 模型的 Prompt 方面的实用性。对于文本转语音(text-to-speech)功能的不同声音偏好仍未解决,引发了关于 ChatGPT 或 Mistral 等模型是否应该拥有指定“真实”声音的辩论。
-
AI 推理能力面临考验:Claude 3 Opus 在 AI 模型的推理能力中脱颖而出,成为首选,但对于任何 AI 是否具备真正的推理能力,怀疑态度依然存在。此外,有人对验证 AI 服务引用来源准确性的必要性提出了担忧。
-
技术故障与计费异常备受关注:用户抱怨 OpenAI 平台的高延迟和服务中断,包括在账户余额充足的情况下出现的计费故障。服务的不一致性引发了关于 GPT-4 在持续对话中出现“健忘”的警报,暗示可能存在停机;OpenAI 的 状态页面 对最近发生的事件提供了一些说明。
-
尖端 GPT-4 Turbo 引发创意讨论:GPT-4-turbo-2024-04-09 增强的“创意且生动”的表现成为热点话题,用户建议不要使用代码块以防止不必要的代码压缩。建议使用 Prompt 链(Prompt chains)以获得更准确的代码输出,可以在 promptingguide.ai 探索 Prompt Engineering 的资源。
-
针对 API 问题和提示词优化的跨频道智慧:集体智慧源于对 API 问题的处理,包括关于在 OpenAI 的 Assistant API 中处理方法调用的建议,以及避免代码模块大小和优化问题的策略性 Prompt 链。为了将 Wolfram 集成到 GPT 中,用户可以将注意力转向通过其指定路线访问的 Wolfram GPT 模型。
LlamaIndex Discord
- IFTTT 执行停止增强了 Agent 控制:与 IFTTT 的集成允许对流程进行条件控制,例如在预订确认后停止旅游 Agent 的执行;预告详情已通过 Twitter 分享。
- ColBERT 变得更简单了:一种更直接的新技术正在开发中,用于构建具有对话记忆的基于 ColBERT 的检索 Agent,以增强文档搜索,更多信息已在 Twitter 上预告。
- 与你的代码对话:来自 @weaviate_io 的 @helloiamleonie 正在推广一个教程,关于如何构建一个允许与 GitHub 代码仓库聊天的应用程序,该程序使用本地 Large Language Model (LLM) 和 Embedding 模型,已在 Twitter 上预告。
- Instructor 与 LlamaIndex 的碰撞:尽管有人询问如何使用 Instructor 配合 LlamaIndex 流式输出结构化 LLM 结果,但随后并没有出现显著的讨论或解决方案。
- 处理错误与调试 LLM 调用:社区对话集中在排查本地运行 sec-insights 应用的问题以及提高 Large Language Model (LLM) 的可观测性。后者包括希望看到发送给 LLM 的确切 Prompt,以及更新 LlamaIndex 软件包和创建自定义聊天循环的建议。
tinygrad (George Hotz) Discord
-
tinygrad CI 中缺失的测试被曝光:tinygrad 的持续集成(CI)缺乏对
copy_from_fd的测试,这在一次 GitHub Action 运行中暴露了出来;目前已计划通过新增测试来进行修复。 -
tinygrad 因项目侧重 C 语言而拒绝 Rust 提案:一个被拒绝的 pull request突显了 tinygrad 出于性能和可维护性考虑,坚持使用 C 而非 Rust 的立场,并建议 Rust 通过接口与 C 库进行交互。
-
在 tinygrad 中,性能优于语言偏好:在自动生成 Rust 代码的提案受到批评后,tinygrad 社区强化了优化 C 代码性能而非扩展到其他编程语言的观点。
-
敦促 tinygrad 规范 mnist 数据集处理:在 tinygrad 的 mnist 数据集使用中发现了不一致之处;参与者提出了三种解决方案,包括调整示例文件或使用单独的目录来获取数据集。
-
关于语言选择中的内存安全和政治立场的观点交锋:Rust Foundation 的商标和许可政治引发了关于 tinygrad 语言选择的辩论,同时也涉及对内存安全记录的共同关注,以及让人联想到 Java 和 Oracle 争端的组织实践。
LAION Discord
-
腾讯的 Ella SDXL 与核心创新者:成员们以怀疑的眼光讨论了腾讯的 Ella SDXL,并考虑了由 ‘Draw Things’ 或 CivitAI 进行潜在训练的可能性,引用了 Reddit 讨论中关于腾讯拒绝发布 SDXL 版本的内容。他们的对话范围涵盖了从预算策略到不同 AI 风险投资的战略优先级。
-
用 AI 放大音乐:Udio 用于音乐创作的新应用引起了关注,因为它得到了 will.i.am 和 Common 等知名艺术家的支持,并有宣传推文佐证。社区探索了该应用的功能,包括用户参与度以及将真实乐器轨道集成到其用于音乐生成的 latent diffusion model 中的可能性。
-
加速 AI 硬件发展:AI 硬件领域迎来了新成员 Meta’s Training and Inference Accelerator (MTIA),根据其公告,该加速器在可控的 90 W TDP 下拥有 354 TFLOPS 的性能。这一进展显然激起了关于 AI 加速硬件竞赛升级的讨论。
-
Huggingface 推出 Parler TTS:TTS 领域的创新激增,Huggingface 团队展示了一款具有语音提示(voice prompting)功能的 TTS 引擎,类似于 Stability AI 的 TTS,预示了该技术的未来发展轨迹(Parler TTS GitHub)。
-
Intel 的 Lunar Lake 飞跃式前进:Intel 下一代 Lunar Lake CPUs (来源) 引起了热议,得益于内置的 45 TOPS 神经网络处理单元(NPU),它能够本地运行微软的 Copilot AI。对供应链动态的关注凸显了 Intel 凭借其自有制造设施,相对于 TSMC 与 Nvidia 及 AMD 合作伙伴关系的优势。
LangChain AI Discord
关注你的 Token:工程师们分享了使用 tiktoken 监控 OpenAIAssistant 的 token usage,并结合定价进行成本估算的技巧,这对于那些需要精简 API 调用成本的人来说非常完美。
元数据过滤器实战:向量数据库利用元数据过滤器进行精确查询,例如查找具有负面休假政策的公司。一位成员分享了如何为元数据包含自定义 retrievers,以确保结果中包含更丰富的上下文。
Beta 功能备受关注:关于 ChatOpenAI class 中 with_structured_output 的疑问揭示了该功能虽然未被弃用,但仍处于 beta 阶段。相关的代码示例正在流传,而像 Instructor for Python 这样的工具也被推荐用于结构化 LLM 输出。
LangChain 的开源兼容性难题:LangChain 的架构自豪地支持各种 LLM 供应商,但成员们正在寻求使用非 OpenAI LLM 的明确示例,这些示例可能可以在 LangChain documentation 中找到。
新 AI 工具星系涌现:搭载 GPT-4 和 Vision AI 的 GPT AI、提供免费高级 AI API 的 Galaxy AI,以及用于直观构建应用的升级版 Appstorm v1.6.0 的出现,展示了一个工程师触手可及的不断扩张的 AI 工具宇宙。
DiscoResearch Discord
-
Mixtral 模型凭借 AGI 评估的胜利引人注目:Mixtral 最新的 models 因在 PIQA 和 BoolQ 等基准测试中的卓越表现而受到关注。德语社区正在询问其模型评估的等效基准。
-
模型许可讨论升温:最新模型已确认采用 Apache 2.0 许可,社区期待很快发布 instruct 版本,这引发了关于许可对使用和共享影响的讨论。
-
发现模型性能差异:一位成员指出,由于 ChatML Template 中的一个换行符,
DiscoResearch/DiscoLM_German_7b_v1表现出显著的性能差异,这引发了关于 tokenizer 配置影响的讨论。 -
跨语言研究成果奠定基础:参考研究如 “Multilingual Pretraining and Instruction Tuning Improve Cross-Lingual Knowledge Alignment, But Only Shallowly“,社区正在整合关于多任务 finetuning 如何延续到非英语数据的见解。
-
稠密模型转换标志着一个里程碑:关于将 22B 参数 MoE model 转换为稠密(dense)版本的消息(由 Vezora 在 Hugging Face 上发布为 Mistral-22B-v0.1)引起了关于模型架构的讨论,并促使了关于 model merging 方法实用性的探讨。
Interconnects (Nathan Lambert) Discord
-
新模型引发好奇:一款新 AI 模型发布,根据 Sophia Yang 的推文确认,该模型既不是 Mistral 也不是 EleutherAI 的衍生品,持有 Apache 2.0 许可证。社区还猜测 Llama 和 Cohere 等竞争对手可能促使了这次仓促发布,尽管初步的 AGIEval 结果显示其性能优于其他 Open-source 模型。
-
基准测试、博客与基础模型:社区对 Benchmark 可能误导开发者表示担忧,因此提议创建一个新博客,为每个主要的模型发布提供公正的 Human Evals。此外,Hugging Face 的一场讨论展示了 BigXtra 的 Base Model 在未经 Instruction-tuned 时表现不佳,引发了关于 Instruction Tuning 收益和数据集影响的辩论。
-
评估 Instruction Tuning 辩论:关于在遵循 Pretraining -> IFT -> RLHF 流程时 Instruction-tuning (IFT) 是否可能冗余的讨论非常具有启发性,因为 RLHF 期间的人类偏好评分可能隐含地教会了模型 Instruction-following。然而,有人指出模型训练的各个阶段经常是融合的,暗示在整个训练过程中使用了组合数据集和目标函数。
-
机器学习道德受质疑:内幕交易和学术利益冲突的指控给社区蒙上了阴影,话题涉及从劣质的 Fine-tuning 过程到 ML 教授与行业投资之间复杂的纠葛。Anton Burkov 的推文引发了这场紧张的对话,引发了人们对该领域伦理实践的关注。
-
采访悬念与招募沉思:一段可能与 John Schulman 进行的采访被预告,激起了成员们的好奇和期待。此外,还出现了一个关于意外确认和新成员招募策略的轻松笔记,提到了将一位名叫 Satya 的人纳入麾下的努力。
Datasette - LLM (@SimonW) Discord
音频智能取得飞跃:Gemini 增强了其 AI 能力,获得了回答视频内容中音频相关问题的能力,解决了此前 Gemini 只能描述视频视觉效果的空白。
Google 的复制粘贴深受粘贴之苦:工程师们呼吁改进 Google 在其 Playground 中粘贴文本时的文本格式化能力,因为目前它会改变原始格式。
斯坦福进军知识策展:Stanford Storm 项目 展示了 AI 在知识策展(Knowledge Curation)方面的重大飞跃,这是一个由 LLM 驱动的系统,可以研究主题并生成包含引用文献的详尽报告。
MacOS 上的 Shell 命令对决:一个导致 llm cmd 在 MacOS iTerm2 上挂起的奇特问题被发现是由于需要用户输入,该问题已通过 GitHub 上提供的修复补丁 解决,确保命令不再挂起并能正确响应输入。
Homebrew 或 Pipx:LLM Shell 仍让用户困惑:在不同的 Shell 上排查 llm cmd 问题时,一位用户发现问题不在于高度自定义的 Shell 本身,而在于命令所需的交互在日志中不可见。
Mozilla AI Discord
通过 Gradio UI for Figma 弥合差距:Mozilla 推出了 Gradio UI for Figma,以促进设计阶段的快速原型开发和实验;可以通过 Figma 的 Mozilla 页面访问。如需深入讨论,Mozilla 鼓励加入其 Discord 讨论频道的相关话题。
GPU 限制引发关注:工程师们通过使用 -ngl 3 将部分层卸载到 CPU 内存来解决 GPU 内存限制问题,尽管承认这会带来显著的性能损失,并提议在 llamafile 中开发一项功能,通过动态卸载层来管理 VRAM 不足的问题。
内核对话可能导致崩溃:处理张量(tensors)可能会导致内核恐慌(kernel panic),有证据显示一台 M2 MacBook 在将 .safetensors 转换为 .gguf 时,由于可能超出了其 16GB RAM 的容量而发生死机。
语言模型内存管理课程:讨论中引用了 GitHub 上的 ollama 项目,该项目详细介绍了处理大型语言模型的方法,可作为增强 llamafile 内存处理能力的潜在指南。访问 ollama 的 GitHub 页面 了解更多详情。
使用 Quiet-STaR 提升文本预测:社区对 Quiet-STaR 产生了浓厚兴趣,这是一种让语言模型在每个 token 处提供推理过程(rationales)以优化文本预测的技术;分享的资源包括 研究论文 和 GitHub 仓库,以及一个相关的 Hugging Face 仓库。
Skunkworks AI Discord
-
Mistral 的重大里程碑:根据初步的 AGIEval 结果,Mistral 8x22b 在 AGIEval 中树立了新标准,表现显著优于其他开源基础模型。
-
在 AI 中寻求逻辑:AI 工程师分享了各种资源,包括 awesome-reasoning GitHub 仓库 和 Logic-LLM GitHub 仓库,提供了为大型语言模型(LLM)赋予逻辑推理能力的数据集和方法。
-
形式化证明 AI 辅助:提到一个旨在训练大型语言模型进行形式化定理证明的 Coq 数据集 arXiv 上的 Coq 数据集,引发了对增强 AI 系统形式化验证能力的兴趣。
-
Google CodeGemma 问世:Google 推出了 CodeGemma,这是一个基于 7B 参数的代码补全模型,其功能在一段 YouTube 视频 中得到了展示。
-
热狗分类走红:展示了一个使用 Ollama, Mistral, 和 LLava 等 AI 模型将图像分类为“热狗”或“非热狗”的教程,在 YouTube 教程 中体现了 AI 幽默而实用的应用。
LLM Perf Enthusiasts AI Discord
GPT 的编程能力依然强劲:用户体验打破了“续作乏力”的说法——GPT 在通过 cursor 使用时保持了其强大的编程能力,提供了快速的性能和全面的代码输出。
Cursor vs. Claude:工具使用讨论:虽然 cursor 因其由 GPT-4 驱动的高效 command-K 功能而在生成样板代码方面受到青睐,但一些用户在聊天交互中仍倾向于使用 Claude opus,尽管有报告称 Claude 首次出现了代码幻觉事件。
Gemini 1.5 崛起:公会成员对 Gemini 1.5 议论纷纷,对其编程能力给予了正面评价,尽管未深入探讨细节。
Copilot++ 脱颖而出:Copilot++ 的推出受到了好评,因其在编程任务中的顶级表现而在众多先进工具中脱颖而出。
Claude 罕见的失误:用户首次报告了一个意外案例,Claude 凭空捏造了一段代码,偏离了以往在 GPT-4 中观察到的惯常准确表现。
AI21 Labs (Jamba) Discord
- Jamba 代码搜寻:成员们对寻找 Jamba 的源代码表现出兴趣,并明确询问其所在位置。
- 对 Jamba 更新的好奇:社区对 Jamba 的任何近期进展或反馈表现出明显的兴趣,成员们以热切的语气询问更新情况。
第 2 部分:各频道详细摘要与链接
Stability.ai (Stable Diffusion) ▷ #general-chat (691 条消息🔥🔥🔥):
-
寻求 SD3 更新:成员们频繁询问 SD3 的发布日期。预计可能在 1 到 3 周内发布,Beta 测试人员已经活跃了近一个月。人们对基础模型以及发布后的 finetuning 都寄予厚望。
-
Forge vs. ComfyUI:讨论集中在 Forge、ComfyUI 和 Automatic1111 的优缺点上。偏好各不相同;Forge 被认为速度更快、模型处理效率更高,ComfyUI 适合深度控制,而 Automatic1111 在 image-to-image 和 ControlNet 表现上更好。
-
实现 LaVi Bridge:有人提到有兴趣将 LaVi Bridge 技术集成到 ComfyUI 中。LaVi Bridge 与 ELLA 类似,但目前没有迹象表明它会在短期内实现。
-
VRAM 在 AI 训练中的重要性:对话涉及了 VRAM 在 AI 模型训练中的重要性。VRAM 被认为对 scaling 至关重要;VRAM 使用量的减少可能会被 AI 能力的提升或扩展所抵消,因为后者会利用额外的 RAM。
-
在 ControlNet Inpaint 中使用 “Fill” 的潜力:一位用户询问了在 ControlNet Inpaint 中使用 “Fill” 来处理已移除背景图像的能力。这表明用户对现有 UI 中高级 Inpainting 技术的需求。
- 来自 DataVoid e/acc (@DataPlusEngine) 的推文:我们对 1.5 的 ELLA 训练进行了逆向工程,并成功制作了微调版本。我们正在努力调整脚本以适配 SDXL。对他们没有发布它感到非常失望。所以...
- C4AI Command R Plus - CohereForAI 提供的 Hugging Face Space:未找到描述
- Stable Diffusion 1.5 - 速查表:未找到描述
- AIchemy with Xerophayze:看看 XeroGen,我们为多个 AI 图像生成平台打造的全新终极提示词锻造工具。旨在更好地适应工作流,并让你对提示词创建拥有终极控制权 https://shop.xerophayze.c...
- MIT 科学家刚刚找到了让最流行的 AI 图像生成器提速 30 倍的方法:科学家们构建了一个框架,通过将 DALL·E 3 和 Stable Diffusion 等生成式 AI 系统压缩成更小的模型,在不牺牲质量的前提下大幅提升其性能...
- Stable Video — Stability AI:Stability AI 首款基于图像模型 Stable Diffusion 的开源生成式 AI 视频模型。
- Latent Vision:未找到描述
- What A Time To Be Alive Simpsons GIF - What A Time To Be Alive Simpsons - 发现并分享 GIF:点击查看 GIF
- Its Good To Be Back Returned GIF - Its Good To Be Back Returned Its Like I Never Left - 发现并分享 GIF:点击查看 GIF
- 教程 | 1 分钟指南,永久解决 SD-WebUI & Forge & ComfyUI 所有模型路径问题。:#stablediffusion #ai #tutorial #problems #solution #sd #webui #forge #comfyui #stable-diffusion-webui #stable-diffusion-webui-forge #github #opensource #micr...
- Reddit - 深入探索任何事物:未找到描述
- 来自 DataVoid e/acc (@DataPlusEngine) 的推文:我们对 1.5 的 ELLA 训练进行了逆向工程,并成功制作了微调版本。我们正在努力调整脚本以适配 SDXL。对他们没有发布它感到非常失望。所以...
- Stable Diffusion Forge UI:底层探索 - 技巧与窍门 #stablediffusion:在这段视频中,我们将详细了解 Stable Diffusion Forge UI,涵盖从查找和更新模型、设置到增强功能的方方面面...
- artymusoke | Instagram | Linktree:アティムソケ
- GitHub - lllyasviel/stable-diffusion-webui-forge:通过在 GitHub 上创建账户,为 lllyasviel/stable-diffusion-webui-forge 的开发做出贡献。
- GitHub - tencent-ailab/IP-Adapter:图像提示词适配器,旨在让预训练的文本生成图像扩散模型能够通过图像提示词生成图像。:图像提示词适配器旨在让预训练的文本生成图像扩散模型能够通过图像提示词生成图像。 - GitHub - tencent-ailab/IP-Adapter...
Unsloth AI (Daniel Han) ▷ #general (276 条消息🔥🔥):
-
关于模型性能和优化的讨论:用户参与了关于微调性能的讨论,特别是涉及 Mistral 和 CodeGemma 等模型。一位用户表示在微调 CodeGemma 时遇到了高 VRAM 消耗的问题,即使应用了旨在减少内存使用的 checkpointing 更新。有讨论提到 Gemma 在 VRAM 方面的需求比 Mistral 更高,并建议尝试使用
optimizer = paged_adamw_8bit。 -
对 Apple Silicon 支持的关注:社区对 Apple Silicon 支持 表现出极大的热情,一位成员自愿通过提供具有接近原生 GPU 性能的 VM 的 SSH 访问权限,来帮助将项目移植到 Apple Silicon。关于此支持的一个 GitHub issue 引起了关注。Apple Silicon Support #4。
-
关于学习 Triton DSL 和平台使用的查询:出现了关于学习 Triton DSL 的问题,成员们分享了 Triton 教程 的链接。还有提到一些用户在微调 Gemma 等模型时遇到 OOM (显存溢出) 问题,并有兴趣探索提高效率的替代方案。
-
关于 Unsloth 微调的反馈和经验:用户分享了他们使用 Unsloth 微调模型的经验,讨论了 VRAM 需求和生成文本中的 重复错误 等问题。此外,Andrei Karpathy 点赞了关于 Unsloth 发布的一条推文,这引起了大家的兴奋。
-
关于 Perplexity Labs 和其他 LLM 的讨论:对话涉及了 Perplexity Labs 及其 指令微调 (instruction tuning),一位用户注意到搜索结果与模型输出之间存在相似性。讨论还提到了对 inflection 有效性的担忧,以及对 Mixtral-8x22b 等新模型及其性能的关注。
- Tutorials — Triton documentation:未找到描述
- Loading a Dataset — datasets 1.1.3 documentation:未找到描述
- Pisswasser Gta GIF - Pisswasser Gta - Discover & Share GIFs:点击查看 GIF
- Intro to Triton: Coding Softmax in PyTorch:让我们在 PyTorch eager 中编写 Softmax,并确保我们有一个工作版本来与我们的 Triton Softmax 版本进行比较。下一个视频 - 我们将在 Tr...
- unsloth (Unsloth):未找到描述
- Making Large Language Models Better Data Creators:虽然大型语言模型 (LLMs) 显著推进了 NLP 的最前沿技术,但由于成本、响应速度、控制或...等原因,将它们部署到下游应用仍然具有挑战性。
- GitHub - bennyschmidt/next-token-prediction: Next-token prediction in JavaScript — build fast LLMs from scratch!:JavaScript 中的 Next-token 预测 — 从零开始构建快速 LLMs!- bennyschmidt/next-token-prediction
- GitHub - GraphPKU/PiSSA:通过在 GitHub 上创建一个账户来为 GraphPKU/PiSSA 的开发做出贡献。
- mistral-community/Mixtral-8x22B-v0.1 · Benchmarks are here!:未找到描述
- Apple Silicon Support · Issue #4 · unslothai/unsloth:很棒的项目。希望能看到 Apple Silicon 支持!
- GitHub - searxng/searxng: SearXNG is a free internet metasearch engine which aggregates results from various search services and databases. Users are neither tracked nor profiled.:SearXNG 是一个免费的互联网元搜索引擎,它聚合了来自各种搜索服务和数据库的结果。用户既不会被追踪也不会被画像。- searxng/searxng
- Adding PiSSA as an optional initialization method of LoRA by fxmeng · Pull Request #1626 · huggingface/peft:在论文 "https://arxiv.org/pdf/2404.02948.pdf" 中,我们介绍了一种参数高效微调 (PEFT) 方法,主奇异值和奇异向量自适应 (PiSSA),它优化了...
Unsloth AI (Daniel Han) ▷ #random (7 条消息):
-
对 Unsloth 周边的热情:进行了一次轻松的交流,建议制作 Unsloth 周边。成员们反应积极,开玩笑地用表情符号和俏皮的话语讨论这一前景。
-
对 Hugging Face 文档的兴趣:一位成员询问了 Hugging Face 的 JSON 文件文档 链接,表明需要与该平台相关的参考资源。
-
团队招募设计师:团队意识到增加更多设计师将大有裨益,这预示着未来可能在社区内进行招聘或合作。
Unsloth AI (Daniel Han) ▷ #help (244 条消息🔥🔥):
-
关于 Unsloth 多 GPU 支持的说明:用户询问了 Unsloth 的多 GPU 支持情况,提到了 pre-alpha 版本,并讨论了旨在防止大型科技公司滥用的许可限制。该支持目前正在开发中,未来的版本可能会限制在不联系 Unsloth 获取额外权限的情况下最多使用四个 GPU。
-
自定义数据集微调挑战:一位用户在对 GEMMA 模型进行自定义对话数据集(非公开状态)微调时遇到困难。建议使用 Pandas 重新格式化数据,并参考 pandas documentation 获取进一步帮助。用户在遵循该建议后成功解决了问题。
-
对话数据集格式问题与解答:关于如何为对话模型格式化数据集进行了详细讨论,涉及识别群聊中的回复对以及可以使用的各种格式(如 ‘user’ 和 ‘assistant’ 或原始聊天记录)。讨论了一种无需微调即可创建多角色聊天的方法,该方法使用 router 来分析对话并确定下一位发言者。
-
开源 Kernel 的性能对比:一位用户讨论了为研究论文对开源 Kernel 进行全面对比的情况,称赞了 Unsloth 的易集成性,并表达了对扩展到其他 Kernel(如 fully fused MLPs 和 relu2)的兴趣。讨论强调了在研究中合规使用多 GPU 支持以及致谢开源贡献的重要性。
-
使用 Unsloth AI 训练后的部署问题:用户询问了使用 Unsloth AI 训练后的模型部署问题,参考了 Unsloth documentation 中关于保存模型和设置部署的指南。随后的对话澄清了 Unsloth 虽然针对其自身实现进行了优化,但也可以适配其他用例。
- Load: 未找到描述
- Google Colaboratory: 未找到描述
- Load: 未找到描述
- Transformers-Tutorials/BERT/Custom_Named_Entity_Recognition_with_BERT.ipynb at master · NielsRogge/Transformers-Tutorials: 此仓库包含我使用 HuggingFace 的 Transformers 库制作的演示。 - NielsRogge/Transformers-Tutorials
- push_to_hub doesn't push checkpoint folder while training · Issue #30141 · huggingface/transformers: 系统信息 我正在使用带有 Unsloth Mistral notebook 的 Google Colab。复现 我正在使用来自 trl 的代码片段 from trl import SFTTrainer from transformers import TrainingArguments trainer = SFTTrainer( m...
- d4data/biomedical-ner-all · Hugging Face: 未找到描述
- Home: 速度提升 2-5 倍,显存占用减少 80%,支持 QLoRA & LoRA 微调 - unslothai/unsloth
- GitHub - pandas-dev/pandas: Flexible and powerful data analysis / manipulation library for Python, providing labeled data structures similar to R data.frame objects, statistical functions, and much more: 为 Python 提供灵活且强大的数据分析/操作库,提供类似于 R data.frame 对象的标记数据结构、统计函数等 - pandas-dev/pandas
- Roblox/luau_corpus · Datasets at Hugging Face: 未找到描述
- Google Colaboratory: 未找到描述
- mahiatlinux/luau_corpus-ShareGPT-for-EDM · Datasets at Hugging Face: 未找到描述
- GitHub - Green0-0/Discord-LLM-v2: 通过在 GitHub 上创建账户来为 Green0-0/Discord-LLM-v2 的开发做出贡献。
- Home: 速度提升 2-5 倍,显存占用减少 80%,支持 QLoRA & LoRA 微调 - unslothai/unsloth
- philschmid/guanaco-sharegpt-style · Datasets at Hugging Face: 未找到描述
- DistilBERT: 未找到描述
- oofnan/stegBot at main: 未找到描述
- ghost-x (Ghost X): 未找到描述
- AshScholar/StegLLM · Hugging Face: 未找到描述
- Gandalf GIF - Gandalf - 发现并分享 GIF: 点击查看 GIF
- NousResearch/Hermes-2-Pro-Mistral-7B · Hugging Face: 未找到描述
- Text Embeddings | LM Studio: Text Embeddings 处于 Beta 阶段。从此处下载支持该功能的 LM Studio。
- 👾 LM Studio - 发现并运行本地 LLMs: 查找、下载并实验本地 LLM
- 在本地 LLMs 中使用 GPT-Pilot: 第一个真正的 AI 开发者。通过在 GitHub 上创建账户,为 Pythagora-io/gpt-pilot 的开发做出贡献。
- 在 Windows 本地安装 CodeGemma - 优秀的轻量级编程 LLM: 此视频展示了如何在 Windows 上本地安装新的 Google CodeGemma AI 模型。它是最好的轻量级编程模型之一。▶ 成为赞助人 🔥 - https://...
- 基于 Ampere 架构的 NVIDIA RTX A6000 | NVIDIA: 开启下一代革命性设计和沉浸式娱乐体验
- Mixtral 8x22B:AI 初创公司 Mistral 发布新的开源语言模型: 总部位于巴黎的 AI 初创公司 Mistral 通过种子链接发布了 Mixtral-8x22B MoE,这是一款新的开源语言模型。
- bartowski/Mixtral-8x22B-v0.1-GGUF · Hugging Face: 未找到描述
- MaziyarPanahi/Mixtral-8x22B-v0.1-GGUF · Hugging Face: 未找到描述
- Chat2DB/Chat2DB-SQL-7B · Hugging Face: 未找到描述
- LM Studio Beta Releases: 未找到描述
- Meta 确认其 Llama 3 开源 LLM 将在下个月发布 | TechCrunch: Meta 的 Llama 系列作为开源产品构建,代表了 AI 作为一项广泛技术应如何发展的不同哲学方法。
- lmstudio-community (LM Studio Community): 未找到描述
- AWS 紧随 Google Cloud 取消传出费用:Amazon Web Services 计划取消传出费用。了解这对技术专业人士意味着什么,以及你应该采取哪两个步骤。
- ggml-c4ai-command-r-plus-104b-iq2_xxs.gguf · dranger003/c4ai-command-r-plus-iMat.GGUF:未找到描述
- HuggingChat:让每个人都能使用社区最好的 AI 聊天模型。
- 介绍 CodeGemma,Google 的代码补全模型:CodeGemma 为社区带来了强大且轻量级的编程能力。CodeGemma 模型提供 7B 预训练变体,专注于...
- 使用 Ollama, Mistral 和 LLava 判断是否为热狗:在本教程中,我们使用 Ollama, Mistral 和 LLava 来查看图像是否为热狗 #python #pythonprogramming #llm #ml #ai #aritificialintel...
- 关于北朝鲜的尴尬问题:ERID: LjN8Jv34w 广告。广告商 ООО "ФЛАУВАУ" INN: 9702020445。即使远在天边也能让亲人开心:https://flowwow.com/s/VDUD15 为节日选择礼物...
- 硅谷 Erlich Bachman Tj Miller 撒钱 GIF - Money Rain Erlich Bachman Tj Miller - 发现并分享 GIF:点击查看 GIF
- Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention:这项工作引入了一种高效的方法,将基于 Transformer 的大语言模型 (LLMs) 扩展到无限长的输入,且内存和计算量有限。我们提出的方法中的一个关键组件...
- Griffin: Mixing Gated Linear Recurrences with Local Attention for Efficient Language Models:循环神经网络 (RNNs) 具有快速推理能力,并在长序列上高效扩展,但它们难以训练且难以扩展。我们提出了 Hawk,一种具有门控线性递归的 RNN...
- 来自 Jan P. Harries (@jphme) 的推文:@MistralAI 首批 AGIEval 结果看起来很棒 👇 - 感谢发布这个猛兽,伙计们!👏 https://x.com/jphme/status/1778028110954295486 ↘️ 引用 Jan P. Harries (@jphme) 的话:首批 AGIEval 结果...
- Microsoft for Startups FoundersHub:未找到描述
- Eagle and Finch: RWKV with Matrix-Valued States and Dynamic Recurrence:我们介绍了 Eagle (RWKV-5) 和 Finch (RWKV-6),这是在 RWKV (RWKV-4) 架构基础上改进的序列模型。我们的架构设计进步包括多头矩阵值状态和动态...
- lightblue/Karasu-Mixtral-8x22B-v0.1 · Hugging Face:未找到描述
- RWKV (RWKV):未找到描述
- v2ray/Mixtral-8x22B-v0.1 · Hugging Face:未找到描述
- Intel Gaudi 的第三次也是最后一次欢呼,被定位为 H100 的竞争者:再见专用 AI 硬件,你好融合了 Xe 图形基因与 Habana 化学反应的 GPU
- Meta 确认其 Llama 3 开源 LLM 将在下个月推出 | TechCrunch:Meta 的 Llama 家族作为开源产品构建,代表了 AI 作为一种更广泛技术应如何发展的不同哲学方法。
- 逻辑符号列表 - Wikipedia:未找到描述
- mistralai 的 Mixtral 8x22B | OpenRouter:Mixtral 8x22B 是来自 Mistral AI 的大规模语言模型。它由 8 个专家组成,每个专家有 220 亿参数,每个 token 每次使用 2 个专家。它通过 [X](https://twitter...) 发布。
- OpenAccess-AI-Collective/axolotl 主分支下的 axolotl/docs/fsdp_qlora.qmd:尽管提问(axolotl questions)。通过在 GitHub 上创建账户为 OpenAccess-AI-Collective/axolotl 的开发做出贡献。
- 性能与可扩展性:如何容纳更大的模型并更快地训练它:未找到描述
- GitHub - google/gemma.cpp:适用于 Google Gemma 模型的轻量级、独立 C++ 推理引擎。:适用于 Google Gemma 模型的轻量级、独立 C++ 推理引擎。 - google/gemma.cpp
- GitHub - unslothai/unsloth:速度快 2-5 倍,显存占用减少 80% 的 QLoRA & LoRA 微调:速度快 2-5 倍,显存占用减少 80% 的 QLoRA & LoRA 微调 - unslothai/unsloth
- GitHub - Mihaiii/semantic-autocomplete:一个极速的语义搜索 React 组件。按含义匹配,而不只是按字母。输入即搜索无需等待(不需要防抖)。按余弦相似度排序。:一个极速的语义搜索 React 组件。按含义匹配,而不只是按字母。输入即搜索无需等待(不需要防抖)。按余弦相似度排序。 - Mihaiii/semantic-autocom...
- GitHub - ContextualAI/gritlm:生成式表征指令微调:生成式表征指令微调。通过在 GitHub 上创建账户为 ContextualAI/gritlm 的开发做出贡献。
- Azure 免费试用 | Microsoft Azure:开始您的免费 Microsoft Azure 试用,并获得 200 美元的 Azure 额度,可随心使用。运行虚拟机、存储数据并开发应用。
- Meta 确认计划“很快”开始推出 Llama 3 模型:Llama 3 是 Meta 对 OpenAI 的 GPT-4、Anthropic 的 Claude 3、Google 的 Gemini 以及其他 LLM 的回应。
- OllamaGenstruct/Paperstocsv.py at main · edmundman/OllamaGenstruct:通过在 GitHub 上创建账号来为 edmundman/OllamaGenstruct 的开发做出贡献。
- GitHub - teacherpeterpan/Logic-LLM: "LOGIC-LM: Empowering Large Language Models with Symbolic Solvers for Faithful Logical Reasoning" 项目页面:"LOGIC-LM: Empowering Large Language Models with Symbolic Solvers for Faithful Logical Reasoning" 的项目页面 - teacherpeterpan/Logic-LLM
- 快速平方根倒数算法 - Wikipedia:未找到描述
- OGRE cyberdeck:OGRE 是一款末日风格或简单的外场 cyberdeck,是 Jay Doscher 的 Recover Kit 的仿制品。由 rmw156 分享。
- edex-ui/media/screenshot_blade.png at master · GitSquared/edex-ui:一款跨平台、可定制的科幻终端模拟器,具有先进的监控和触摸屏支持。 - GitSquared/edex-ui
- 加入我们的云高清视频会议:Zoom 是现代企业视频通信的领导者,拥有简单、可靠的云平台,适用于移动端、桌面端和会议室系统的视频和音频会议、聊天及网络研讨会。Zoom ...
- 来自 AI at Meta (@AIatMeta) 的推文:推出下一代 Meta Training and Inference Accelerator (MTIA),这是我们专为 Meta 的 AI 工作负载设计的定制芯片家族中的最新成员。完整详情 ➡️ https://go.fb.m...
- 程序员实用深度学习 - 实用深度学习:一门为有一定编程经验、想要学习如何将深度学习和机器学习应用于实际问题的人设计的免费课程。
- Nvidia Blackwell 性能 TCO 分析 - B100 vs B200 vs GB200NVL72:GPT-4 盈利能力、成本、推理模拟器、并行性解析、大模型与小模型推理及训练中的性能 TCO 建模
- 来自 Alex (@TickerSymbolYOU) 的推文:我的 Google Cloud Next 2024 精华剪辑为你节省了 91 分钟,并跳过了所有营销废话 00:00 - Google 的新 AI 超级计算机 05:50 - 用于数据中心的 Google Axion ARM CPU 07:25 - Gemini 的重大升级...
- LLMs 需要可观测性驱动开发:LLM 要求我们修改行为和工具,这种方式甚至会使普通的确定性软件开发受益。了解原因。
- 来自 Sandra Kublik (@itsSandraKublik) 的推文:推出我们的最新模型 Rerank 3!🚨 进一步增强搜索和 RAG 系统。内部包含什么?🧑🍳 - 4k 上下文长度,- 在复杂数据(如电子邮件、JSON 文档...)上的 SOTA 搜索准确率
- 来自 Eckler by Design ✦ (@daniel_eckler) 的推文:C3PO x Childish Gambino 🤖 👑 100% AI(官方音乐视频)@openAI + @runwayml + @suno_ai_ + @resembleai + @fable_motion + @midjourney + @topazlabs
- 来自 Dylan Patel (@dylan522p) 的推文:Nvidia Blackwell 性能 TCO 分析 B100 vs B200 vs GB200NVL72 GPT-4 盈利能力、成本推理模拟器并行性解析大模型与小模型推理及训练中的性能 TCO 建模...
- 来自 Information is Beautiful (@infobeautiful) 的推文:让 ChatGPT 在 1 到 100 之间选一个数字——它会选哪个?(由 @Leniolabs_ 制作)
- 来自 udio (@udiomusic) 的推文:推出 Udio,一款用于音乐创作和分享的应用程序,允许你通过直观且强大的文本提示词(text-prompting)生成你喜欢的风格的惊人音乐。1/11
- GitHub - GregorD1A1/TinderGPT:通过在 GitHub 上创建账号来为 GregorD1A1/TinderGPT 的开发做出贡献。
- 来自 Min Choi (@minchoi) 的推文:这太疯狂了。Udio 刚刚发布,它就像是音乐界的 Sora。音乐质量惊人,100% AI。🤯 1. "沙丘百老汇音乐剧"
- 已确认——“Suno 杀手”名叫 Udio:我一直在调查一些人所谓的“Suno 杀手”——一个据称比现有模型好 2 到 10 倍的音乐生成 AI 模型...
- The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits: 最近的研究(如 BitNet)正在为 1-bit 大语言模型 (LLM) 的新时代铺平道路。在这项工作中,我们引入了一个 1-bit LLM 变体,即 BitNet b1.58,其中每一个参数...
- LLM Paper Club (1-bit LLMs paper) · Luma: 本周 @rj45 将讲解 https://arxiv.org/abs/2402.17764 《1-bit LLM 时代:所有大语言模型都是 1.58 Bits》。同时请提交并为你心仪的下一篇论文投票:...
- Supervise the Process of AI Research — with Jungwon Byun and Andreas Stuhlmüller of Elicit: 时间戳:00:00:00 介绍 00:07:45 Johan 和 Andreas 如何联手创建 Elicit 00:10:26 为什么产品优于研究 00:15:49 演变...
- 你被邀请在 Matrix 上交谈:未找到描述
- 1-bit LLM 时代:所有大语言模型都是 1.58 Bits:最近的研究(如 BitNet)正在为 1-bit 大语言模型 (LLM) 的新时代铺平道路。在这项工作中,我们引入了一个 1-bit LLM 变体,即 BitNet b1.58,其中每一个参数...
- Nextra:下一代文档生成器:Nextra:下一代文档生成器
- 加入 Slido:输入 #code 进行投票和提问:参与实时投票、测验或问答。无需登录。
- Shapes, Inc.:Shapes 是可以在 Discord 上与你交谈的 AI 朋友
- FinGPT:金融数据集中开源大语言模型的指令微调基准:在迅速扩展的自然语言处理 (NLP) 领域,基于 GPT 的模型在金融领域的潜力日益显现。然而,将这些模型与...集成...
- Mixture of Experts 详解:未找到描述
- mistral-community/Mixtral-8x22B-v0.1 · Hugging Face:未找到描述
- [草稿] 1.58 bits?:未找到描述
- 大语言模型数据集:综合综述:本文开始探索大语言模型 (LLM) 数据集,这些数据集在 LLM 的显著进步中起着至关重要的作用。数据集作为基础架构...
- BloombergGPT - 金融领域的 LLM,对话 David Rosenberg - 639:今天我们邀请到了 Bloomberg CTO 办公室机器学习策略团队负责人 David Rosenberg。在与 David 的对话中,我们...
- GitHub - aurelio-labs/semantic-router:超快速 AI 决策和多模态数据的智能处理。:超快速 AI 决策和多模态数据的智能处理。 - aurelio-labs/semantic-router
- GitHub - AI4Finance-Foundation/FinGPT:FinGPT:开源金融大语言模型!变革 🔥 我们在 HuggingFace 上发布了训练好的模型。:FinGPT:开源金融大语言模型!变革 🔥 我们在 HuggingFace 上发布了训练好的模型。 - AI4Finance-Foundation/FinGPT
- GitHub - Beomi/BitNet-Transformers:0️⃣1️⃣🤗 BitNet-Transformers:在 PyTorch 中使用 Llama(2) 架构实现的 "BitNet: Scaling 1-bit Transformers for Large Language Models" 的 Huggingface Transformers 版本:0️⃣1️⃣🤗 BitNet-Transformers:在 PyTorch 中使用 Llama(2) 架构实现的 "BitNet: Scaling 1-bit Transformers for Large Language Models" 的 Huggingface Transformers 版本 - Beomi/...
- not-lain/wikipedia-small-3000-embedded · Datasets at Hugging Face: 未找到描述
- CohereForAI/c4ai-command-r-plus - HuggingChat: 在 HuggingChat 中使用 CohereForAI/c4ai-command-r-plus
- [IA a Z - 06] Apresentando o 🤗 Hugging Face: 🤗🤗🤗🤗🤗🤗如果说有一件事是我喜欢的,那就是有大量的工具选项可以学习!这极大地简化了学习新事物的过程,特别是...
- Fashion Try On - a Hugging Face Space by tonyassi: 未找到描述
- GitHub - SuleymanEmreErdem/deep-q-learning-applications: My Deep Q-Learning projects: 我的 Deep Q-Learning 项目。通过在 GitHub 上创建账户,为 SuleymanEmreErdem/deep-q-learning-applications 的开发做出贡献。
- RMBG1.4 with imageslider - a Hugging Face Space by not-lain: 未找到描述
- GitHub - RooTender/augmentator: Ready-to-use tool for image augmentation: 开箱即用的图像增强工具。通过在 GitHub 上创建账户,为 RooTender/augmentator 的开发做出贡献。
- # RAG: 未找到描述
- Hot dog or not with Ollama, Mistral and LLava: 在本教程中,我们使用 Ollama, Mistral 和 LLava 来查看图像是否为热狗 #python #pythonprogramming #llm #ml #ai #aritificialintel...
- GitHub - EdoPedrocchi/RicercaMente: Open source project that aims to trace the history of data science through scientific research published over the years: 旨在通过多年来发表的科学研究追溯数据科学历史的开源项目 - EdoPedrocchi/RicercaMente
- no title found: 未找到描述
- Where's My Pic Demo: 大家好,我是 Om Alve,在这个视频中,我将演示我的项目 'Where's my pic?'。该项目解决了搜索...
- Mixture of Depth is Vibe: 未找到描述
- Building a Neural Network Classifier from the Ground Up: A Step-by-Step Guide: 未找到描述
- DiagramGPT – 由 Eraser 提供支持:通过代码或自然语言提示生成技术图表。图表由 Eraser 提供支持。
- 来自未定义的推文:未找到描述
- xai-org/grok-1 · Hugging Face:未找到描述
- app.py · nroggendorff/dolphin at main:未找到描述
- Datasets:未找到描述
- mlabonne/phixtral-2x2_8 · Hugging Face:未找到描述
- 来自 Big Tech Alert (@BigTechAlert) 的推文:🆕 @huggingface 开始关注 @realmrfakename
- app.py · nroggendorff/cascade at main:未找到描述
- app.py · macadeliccc/laser-dolphin-mixtral-chat at main:未找到描述
- GitHub - moritztng/fltr: Like grep but for natural language questions. Based on Mistral 7B or Mixtral 8x7B.:类似于 grep,但针对自然语言问题。基于 Mistral 7B 或 Mixtral 8x7B。- moritztng/fltr
- 编程冒险:模拟流体:让我们尝试说服一堆粒子表现得(至少在某种程度上)像水。使用 C# 和 HLSL 编写,在 Unity 引擎中运行。源代码:h...
- 编程冒险:光线追踪:我尝试创建了一个自定义的光线/路径追踪渲染器。特色:数学、着色器和猫!该项目使用 C# 和 HLSL 编写,并使用 Unity 游戏引擎...
- GitHub - BrutPitt/glChAoS.P: 3D GPUs Strange Attractors and Hypercomplex Fractals explorer - up to 256 Million particles in RealTime:3D GPU 奇异吸引子和超复分形浏览器 - 实时支持高达 2.56 亿个粒子 - BrutPitt/glChAoS.P
- GLiNER-Multiv2.1 - urchade 提供的 Hugging Face Space:未找到描述
- marimo | 下一代 Python notebook:使用 marimo 无缝探索数据并构建应用,这是一款下一代 Python notebook。
- llm-course/Quantization at main · andysingal/llm-course:通过在 GitHub 上创建账号来为 andysingal/llm-course 的开发做出贡献。
- GitHub - karpathy/llm.c: LLM training in simple, raw C/CUDA:使用简单的原生 C/CUDA 进行 LLM 训练。通过在 GitHub 上创建账号来为 karpathy/llm.c 的开发做出贡献。
- 使用 Ollama, Mistral 和 LLava 判断是否为热狗:在本教程中,我们使用 Ollama, Mistral 和 LLava 来查看图像是否为热狗 #python #pythonprogramming #llm #ml #ai #aritificialintel...
- test:这是 Test Account 在 Vimeo 上发布的 "test",Vimeo 是高质量视频及其爱好者的家园。
- GitHub - DHTScienceGuy/Incubator: My Arduino Based Self Regulating Chicken Incubator:我基于 Arduino 的自动调节雏鸡孵化器 - DHTScienceGuy/Incubator
- Apresentando o 🤗 Hugging Face:你好!今天我想向你介绍一款对于进入或已属于人工智能领域的人来说必不可少的工具:Hugging Face Hub,亲切地称为 hf,或者直接叫 🤗 Huggin…
- [IA a Z - 06] Apresentando o 🤗 Hugging Face:🤗🤗🤗🤗🤗🤗 如果说有什么是我喜欢的,那就是有大量的工具选项可以学习!这极大地简化了学习新事物的过程,尤其是...
- Designing a Practical Degradation Model for Deep Blind Image Super-Resolution:人们普遍认为,如果假设的退化模型与真实图像中的模型不符,单图像超分辨率(SISR)方法的表现将不尽如人意。尽管已经有几种退化模型...
- Real-ESRGAN: Training Real-World Blind Super-Resolution with Pure Synthetic Data:尽管在盲超分辨率领域已经进行了许多尝试,以修复具有未知且复杂退化的低分辨率图像,但它们距离解决通用的真实世界退化图像仍有很大差距...
- GitHub - Firdavs-coder/Aladdin-Persson-AI-Watermark-Destroy: Aladdin-Persson-AI-Watermark-Destroy Public:Aladdin-Persson-AI-Watermark-Destroy 公开版。通过在 GitHub 上创建账号为 Aladdin-Persson-AI-Watermark-Destroy 的开发做出贡献。
- GitHub - XuehaiPan/nvitop: An interactive NVIDIA-GPU process viewer and beyond, the one-stop solution for GPU process management.:一个交互式的 NVIDIA-GPU 进程查看器及更多功能,是 GPU 进程管理的一站式解决方案。 - XuehaiPan/nvitop
- Simple Baselines for Image Restoration:尽管最近在图像修复领域取得了显著进展,但最先进(SOTA)方法的系统复杂性也在增加,这可能会阻碍其应用...
- 使用多 GPU 进行分布式推理:未找到描述
- Layer Decomposer(图层分离 AI)|图像和视频编辑 AI 工具:cre8tiveAI:一个基于 AI 的 SaaS,可在 10 秒内解决各种照片和插图编辑任务,如自动绘画、提高图像和视频分辨率以及剪辑...
- 使用多 GPU 进行分布式推理:未找到描述
- Ticker Tea:提供有关重要新闻的每日更新:金融市场。
- pplx-api:未找到描述
- 来自 Perplexity (@perplexity_ai) 的推文:我们与 Raycast 合作,让知识在 Mac 上的任何地方、任何时间都触手可及。新的 Raycast Pro 年度订阅者可免费获得 3 个月的 Perplexity Pro,如果包含高级功能则为 6 个月...
- 我测试了 Humane AI Pin - 它并不好。:我花了很多时间努力让我的视频尽可能简洁、精炼且对你有用 - 如果你想支持我的这一使命,请...
- wallabagger/wallabagger/js/options.js at bc9bae830c2f51403b1679efdfab9a497365f05d · wallabag/wallabagger:适用于 wallabag v2 的 Chrome / Firefox / Opera 插件。通过在 GitHub 上创建账号为 wallabag/wallabagger 的开发做出贡献。
- GitHub - ollama/ollama: 快速上手 Llama 2、Mistral、Gemma 和其他大型语言模型。:快速上手 Llama 2、Mistral、Gemma 和其他大型语言模型。 - ollama/ollama
- Reddit - 深入探索一切:未找到描述
- llm.c/dev/cuda at master · karpathy/llm.c:使用简单、原始的 C/CUDA 进行 LLM 训练。通过在 GitHub 上创建账户为 karpathy/llm.c 的开发做出贡献。
- GitHub - aredden/torch-cublas-hgemm: PyTorch half precision gemm lib w/ fused optional bias + optional relu/gelu:带有融合可选 bias + 可选 relu/gelu 的 PyTorch 半精度 gemm 库 - aredden/torch-cublas-hgemm
- hqq/hqq/core/torch_lowbit.py at ao_int4_mm · mobiusml/hqq:Half-Quadratic Quantization (HQQ) 的官方实现 - mobiusml/hqq
- hqq/hqq/core/torch_lowbit.py at ao_int4_mm · mobiusml/hqq:Half-Quadratic Quantization (HQQ) 的官方实现 - mobiusml/hqq
- hqq/examples/llama2_benchmark/quant_llama2_hqq_demo.py at master · mobiusml/hqq:Half-Quadratic Quantization (HQQ) 的官方实现 - mobiusml/hqq
- gpt-fast/scripts/convert_hf_checkpoint.py at main · pytorch-labs/gpt-fast:在少于 1000 行 Python 代码中实现简单高效的 pytorch 原生 transformer 文本生成。 - pytorch-labs/gpt-fast
- transformers/src/transformers/models/llama/modeling_llama.py at main · huggingface/transformers:🤗 Transformers:适用于 Pytorch、TensorFlow 和 JAX 的先进机器学习库。 - huggingface/transformers
- hqq/hqq/core/torch_lowbit.py at ao_int4_mm · mobiusml/hqq:Half-Quadratic Quantization (HQQ) 的官方实现 - mobiusml/hqq
- gpt-fast/scripts/convert_hf_checkpoint.py at hqq_4bit_llama2_7b · zhxchen17/gpt-fast:在少于 1000 行 Python 代码中实现简单高效的 pytorch 原生 transformer 文本生成。 - zhxchen17/gpt-fast
- pytorch/aten/src/ATen/native/cuda/int4mm.cu at 8aa08b8b9d1fab2a13dc5fbda74c553cb2a08729 · pytorch/pytorch:Python 中具有强大 GPU 加速功能的张量和动态神经网络 - pytorch/pytorch
- hqq_eval_int4mm_noppl.py:GitHub Gist:即时分享代码、笔记和代码片段。
- HQQ 4 bit llama 2 7b · zhxchen17/gpt-fast@5cdb8bd:export MODEL_REPO=meta-llama/Llama-2-7b-hf scripts/prepare.sh $MODEL_REPO python quantize.py --checkpoint_path checkpoints/$MODEL_REPO/model.pth --mode int4-hqq --groupsize 64 python generate.py --...
- hqq/hqq/core/torch_lowbit.py at ao_int4_mm · mobiusml/hqq:Half-Quadratic Quantization (HQQ) 的官方实现 - mobiusml/hqq
- Cooperative Groups: Flexible CUDA Thread Programming | NVIDIA Technical Blog: 在高效的并行算法中,线程通过协作和共享数据来执行集体计算。为了共享数据,线程必须同步。共享的粒度随算法而异...
- GitHub - karpathy/llm.c: LLM training in simple, raw C/CUDA: 在简单的原生 C/CUDA 中进行 LLM 训练。通过在 GitHub 上创建账号为 karpathy/llm.c 的开发做出贡献。
- Compiler Explorer - CUDA C++ (NVCC 12.3.1): __global__ void crossentropy_forward_kernel1(float* losses, float* probs, int* targets, int B, int T, int V) { int i = blockIdx.x * blockDim...
- Does Transformer Interpretability Transfer to RNNs?:循环神经网络(RNN)架构的最新进展(如 Mamba 和 RWKV)使得 RNN 在语言建模困惑度(perplexity)方面能够匹配或超过同等规模的 Transformer...
- GitHub - EleutherAI/rnngineering: Engineering the state of RNN language models (Mamba, RWKV, etc.):工程化 RNN 语言模型(Mamba, RWKV 等)的状态 - EleutherAI/rnngineering
- Nora Belrose (@norabelrose) 的推文:RNN 语言模型最近正在复兴,出现了 Mamba 和 RWKV 等新架构。但为 Transformer 设计的可解释性工具是否适用于这些新的 RNN?我们测试了 3 种流行的...
- Jan P. Harries (@jphme) 的推文:@MistralAI 的初步 AGIEval 结果看起来很棒 👇 - 感谢发布这个猛兽,伙计们!👏 https://x.com/jphme/status/1778028110954295486 ↘️ 引用 Jan P. Harries (@jphme) 的初步 AGIEval 结果...
- MosaicBERT:一种为快速预训练优化的双向 Encoder:未找到描述
- Learning Agency Lab - 自动作文评分 2.0 | Kaggle:未找到描述
- AI 预测时间线 - AI Digest:关于 AI 能力、潜在危害和社区反应的预期
- mistral-community/Mixtral-8x22B-v0.1 · 基准测试结果已发布!:未找到描述
- 社区贡献:为更多架构添加 Flash Attention 2 支持 · Issue #26350 · huggingface/transformers:功能请求 Flash Attention 2 是一个提供注意力操作内核的库,用于更快、更节省内存的推理和训练:https://github.com/Dao-AILab/flash-attention...
- Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention: 这项工作介绍了一种有效的方法,可以将基于 Transformer 的大语言模型 (LLMs) 扩展到无限长的输入,且内存和计算量有限。我们提出的方法中的一个关键组件...
- Embedding Democratic Values into Social Media AIs via Societal Objective Functions: 我们能否设计人工智能 (AI) 系统,在对社交媒体信息流进行排序时,将减轻党派敌意等民主价值观作为其目标函数的一部分?我们介绍...
- RULER: What's the Real Context Size of Your Long-Context Language Models?: 大海捞针 (NIAH) 测试旨在检验从长篇干扰文本(“干草堆”)中检索特定信息(“针”)的能力,目前已被广泛采用...
- On Surgical Fine-tuning for Language Encoders: 对预训练神经语言编码器的所有层进行微调(无论是使用全部参数还是使用参数高效方法)通常是将其适配到新任务的默认方式。我们展示...
- Less is More: Selective Layer Finetuning with SubTuning: 微调预训练模型已成为在新任务上训练神经网络的标准方法,能够实现快速收敛并提高性能。在这项工作中,我们研究了一种替代方案...
- Avocado Bacon Salad Lunch GIF - Avocado Bacon Salad Lunch Salad - Discover & Share GIFs: 点击查看 GIF
- Tweet from AK (@_akhaliq): Google 推出 Mixture-of-Depths:在基于 Transformer 的语言模型中动态分配计算资源。基于 Transformer 的语言模型在输入序列中均匀分布 FLOPs。在这项工作中,我们...
- Tweet from Chenyan Jia (@JiaChenyan): 我们能否设计 AI 系统,将民主价值观作为其目标函数?我们与 @michelle123lam, Minh Chau Mai, @jeffhancock, @msbernst 合作的新 #CSCW24 论文介绍了一种方法,用于转化...
- Natural Adversarial Examples: 我们介绍了两个极具挑战性的数据集,它们能可靠地导致机器学习模型性能大幅下降。这些数据集是通过一种简单的对抗性过滤技术收集的,旨在创建...
- Cut the CARP: Fishing for zero-shot story evaluation: 大规模语言模型(Raffel 等,2019;Brown 等,2020)的最新进展在机器驱动的文本生成方面带来了显著的定性和定量提升。尽管如此...
- Robust Preference Learning for Storytelling via Contrastive Reinforcement Learning: 受控自动故事生成旨在生成满足自然语言批评或偏好约束的自然语言故事。现有的控制故事偏好的方法...
- GitHub - hsiehjackson/RULER: This repo contains the source code for RULER: What’s the Real Context Size of Your Long-Context Language Models?: 此仓库包含 RULER: What’s the Real Context Size of Your Long-Context Language Models? 的源代码 - hsiehjackson/RULER
- [WIP] Add chat templating for HF models by haileyschoelkopf · Pull Request #1287 · EleutherAI/lm-evaluation-harness:这是一个正在进行中(WIP)的 PR,延续了 @daniel-furman 在 #1209 中开始的草案,旨在添加指定的、经常被要求的 chat templating 功能。当前的待办事项包括:使用 OpenHermes 等检查性能...
- Build software better, together:GitHub 是人们构建软件的地方。超过 1 亿人使用 GitHub 来发现、fork 并为超过 4.2 亿个项目做出贡献。
- When Do You Use an Ellipsis in Python? – Real Python:你什么时候在 Python 中使用省略号? – Real Python。你可能在 Python 脚本中见过三个点。虽然这种语法看起来很奇怪,但使用省略号是有效的 Python 代码。在本教程中,你将学习 Python 的 Ellipsis 常量何时可以...
- PEP 544 – Protocols: Structural subtyping (static duck typing) | peps.python.org:未找到描述
- mod.rs - source:未找到描述
- [Proposal]: Deprecate Triple Dots (...) for Unimplemented Methods · modularml/mojo · Discussion #2259:动机:Mojo 渴望成为 Python++ 的无缝继任者,紧密遵循 Pythonic 原则,并为 Python 社区培养积极的体验。目前的做法是使用 ...
- GitHub - basalt-org/basalt: A Machine Learning framework from scratch in Pure Mojo 🔥:一个用纯 Mojo 🔥 从零开始构建的 Machine Learning 框架 - basalt-org/basalt
- GitHub - mojicians/awesome-mojo: A curated list of awesome Mojo 🔥 frameworks, libraries, software and resources:一个精选的优秀 Mojo 🔥 框架、库、软件和资源列表 - mojicians/awesome-mojo
- PEP 0 – Index of Python Enhancement Proposals (PEPs) | peps.python.org:未找到描述
- Backdrop Build:我们共同构建 - 在短短 4 周内与数百名其他出色的构建者一起将那个疯狂的想法变为现实。
- My Name Is Jeff Jeff GIF - Jeff Channing Tatum 22Jump Street - Discover & Share GIFs:点击查看 GIF
- Xorshift - Wikipedia:未找到描述
- Mojo🔥 路线图与尖锐边缘 | Modular 文档:关于我们 Mojo 计划的摘要,包括即将推出的特性和我们需要修复的问题。
- GitHub - Moosems/Mojo-UI: 一个 Mojo 的跨平台 GUI 库:一个 Mojo 的跨平台 GUI 库。通过在 GitHub 上创建账号来为 Moosems/Mojo-UI 的开发做出贡献。
- 为什么不选 Mojo? · Issue #28 · karpathy/llm.c:这是一个严肃的问题。如果你要深入底层,Mojo 提供了潜在的巨大加速,而且该语言将从这项工作中显著受益。无论如何——热爱这项工作。谢谢...
- [BUG][回归] 带有递归引用的结构体定义(不再给出错误消息并)崩溃 · Issue #2208 · modularml/mojo:Bug 描述,我相信 issue #74 重新出现了。以下代码将导致 Segfault:#crash.mojo struct Node: var rec: Node fn __init__(inout self): pass 但我预期的错误消息是:$🍔 m.....
- [BUG][回归] 带有递归引用的结构体定义(不再给出错误消息并)崩溃 · Issue #2208 · modularml/mojo:Bug 描述,我相信 issue #74 重新出现了。以下代码将导致 Segfault:#crash.mojo struct Node: var rec: Node fn __init__(inout self): pass 但我预期的错误消息是:$🍔 m.....
- mog/examples/readme/layout.mojo at main · thatstoasty/mog:通过在 GitHub 上创建账户来为 thatstoasty/mog 的开发做出贡献。
- mojo-ui-html/demo_keyboard_and_css.mojo at main · rd4com/mojo-ui-html:立即模式 GUI、HTML、CSS,开发中,Mojo 语言 - rd4com/mojo-ui-html
- Issues · saviorand/lightbug_http:适用于 Mojo 的简单且快速的 HTTP 框架!🔥。通过在 GitHub 上创建账户来为 saviorand/lightbug_http 的开发做出贡献。
- Physics of Language Models: Part 3.3, Knowledge Capacity Scaling Laws:缩放法则描述了语言模型规模与其能力之间的关系。与以往通过 Loss 或基准测试评估模型能力的研究不同,我们估算了 n...
- Samsung Next 2024 Generative AI Hackathon · Luma:🚀 活动预告:申请参加 Samsung Next 2024 生成式 AI 黑客松!我们将探索两个赛道:健康与福祉:利用 AI 的力量改善医疗成果...
- MaziyarPanahi/Mixtral-8x22B-v0.1-GGUF at main:暂无描述
- 来自 Chris Levy (@cleavey1985) 的推文:完成了一篇关于首次使用 @axolotl_ai 的博文。https://drchrislevy.github.io/posts/intro_fine_tune/intro_fine_tune.html 感谢 @jeremyphoward 推荐该工具,@HamelHusain f...
- Chris Levy - 使用 Axolotl 进行 LLM 微调入门:未找到描述
- Mixtral 8x22B by mistralai | OpenRouter: Mixtral 8x22B 是来自 Mistral AI 的大规模语言模型。它由 8 个专家组成,每个专家拥有 220 亿参数,每个 token 每次使用 2 个专家。它通过 [X](https://twitter...
- Mixtral 8x22B by mistralai | OpenRouter: Mixtral 8x22B 是来自 Mistral AI 的大规模语言模型。它由 8 个专家组成,每个专家拥有 220 亿参数,每个 token 每次使用 2 个专家。它通过 [X](https://twitter...
- Mixtral 8x22B by mistralai | OpenRouter: Mixtral 8x22B 是来自 Mistral AI 的大规模语言模型。它由 8 个专家组成,每个专家拥有 220 亿参数,每个 token 每次使用 2 个专家。它通过 [X](https://twitter...
- Gemma 7B by google | OpenRouter: Google 的 Gemma 是一个先进的开源语言模型系列,利用了最新的 decoder-only 文本到文本技术。它在文本生成任务中提供英语能力...
- lzlv 70B by lizpreciatior | OpenRouter: 选定 70B 模型的 Mythomax/MLewd_13B 风格合并。这是几个 LLaMA2 70B 微调模型的多模型合并,用于角色扮演和创意工作。目标是创建一个结合了创造力的模型...
- DBRX 132B Instruct by databricks | OpenRouter: DBRX 是由 Databricks 开发的新型开源大语言模型。在 132B 规模下,它在语言的标准行业基准测试中优于现有的开源 LLM,如 Llama 2 70B 和 Mixtral-8x7B...
- Hermes 2 Mixtral 8x7B DPO by nousresearch | OpenRouter: Nous Hermes 2 Mixtral 8x7B DPO 是新的 Nous Research 旗舰模型,基于 [Mixtral 8x7B MoE LLM](/models/mistralai/mixtral-8x7b) 训练。该模型在超过 1,000,000 条原始数据上进行了训练...
- Command R+ by cohere | OpenRouter: Command R+ 是来自 Cohere 的新型 104B 参数 LLM。它适用于角色扮演、通用消费者用例和检索增强生成 (RAG)。它为十种关键语言提供多语言支持...
- Gemma 7B by google | OpenRouter: Google 的 Gemma 是一个先进的开源语言模型系列,利用了最新的 decoder-only 文本到文本技术。它在文本生成任务中提供英语能力...
- OpenRouter: LLM 和其他 AI 模型的路由器
- Installation and Configuration: 💻 关于安装与配置的深入指南
- GitHub - danny-avila/LibreChat: 增强版 ChatGPT 克隆:具有 OpenAI, Assistants API, Azure, Groq, GPT-4 Vision, Mistral, Bing, Anthropic, OpenRouter, Google Gemini, AI 模型切换, 消息搜索, langchain, DALL-E-3, ChatGPT Plugins, OpenAI Functions, 安全多用户系统, 预设, 完全开源可自托管。更多功能开发中: 增强版 ChatGPT 克隆:具有 OpenAI, Assistants API, Azure, Groq, GPT-4 Vision, Mistral, Bing, Anthropic, OpenRouter, Google Gemini, AI 模型切换, 消息搜索, langchain, DALL-E-3, Cha...
- Join the LibreChat Discord Server!: LibreChat 社区,一个开源、多功能的 AI 聊天 Web UI,支持无缝自托管和活跃开发。| 3349 名成员
- Novus #28 · Luma: Novus 是一个供初创公司创始人、建设者和创意人士聚集、共同工作和演示的社区。没有废话。没有推销。只有构建。议程 12:00 PM - 12:15 PM - 更新与...
- Join the Open Interpreter Discord Server!: 使用计算机的新方式 | 8227 名成员
- oi house party 5 apr: 未找到描述
- GitHub - MikeBirdTech/open-interpreter-python-templates: 通过在 GitHub 上创建账户来为 MikeBirdTech/open-interpreter-python-templates 的开发做出贡献。
- 未找到标题:未找到描述
- Google Colaboratory:未找到描述
- Welcome To Instructor - Instructor:未找到描述
- Node Postprocessor - LlamaIndex:未找到描述
- Query Pipeline Chat Engine - LlamaIndex:未找到描述
- Nebula Graph Store - LlamaIndex:未找到描述
- GitHub - run-llama/sec-insights: A real world full-stack application using LlamaIndex:一个使用 LlamaIndex 的真实全栈应用 - run-llama/sec-insights
- llama_index/llama-index-integrations/llms/llama-index-llms-ollama/llama_index/llms/ollama/base.py at 2b77f89775840d6b796bcc693f7593d2aebc5fec · run-llama/llama_index:LlamaIndex 是适用于您的 LLM 应用的数据框架 - run-llama/llama_index
- GitHub - run-llama/rags: Build ChatGPT over your data, all with natural language:完全使用自然语言基于您的数据构建 ChatGPT - run-llama/rags
- Discover LlamaIndex: SEC Insights, End-to-End Guide:secinsights.ai 是一个全栈应用,利用 LlamaIndex 的检索增强生成 (RAG) 能力来回答关于 SEC 10-K 和 10-Q 文档的问题...
- [BUGFIX] Update LlamaIndex-Predibase Integration by alexsherstinsky · Pull Request #12736 · run-llama/llama_index:描述:Predibase API 已发生变化。此贡献更新了 LlamaIndex 端连接和调用 Predibase LLM 服务的实现。一旦此 pull request...
- Rust 基金会向使用 "Rust" 一词的人开战:说真的。这篇文章的标题违反了新的 Rust 商标政策。这太疯狂了。
- Rust-lang Rust:安全漏洞,CVE:Rust-lang Rust 的安全漏洞:影响该产品任何版本的漏洞列表。
- 不再有底层 diskbuffer,那只是设备 (#4129) · tinygrad/tinygrad@ee457a4:你喜欢 pytorch?你喜欢 micrograd?你爱 tinygrad!❤️ - 不再有底层 diskbuffer,那只是设备 (#4129) · tinygrad/tinygrad@ee457a4
- 将数据集移动到 datasets 文件夹 · tinygrad/tinygrad@b0f14b4:未找到描述
- jaredeh 提交的 Rust 后端 · Pull Request #4138 · tinygrad/tinygrad:添加 Rust 后端。代码行数中性(假设可以将 rust.py 放在 ./extra 中)。测试基本通过。包括 examples/export_code_from_onnx.py,它创建了一个零依赖的纯 Rust rlib crate。性能...
- 未找到标题:未找到描述
- Pinoquio GIF - Pinoquio - 发现并分享 GIF:点击查看 GIF
- 来自 udio (@udiomusic) 的推文:我们的目标是让 Udio 成为音乐家和非音乐家共同的变革性工具,我们很高兴能得到顶尖艺术家 @iamwill 和 @common 的支持。 8/11
- 未找到标题:未找到描述
- 来自 udio (@udiomusic) 的推文:介绍 Udio,一款用于音乐创作和分享的应用,让你通过直观且强大的文本提示生成你喜爱风格的惊艳音乐。 1/11
- Show HN: Sonauto – 一个更具可控性的 AI 音乐创作工具 | Hacker News:未找到描述
- 简介 | 🦜️🔗 LangChain:LangChain 是一个用于开发由大语言模型 (LLM) 驱动的应用程序的框架。
- 欢迎使用 Instructor - Instructor:未找到描述
- [beta] 结构化输出 | 🦜️🔗 LangChain:让 LLM 返回结构化输出通常至关重要。这是
- [beta] 结构化输出 | 🦜️🔗 LangChain:让 LLM 返回结构化输出通常至关重要。这是
- [beta] 结构化输出 | 🦜️🔗 LangChain:让 LLM 返回结构化输出通常至关重要。这是
- ChatOpenAI | 🦜️🔗 Langchain:你可以按如下方式使用 OpenAI 的聊天模型:
- GitHub - outlines-dev/outlines: 结构化文本生成:结构化文本生成。通过在 GitHub 上创建账户来为 outlines-dev/outlines 做出贡献。
- Galaxy AI - Swagger UI:未找到描述
- Appstorm:在几秒钟内构建 AI 应用
- GPT AI - Chat GPT-4 & Vision - Google Play 上的应用:未找到描述
- Vezora/Mistral-22B-v0.1 · Hugging Face: 未找到描述
- HuggingFaceH4/zephyr-orpo-141b-A35b-v0.1 · Hugging Face: 未找到描述
- v2ray/Mixtral-8x22B-v0.1 · Hugging Face: 未找到描述
- convert_mistral_moe_weights_to_hf.py · DiscoResearch/mixtral-7b-8expert at main: 未找到描述
- transformers/src/transformers/models/mixtral/convert_mixtral_weights_to_hf.py at main · huggingface/transformers: 🤗 Transformers: 面向 Pytorch、TensorFlow 和 JAX 的业界领先的机器学习库。 - huggingface/transformers
- Crosslingual Generalization through Multitask Finetuning:多任务提示微调 (MTF) 已被证明有助于大语言模型在零样本(zero-shot)设置下泛化到新任务,但到目前为止,对 MTF 的探索主要集中在英语数据和模型上....
- occiglot/occiglot-7b-de-en-instruct · Hugging Face:未找到描述
- Lucky 52: How Many Languages Are Needed to Instruction Fine-Tune Large Language Models?:未找到描述
- tokenizer_config.json · DiscoResearch/DiscoLM_German_7b_v1 at main:未找到描述
- DiscoResearch/DiscoLM-70b · Hugging Face:未找到描述
- Multilingual Pretraining and Instruction Tuning Improve Cross-Lingual Knowledge Alignment, But Only Shallowly:未找到描述
- deutsche-telekom/Ger-RAG-eval · Datasets at Hugging Face:未找到描述
- lighteval/community_tasks/german_rag_evals.py at main · huggingface/lighteval:LightEval 是一个轻量级的 LLM 评估套件,Hugging Face 内部一直在将其与最近发布的 LLM 数据处理库 datatrove 和 LLM 训练库 nanotron 配合使用。 - hug...
- axolotl/src/axolotl/prompt_strategies/dpo/chatml.py at 5ed29393e34cf57b24a20ac1bafa3a94272ac3f5 · OpenAccess-AI-Collective/axolotl:尽管提问。通过在 GitHub 上创建一个账户来为 OpenAccess-AI-Collective/axolotl 的开发做出贡献。
- 来自 Sophia Yang, Ph.D. (@sophiamyang) 的推文:@LiHongtu12138 都不是。这是一个全新的模型。
- 来自 Jan P. Harries (@jphme) 的推文:@MistralAI 新的 8x22b 模型的第一批 AGIEval 结果出炉,碾压了所有其他开源(基)模型 - 🤯
- GitHub - simonw/llm-cmd: Use LLM to generate and execute commands in your shell:在你的 shell 中使用 LLM 生成并执行命令 - simonw/llm-cmd
- fix: macos zsh llm cmd hangs by nkkko · Pull Request #12 · simonw/llm-cmd:针对 #11 的修复,已在 M1 MacOs (14.3.) 的 Terminal 和 Alacritty (zsh) 中测试,现在运行正常。
- Quiet-STaR: Language Models Can Teach Themselves to Think Before Speaking: 在写作和交谈时,人们有时会停下来思考。虽然以推理为中心的工作通常将推理框架化为回答问题或完成 Agent 任务的方法,但推理是...
- ezelikman/quietstar-8-ahead at main: 未找到描述
- GitHub - ezelikman/quiet-star: Code for Quiet-STaR: Quiet-STaR 的代码。通过在 GitHub 上创建账户,为 ezelikman/quiet-star 的开发做出贡献。
- ollama/llm/server.go at c5c451ca3bde83e75a2a98ed9fd4e63a56bb02a9 · ollama/ollama: 快速上手 Llama 2、Mistral、Gemma 和其他大语言模型。 - ollama/ollama
- Enhancing Formal Theorem Proving: A Comprehensive Dataset for Training AI Models on Coq Code:在形式化定理证明领域,Coq 证明助手因其验证数学断言和软件正确性的严谨方法而脱颖而出。尽管人工智能取得了进展...
- GitHub - neurallambda/awesome-reasoning: a curated list of data for reasoning ai:推理 AI 数据的精选列表。通过在 GitHub 上创建账户,为 neurallambda/awesome-reasoning 的开发做出贡献。
- GitHub - teacherpeterpan/Logic-LLM: The project page for "LOGIC-LM: Empowering Large Language Models with Symbolic Solvers for Faithful Logical Reasoning":“LOGIC-LM:通过符号求解器增强大语言模型以实现可靠逻辑推理”的项目页面 - teacherpeterpan/Logic-LLM
- 使用 Ollama, Mistral 和 LLava 识别热狗: 在本教程中,我们探讨如何使用 Ollama, Mistral 和 LLava 来判断一张图片是否为热狗 #python #pythonprogramming #llm #ml #ai #aritificialintel...
- 介绍 CodeGemma:Google 的代码补全模型: CodeGemma 为社区带来了强大且轻量级的编程能力。CodeGemma 模型提供了一个 7B 预训练变体,专门用于...