深入解析 LoRA+:如何通过调整学习率进一步优化LLM
在当前大规模语言模型(LLM)的参数高效微调方法中,LoRA(Low-Rank Adaptation)无疑是一 … 阅读更多
跳至内容
在当前大规模语言模型(LLM)的参数高效微调方法中,LoRA(Low-Rank Adaptation)无疑是一 … 阅读更多
引言 今天我们分享的是一篇名为《Score Identity Distillation: Exponentia … 阅读更多
引言 《Fast Transformer Decoding: One Write-Head is All Yo … 阅读更多
📚 简介 OpenVINO™ 是一个用于优化和部署 AI 推理的开源工具包,旨在提升深度学习在计算机视觉、自动 … 阅读更多
引言 在自然语言处理领域,如何在不牺牲模型质量的前提下实现更快的推理速度一直是一个重要的研究课题。本文将介绍一 … 阅读更多
引言 最近,幻方发布的DeepSeek-V2引起了广泛关注。其1块钱100万token的价格令人惊叹,而背后的 … 阅读更多
引言 在生成扩散模型的应用中,如何在保证生成质量的前提下减少采样步数一直是一个关键问题。本文将介绍一种名为「S … 阅读更多
作者 Siyuan Guo, Aniket Didolkar, Nan Rosemary Ke, Anirud … 阅读更多
引言 药物不良事件(Adverse Drug Events,ADEs)的挖掘在药物警戒中至关重要,通过识别与药 … 阅读更多
在 Transformer 模型的演进过程中,位置编码一直是关键的一环。最近,笔者引入了一种新的位置编码方法— … 阅读更多
人工智能研究的终极目标之一是构建开放式代理,而创造性代理更是其中最具吸引力的一类。然而,现有的大型语言模型(L … 阅读更多