🔍 探索 Anima:QLoRA 33B中文LLM

欢迎来到我的博客!今天我将为大家介绍一个令人兴奋的开源项目 – Anima。该项目是一个QLoRA的33B中文大语言模型,同时支持DPO对齐训练,并提供了100K上下文窗口的开源模型。最近,他们还推出了AirLLM,这是一个令人印象深刻的库,可以在只有4GB内存的单个GPU上推理出70B的LLM。让我们一起来深入了解这个项目吧!

🔄 更新内容

  • [2023/11/17] 开源:AirLLM,使用单个4GB GPU进行70B LLM推理。
  • [2023/09/06] 开源100K上下文窗口的基于Llama2的LLM。
  • [2023/06/29] 开源基于DPO+QLORA的对齐训练。
  • [2023/06/12] 开源第一个33B中文大语言模型。

🔍 Anima简介

Anima是第一个基于QLoRA的开源中文33B大语言模型。它支持DPO对齐训练,同时还提供了100K上下文窗口的开源模型Anima100K. 基于Llama2,可用于商业用途。最近,他们还推出了AirLLM,这是一个令人兴奋的新功能,可以在只有4GB内存的单个GPU上进行70B LLM的推理。

💨 AirLLM:单卡推理70B大模型

AirLLM是Anima团队最新推出的功能之一。它通过优化推理内存的使用,使得只需单个4GB内存的GPU就能运行70B大语言模型的推理。与其他可能会降低模型性能的量化、蒸馏、剪枝等模型压缩技术不同,AirLLM无需这些步骤,仍能保持卓越的性能。

📚 100K上下文长度LLM

Anima团队还开源了一个新的Anima模型,该模型支持100K上下文窗口长度!该模型基于LLama2,可用于商业用途。经过精心策划的长文本问答训练数据,以及大量的内存优化,使得LLama2模型能够适应100K的输入长度。

通过将整个知识库或一本书直接放入Prompt中,您不再需要进行繁琐的向量化和文本分割。Anima团队在这个模型中应用了最新的技术,如XEntropy、Paged 8bit Adamw、LORA、Flashattention2,并对长输入进行了定制的训练和推理代码修改,使得单个GPU就能支持100K的输入长度。

🔗 相关链接

🤝 参与贡献

如果您对Anima项目感兴趣并希望参与贡献,您可以在GitHub上提交问题和请求,与团队进行讨论,并向项目做出贡献。Anima团队非常欢迎您的参与!

这就是对Anima项目的介绍!我希望这个开源项目能够给我们带来更多的惊喜和创新。如果您对这个项目感兴趣,不妨亲自探索一下GitHub链接:GitHub – lyogavin/Anima。祝您在学习和使用Anima时取得成功!如果您有任何问题或想法,请随时与Anima团队联系。

🌟 关于Anima团队

Anima团队是一群对人工智能技术充满热情的专业人士。他们致力于开发创新的语言模型,并将其开源,以促进自然语言处理领域的发展。通过Anima项目,他们希望为中文语言处理提供先进的工具和资源。

如果您对自然语言处理、大语言模型或人工智能领域有兴趣,不妨关注Anima团队的官方博客、微信公众号和Discord社区,以获取更多相关内容和交流机会。

感谢您阅读我的博客,希望您对Anima项目有了更深入的了解。如果您对这篇文章有任何反馈或建议,请随时与我分享。谢谢!🙏


0 0 投票数
Article Rating
订阅评论
提醒
0 评论
最多投票
最新 最旧
内联反馈
查看所有评论
人生梦想 - 关注前沿的计算机技术 acejoy.com
0
希望看到您的想法,请您发表评论x