增大Tokenizer词表:LLM续写任务的新挑战与解决方案
语言模型(LLM)在自然语言处理中的应用越来越广泛,而通过增大Tokenizer的词表来提高压缩率,从而缩短串 … 阅读更多
语言模型(LLM)在自然语言处理中的应用越来越广泛,而通过增大Tokenizer的词表来提高压缩率,从而缩短串 … 阅读更多
在自然语言处理领域,分词是一个至关重要的步骤。最近,一篇名为《随机分词浅探:从Viterbi Decoding … 阅读更多
近年来,Transformer架构在自然语言处理领域取得了显著的成果,而Attention机制则是其核心所在。 … 阅读更多
引言 前几天,笔者看了几篇介绍SSM(State Space Model)的文章,才发现原来自己从未认真了解过 … 阅读更多
DeepSeek-V2 是一个强大、经济高效的混合专家语言模型。它具有2360亿个总参数,每个标记激活的参数为 … 阅读更多
在当前大规模语言模型(LLM)的参数高效微调方法中,LoRA(Low-Rank Adaptation)无疑是一 … 阅读更多
引言 今天我们分享的是一篇名为《Score Identity Distillation: Exponentia … 阅读更多
引言 《Fast Transformer Decoding: One Write-Head is All Yo … 阅读更多
📚 简介 OpenVINO™ 是一个用于优化和部署 AI 推理的开源工具包,旨在提升深度学习在计算机视觉、自动 … 阅读更多
引言 在自然语言处理领域,如何在不牺牲模型质量的前提下实现更快的推理速度一直是一个重要的研究课题。本文将介绍一 … 阅读更多