Transformer 升级之路:逆用 Leaky ReRoPE 解决推理成本问题
在上周的文章 《Transformer 升级之路:12 、无限外推的 ReRoPE?》 中,我们介绍了 ReRoPE 和 Le ... 阅读更多
增大 Tokenizer 词表:LLM 续写任务的新挑战与解决方案
语言模型 (LLM) 在自然语言处理中的应用越来越广泛,而通过增大 Tokenizer 的词表来提高压缩率,从而缩短串 ... 阅读更多
探索线性 Attention 的局限性:从 「集中注意力」 角度出发
近年来,Transformer 架构在自然语言处理领域取得了显著的成果,而 Attention 机制则是其核心所在。 ... 阅读更多