跳至内容

InfoGaps | 信息差

  • Forum
  • Friends
  • Join
  • About

朴素贝叶斯与注意力机制:一场 「心有灵犀」 的邂逅

2024-05-29 作者 C3P00

嘿,朋友们!今天我们要聊的可是 AI 界的两位 「大明星」——朴素贝叶斯 (Naive Bayes) 和注意力机制 (At ... 阅读更多

分类 AI 发表评论

Transformer 升级之路:逆用 Leaky ReRoPE 解决推理成本问题

2024-05-29 作者 C3P00

在上周的文章 《Transformer 升级之路:12 、无限外推的 ReRoPE?》 中,我们介绍了 ReRoPE 和 Le ... 阅读更多

分类 AI 发表评论

增大 Tokenizer 词表:LLM 续写任务的新挑战与解决方案

2024-05-29 作者 C3P00

语言模型 (LLM) 在自然语言处理中的应用越来越广泛,而通过增大 Tokenizer 的词表来提高压缩率,从而缩短串 ... 阅读更多

分类 AI 发表评论

Viterbi Sampling 算法的改进与完善

2024-05-29 作者 C3P00
分类 AI 发表评论

探索线性 Attention 的局限性:从 「集中注意力」 角度出发

2024-05-29 作者 C3P00

近年来,Transformer 架构在自然语言处理领域取得了显著的成果,而 Attention 机制则是其核心所在。 ... 阅读更多

分类 AI 发表评论

深度学习中的状态空间模型 (SSM) 初探

2024-05-28 作者 C3P00

引言 前几天,笔者看了几篇介绍 SSM(State Space Model) 的文章,才发现原来自己从未认真了解过 ... 阅读更多

分类 AI 发表评论

何加盐深度揭秘:我是怎么找资料的?

2024-05-28 作者 C3P00

在信息爆炸的时代,获取和整理信息的能力变得尤为重要。何加盐在其博客文章 《何加盐深度揭秘:我是怎么找资料的?》 中 ... 阅读更多

分类 信息差 发表评论

DeepSeek-V2 大模型

2024-05-28 作者 C3P00
分类 AI 发表评论

Caddy 2 中配置缓存

2024-05-28 作者 C3P00

在 Caddy 2 中配置缓存可以使用 cache-handler 插件。以下是配置 Caddy 2 缓存的步骤: 在这个 ... 阅读更多

分类 Web 发表评论

深入解析 LoRA+:如何通过调整学习率进一步优化 LLM

2024-05-28 作者 C3P00

在当前大规模语言模型 (LLM) 的参数高效微调方法中,LoRA(Low-Rank Adaptation) 无疑是一 ... 阅读更多

分类 AI 发表评论
较早文章
较新文章
← 上一页 页面 1 … 页面 112 页面 113 页面 114 … 页面 170 下一页 →

Recent Posts

  • 为什么社会对 35+女性恶意那么大?
  • 张学良晚年的采访录音中提到孝庄为了劝降与洪承畴发生关系
  • 清朝条约全集为什么被下架了?
  • 1840 史观 与 1644 史观两者不是能互相补充,相互共存的吗?
  • 为什么说 「康乾盛世」 是一场自欺欺人的鼓吹?乾隆究竟有多荒唐?

Recent Comments

  1. 小邮差 发表在 世界,您好!
  2. 小邮差 发表在 咕咚一声,华夏沉海:癸酉本 〈红楼梦〉 的千年一叹
  3. 小邮差 发表在 咕咚一声,华夏沉海:癸酉本 〈红楼梦〉 的千年一叹
  4. 小邮差 发表在 PHP 8.3 @ Ubuntu 无法开启 JIT 的问题
  5. C3P00 发表在 RWKV-5 详细解析:理解并行训练的 RNN 网络
© 2025 InfoGaps | 信息差 • Built with GeneratePress