GPT 的运用和训练
对 GPT 的运用和训练, 这里给出以下几点总结: GPT 已经非常强大了, 但仍存在诸多局限。合理使用与人工相结合是目 ... 阅读更多
对 GPT 的运用和训练, 这里给出以下几点总结: GPT 已经非常强大了, 但仍存在诸多局限。合理使用与人工相结合是目 ... 阅读更多
斯坦福大学最近发布了一篇研究论文,提出了一种名为 Sophia 的新型优化器,用于提高大型语言模型 (LLM) 的预训 ... 阅读更多
Dettmers 提出了一种高效的微调方法 QLoRA,它能够在保持完整的 16 位微调任务性能的同时,将内存使用量降 ... 阅读更多
最近,一篇名为 《VanillaNet: the Power of Minimalism in Deep Lea ... 阅读更多
2023 年 5 月 27 日,知乎在 2023 中国国际大数据产业博览会上发布了最新的大语言模型成果。知乎合伙人、首席技术 ... 阅读更多
由于改进的架构和更好的表示学习框架的推动,视觉识别领域在 2020 年代初期迅速现代化并提高了性能。例如,现代 ... 阅读更多
大型语言模型的涌现能力是一个黑箱,难以解释。尽管目前的研究已经开始揭示其中的一些机制,但我们仍然需要更深入的研 ... 阅读更多
InstructBLIP 是一种指令感知的多模态基础模型, 通过微调 BLIP-2 和丰富指令微调数据获得。它在图像理 ... 阅读更多
背景: 目前开源的大语言模型对多语言支持不够理想, 且大多数模型参数量不够大, 无法商用。而 SambaNova 和 To ... 阅读更多
Scaling Transformer to 1M tokens and beyond with RMT 这份 ... 阅读更多