Day: November 30, 2023

AutoGen:支持下一代大型语言模型应用程序AutoGen:支持下一代大型语言模型应用程序

🎯 AutoGen的目标 随着GPT-3、GPT-4等大型语言模型的出现,它们在诸多领域都展现了强大的潜力。但是要充分发挥这些模型的能力,需要设计非常复杂的工作流程,对研发人员提出了巨大挑战😥。 AutoGen框架的目标就是要简化大型语言模型工作流程的编排、优化和自动化。让研发人员可以更容易地构建复杂的语言模型应用💪。 🛠 AutoGen的方法 AutoGen提供了可自定义和可交谈的agent。研发人员只需要进行以下两步配置: 整个流程就可以自动化啦!非常简单易用~ 🤖 Agent的特点 AutoGen的Agent有以下特点: 👥 Agent模式的好处 Agent对话中心的设计模式有诸多好处: 🎉 总结 AutoGen为构建下一代语言模型应用提供了一个高效、简单、可扩展的框架。它展示了语言模型、人类和工具协作的巨大创新空间。希望大家在未来的科研中可以活跃运用AutoGen,创造出更多惊喜😄请大家多多提问,让我们共同进步! [...]

平衡低成本目标编辑和灾难性遗忘平衡低成本目标编辑和灾难性遗忘

大家好,今天,我们要一起探讨的是 Microsoft Research 最近的一篇研究:大型语言模型的终身模型编辑。这篇文章讲述了如何在保持低成本的同时,进行有效的模型修正,避免模型出现灾难性的遗忘。让我们一起深入了解一下。🧐 🎯 问题的根源 首先,我们来看看为什么需要对大型语言模型(LLMs)进行修正。LLMs在许多复杂任务中有着广泛的应用,但它们有时会出现不可预测的错误,或者传播偏见语言。这些错误往往随着底层数据或用户行为的变化而产生。这就需要对这些模型和它们支持的实际应用进行有针对性的、成本有效的修复。 我们可能会想到使用重复预训练或微调来实现这些修复。然而,这些解决方案通常在计算上过于昂贵。例如,LLAMA 1的训练需要在2048个A100 GPU上进行21天,其成本超过240万美元。LLMs的微调需要比许多研究实验室能够持续并负担得起的GPU更大。此外,我们甚至还不清楚应该向数据语料库添加或删除哪些数据,以便在不影响无关输入的情况下纠正特定行为。 📝 模型编辑的提出 为了在不进行昂贵训练的情况下保持LLMs的更新,人们最近提出了模型编辑作为对大模型进行有针对性更新的范例。大多数模型编辑器一次更新一个模型,注入一批修正。但错误通常会随时间序列性地被发现,并且必须快速纠正。换句话说,当模型被部署时,必须进行终身模型编辑,即遇到一个流的错误并必须立即对其进行处理。这需要进行许多连续的编辑,在这种设置下,现有的编辑器已知会失败。成功在这里意味着按序纠正所有的编辑,而不遗忘旧的修复,也不会降低对无关输入的性能。 那么,什么是编辑呢?在一篇题为《带有离散键值适配器的GRACE终身模型编辑》的文章中,作者考虑了三种类型的编辑: 🧪 终身模型编辑的挑战与解决方案 我们已经知道,错误往往会随时间序列性地被发现,并且必须快速纠正。这就需要进行许多连续的编辑,这是一项挑战。在这种情况下,现有的编辑器已知会失败。它们可能会遗忘旧的修复,或者对无关输入的性能产生影响。 为了解决这个问题,研究者们提出了一种名为GRACE的新型模型编辑方法。这个方法采用了离散的键值适配器,能够处理连续的编辑。它能够在不遗忘旧的修复,也不会降低对无关输入的性能的情况下,按序纠正所有的编辑。 这种方法的关键在于,它不直接更改模型的参数,而是在模型上添加一个小型的键值存储。每次编辑时,该方法都会将编辑的“键”和“值”添加到存储中。然后,在模型进行预测时,该方法会检查存储中是否存在与当前输入匹配的键。如果存在,模型就会使用存储中的值来修改其预测。 这种方法的优势是,它能够在处理新的编辑时,保留对旧编辑的记忆,从而避免了灾难性的遗忘。此外,由于键值存储的规模远小于模型本身,因此,这种方法的计算和存储成本也相对较低。 总结一下,大型语言模型的终身模型编辑是一个非常重要且具有挑战性的问题。这在保持模型更新,提高预测准确性,同时也降低了训练和维护的成本。通过微调、模型编辑等方法,我们可以使模型更加适应变化的世界,并为我们提供更准确、更贴近现实的预测。希望你们能从这次的讲解中有所收获,下次课我们再见!👋🏻 [...]

大语言模型的加速之道:思维骨架(Skeleton-of-Thought)大语言模型的加速之道:思维骨架(Skeleton-of-Thought)

大家好,欢迎收听我们的人工智能播客,我是你的主播,也是资深的人工智能专家。今天我们要聊的话题是:如何通过一种全新的方式——思维骨架(Skeleton-of-Thought,简称SoT),来加速大语言模型(LLM)的输出,并提高其结果质量。🚀 💡大语言模型的痛点 LLM,例如LLaMA和OpenAI的GPT-4,正在改变我们的技术领域。然而,对LLM的一个普遍抱怨是它们的运行速度。在许多情况下,从LLM获取答案需要很长时间,这限制了LLM在诸如聊天机器人、协同助手和工业控制器等延迟关键功能中的应用。⏱️ 🚀思维骨架的提出 为了解决这一问题,微软研究院和清华大学的研究者提出了一种新的加速LLM生成的方法——思维骨架(SoT)。不同于大多数先前需要对LLM模型、系统或硬件进行修改的方法,SoT将LLM视为黑箱,因此可以应用于任何现成的开源(如LLaMA)或API基础(如OpenAI的GPT-4)模型中。🎁 🚗SoT如何加速? SoT的想法源于LLM和人类处理信息的方式的区别。LLM按顺序生成答案,而人类在很多情况下,会先提炼出答案的骨架,然后添加细节来解释每一点。SoT就是按照这种人类的思维方式,将生成过程分为两个阶段:首先,SoT让LLM生成答案的骨架,然后再让LLM给出骨架中每一点的答案。🔍 这种方法提供了一个新的加速机会,因为第二阶段的每一点的答案都可以并行生成,无论是本地模型(如LLaMA)还是API基础模型(如OpenAI的GPT-4)。对于API基础模型,我们可以对每一点发出并行的API请求。对于本地运行的模型,我们可以在一个批次中同时回答所有的点。💼 ⚖️SoT的效果如何? 我们在包括九个开源模型和三个API基础模型在内的12个最近发布的模型上测试了SoT。我们使用的是Vicuna-80数据集,该数据集包含80个问题,涵盖了编程、数学、写作、角色扮演等九个类别。 结果显示,SoT在所有模型上都提供了显著的速度提升。特别是,SoT在12个模型中的8个模型上获得了超过2倍(最高达到2.39倍)的速度提升。此外,SoT在不明显降低答案质量的情况下实现了这种速度的提升。💪 🌈SoT的未来 SoT通过独立并行地扩展点,因此并不适合需要逐步推理的问题,比如数学和编程。为此,我们提出了一种SoT的扩展,叫做SoT with Router(SoT-R),它可以在适合的时候自适应地触发SoT。我们提出了一个路由器模型,该模型可以基于问题和答案的骨架,预测何时应使用SoT。实验显示,SoT-R在数学和编程问题上的性能超过了原始的SoT,并在所有测试集上达到了最好的性能。🎯 对于未来,我们期待通过进一步的研究和开发,将SoT的应用范围扩大到处理更复杂的问题,同时继续提高其生成速度和答案质量。我们相信,随着技术的不断发展,大语言模型将在我们的日常生活中扮演越来越重要的角色,为我们提供更加智能、快速和准确的服务。✨ 在此,我要提醒大家,SoT的代码和演示已经在Github上开源,欢迎感兴趣的朋友们去查阅和使用。🌐 以上就是今天播客的全部内容,希望大家对SoT有了更深入的理解。如果你有任何问题或者想法,欢迎在评论区留言。我们下期再见,祝大家每天都有新的收获!👋 [...]

Orca 2:推理技巧赋能小型语言模型,性能超越5-10倍大模型Orca 2:推理技巧赋能小型语言模型,性能超越5-10倍大模型

大家好,今天,我将为大家介绍一篇关于Orca 2的文章。Orca 2是一种小型语言模型,它通过学习一系列推理技巧,在推理能力上超越了5-10倍的大模型。 背景 大型语言模型(LLMs)正在改变人与机器之间的交互方式,并提升了许多现有应用的用户体验,如编码、网络搜索、聊天机器人、客户服务和内容创作等。这种由LLMs带来的转变也为新型人工智能应用铺平了道路。随着LLMs规模的不断扩大,例如GPT-4和PaLM-2等,它们展现出了前所未有的能力,尤其是在零-shot推理方面,包括回答复杂问题、生成解释和解决多步问题。即使在专业领域,LLMs现在也能在美国医学执照考试等测试中取得合格分数。这些能力曾经被认为是人工智能无法达到的范畴。 问题 然而,现有对于小型语言模型的训练往往依赖于模仿学习,即复制更大、更强大的模型的输出。尽管这些模型可以生成与其“老师”风格相似的内容,但它们在推理和理解能力上往往表现不足。模仿学习可能会限制较小模型的潜力,限制它们根据问题和模型容量来利用最佳解决策略。 主要贡献及解决思路 Orca 2的目标有两个: 一是教导较小模型如何使用一系列推理技巧,例如逐步处理、回忆再生成、回忆-推理-生成、抽取-生成和直接回答方法;二是帮助这些模型确定何时使用最有效的推理策略,让它们能够在任务中表现最佳,不受模型大小的限制。 与Orca 1不同,Orca 2精心设计推理策略以适应特定任务,考虑到学生模型是否具备相同的行为。更强大的LLM被设计为呈现引发特定战略行为的复杂提示,从而产生更精确的结果。在训练阶段,较小模型仅暴露于任务和结果行为,而不知道触发这种行为的原始提示,这种“提示擦除”技术使Orca 2成为一种“谨慎的推理者”。 达到的具体效果 与以往侧重于小型模型评估的研究不同,作者们提供了包含约100个任务和超过36,000个独特提示的15个综合性基准测试来评估Orca 2。初步结果显示(figure 1),Orca 2明显超越了相似规模的模型,甚至在需要推理的任务上与5到10倍大的模型相匹敌甚至超越,突显了赋予较小模型更好推理能力的潜力。 文章推荐 文章名称:Orca 2-Teaching Small Language Models How to Reason 文章链接:https://arxiv.org/pdf/2311.11045.pdf [...]

如何教小型语言模型进行推理如何教小型语言模型进行推理

大家好,欢迎收听本期播客节目!我是你们的主持人,今天我将和大家一起探讨一个重要的话题:如何教小型语言模型进行推理。推理能力对于语言模型来说非常关键,它能够帮助模型理解并生成连贯且上下文相关的回答。近年来,有许多研究和方法致力于提高语言模型的推理能力,甚至包括参数较小的模型。 1. 连贯性思维引导 一种在提高大型语言模型推理能力方面取得显著成果的方法是使用连贯性思维引导。这种方法通过给模型提供一系列提示或问题来引导其思维过程,鼓励其逐步推理。通过使用连贯性思维引导训练语言模型,研究人员在各种推理任务上取得了最先进的结果。 2. 知识蒸馏 为了将大型语言模型的推理能力传递给较小的模型,研究人员进行了知识蒸馏的探索。在这种方法中,通过较大的“教师”模型生成的连贯性思维输出来训练较小的“学生”模型。教师模型的连贯性思维输出为学生模型提供了宝贵的知识源,使其能够学习和提高其推理能力。 3. 实验结果 对算术、常识和符号推理数据集进行的实验证明了知识蒸馏方法对较小语言模型的任务性能的改进[1]。例如,当在一个名为PaLM-540B生成的连贯性思维的基础上进行微调时,T5 XXL模型在GSM8K数据集上的准确率从8.11%提高到了21.99%。 来源: 了解更多: [...]

AI新星Orca 2——如何让小型语言模型变得更“聪明”AI新星Orca 2——如何让小型语言模型变得更“聪明”

大家好,欢迎收听今天的播客,我是你们的主持人。在这个科技日新月异的时代,我们的生活被越来越多的人工智能(AI)技术改变。今天,我们要带大家深入了解一种被称为Orca 2的新型AI技术。 🚀Orca 2:推理技巧赋能小型语言模型 一起想象一下,如果我们的手机、电脑、甚至是家用电器,都能像人类一样进行推理、解答问题,那会是怎样的情景呢?这并非遥不可及,因为微软研究团队已经让这个梦想变为现实。他们开发出了一种名为Orca 2的新型人工智能技术,这个技术是如何做到的呢? 大型语言模型,比如我们所熟知的GPT-4,已经在很多方面展示出了强大的能力,比如回答复杂问题、生成解释和解决多步问题。然而,这些模型的规模通常很大,需要大量的计算资源,这在一定程度上限制了它们的应用。而Orca 2的出现,改变了这一局面。 Orca 2的目标很明确,就是教导小型模型如何使用一系列的推理技巧,让它们能够在任务中表现最佳,不受模型大小的限制。比如,它会逐步处理问题、回忆再生成答案、抽取关键信息并生成解答等等。 🔍Orca 2:小型语言模型的“超级大脑” 所以,Orca 2就像是一个“超级大脑”,可以让小型语言模型具有更强大的推理能力。实际上,初步结果显示,Orca 2在需要推理的任务上,甚至可以与5到10倍大的模型相匹敌或超越。这一切都强烈地突显了赋予较小模型更好推理能力的潜力。 🎓Orca 2:深度学习和教育的完美结合 在Orca 2的训练中,研究人员还采用了指令调优和解释调优两种方法。这两种方法可以看作是模仿人类教育的过程,研究人员会以更大、更强大的模型为“老师”,让小型模型进行模仿学习。这样,小型模型不仅可以生成与“老师”风格相似的内容,还可以在推理和理解能力上有所提升。 🏆Orca 2:未来的AI明星 总的来说,Orca 2的出现,不仅为我们展示了小型语言模型的强大潜力,同时也为人工智能的未来发展打开了一扇新的大门。我们有理由相信,Orca 2将会在未来的AI领域中发挥更加重要的作用。 以上就是我们今天的主题:Orca 2——如何让小型语言模型变得更“聪明”。感谢大家的收听,我们下期再见! [...]