Category: AI

AI搜索:通向未来的关键一步AI搜索:通向未来的关键一步

引言:AI搜索的崛起 近年来,AI搜索已经逐渐成为科技领域的一大热点。从Perplexity的新一轮融资,到ChatGPT将其首页变为搜索框,再到国内秘塔AI搜索和360AI搜索的崛起,这一切都预示着AI搜索正在成为新的行业共识。此外,不少企业也纷纷表示要加入这一领域的竞争,显示出AI搜索的巨大市场潜力和吸引力。 搜索的市场格局 搜索技术的发展经历了从狭义的搜索引擎到广义的内容发现的转变。狭义的搜索,如百度搜索和浏览器地址栏,已进入平台期,而广义的搜索,包括内容平台内的搜索功能,正处于上升阶段。随着优质内容的分散,用户的搜索需求也日益增长,推动了AI搜索技术的发展。 AI搜索的本质 AI搜索的核心优势在于其能够提供超越传统搜索的内容理解和用户体验。AI搜索不仅仅是关于提升搜索结果的相关性,更关键的是通过深度学习和自然语言处理技术,理解用户的真实意图,并提供更准确、个性化的搜索结果。 用户使用搜索的真实目的 用户使用搜索工具的最终目的,往往不仅仅是为了找到一个网址或一个答案,而是为了解决实际问题或获取具体的资源。例如,用户可能需要找到特定的信息进行学习研究,或者寻找特定的视频内容进行观看。AI搜索通过更好的理解用户需求,能够提供更符合用户期待的搜索体验。 AI搜索的切入点和未来方向 AI搜索需要找到与传统搜索不同的切入点,这通常意味着在特定的垂直领域或新的使用场景下,发挥AI的独特优势。例如,可以在学术研究或医疗信息查询等领域,通过AI搜索提供更专业、更深入的搜索服务。 AI搜索与内容平台的关系 成功的AI搜索引擎将是那些能够与内容平台紧密结合,共同构建强大内容生态系统的引擎。例如,通过与内容创作者和平台合作,AI搜索可以更有效地聚合和推荐内容,从而为用户提供更加丰富和精准的搜索结果。 结论:AI搜索的战略意义 AI搜索不仅是技术的革新,更是对用户搜索体验的全面革命。随着技术的不断进步和市场的逐渐成熟,AI搜索将成为连接用户需求与信息世界的关键桥梁。对于企业来说,投入AI搜索技术,开发更智能、更个性化的搜索解决方案,将是抓住未来市场机遇的关键。 通过对AI搜索的深入理解和应用,我们可以预见一个更加智能和连接的信息时代的到来。 [...]

AI搜索全解析AI搜索全解析

AI搜索,这个听起来颇具科技感的词汇,最近在科技圈里掀起了不小的波澜。从Perplexity获得新融资,到ChatGPT将首页改为搜索框,再到国内AI搜索领域的新星——秘塔AI搜索和360AI搜索的崛起,AI搜索似乎正逐渐成为新的行业共识。在这样的背景下,许多公司也开始摩拳擦掌,准备在AI搜索领域大展拳脚。 AI搜索的市场格局 首先,让我们来梳理一下搜索市场的格局。传统搜索,无论是百度的主页还是浏览器的地址栏,其市场已经进入一个相对稳定的平台期。随着优质内容逐渐被各大App如抖音、小红书、知乎等分割,传统搜索的体验虽然成熟,但面临着内容质量下降的挑战。 然而,广义上的搜索,包括App内的搜索条以及对模型内部知识的搜索,其实正在上升期。用户数和搜索频次都在增加,显示出搜索需求的持续增长。 AI搜索的本质 AI搜索的核心在于“智能”,而不仅仅是“搜索”。这意味着,AI搜索需要基于大型语言模型(LLM)和其他工具构建的架构,提供更为精准和个性化的搜索结果。AI搜索的目标是更好地理解用户的Query(查询),并提供端到端的解决方案。 用户迁移的切入点 要让用户从传统搜索迁移到AI搜索,需要提供显著的新体验。这不仅仅是在搜索结果上做出微小改进,而是要找到新的使用场景和垂直领域,如学术、医疗、法律等,为用户提供真正有价值的新体验。 AI搜索与内容平台的关系 AI搜索与内容平台之间存在密切的依赖关系。长期来看,拥有高质量内容的社区在搜索领域更有可能胜出。例如,百度通过构建知道、百科等内容产品,试图控制内容并构建竞争壁垒。而在移动互联网时代,用户的搜索行为已经逐渐转移到各个App中,这对传统搜索引擎构成了挑战。 AI搜索的具体应用 一些AI搜索产品已经开始探索具体的应用场景,如: 搜索市场的机遇与挑战 尽管AI搜索来势汹汹,但传统搜索依然有其稳固的市场和价值。搜索引擎依然是互联网流量的重要入口,具有巨大的商业价值。同时,随着技术的发展,新的搜索玩家有机会通过创新的场景和体验来挑战现有的市场格局。 从AI搜索到AGI AI搜索是通往更高级的通用人工智能(AGI)的必经之路。通过更好地理解用户的Query,AI搜索将逐步攻克更多复杂场景,满足用户从信息搜索到内容创作的全方位需求。 在这个过程中,AI搜索不仅需要技术上的突破,更需要对用户需求深刻的洞察和创新的产品思维。随着AI技术的不断进步,我们有理由相信,AI搜索将为用户带来更加丰富和智能的搜索体验。 [...]

谷歌反击:Project Astra正面硬刚GPT-4o、新版Gemini变革搜索谷歌反击:Project Astra正面硬刚GPT-4o、新版Gemini变革搜索

在5月15日的Google I/O开发者大会上,谷歌展示了一系列令人瞩目的AI技术更新,全面回应了OpenAI的最新动态。以下是对此次发布会的深入评论。 Project Astra与GPT-4o的对决 谷歌的Project Astra被视为对OpenAI最新发布的GPT-4o的正面回应。GPT-4o以其实时的语音、视频和文本交互功能引起了广泛关注,而谷歌则通过Astra展示了其在AI助手领域的强大实力。Astra不仅仅是一个语音助手,它融合了多模态能力,可以在各种复杂场景下提供智能支持。这种高端的AI商战,正以最直接的方式在我们眼前上演。 新版Gemini:搜索引擎的变革 谷歌在I/O大会上展示了新版Gemini对搜索引擎的革新能力。得益于最新版本的定制化Gemini大模型,搜索引擎不仅能够回答用户的复杂问题,还能利用上下文内容、位置感知和实时信息能力,提供更精确和详细的答案。Gemini通过多步推理功能,简化了用户的搜索流程,使得一次性提出复杂问题成为可能。这不仅节省了时间,还提升了搜索效率。 多模态与长文本能力的飞跃 谷歌展示了大模型在多模态和长文本处理方面的进步。例如,Gemini能够总结学校发来的所有电子邮件,并解析PDF等附件内容。这种能力在生产力工具如Google Workspace中得到了体现,使得处理复杂文档和长文本变得更加智能和高效。 Gemini家族的扩展与优化 此次发布会上,谷歌还介绍了Gemini家族的新成员,包括1.5 Flash和改进的1.5 Pro。1.5 Flash专注于速度和效率,具有突破性的长上下文窗口(100万token),适用于大规模、高频任务。而1.5 Pro的上下文窗口已经扩展到200万token,进一步提升了代码生成、逻辑推理和多轮对话的能力。这些改进使得Gemini在处理复杂任务和提供智能支持方面更具竞争力。 未来展望 谷歌还透露了未来AI助手的发展方向,强调了Agent的推理、计划和记忆能力。通过多步骤思考和跨软件系统的工作,Agent将更便捷地帮助用户完成任务。这种智能系统的应用,不仅在搜索引擎中得到了体现,也将在其他谷歌产品中发挥重要作用。 总结 谷歌在此次I/O大会上,通过展示Project Astra、新版Gemini以及其他AI技术,向业界传达了其在生成式AI领域的强大实力。无论是在搜索引擎的革新、生产力工具的智能化,还是多模态和长文本处理能力的提升,谷歌都展示了其技术领导力和创新能力。这场AI技术的角逐,无疑将推动整个行业迈向新的高度。 通过这些前沿技术的发布,谷歌不仅回应了OpenAI的挑战,更为用户带来了更加智能、高效的数字化体验。未来,随着这些技术的不断发展和应用,我们有理由期待一个更加智能化的世界。 原文链接:谷歌反击:Project Astra正面硬刚GPT-4o、Veo对抗Sora、新版Gemini变革搜索 [...]

Project Astra 正面硬刚 GPT-4o!Veo 对抗 Sora!Project Astra 正面硬刚 GPT-4o!Veo 对抗 Sora!

近日,谷歌在一年一度的 Google I/O 开发者大会上,正式发布了一系列令人瞩目的人工智能产品和技术更新,回应了 OpenAI 的 GPT-4o 和 Sora。本文将从多个角度对谷歌最新发布的 Project Astra、Veo 以及新版 Gemini 进行评论。 Project Astra 正面硬刚 GPT-4o 谷歌在大会上重点介绍了 Project Astra,这是其对 OpenAI 领先的 GPT-4o 的直接回应。Astra 作为一个多模态 AI 模型,展示了在语音、视频和文本交互上的强大能力。这意味着谷歌不仅在技术上与 OpenAI 进行正面对抗,还在实际应用场景中提供了更丰富的功能支持。尤其是在实时拍摄和数据处理方面,Astra [...]

MLA的潜在表示和StableDiffusion的潜空间的异同MLA的潜在表示和StableDiffusion的潜空间的异同

[latexpage] 多头潜在注意力(Multi-head Latent Attention, MLA)和Stable Diffusion的潜空间都是现代机器学习和深度学习中的重要概念,尽管它们应用于不同的领域(自然语言处理和图像生成),但它们在处理高维数据和压缩信息方面有一些相似之处。以下是对它们的详细比较: 1. 潜在表示的概念 2. 相似之处 3. 不同之处 结论 尽管MLA的潜在表示和Stable Diffusion的潜空间在压缩高维数据和提高处理效率方面有相似之处,但它们应用于不同的领域,并且实现方式和处理对象也有所不同。MLA专注于自然语言处理中的注意力机制,而Stable Diffusion则专注于图像生成任务。它们各自的潜在表示技术在其特定应用领域中发挥了重要作用。 [latexpage] 在MLA(Multi-head Latent Attention)中,通过低秩键值联合压缩实现了将高维的键(Key)和值(Value)向量压缩成低维的潜在向量,从而保留重要信息并减少存储和处理的数据量。以下是具体实现的步骤和方法: 1. 低秩矩阵分解 低秩矩阵分解是实现压缩的核心技术。它通过将高维矩阵分解为两个或多个低维矩阵的乘积来减少数据的维度。具体来说,假设我们有一个高维的键矩阵 ( K ) 和一个值矩阵 ( V ),我们可以使用低秩矩阵分解将它们压缩为低维矩阵。 [...]

缓存与效果的极限拉扯:从MHA、MQA、GQA到MLA缓存与效果的极限拉扯:从MHA、MQA、GQA到MLA

[latexpage] 最近,幻方发布的DeepSeek-V2引发了广泛关注。它不仅以每百万token仅需1块钱的价格震惊了大家,比现有的API便宜了两个数量级,甚至有人开玩笑说:“这个价格哪怕输出乱码,我也会认为是一种艺术。” 从技术报告来看,这样低廉价格背后的关键技术之一是新提出的MLA(Multi-head Latent Attention),这是对GQA的改进。据说这种改进不仅更加高效,还能提高性能,引起了许多读者的兴趣。本文将带大家梳理从MHA、MQA、GQA到MLA的演变过程,并重点介绍MLA的设计思路。 MHA: 多头注意力 首先,我们来看看MHA(Multi-Head Attention),即多头注意力。这是经典论文《Attention is All You Need》中提出的一种注意力机制,可以说是当前主流大规模语言模型(LLM)的基础。 简单来说,多头注意力将输入的向量序列分成多个部分,每部分单独计算注意力,然后再将结果拼接在一起。具体公式如下: \[\begin{aligned}\boldsymbol{o}t &= \left[\boldsymbol{o}_t^{(1)}, \boldsymbol{o}_t^{(2)}, \cdots, \boldsymbol{o}_t^{(h)}\right] \ \boldsymbol{o}_t^{(s)} &= Attention\left(\boldsymbol{q}_t^{(s)}, \boldsymbol{k}{\leq t}^{(s)} ,\boldsymbol{v}_{\leq t}^{(s)}\right) \\boldsymbol{q}_i^{(s)} &= [...]

探索人工智能的未来:从多头注意力到多头潜在注意力探索人工智能的未来:从多头注意力到多头潜在注意力

在人工智能领域,技术的迭代更新速度令人眼花缭乱。最近,幻方科技发布的DeepSeek-V2模型因其创新的多头潜在注意力(MLA)技术而引起了广泛关注。这一技术不仅大幅降低了运算成本,还保持了高效的模型性能,其价格之低让人震惊,足以颠覆现有的市场格局。本文将带您了解从多头注意力(MHA)到多头潜在注意力(MLA)的技术演进历程,以及这一变革对未来人工智能应用的深远影响。 多头注意力(MHA):AI领域的革命 多头注意力机制最初由2017年的论文《Attention is all you need》中提出,它是现代大型语言模型的基石。这项技术通过将输入数据分割成多个头部,然后并行处理,能够有效地捕捉数据中的不同方面信息,极大地提升了模型处理复杂数据的能力。 在多头注意力中,每个头部独立地从数据中学习不同的特征,然后将这些特征综合起来,形成对输入数据的全面理解。这种机制不仅增加了模型的表达能力,还提高了处理速度,是许多先进模型能够实现快速、准确预测的关键。 缓存机制和性能的平衡 尽管多头注意力极大地推动了模型性能的提升,但其对计算资源的需求也相应增加。在实际应用中,为了加速预测过程并减少计算资源的消耗,技术人员常常采用键值缓存(KV Cache)技术。这种技术可以存储已经计算过的结果,当需要重复使用时可以直接调用,避免了重复的计算过程。 然而,KV Cache也有其局限性,特别是在处理大型模型和长输入序列时,其所需的内存量会急剧增加,这对于资源有限的设备是一个不小的挑战。 多头潜在注意力(MLA):效率与性能的新高度 为了解决这一问题,幻方科技的DeepSeek-V2模型采用了创新的多头潜在注意力机制。MLA在设计上对传统多头注意力机制进行了优化,通过更高效的数据处理和缓存管理,显著减少了对计算资源的需求。 具体来说,MLA通过改进算法减少了对内存的依赖,同时确保模型输出的质量不受影响。这一点在资源受限的设备上尤为重要,因为它允许这些设备运行先进的模型,执行复杂的任务,而不会耗尽所有的计算资源。 MLA技术的核心原理 多头潜在注意力机制在设计上对传统多头注意力机制进行了重要的改进。核心思想是在保持注意力模型效能的同时,优化内存使用和计算效率。 1. 参数共享: MLA通过在多个注意力头之间共享部分参数来减少模型的总参数量。这种参数共享不仅减少了内存占用,还有助于加速模型的训练和推理过程。 2. 动态稀疏性: 与传统的注意力机制每次处理所有数据不同,MLA引入了动态稀疏性。它通过算法智能地选择在每次前向传播中最重要的信息子集,从而减少了不必要的计算负担。 3. 潜在特征空间: MLA引入了一个潜在特征空间,用于更高效地编码和处理信息。在这个空间中,相似的输入特征会被映射到接近的位置,这样模型就可以通过学习这些潜在关系来提高处理速度和效率。 MLA的优势与应用 MLA的设计允许它在多种场景下展现出色的性能和效率,使其成为许多行业的理想选择。 1. 资源限制环境: 在移动设备和嵌入式系统等资源受限的环境中,MLA通过减少计算量和内存需求,使得复杂的模型得以运行。 2. 实时处理需求: 对于需要实时数据处理的应用,如自动驾驶和实时翻译,MLA能够提供必要的速度和响应能力。 [...]

合成数据:人工智能训练的新利器合成数据:人工智能训练的新利器

导语: 人工智能聊天机器人的背后需要海量高质量数据作为支撑。传统上,人工智能系统依赖于从各种网络来源(如文章、书籍和在线评论)中提取的大量数据来理解用户的查询并生成响应。 长期以来,如何获取更多的高质量数据成为人工智能公司的一大挑战。由于数据在互联网上的可用性是有限的,这促使人工智能公司正寻求一种替代解决方案——合成数据(Synthetic data)。 合成数据:人工智能训练的新利器 合成数据,即人工智能系统生成的人工数据。科技公司通过利用自己的人工智能模型,生成合成数据(这也被认为是虚假数据),然后将这些数据用以训练其系统的未来迭代。 谈及合成数据是如何生成的,其过程包括为人工智能模型设置特定参数和提示以创建内容,这种方法可以更精确地控制用于训练人工智能系统的数据。 例如,微软的研究人员向人工智能模型列出了四岁孩子能够理解的3000个词汇,然后,他们要求该模型使用词汇表中的一个名词、一个动词和一个形容词来创造一个儿童故事。通过几天时间内数百万次的重复提示,模型最终产生了数百万个短篇故事。 虽然计算中的合成数据并不是一个新概念,但生成式人工智能的兴起促进了大规模创建更高质量的合成数据。 人工智能初创公司Anthropic首席执行官Dario Amodei将这种方法称为“无限数据生成引擎”,旨在避免与传统数据采集方法相关的一些版权、隐私等问题。 现有用例与分歧观点 目前,Meta、谷歌和微软等主要人工智能公司已经开始使用合成数据开发高级模型,包括聊天机器人和语言处理器。 例如,Anthropic使用合成数据为其聊天机器人Claude提供动力;谷歌DeepMind则使用这种方法来训练能够解决复杂几何问题的模型;与此同时,微软已经公开了使用合成数据开发的小型语言模型。 有支持者认为,如果适当实施,合成数据可以产生准确可靠的模型。 然而,一些人工智能专家对与合成数据相关的风险表示担忧。著名大学的研究人员观察到了“模型崩溃”的例子,即在合成数据上训练的人工智能模型出现了不可逆转的缺陷,并产生了荒谬的输出。此外,有人担心合成数据可能会加剧数据集的偏差和错误。 剑桥大学博士Zakhar Shumaylov在一封电子邮件中写道,”如果处理得当,合成数据会很有用。然而,对于如何才能处理得当,目前还没有明确的答案;有些偏见对于人类来说可能很难察觉。” 此外,围绕对合成数据的依赖存在一场哲学辩论,人们对人工智能的本质提出了质疑——如若使用机器合成的数据,那么人工智能是否还是模仿人类智能的机器? 斯坦福大学教授Percy Liang强调了将真正的人类智能融入数据生成过程的重要性,并强调了大规模创建合成数据的复杂性。他认为,“合成数据不是真实的数据,就像你做梦登上了珠穆朗玛峰并不是真正登顶了一样。” 结语 目前对于生成合成数据的最佳做法尚未达成共识,这突出表明需要在这一领域进一步研究和发展。随着该领域的不断发展,人工智能研究人员和领域专家之间的合作对于充分利用人工智能开发合成数据的潜力至关重要。 [...]

Deepseek-V2技术报告解读:AI领域的全新突破!Deepseek-V2技术报告解读:AI领域的全新突破!

导语:Deepseek-V2是一款全新的大型语言模型,在人工智能领域引起了广泛关注。通过研究人员和工程团队的努力,Deepseek-V2集成了多种训练策略和优化方法,取得了卓越的性能。最近发布的技术报告详细解释了Deepseek-V2的核心优化、架构设计和训练方法。本文将以通俗易懂的方式,向您介绍Deepseek-V2的技术报告。 核心优化显示内容解析:Deepseek-V2利用多头隐式注意力(MLA)进行核心优化。MLA通过减少kv缓存的占用来提高解码速度,并采用低秩推理的方式进行计算。通过详细的配置文件分析,我们可以了解到每个部分的作用和设计原理。 架构解读:Deepseek-V2采用了多层次的模型堆叠架构,经过预处理、注意力计算和多头专家模型等处理。整体架构设计遵循了一系列通用的标准,如pre-norm范式、RMSNorm归一化和SiLU非线性激活函数等。通过详细的架构图和配置文件,我们可以了解模型的设计和计算流程。 训练:Deepseek-V2采用了多种优化策略进行训练。其中包括长度外推训练和模型对齐训练。长度外推训练通过YaRN方法扩展模型的上下文能力,而模型对齐训练通过对话数据进行SFT,并注重指令遵循能力。Deepseek-V2还进行了工程优化,如流水线并行和数据并行等,提高了训练效率。 模型效果:Deepseek-V2在通用能力和成本效率方面取得了显著的成果。在通用能力上,模型在MMLU多选题benchmark上表现出色。在成本效率方面,Deepseek-V2节约了训练成本,减少了显存占用,并提升了生成吞吐量。通过模型效果的测试,Deepseek-V2展现出了强大的基座能力和指令遵循能力。 讨论:Deepseek-V2的讨论部分提到了指令微调数据规模、强化学习对齐税和在线偏好对齐等方面的优化。这些优化方法进一步提升了模型的性能和效果。 总结:Deepseek-V2通过多种优化策略和工程方法取得了突破性的成果。它的架构设计和训练方法经过精心优化,使得模型在通用能力和成本效率方面表现出色。Deepseek-V2的发布为人工智能领域带来了新的突破,为AI技术的发展提供了重要的支持。 [...]

大型语言模型:解锁零样本反事实生成的黑匣子大型语言模型:解锁零样本反事实生成的黑匣子

导语:在自然语言处理(NLP)任务中,反事实生成在模型开发和评估中扮演重要角色。然而,传统的反事实生成方法需要大量训练数据和模型微调,不太实用。因此,本研究提出了一个新的问题:如何在零样本情况下生成高质量的反事实示例?为此,我们提出了一种创新的方法,利用大型语言模型(LLMs)作为通用反事实生成器。我们猜测,最新的LLMs具有遵循指令和理解文本的能力,可以高效生成高质量的反事实,无需任何训练或微调。通过广泛的实验验证,我们展示了LLMs作为零样本反事实生成器在评估和解释黑匣子NLP模型方面的有效性。 Q: 这篇论文试图解决什么问题? A: 这篇论文试图解决的问题是如何在没有额外训练数据的情况下,利用大型语言模型(LLMs)生成高质量的反事实示例。传统的反事实生成方法依赖于预训练语言模型,并在特定任务的数据集上进行微调,这在实际中不太可行。因此,本研究提出了一个新的问题设置,即零样本反事实生成,并提出了一种结构化方法,利用LLMs作为通用的反事实生成器。 Q: 有哪些相关研究? A: 相关研究包括反事实生成、自动化反事实生成方法、人类专家注释、大型语言模型(LLMs)、指令遵循和文本理解、模型解释性、模型评估和健壮性测试、模型训练和改进、模型偏见和公平性等。 Q: 论文如何解决这个问题? A: 论文通过提出FIZLE框架来解决零样本反事实生成问题。该框架利用LLMs作为通用的反事实生成器,无需任何训练或微调,可以生成高质量的反事实示例,用于评估和解释黑匣子NLP模型。FIZLE框架包括利用LLMs生成反事实的结构化方法,通过指令和约束提示来生成高质量的反事实,以及使用评估指标来衡量生成的反事实的质量。 Q: 论文做了哪些实验? A: 论文通过反事实解释实验和模型评估实验来验证FIZLE框架的有效性。反事实解释实验使用DistilBERT模型作为黑匣子分类器,并利用FIZLE框架的两种变体生成反事实解释。模型评估实验使用不同数据集和任务,在使用FIZLE框架生成的反事实和原始测试集上对目标模型进行评估。实验使用标签翻转得分、语义相似度和编辑距离等指标来衡量生成的反事实解释的质量。 Q: 有什么可以进一步探索的点? A: 可以进一步探索的点包括改进FIZLE框架、验证生成反事实的忠实度、提高LLM的推理能力、生成反事实的一致性、模型训练和改进、揭示模型偏见、模型公平性、跨领域应用、伦理和偏见问题、混合方法、大规模部署、用户研究等。这些探索点可以帮助研究者更深入地理解和改进LLMs在反事实生成任务中的应用,并推动可解释AI和NLP模型的进一步发展。 Q: 总结一下论文的主要内容 A: 这篇论文的主要内容可以总结如下: 问题定义:论文提出了零样本反事实生成的问题,即在没有额外训练数据的情况下,如何利用大型语言模型(LLMs)生成高质量的反事实示例。 FIZLE框架:作者提出了FIZLE框架,利用LLMs作为通用反事实生成器,无需训练或微调,可生成用于评估和解释黑匣子NLP模型的反事实示例。 实验设计:通过反事实解释实验和模型评估实验,展示了FIZLE框架在解释模型决策和评估模型性能方面的有效性。 评估指标:使用标签翻转得分、语义相似度和编辑距离等指标,衡量生成的反事实的质量。 模型比较:将FIZLE框架与其他反事实生成方法进行比较,展示了FIZLE在不同任务上的性能。 [...]