大型语言模型在推荐系统中的应用:一场智能推荐的革命

近年来,大型语言模型(LLM)在自然语言处理领域取得了巨大进步,其强大的能力也开始应用于推荐系统,为个性化推荐带来了新的突破。本文将带您深入了解LLM在推荐系统中的应用,并探讨其带来的机遇和挑战。 LLM:推荐系统的“超级大脑” 大型语言模型,顾名思义,是基于深度学习的语言模型,通过海量文本数据的训练,具备强大的语言理解和生成能力。在推荐系统中,LLM可以发挥以下作用: LLM在推荐系统中的两种主要范式 目前,LLM在推荐系统中的应用主要分为两种范式: 1. 判别式推荐LLM(DLLM4Rec): 这种范式主要利用LLM的语言理解能力,对用户和商品进行特征提取,并基于这些特征进行推荐。例如,可以利用LLM对用户评论进行情感分析,从而更好地理解用户的喜好。 2. 生成式推荐LLM(GLLM4Rec): 这种范式主要利用LLM的语言生成能力,生成推荐理由、商品描述等,为用户提供更丰富的推荐信息。例如,可以利用LLM根据用户的兴趣生成个性化的商品推荐文案,提升用户体验。 LLM在推荐系统中的挑战与未来 虽然LLM为推荐系统带来了巨大潜力,但也面临着一些挑战: 未来,LLM在推荐系统中的应用将朝着以下方向发展: 结语 大型语言模型的出现,为推荐系统带来了新的机遇和挑战。相信随着技术的不断发展,LLM将在推荐系统中发挥越来越重要的作用,为用户提供更精准、更个性化的服务,开启智能推荐的新时代。 参考文献

大型语言模型在推荐系统中的应用:一场悄然兴起的变革

近年来,大型语言模型(LLM)在自然语言处理领域取得了突破性进展,其强大的能力也开始渗透到推荐系统领域,为推荐系统带来了新的机遇和挑战。 传统的推荐系统主要依赖于用户和物品的特征,例如用户的历史行为、物品的属性等。然而,这些特征往往无法完全捕捉到用户和物品之间的复杂关系,导致推荐结果的准确性和个性化程度有限。 大型语言模型的出现为推荐系统带来了新的希望。LLM 能够学习到更深层次的语义信息,并能将这些信息用于推荐决策。例如,LLM 可以分析用户的文本评论,理解用户的喜好和需求,从而推荐更符合用户口味的物品。 大型语言模型在推荐系统中的应用主要分为两大类: 1. 判别性推荐LLM(DLLM4Rec): 这类模型主要利用 LLM 的强大能力来学习用户和物品的表示,并利用这些表示来进行推荐。例如,我们可以利用 LLM 对用户评论进行编码,将用户和物品映射到同一个向量空间,然后根据向量之间的距离进行推荐。 2. 生成式推荐LLM(GLLM4Rec): 这类模型利用 LLM 的生成能力来生成推荐结果。例如,我们可以利用 LLM 生成用户可能感兴趣的物品描述,或者根据用户的历史行为生成推荐列表。 大型语言模型在推荐系统中的应用带来了诸多优势: 然而,大型语言模型在推荐系统中的应用也面临着一些挑战: 尽管面临着一些挑战,大型语言模型在推荐系统中的应用仍然具有巨大的潜力。相信随着技术的不断发展,大型语言模型将在推荐系统中发挥越来越重要的作用,为用户带来更加精准、个性化和丰富的推荐体验。 参考文献: 注: 本文参考了 [2305.19860] A Survey on Large Language Models for Recommendation 的内容,并进行了改写和整理,以使其更易于阅读和理解。

态势感知的未来十年

导言 在《态势感知的未来十年》这篇文章中,Leopold Aschenbrenner描绘了未来十年人工智能(AI)发展的宏伟蓝图。随着计算能力的迅速增长和技术的不断突破,态势感知(Situational Awareness)将不仅仅是一个术语,而将成为关于人类未来的核心概念。在这篇文章中,我们将探讨AI的发展路径、面临的挑战以及未来的可能性。 从GPT-4到AGI:计算能力的飞跃 到2027年实现人工通用智能(AGI)是非常可信的。从GPT-2到GPT-4的进步已经让我们在短短四年内从学龄前儿童的水平跃升到聪明的高中生。追踪计算能力、算法效率和“不受束缚”的收益,我们可以预期到2027年将出现另一次质的飞跃。 GPT-4的能力让很多人感到震惊:一个AI系统可以写代码、论文,通过困难的数学问题进行推理,并在大学考试中名列前茅。然而,这种巨大的进步不仅仅是一时的突破,而是深度学习不断扩大的持续趋势的结果。 在未来几年,随着计算能力的进一步提升,我们预计AI模型将能够完成AI研究人员或工程师的工作。这并不需要相信科幻小说,只需要相信图形上的直线。 从AGI到超级智能:智能爆炸 AI的进步不会止步于人类的水平。数以亿计的AGI可以实现AI研究的自动化,将十年的算法进步压缩到一年。我们将很快从人类水平发展到超级智能,真正意义上的超级智能。超级智能的力量和危险将是戏剧性的。 在智能爆炸的过程中,我们将看到AI系统在我们甚至无法理解的领域内做出新颖、创造性、复杂的行为。超级智能的力量将带来决定性的经济和军事优势。我们能保持对威权国家的优越地位吗?我们能设法避免自毁前程吗? 奔向万亿级集群 随着AI收入的快速增长,到2020年代末,数万亿美元将投入GPU、数据中心和电力建设中。工业动员,包括对美国电力生产的不满,都将导致严重的后果。美国的大企业正准备投入数万亿美元,以动员美国的工业力量,这是一场前所未见的行动。 超级智能的出现将带来决定性的军事优势,并可能引发一场前所未有的国际竞赛。确保AGI的机密和权重免受国家行为者的威胁将是一项巨大的努力,我们还没有走上正轨。 Superalignment:解决超级智能的对齐问题 可靠地控制比我们聪明得多的AI系统是一个尚未解决的技术问题。虽然这是一个可以解决的问题,但在快速的智能爆炸中,事情很容易失控。处理这个问题会非常紧张,失败很容易造成严重后果。 在智能爆炸的背景下,AI的对齐问题将变得更加紧迫。我们需要开发新的技术和方法,确保超级智能能够按照人类的意图行事。对于未来的超级智能来说,确保其对齐将是一个巨大的挑战,但也是一个必须解决的问题。 世界必胜 超级智能将带来决定性的经济和军事优势。威权国家还没有完全退出竞争。在通往AGI的竞赛中,自由世界的生存岌岌可危。我们能保持对威权国家的优越地位吗?我们能设法避免自毁前程吗? 随着AGI竞赛的加剧,国家安全部门将被卷入其中。美国政府将从沉睡中醒来,到2027/28年,我们将获得某种形式的政府AGI项目。在这个过程中,确保自由世界的胜利将是至关重要的。 结语 未来十年,AI的发展将带来前所未有的变革。态势感知不仅仅是一个技术术语,而是关于人类未来的核心概念。我们需要为即将到来的智能爆炸做好准备,确保AI技术的安全和对齐,以迎接一个充满机遇和挑战的未来。 https://dweb.link/ipfs/QmXyimbpFo3FSfcpVZMCDxJUHEsi2CsqAQR9Axf3zQabni?filename=%E3%80%8A%E6%80%81%E5%8A%BF%E6%84%9F%E7%9F%A5%E7%9A%84%E6%9C%AA%E6%9D%A5%E5%8D%81%E5%B9%B4%E3%80%8Bsituationalawareness.pdf

透视未来:视觉语言模型的空间推理能力

近年来,大型语言模型(LLM)如Llama 2、Mistral和GPT系列在问答、语言生成和算术推理等基于文本的任务中取得了令人瞩目的成就。在此基础上,视觉语言模型(VLM)应运而生,它们不仅具备LLM强大的文本处理能力,还能够处理和理解多模态的视觉信息,例如图像和视频。 然而,VLM的空间推理能力,即理解和推理物体之间空间关系的能力,仍处于发展初期,尚未得到充分的研究和评估。为了填补这一空白,来自剑桥大学的研究人员提出了一种全新的评估基准TOPVIEWRS,用于评估VLM从顶视图视角理解和推理空间关系的能力。 为什么选择顶视图? 与传统的第一人称视角相比,顶视图更贴近人类阅读和理解地图的方式。试想一下,当你查看地图寻找路线时,你是否会下意识地将自己置身于地图上空,以“上帝视角”俯瞰整个环境? 顶视图的优势在于: TOPVIEWRS:挑战VLM空间推理能力的试金石 TOPVIEWRS数据集包含11,384道多项选择题,每道题都配有一张真实世界场景的真实或语义顶视图。 TOPVIEWRS数据集的设计具有以下特点: VLM的空间推理能力:现状与挑战 研究人员使用TOPVIEWRS数据集评估了10个代表性的开源和闭源VLM,包括Idefics、LLaVA-Next、InternLM-XComposer2、Qwen-VL、GPT-4V和Gemini等。 实验结果表明: 展望未来:通向更强大的空间推理能力 尽管VLM在空间推理方面仍有很大提升空间,但TOPVIEWRS数据集的提出为未来研究指明了方向。研究人员指出,未来可以探索以下方向: 参考文献: VLM空间推理能力为自动驾驶保驾护航 自动驾驶汽车被誉为未来交通的颠覆者,而实现安全可靠的自动驾驶离不开强大的环境感知和空间推理能力。传统的自动驾驶系统主要依赖于各种传感器(如摄像头、激光雷达、毫米波雷达等)收集环境信息,并通过算法进行处理和分析。然而,这些系统在处理复杂场景、理解交通规则、预测其他车辆和行人意图等方面仍面临巨大挑战。 近年来,随着VLM在视觉理解和语言推理方面的突破,其在自动驾驶领域的应用也逐渐引起关注。VLM强大的空间推理能力可以为自动驾驶系统提供以下助力: 1. 更精准的环境感知: 2. 更智能的决策规划: 3. 更人性化的交互体验: 应用实例: 挑战与展望: 尽管VLM在自动驾驶领域展现出巨大潜力,但仍面临一些挑战,例如: 总而言之,VLM的空间推理能力为自动驾驶技术的发展带来了新的机遇。随着算法和硬件的不断进步,VLM有望在未来自动驾驶系统中扮演更加重要的角色,为人们提供更安全、高效、舒适的出行体验。

Analysis of “TOPVIEWRS: Vision-Language Models as Top-View Spatial Reasoners”

This research paper investigates the capabilities of Vision-Language Models (VLMs) to understand and reason about spatial relationships from a top-view perspective. The authors argue that while VLMs have shown promise in various multimodal tasks, their spatial reasoning abilities, particularly from a top-view perspective, remain underexplored. Here’s a breakdown of the paper’s key aspects: 1. Problem … Read more

让机器自我反思,更聪明地学习:解读反思强化自训练技术

近年来,大型语言模型(LLM)展现出惊人的能力,不仅能理解和生成人类语言,还能与外部环境交互完成复杂任务,例如问答、代码生成、图像生成等。为了进一步提升这些“语言代理”的性能,研究人员提出了许多方法,其中“自训练”技术备受关注。 简单来说,自训练就是让机器“自学成才”。它不需要人工标注数据,而是让模型自己生成样本,评估样本质量,并利用高质量样本进行训练,从而不断提升自身水平。 然而,现有的自训练方法存在一些缺陷: 为了解决这些问题,这篇论文提出了一种名为“反思强化自训练(Re-ReST)”的新方法。 Re-ReST 的核心思想是引入一个“反思模型”,帮助机器从错误中学习。 具体来说,Re-ReST 包含两个关键组件: Re-ReST 的工作流程如下: 研究人员在一系列任务上对 Re-ReST 进行了测试,包括多跳推理、顺序决策、代码生成、视觉问答和文本到图像生成等,结果表明 Re-ReST 均取得了优于传统自训练方法的性能。 Re-ReST 的优势在于: Re-ReST 是一种新颖且有效的语言代理自训练方法,通过引入反思机制,让机器能够从错误中学习,不断提升自身的能力,在人工智能领域具有广阔的应用前景。 Q: 这篇论文试图解决什么问题? A: 这篇论文提出了一种名为Reflection-Reinforced Self-Training(Re-ReST)的新方法,旨在解决语言代理(language agents)自我训练(self-training)过程中的一些限制。具体来说,这些限制包括: 为了解决这些问题,Re-ReST方法引入了一个反思模型(reflection model),该模型能够利用外部环境的反馈(例如代码生成中的单元测试结果)来改进低质量的样本,并将改进后的样本用于增强自我训练的数据集。通过这种方式,Re-ReST能够有效地提高低质量样本的质量,并高效地丰富自我训练数据集,从而提升模型性能。 Q: 有哪些相关研究? A: 这篇论文提到了多个与自我训练(self-training)和自我改进(self-improvement)相关的研究工作。以下是一些主要的相关研究: 这些研究为Re-ReST方法提供了理论和技术背景,同时也展示了在自我训练和自我改进领域的研究进展。Re-ReST通过结合反思模型和自我训练,旨在提高语言代理在各种任务上的性能。 Q: 论文如何解决这个问题? A: 论文通过提出Reflection-Reinforced Self-Training (Re-ReST)方法来解决自我训练中的效率和样本质量问题。以下是Re-ReST方法的关键步骤和组件: 通过这种方法,Re-ReST能够有效地利用低质量样本,提高自我训练数据集的质量,从而提升语言代理的性能。 Q: 论文做了哪些实验? A: 论文中进行了一系列实验来验证Re-ReST方法的有效性。实验涵盖了多种任务,包括多跳推理、顺序决策制定、代码生成、视觉问题解答和文本到图像生成。以下是具体的实验设置和结果概述: 这些实验结果一致表明,Re-ReST方法能够在不同任务和数据集上提高语言代理的性能,证明了该方法的有效性和适用性。 Q: 有什么可以进一步探索的点? A: 论文在最后一部分提出了几个未来可能的研究方向,这些可以作为进一步探索的点: 这些探索点可以帮助研究者们扩展Re-ReST方法的应用范围,提高其性能,并为未来的研究提供新的方向。 Q: 总结一下论文的主要内容 A: 这篇论文提出了一种名为Reflection-Reinforced Self-Training (Re-ReST)的新方法,旨在改善语言代理的自我训练过程。以下是论文的主要内容概述: … Read more

LOFIT:精准微调,唤醒大语言模型的深度潜能

近年来,人工智能领域的大语言模型(LLM)如ChatGPT等展现出惊人的能力,能够生成流畅自然的文本,甚至完成复杂的推理任务。然而,这些模型也暴露出一些问题,例如生成的内容可能存在偏见或不符合事实。为了解决这些问题,研究人员一直在探索如何更有效地微调LLM,使其在特定任务上表现更出色。 聚焦注意力机制:LOFIT如何精准微调? 微调LLM的一种常见方法是使用参数高效微调(PEFT)技术,例如LoRA和RED。这些方法只更新预训练模型中的一小部分参数,从而减少了计算成本和训练数据需求。然而,这些方法通常对网络进行统一的微调,或者将选择哪些模块进行微调视为一个超参数,而没有使用任何明确的解释或定位步骤。 与之形成鲜明对比的是,LOFIT(Localized Fine-Tuning on LLM Representations,LLM表征的局部微调) 框架则另辟蹊径,它首先选择对目标任务最重要的注意力头子集进行修改。 “LOFIT首先选择对目标任务最重要的注意力头子集进行修改,然后执行局部微调步骤,以学习添加到这些头表征中的偏移向量,从而得到最终模型。” 简单来说,LOFIT就像一位经验丰富的技师,它能够精准地找到LLM中最需要“调试”的部分,并进行针对性的调整,从而最大限度地提升模型的性能。 以小博大:LOFIT如何用最小的改动实现最大的提升? 研究人员将LOFIT与其他表征干预方法(例如推理时干预(ITI)和表征工程(RepE))在真实性和推理任务上进行了比较。结果表明,即使使用通过ITI定位策略选择的注意力头,LOFIT也比ITI有效得多。 “对于真实性和推理任务,我们发现LOFIT的干预向量比来自表征干预方法(如推理时干预)的向量更有效地适应LLM。” 这意味着,LOFIT能够用更少的训练数据和计算资源,实现与其他方法相当甚至更好的效果。 精准定位,事半功倍:LOFIT为何如此高效? LOFIT的出色表现主要归功于其独特的定位步骤。通过选择特定于任务的注意力头集合,LOFIT能够更有效地利用训练数据,从而在最终的微调步骤中获得更高的性能。 “我们发现,即使是跨越从Transformers中提取知识的相关任务(例如,提高TruthfulQA中的真实性和处理MQuAKE中的反事实知识),使用专门针对特定任务的注意力头集合也可以改进最终的微调步骤。” 研究人员还发现,不同规模的模型(包括Gemma-7B、Llama 2-7B和Llama 2-13B)的定位会识别出不同的注意力头子集,并且这些子集不能互换,否则会导致性能下降。 未来展望:LOFIT将如何改变LLM的应用? LOFIT作为一种新兴的LLM微调方法,展现出巨大的潜力。它不仅能够提高模型在特定任务上的性能,还能够帮助我们更好地理解LLM的内部机制。 可以预见,随着LOFIT技术的不断发展和完善,它将在更多领域得到应用,例如: 参考文献: 总结 LOFIT通过精准定位和微调LLM的注意力机制,以最小的改动实现了最大的性能提升。这项技术有望在未来改变我们与人工智能交互的方式,为人类社会带来更多便利和福祉。 Q: 这篇论文试图解决什么问题? A: 这篇论文提出了一种名为LOFIT(Localized Fine-Tuning on LLM Representations)的新框架,旨在解决如何有效地对大型预训练语言模型(LLMs)进行微调,以便在新任务上获得更好的性能。具体来说,它试图解决以下问题: 总的来说,LOFIT试图提供一个更加精确和高效的微调方法,以提高大型语言模型在特定任务上的性能,同时保持参数的稀疏性和提高模型的泛化能力。 Q: 有哪些相关研究? A: 论文中提到了多个与LOFIT框架相关的研究领域和具体工作,主要包括以下几个方面: 论文中还提到了一些具体的工作和方法,例如Inference-Time Intervention (ITI)、Representation Engineering (RepE)、LoRA、RED等,这些都是在上述领域中的代表性研究。这些研究为LOFIT提供了理论基础和技术背景。 Q: 论文如何解决这个问题? A: 论文通过提出一个名为LOFIT(Localized Fine-Tuning on LLM Representations)的框架来解决这个问题。LOFIT框架主要通过以下步骤实现: 通过这些步骤,LOFIT框架能够有效地对大型语言模型进行局部微调,以适应新任务,同时保持参数的稀疏性和提高模型的泛化能力。 Q: … Read more

MMLU-Pro:更强大、更具挑战性的多任务语言理解基准

引言:人工智能理解能力的新标杆 近年来,大型语言模型(LLM)的进步彻底改变了自然语言处理(NLP)领域。GPT-4、Gemini 和 Claude 等最先进的模型正在不断突破人工智能在语言理解和推理方面的能力边界。为了实现专家级人工智能的目标,即在各种任务中达到或超过 10% 的技能娴熟的成年人的表现,我们需要不断评估这些模型在广泛任务上的表现。 目前,有多种流行的基准测试用于衡量这种通用智能,例如侧重于考试题的 AGIEval、侧重于科学问题的 ARC、侧重于解决困难的合成任务的 BBH 以及涵盖 STEM、人文、社会科学等 57 个科目的考试题的 MMLU。 MMLU 的局限性:从饱和到不稳定 MMLU 因其广泛的覆盖面和高质量而成为评估 LLM 的事实标准。然而,当前 LLM 的快速发展已迅速导致 MMLU 的性能饱和。自 2023 年 3 月 GPT-4 达到 86.4% 的准确率以来,该基准测试一直没有取得任何重大进展。大多数最新的前沿模型,如 GPT-4-Turbo、Gemini-1.5-Pro、Claude 和 LLaMA-3-400B,其准确率都稳定在 86% 到 87% 之间。最近发布的 GPT-4o 在 MATH 和 Chatbot Arena 上取得了显著的性能提升(10% 以上),但在 MMLU 上仅获得了 1% 的提升,达到 87.4%。 除了饱和问题外,MMLU … Read more

AI Native Apps 开发的实践与思考

战略的理念是以己之长攻人之短 在开发 AI Native Apps(原生人工智能应用程序)时,制定正确的战略非常重要。我们可以借鉴一些战略理念,例如以己之长攻人之短。这意味着我们应该专注于发挥自身的优势,而不是试图与大公司直接竞争。每家公司都有不同的使命和定位,我们应该在这个广阔的市场中找到适合自己的空间。 案例分析: 一个创业公司不应该试图通过大规模广告投放来击败大公司,因为大公司的投放成本几乎为零。即使是像字节跳动这样的公司,他们更关注用户口碑。创业公司应该采取不同的策略,利用自身的优势和资源建立局部的竞争优势。 AI Native 的定义 AI Native 并不是指应用中 AI 技术的占比,而是利用人工智能技术创造全新的应用范式。以 PPT 类应用为例,AI Native PPT 并不仅仅是将 AI 用于生成大纲和图片的组合,而是通过 AI 技术创造了一种全新的 PPT 创作方式。 案例分析: AI Native PPT 应用不仅可以帮助用户生成大纲和图片,还可以根据用户的输入自动调整内容和布局,提供更加智能和个性化的创作体验。这种新的应用范式使用户可以更高效地创建演示文稿,节省时间和精力。 寻找 AI Native 应用的 PMF 在开发 AI Native 应用之前,寻找产品-市场匹配(PMF)是非常重要的。在新技术出现之前,已经有一些先行者在尝试和验证新的产品。我们可以通过以下途径来寻找已经验证过的 PMF: 案例分析: 通过关注以上渠道,我们可以获得很多有关 AI Native 应用的信息。比如,我们可能发现在教育领域有一些成功的 AI Native 应用,如智能辅导系统,可以根据学生的学习情况提供个性化的辅导和反馈。这是一个已经验证过的 PMF,我们可以在此基础上思考如何差异化和创新。 AI 和 App 的配比 在开发 … Read more

探索Intel Ultra CPU中的NPU与DirectML的结合

在人工智能(AI)逐渐融入各类应用的今天,新的技术正在不断改变我们的PC体验。Intel Ultra CPU中的神经处理单元(NPU)便是其中的一个亮点。本文将详细介绍NPU的功能和DirectML在Windows上的应用,帮助读者更好地理解这两者的结合如何推动AI的发展。 什么是NPU? NPU,全称为神经处理单元(Neural Processor Unit),是一种专门用于执行机器学习工作负载的处理器。与传统的CPU和GPU不同,NPU专门设计用于处理AI计算任务,具有高性能和低功耗的特点。这种创新的处理器能够释放CPU和GPU的计算资源,专注于高效执行AI工作负载,从而为用户提供更流畅的AI体验。 根据Intel社区博客《解锁Intel的神经处理单元与DirectML》[1],Intel Ultra CPU中的NPU集成在SoC中,能够以相对较低的功耗执行高性能AI计算任务。这种设计不仅提升了AI计算的效率,还为PC带来了更多的可能性,例如创新的AI应用和更强大的生产力工具。 什么是DirectML? DirectML是Windows上的机器学习平台API,它提供了对硬件加速器的通用抽象层。DirectML最初支持GPU,现在也扩展支持NPU。它是DirectX家族的一部分,与DirectX 12兼容,并且可以与其他DirectX组件(如DirectX 12)集成。此外,DirectML还与流行的机器学习和工具框架(如ONNX Runtime和Olive)集成,简化了在Windows生态系统中开发和部署AI体验的过程。 在《DirectML:加速Windows上的AI,现在支持NPU》[2]一文中提到,DirectML是一种低级别、硬件抽象的API,它能够直接访问现代设备(如GPU和NPU)的硬件功能。这种设计使得开发者可以利用DirectML在Windows平台上创建高效的AI应用。 DirectML与Intel NPU的结合 DirectML已经推出了对Intel Core Ultra处理器上NPU加速的开发者预览版本。这一版本支持在新的Windows 11设备上使用Intel Core Ultra处理器的NPU,并且可以运行一部分经过优化的机器学习模型。尽管目前的开发者预览版本仍处于初期阶段,只支持特定的模型,并且可能存在一些兼容性和性能方面的问题,但这个版本标志着AI PC时代的开始。 根据DirectX开发者博客《Introducing Neural Processor Unit (NPU) support in DirectML (developer preview)》[3],DirectML团队正在努力改进兼容性和性能,并期待用户的反馈和经验。这一新功能的推出将为开发者提供更多的工具和资源,帮助他们在Windows平台上创建更强大的AI应用。 总结 NPU和DirectML的结合为PC带来了全新的AI体验。Intel Ultra CPU中的NPU能够高效地执行AI计算任务,而DirectML提供了与这些硬件加速器交互的简便途径。这种结合不仅提升了AI计算的性能,还为开发者提供了更多的可能性。 未来,我们期待看到更多基于NPU和DirectML的创新AI应用,为用户带来更丰富的AI体验。 Learn more: