🤖 AI风暴来袭:老板们,别再“忽悠”员工了!

🤔 AI时代,谁来“接盘”? 人工智能(AI)的浪潮席卷全球,它就像一匹脱缰的野马,势不可挡地冲进我们的生活,也冲击着我们的工作。对于AI带来的冲击,不少人感到迷茫,甚至恐惧。而一些企业领导者,却试图用“一切都会好”的“鸡汤”来安抚员工,这真的可行吗? 🤫 别再“蒙”员工了! 世界科技巨头、身价70亿美元的Jim Kavanaugh,直言不讳地指出,老板们不应该对员工隐瞒AI对工作的影响。他认为,员工们足够聪明,不会相信AI不会改变他们的工作环境,更不会相信AI不会淘汰任何工作。 “如果你们试图欺骗员工,告诉他们一切都会好,什么都不会改变,那简直是胡说八道!” Kavanaugh在接受CNBC采访时说道。 他强调,虽然没有人能完全预测AI对工作的影响,但领导者有责任对员工坦诚相待,并鼓励他们积极学习AI和科技知识。 📈 AI是“毁灭者”还是“创造者”? AI究竟是“毁灭者”还是“创造者”?这个问题引发了广泛的讨论。 高盛的一份研究报告指出,生成式AI可能会取代3亿个工作岗位。报告还指出,美国和欧洲大约三分之二的现有工作岗位面临着一定程度的AI自动化风险,而生成式AI可能取代四分之一的现有工作。 然而,Kavanaugh和Salesforce的AI负责人Clara Shih都认为,AI最终会成为工作世界中的积极力量,创造新的工作岗位。 Shih指出,互联网的出现也曾摧毁了许多工作岗位,但同时也创造了我们以前无法想象的新工作。 💼 未来工作,需要“重新定义” Shih认为,AI时代,每个人都需要重新定义自己的工作。大多数工作岗位不会消失,但每个工作岗位都需要新的描述。 例如,Salesforce推出了一个名为AgentForce的AI平台,可以帮助企业构建和定制自己的AI“代理”,这些“代理”可以帮助企业处理客户服务和员工支持等任务。 💡 拥抱AI,迎接挑战 AI的到来不可避免,与其逃避,不如积极拥抱。就像Kavanaugh所说,我们要成为AI和科技的学习者,而不是畏惧者。 AI的浪潮已经来临,让我们一起迎接挑战,在AI时代创造新的辉煌! 😄 参考资料

💰 AI 基建:贝莱德和微软的“千亿”豪赌

AI 正在席卷全球,而数据中心和电力基础设施是这场革命的基石。 就像汽车需要道路一样,AI 需要庞大的算力和能源支撑。贝莱德和微软联手,豪掷千金,打造了一只名为“Global AI Infrastructure Investment Partnership”(GAIIP)的巨型基金,誓要将AI基础设施建设推向新的高度。 💡 300 亿美元的“起步价”,1000 亿美元的“最终目标” 这支基金的初始投资目标为 300 亿美元,未来总投资潜力将高达 1000 亿美元。这可不是小打小闹,堪称华尔街有史以来最大的投资工具之一。贝莱德的董事长兼CEO 芬克(Larry Fink)表示,建设 AI 基础设施将释放数万亿美元的长期投资机会,这将成为推动经济增长、创造就业机会和 AI 技术创新的关键。 💻 数据中心:数字经济的“心脏” GAIIP 的投资将主要集中在美国,用于新建和扩建数据中心,满足日益增长的算力需求。数据中心是数字经济的“心脏”,是 AI 算法训练和运行的“大脑”。 就像人类的大脑需要氧气一样,数据中心需要大量的电力来维持运转。 ⚡️ 电力:AI 发展的“血液” 除了数据中心,GAIIP 还将投资于能源基础设施,为这些设施提供电力。 AI 算法的训练需要消耗大量的电力,这就像 AI 发展的“血液”,为其提供源源不断的能量。 🤝 强强联手:贝莱德、微软、英伟达、阿布扎比政府 贝莱德、微软、英伟达和阿布扎比政府的强强联手,为 GAIIP 提供了强大的资金和技术支持。微软将提供资金和专业知识,英伟达将提供 AI 数据中心和 AI 工厂方面的专业知识。阿布扎比政府的加入,则为基金提供了稳定的资金来源。 💪 开放式架构:拥抱“AI 生态” GAIIP 将支持开放式架构和广泛的生态系统,各种合作伙伴和公司都有非排他性的全面接触渠道。这就像一个开放的平台,吸引更多企业参与到 AI 基建的建设中,共同推动 … Read more

📚 山姆·阿尔特曼推荐的九本改变人生的书籍

在这个快速发展的科技时代,书籍依旧是人类智慧的宝库。山姆·阿尔特曼(Sam Altman),作为OpenAI的首席执行官,深知阅读的力量。他不仅热爱书籍,还认为它们能够帮助我们找到人生的意义,理解社会的复杂性,以及应对未来的挑战。本文将深入探讨阿尔特曼所推荐的九本书籍,这些作品不仅富有启发性,还能引发关于人类未来的深思。 🌱 寻找生命的意义 首先,阿尔特曼推荐的《活出意义来》(”Man’s Search for Meaning”)是维克多·弗兰克尔(Viktor Frankl)的经典之作。这本书以弗兰克尔在纳粹集中营的亲身经历为基础,探讨了即使在绝望中,个体依然可以找到生命的意义。弗兰克尔通过深刻的心理分析,告诉我们如何在困境中寻找自我价值,进而启发我们在日常生活中面对挑战时,寻找属于自己的目标与方向。 🧠 理解思维的本质 接下来是《思考,快与慢》(”Thinking, Fast and Slow”),由诺贝尔经济学奖得主丹尼尔·卡尼曼(Daniel Kahneman)撰写。这本书揭示了我们大脑的两种思维模式:快速且直觉的思维,以及慢速且深思熟虑的分析。这种思维的双重性让我们在决策时常常受到偏见的影响。阿尔特曼认为,理解这些心理机制对于做出明智的选择至关重要。 🌌 创新思维的突破 《从零到一》(”Zero to One”)是彼得·蒂尔(Peter Thiel)与布莱克·马斯特斯(Blake Masters)共同创作的一本书,挑战了传统的创新观念。蒂尔主张,真正的创新不是在已有基础上改进,而是创造出全新的东西。他的观点将我们从传统思维中解放出来,鼓励我们在创业和创意过程中追求独特性和突破性。 🌍 反思未来的社会 阿尔特曼还推荐了阿道司·赫胥黎(Aldous Huxley)的《美丽新世界》(”Brave New World”)。这本书描绘了一个未来社会,在这个社会中,幸福是被人工制造的,个体的自由和独立性受到抑制。通过主人公的反叛,赫胥黎邀请我们思考科技如何影响人类的本质,以及我们在追求幸福的过程中可能付出的代价。 🚀 理性与想象的力量 《无尽的开始》(”The Beginning of Infinity”)是大卫·德伊奇(David Deutsch)的一部重要作品,探讨了人类理性和想象力的无限潜力。德伊奇认为,通过知识的积累和创造性思维,我们能够克服看似无法解决的难题。这本书激励我们相信,未来的可能性是无穷的,只要我们敢于想象和探索。 📈 快速成长的秘笈 在创业领域,阿尔特曼推荐的《闪电扩张》(”Blitzscaling”)由里德·霍夫曼(Reid Hoffman)和克里斯·耶赫(Chris Yeh)合著,深入探讨了初创企业如何在竞争激烈的环境中迅速扩张。霍夫曼通过成功公司的案例,展示了快速增长与可持续发展的平衡,提供了宝贵的战略思路。 🤖 人工智能的未来 《超级智能》(”Superintelligence”)是尼克·博斯特罗姆(Nick Bostrom)的一部震撼之作,探讨了人工智能对人类未来的影响。博斯特罗姆提出了当机器智能超越人类智能时可能带来的风险和机遇,提醒我们在发展技术的同时,必须保持对人类价值的关注。这本书引发了我们对科技伦理的深刻思考。 🏆 领导力与成功的秘诀 在职场管理方面,阿尔特曼推荐的《赢》(”Winning”)是杰克·韦尔奇(Jack Welch)与苏茜·韦尔奇(Suzy Welch)合著的一本实用指南。书中分享了韦尔奇在通用电气的成功经验,阐述了如何建立一个有竞争力的团队,创造积极的企业文化。这本书挑战了我们对领导力的传统看法,强调了创新与团队合作的重要性。 💼 风险投资的内幕 最后,阿尔特曼推荐的《山丘路的秘密》(”Secrets of Sand … Read more

将 Recommenders 示例无缝迁移到 AzureML 云平台

引言 随着推荐系统规模的扩大和对训练效率要求的提高,将本地实验迁移到云平台成为一种趋势。Azure 机器学习服务(AzureML)为开发者提供了一个强大的云端环境,可以用于数据准备、模型训练、测试、部署、管理和跟踪。 本指南将以 run_notebook_on_azureml.ipynb 为例,介绍如何将 Recommenders 示例 Notebook 提交到 AzureML 计算目标,利用云平台的优势加速推荐系统开发流程。 AzureML 简介 AzureML 提供了丰富的功能,包括: 准备工作 使用 AzureML 之前,需要完成以下准备工作: 连接到 AzureML 工作区 AzureML 工作区是用于组织和协调机器学习工作流的 Azure 资源,它协调存储、数据库和计算资源,为实验、部署、推理和模型监控提供额外功能。 以下代码将获取或创建一个 AzureML 工作区,并将配置保存到 aml_config/config.json 文件中。 创建或连接 Azure 机器学习计算资源 Azure 机器学习计算是一种托管计算基础设施,允许用户轻松创建单节点到多节点的计算资源。 以下代码将创建一个 CPU 集群作为远程计算目标。 提交 Notebook 以下代码将 sar_movielens.ipynb Notebook 提交到 AzureML 计算目标。 监控运行进度 可以使用 Jupyter 小部件监控运行进度。小部件会每隔 10-15 秒提供一次实时更新,直到作业完成。 查看指标 … Read more

微软 Recommenders:推荐系统实战宝典

引言 构建一个高效的推荐系统并非易事,需要对数据进行预处理、选择合适的算法、进行模型训练和评估,最终才能将其部署到生产环境。为了帮助开发者和研究人员更好地应对这些挑战,微软开源了 Recommenders 工具,并提供了一系列 Jupyter Notebook 示例和最佳实践,涵盖了推荐系统开发的完整流程。 示例概览 Recommenders 的示例 Notebook 按照功能和用途被组织在不同的目录下,具体如下表所示: 目录 是否支持本地运行 描述 00_quick_start 是 快速入门示例,演示如何在本地环境中使用推荐算法构建推荐系统。 01_prepare_data 是 数据准备示例,为不同的推荐算法准备和加载数据。 02_model_collaborative_filtering 是 协同过滤算法模型训练和评估示例,深入探讨算法原理和实现细节。 … … … 本地运行示例 大部分示例 Notebook 都可以在本地 Linux 机器上直接运行,只需按照 说明 正确设置环境即可。 注意: 某些示例可能需要异构计算实例,例如安装了 Spark 框架的 CPU 机器集群或配备 GPU 设备的机器。因此,建议在 Linux 数据科学虚拟机 (Ubuntu) 上运行这些 Notebook,因为该虚拟机预先配置了单节点 Spark 和/或 GPU 设备。 Azure 云端增强 为了提高大规模开发推荐系统的效率,部分示例 … Read more

深入浅出推荐系统:微软开源工具 Recommenders 解析

引言 在信息爆炸的时代,人们面对海量数据往往无所适从。推荐系统应运而生,它通过分析用户的历史行为和偏好,为用户提供个性化的推荐内容,帮助用户快速找到自己感兴趣的信息。从电商平台的商品推荐,到社交媒体的内容推送,再到音乐软件的歌曲推荐,推荐系统已经渗透到我们生活的方方面面。 微软开源工具 Recommenders 正是为构建、实验和部署各种经典和先进的推荐系统而生。它提供了一系列 Jupyter Notebook 示例和最佳实践,涵盖了推荐系统构建的五个关键任务: Recommenders 提供了多个实用工具,用于支持加载数据集、评估模型输出和划分训练/测试数据等常见任务。它还包含了一些先进算法的实现,供用户自学和定制自己的应用程序。 算法概览 Recommenders 提供了丰富的推荐算法,涵盖了协同过滤、基于内容的过滤等多种类型,具体如下表所示: 算法 类型 描述 示例 交替最小二乘法 (ALS) 协同过滤 适用于大型数据集的显式或隐式反馈的矩阵分解算法,针对可扩展性和分布式计算能力进行了优化。它在 PySpark 环境中工作。 快速入门 / 深入探讨 注意力异步奇异值分解 (A2SVD) 协同过滤 基于序列的算法,旨在使用注意力机制捕获用户的长期和短期偏好。它在 CPU/GPU 环境中工作。 快速入门 … … … … 注意: 表格中只列举了部分算法,完整列表请参考 README.md。 算法比较 为了方便用户比较不同算法的性能,Recommenders 提供了一个 基准测试 Notebook。该 Notebook 使用 MovieLens 数据集,以 75/25 的比例将其划分为训练集和测试集,并使用多个协同过滤算法训练推荐模型。 下表展示了在 Movielens 100k 数据集上运行 … Read more

思维链增强蒸馏技术的神秘面纱:探究其背后的奥秘

摘要: 近年来,大型语言模型(LLM)在问答等推理任务中表现出色,而“思维链”(CoT)推理的引入更是锦上添花。CoT推理指的是生成能够传达“推理”过程的标记序列,其本质是将解决问题的步骤分解,并用自然语言描述出来。最近的研究表明,这种CoT推理机制可以用于模型蒸馏:在微调小型学生模型时,除了目标标签外,加入从大型“教师”模型中提取的CoT序列可以显著提高模型性能。 本文将深入探讨CoT增强蒸馏技术背后的奥秘,并试图解答以下问题: 通过一系列精心设计的实验,我们揭示了一些令人惊讶的结果,并对CoT增强蒸馏技术提出了新的见解。 一、 CoT增强蒸馏技术:简介 思维链(CoT)推理能够显著提高模型在推理任务中的表现,例如问答 (Wei et al., 2023)。在模型蒸馏领域 (Hinton et al., 2015),研究人员尝试从大型语言模型(如GPT-4)中提取CoT推理链,并用其增强训练数据,以微调体积更小、针对性更强的学生模型。 CoT增强蒸馏技术的流程如下: 这种简单的CoT增强蒸馏策略能够持续且显著地提高学生模型的性能 (Ho et al., 2023)。例如,Li et al. (2023a) 使用GPT-3 (175B) 生成的CoT推理链来训练一个相对较小的学生模型 (OPT-1.5B),使其能够在推理时生成类似的“推理”标记序列,最终在三个常识推理数据集上实现了平均12.4%的准确率提升。 二、 CoT推理链的位置之谜:前置还是后置? 传统上,从大型模型中提取的CoT推理链通常作为前缀,引导模型生成最终的目标标签。然而,我们的研究发现,在模型蒸馏过程中,将CoT推理链放置在目标标签之后,反而能够获得更好的性能提升。 实验设计: 为了探究CoT推理链的位置对模型性能的影响,我们设计了以下实验: 实验结果: 实验结果表明,后置CoT模型的性能始终优于前置CoT模型。这意味着学生模型在推理时不需要生成“推理”过程,因为目标标签已经在推理链之前生成。 原因分析: 我们推测,将CoT推理链放置在目标标签之后,可以为学生模型提供更丰富的上下文信息,使其能够更好地理解目标标签与输入之间的关系。 三、 CoT推理链的本质:逻辑连贯性并非必要条件 为了进一步探究CoT推理链的本质,我们尝试打乱CoT推理链中标记的顺序,观察其对模型性能的影响。 实验设计: 我们对CoT推理链进行了以下操作: 实验结果: 实验结果表明,将打乱顺序后的CoT推理链放置在目标标签之后,对模型性能几乎没有影响。 原因分析: 我们认为,CoT推理链中包含了一些关键的上下文信息,这些信息有助于学生模型更好地理解目标标签与输入之间的关系。即使打乱标记的顺序,这些关键信息仍然存在,因此模型性能不会受到太大影响。 四、 CoT推理链的关键:识别并利用关键标记 既然CoT推理链的逻辑连贯性并非必要条件,那么是否存在一些关键标记,能够在模型蒸馏过程中起到至关重要的作用? 实验设计: 为了识别CoT推理链中的关键标记,我们采用了以下方法: 实验结果: 实验结果表明,使用梯度归因方法识别出的关键标记,能够在模型蒸馏过程中取得与完整CoT推理链相当的性能提升。 原因分析: 我们认为,梯度归因方法能够有效地识别出CoT推理链中对目标标签预测贡献最大的关键标记,这些标记包含了理解目标标签与输入之间关系的最重要信息。 … Read more

MMLU:我们真的完成了它吗?

大型语言模型(LLM)的出现,标志着自然语言处理领域取得了重大进展,使我们能够通过自然语言与计算机进行交互。然而,这些模型的评估需要可靠的基准测试,而现有的基准测试却存在着不少问题。 MMLU:一个广受欢迎但存在问题的基准测试 MMLU(Massive Multitask Language Understanding,大规模多任务语言理解)基准测试,因其涵盖了数学、历史、计算机科学、逻辑、法律等多个领域的知识而备受关注。然而,我们发现,尽管MMLU很受欢迎,但它存在着大量错误,这些错误会误导模型评估和比较。 MMLU中的错误:一个需要解决的问题 研究人员发现,MMLU中存在着各种各样的错误,从简单的解析和抓取错误,到更复杂的上下文、解释和数据集质量问题。例如,在病毒学子集中,57% 的问题都存在错误,其中一些错误甚至建议将美军派往西非以阻止埃博拉疫情的爆发。 MMLU-Redux:一个更可靠的基准测试 为了解决MMLU中存在的错误问题,研究人员手动分析了MMLU数据集,并创建了MMLU-Redux。MMLU-Redux 包含3000个经过手动重新标注的问题,涵盖了MMLU的30个子集。研究人员发现,MMLU-Redux 的结果与原始MMLU的评估结果存在显著差异,这表明MMLU中存在的错误对模型评估结果产生了重大影响。 MMLU-Redux:一个更可靠的基准测试 MMLU-Redux 的创建,为我们提供了重新评估LLM性能的工具。研究人员发现,在MMLU-Redux 上,一些LLM的性能表现与原始MMLU评估结果存在显著差异,这表明MMLU中的错误会影响模型的排名。 自动修复MMLU:一个挑战 研究人员还尝试了使用LLM自动修复MMLU中的错误。他们使用了多种方法,包括零样本提示、少样本提示、链式思维提示和检索增强生成。然而,即使是最先进的模型,在自动错误检测方面的表现仍然有限。 结论:MMLU需要改进 MMLU是一个重要的基准测试,但它存在着不少问题。MMLU-Redux 的出现,为我们提供了一个更可靠的基准测试。研究人员呼吁社区共同努力,改进MMLU,使其成为评估下一代LLM的可靠工具。 参考文献 [1] Vaswani, Ashish, et al. “Attention is all you need.” Advances in neural information processing systems 30 (2017). [2] Brown, Tom, et al. “Language models are few-shot learners.” Advances in neural information … Read more

超越相似性:基于复合聚合的个性化联邦推荐

近年来,联邦推荐(FR)作为一种新兴的设备端学习范式,在学术界和工业界都引起了广泛关注。现有的联邦推荐方法通常采用不同的协同过滤模型作为本地模型,并通过各种聚合函数来获得一个全局推荐器,遵循基本的联邦学习(FL)原则。例如,一项开创性的工作是 FCF,它通过执行本地更新和使用联邦优化进行全局聚合,对集中式矩阵分解进行了改进。此外,FedNCF 将矩阵分解的线性与深度嵌入技术的非线性相结合,建立在 FCF 的基础之上。这些基于嵌入的联邦推荐模型有效地平衡了推荐准确性和隐私保护。 然而,现有的联邦推荐方法主要利用联邦视觉领域中发明的聚合函数来聚合来自相似客户端的参数,例如聚类聚合。尽管这些方法取得了相当大的性能,但我们认为直接将它们应用于联邦推荐并非最佳选择。这主要体现在模型结构的差异上。与联邦视觉中的卷积神经网络等结构化参数不同,联邦推荐模型通常采用一对一的项目嵌入表来进行区分。这种差异导致了嵌入偏差问题,即在聚合过程中不断更新已训练的嵌入,而忽略了未训练的嵌入,从而无法准确预测未来的项目。 为了解决这个问题,我们提出了一种基于复合聚合的个性化联邦推荐模型(FedCA),它不仅聚合了相似客户端以增强已训练的嵌入,还聚合了互补客户端以更新未训练的嵌入。此外,我们将整个学习过程转化为一个统一的优化算法,以共同学习相似性和互补性。在多个真实数据集上的大量实验证明了我们提出的模型的有效性。 嵌入偏差问题:联邦推荐的独特挑战 联邦推荐模型通常使用一个嵌入表来存储所有项目的表示,每个客户端只训练与自己交互过的项目的嵌入。当使用传统的相似性聚合方法时,会发生嵌入偏差问题:已训练过的项目的嵌入会不断得到优化,而未训练过的项目的嵌入则保持不变甚至退化。这导致模型在预测用户未来可能感兴趣的项目时,由于缺乏对未训练项目信息的了解,效果不佳。 FedCA:基于复合聚合的个性化联邦推荐 为了解决嵌入偏差问题,我们提出了 FedCA 模型,它采用了一种复合聚合机制,同时考虑了模型相似性和数据互补性。 FedCA 使用一个统一的优化框架来共同学习相似性和互补性。通过这种方式,FedCA 能够更有效地聚合项目嵌入,从而提高模型的预测准确性和泛化能力。 实验结果 我们对四个基准数据集进行了实验,包括 Movielens-100K、Filmtrust、Movielens-1M 和 Microlens-100K。实验结果表明,FedCA 在所有数据集上都优于其他基线模型,包括 FCF、FedAvg、PerFedRec、FedAtt、FedFast、pFedGraph 和 PFedRec。此外,我们还进行了消融实验,验证了模型相似性和数据互补性在 FedCA 中的有效性。 总结 本文首先重新思考了联邦视觉和联邦推荐任务之间的根本差异。具体来说,联邦视觉领域主要利用结构化参数(例如卷积神经网络)进行联邦优化,而联邦推荐任务主要采用一对一的项目嵌入表进行个性化推荐。这种关键差异导致了从联邦视觉领域借鉴的基于相似性的聚合方法在聚合嵌入表时无效,从而导致嵌入偏差问题。为了解决上述挑战,我们提出了一种专门针对联邦推荐任务的复合聚合机制。具体来说,通过在一个统一的优化框架内结合模型相似性和数据互补性,我们的方法增强了客户端已交互过的项目的训练嵌入,并优化了客户端未交互过的项目的非训练嵌入。这使得能够有效地预测未来的项目。此外,我们还探讨了近端项在联邦推荐任务中对个性化偏好的无效性,并提出了一种插值方法来缓解联邦推荐中的空间错位问题。 这项研究特别提出了一种很有前景的联邦推荐任务复合聚合框架。它是一个与模型无关的即插即用模块,可以无缝集成到主流联邦推荐模型中。然而,在这项工作中,我们需要手动调整相似性和互补性的权重分配。这些局限性可以通过在未来的研究中使用自动机器学习技术来自适应地学习权重分配来缓解。此外,探索更适合联邦推荐任务的模型相似性和数据互补性机制也是一个很有前景的研究方向。 参考文献 [1] Hongzhi Yin, Liang Qu, Tong Chen, Wei Yuan, Ruiqi Zheng, Jing Long, Xin Xia, Yuhui Shi, and Chengqi Zhang. On-device recommender systems: A … Read more

DJL Serving: 轻松部署你的深度学习模型

你是否还在为如何将训练好的深度学习模型部署到生产环境而烦恼?传统的部署方式往往需要复杂的配置和维护,而且难以扩展。现在,DJL Serving 为你提供了一个简单、高效、可扩展的解决方案! DJL Serving 是一个基于 DJL 的高性能通用模型服务解决方案,它可以将你的深度学习模型轻松部署为 HTTP 服务,方便其他应用程序调用。 DJL Serving 的优势 安装 DJL Serving 你可以通过以下方式安装 DJL Serving: 使用 DJL Serving DJL Serving 可以通过命令行启动,并提供 RESTful API 用于模型推理和管理。 启动 DJL Serving: REST API: 默认情况下,DJL Serving 监听端口 8080,仅允许本地访问。你可以修改配置文件以允许远程访问。 扩展 DJL Serving DJL Serving 支持插件机制,你可以开发自己的插件来扩展功能。 总结 DJL Serving 是一个强大的模型服务解决方案,它能够帮助你轻松部署和管理深度学习模型,并提供高性能和可扩展性。无论你是初学者还是经验丰富的开发者,DJL Serving 都能满足你的需求。 更多信息: DJL Serving 架构揭秘:模型服务背后的秘密 DJL Serving … Read more