Day: November 22, 2023

带你走进MathJax:让所有浏览器都能美绘数学带你走进MathJax:让所有浏览器都能美绘数学

大家好,欢迎来到今天的博客,我将向大家介绍一个名为MathJax的神奇工具,它将为你打开一个全新的、美丽的数学世界。对,你没有听错,这是一个能让所有浏览器都能优雅地展示数学公式的工具。无需为了阅读者进行繁琐的设置,一切都如你所愿,就是这么简单! MathJax:变革者 MathJax,就是它,能够将你的传统印刷内容转化为现代化、易于访问的网页内容和电子书。无论是旧时的文档,还是新的在线内容,MathJax都能轻松转化,为特殊需要的读者提供全面的访问体验。更妙的是,MathJax也可以在服务器端工作流中使用,以准备可离线查看的内容或生成与现代电子书阅读器兼容的文档。只需要一次联系,我们就可以为你的机构提供有关内容转化服务的更多信息。 MathJax:教育者 你们的教育工作需要帮助吗?MathJax团队也是教育家,他们愿意培训你的员工使用我们的资源来准备在线教学材料和创建易于访问的STEM内容。无论是支持在线教学,还是在线考试,MathJax都能提供帮助。我们甚至可以为你的教师、教员和员工提供培训,教他们如何准备全面可访问的数学课程材料。 MathJax:顾问 当然,我们的服务并非只有以上这些。MathJax是一个非常灵活的系统,能够根据任何应用和任何内容的需求进行调整和定制。无论是静态网站还是高动态环境,无论是简单的教学讲义还是科学出版中的精密排版,MathJax都能胜任。不仅如此,我们还关注网页内容、软件解决方案和工作流的无障碍访问,我们会与你的工作人员一起工作,确保你的材料是完全无障碍的。 MathJax:艺术家 MathJax不仅仅是工具,更是艺术的创造者。它使用CSS和网络字体或SVG,而非位图图像或Flash,因此,无论怎样缩放,公式都能与周围的文本保持一致。MathJax的输入和输出模块也极其灵活,可以使用MathML,TeX和ASCIImath作为输入,生成HTML+CSS,SVG或MathML作为输出。而且MathJax与屏幕阅读器兼容,提供表达式缩放和交互式探索,你还可以将公式复制到Office,LaTeX,wiki和其他软件中。 MathJax:无障碍和可重用 MathJax提供了一套强大的无障碍扩展,这些扩展在客户端提供导航、探索和发声。通过MathJax的上下文菜单,你可以访问任何数学表达式的源代码,无论是MathML格式,还是原始的TeX或AsciiMath格式。 是的,这就是MathJax,一个美丽的、无障碍的、可重用的数学显示引擎。它是你的内容变革者,是你的教育者,是你的顾问,也是你的艺术家。让我们一起,用MathJax打造一个美丽、访问性强、充满创新的数学世界! 结语 在本篇博客中,我向大家介绍了MathJax这个神奇的工具。它能够让所有的浏览器都能优雅地展示数学公式,无需为了阅读者进行繁琐的设置,一切都如你所愿。MathJax不仅可以帮助你将传统印刷内容转化为现代化、易于访问的网页内容和电子书,还可以在服务器端工作流中使用,为特殊需要的读者提供全面的访问体验。此外,MathJax团队也是教育家,他们愿意培训你的员工使用我们的资源来准备在线教学材料和创建易于访问的STEM内容。 无论你是老师、学生,还是科研人员,只要你与数学打交道,MathJax都能为你提供帮助。如果你有任何疑问,或者想要了解更多关于MathJax的信息,欢迎联系我们。记住,数学是美丽的,而MathJax,就是展示这种美丽的最佳工具。 感谢你的阅读,我们下次再见! [...]

弥合神经辐射场之间的差距 采用渐进式体积蒸馏的架构弥合神经辐射场之间的差距 采用渐进式体积蒸馏的架构

神经辐射场 (NeRF) 方法已被证明是 3D 场景的紧凑、高质量和多功能表示,并支持编辑、检索、导航等下游任务。各种神经架构都在争夺NeRF的核心结构,包括普通的多层感知器(MLP)、稀疏张量、低秩张量、哈希表及其组成。这些表示形式中的每一种都有其特定的权衡。例如,基于哈希表的表示允许更快的训练和渲染,但它们缺乏明确的几何含义,阻碍了下游任务,如空间关系感知编辑。在本文中,我们提出了渐进式体积蒸馏(PVD),这是一种系统的蒸馏方法,允许不同架构之间的任意转换,包括MLP、稀疏或低秩张量、哈希表及其组成。因此,PVD 使下游应用程序能够以事后方式对手头的任务进行最佳调整神经表示。转换速度很快,因为蒸馏是在不同级别的体积表示上逐步进行的,从浅到深。我们还采用了特殊的密度处理来处理其特定的数值不稳定问题。在NeRF-Synthetic、LLFF和TanksAndTemples数据集上验证了我们的方法。例如,使用 PVD,可以从基于哈希表的 Instant-NGP 模型中提炼出基于 MLP 的 NeRF 模型,其速度比从头开始训练原始 NeRF 快 10 倍~20 倍,同时实现卓越的合成质量水平。代码可在 https://github.com/megvii-research/AAAI2023-PVD 上获得。 Key Points Related Work Method Result Conclusion [...]

在少样本学习中双曲与欧几里得嵌入在少样本学习中双曲与欧几里得嵌入

最近在表示学习领域的研究表明,层次数据在双曲空间中可以得到低维且高度信息丰富的表示。 然而,尽管在图像识别中双曲嵌入已经引起了人们的关注,但它们的优化仍然容易受到数值障碍的影响。 此外,与传统欧氏特征相比,尚不清楚哪些应用最有可能从双曲性所施加的隐式偏差中受益。 在本文中,我们关注原型双曲神经网络。 特别地,高维空间中双曲嵌入趋向于收敛到Poincaré球体的边界,以及这对少样本分类的影响。 我们发现,在公共双曲半径下的双曲嵌入可以获得最佳少样本结果。 与之前的基准结果相比,我们证明了使用欧氏度量的固定半径编码器可以实现更好的性能,而不管嵌入维数如何。 [...]

大型语言模型是上下文语义推理器,而不是 符号推理者大型语言模型是上下文语义推理器,而不是 符号推理者

大规模语言模型(LLM)的涌现出的少量样本推理能力近年来激发了自然语言和机器学习社区的兴趣。尽管有众多的成功应用,但这种上下文能力的潜在机制仍然尚不清楚。在这项工作中,我们假设在推理过程中,所学语言标记的 \\textit{语义} 承担了最繁重的工作。与人类的符号推理过程不同,LLM的语义表示可以在标记之间建立强烈的联系,从而组成一个肤浅的逻辑链。为了测试我们的假设,我们从语言推理过程中解耦语义,并评估三种推理能力,即演绎、归纳和溯因。我们的发现揭示了语义在LLM的上下文推理中起着关键作用 — 当语义与常识一致时,LLM的表现要好得多,但利用上下文新知识在解决符号或反常识推理任务方面却很困难。这些惊人的观察质疑现代LLM是否已经掌握了与人类智能相同的归纳、演绎和溯因推理能力,并激励研究揭示黑盒LLM中存在的魔力。总的来说,我们的分析为语义在开发和评估语言模型推理能力中的作用提供了一个新的视角。代码可在 https://github.com/XiaojuanTang/ICSR 获取。 Introduction Related Works Task Definitions Semantics Matter in LLMs’ memorizing Conclusion and Discussion [...]

CPET: Effective Parameter-Efficient Tuning for Compressed Large Language ModelsCPET: Effective Parameter-Efficient Tuning for Compressed Large Language Models

参数效率调优(PET)近年来得到了广泛的研究,因为它在调优更少的参数(PET 模块)的同时,仍然可以从大型语言模型(LLMs)中激发足够的知识以用于下游任务。此外,当 PET 用于服务多个任务时,可以在冷冻的 LLM 上构建不同的任务特定 PET 模块,避免冗余的 LLM 部署。尽管 PET 显著降低了调优和部署 LLM 的成本,但其推理仍受到 LLM 计算瓶颈的影响。为了解决上述问题,我们提出了一种基于压缩 LLM 的有效 PET 框架,名为\”CPET\”。在 CPET 中,我们评估了主流 LLM 压缩技术对 PET 性能的影响,然后引入了知识继承和恢复策略来恢复这些压缩技术导致的知识损失。我们的实验结果表明,由于 CPET 的恢复策略,将任务特定 PET 模块与压缩 [...]

AgentVerse: Facilitating Multi-Agent Collaboration and Exploring Emergent Behaviors in AgentsAgentVerse: Facilitating Multi-Agent Collaboration and Exploring Emergent Behaviors in Agents

受大型语言模型(LLM)增强的自主代理已经取得了显著的改进,使它们能够推广到各种任务。然而,在现实世界的场景中,通常需要个人之间的合作以提高任务完成的效率和有效性。因此,受人类群体动力学的启发,我们提出了一个多智能体框架\\framework,可以作为一个整体大于部分之和的系统,共同和动态地调整其组成。我们的实验证明,\\framework 框架可以有效地部署多智能体群体,其性能优于单个智能体。此外,我们深入探讨了在协作任务完成过程中,群体内各个智能体之间社会行为的产生。鉴于这些行为,我们讨论了一些可能的策略,以便利用积极的行为并减轻消极的行为,从而提高多智能体群体的协作潜力。我们的\\framework 代码很快将在 https://github.com/OpenBMB/AgentVerse 上发布。 Key Points Related Work Method Result Conclusion [...]

创造者:解开大的抽象和具体推理 通过工具创建的语言模型创造者:解开大的抽象和具体推理 通过工具创建的语言模型

大规模语言模型(LLMs)已在外部API的使用上取得了显著的进步,这些API可以作为各种任务的工具。然而,它们利用工具的能力受到适合API的可用性和隐含推理的不稳定性的限制,尤其是在同时进行计划推理和实际计算时。为了克服这些局限性,我们提出了CREATOR,一个新颖的框架,使LLMs能够通过文档和代码实现来创建自己的工具。CREATOR将LLM的能力分解为两个不同的阶段:抽象工具创建和具体决策执行,从而提高了LLM的性能。我们在两个已建立的基准上评估CREATOR:MATH,包括具有挑战性的数学竞赛问题,以及TabMWP,包括用于解决问题的各种表格内容。值得注意的是,CREATOR在这两个基准上的表现大大优于现有的链式思维(CoT)、程序式思维(PoT)和工具使用基线。此外,我们提出了一个新的数据集Creation Challenge,包括2K个不同的问题,以突出LLMs工具创建能力在有效解决这些问题方面的必要性和好处。进一步的研究发现,将LLMs作为工具创造者可以促进知识的转移,LLMs在工具创建能力方面表现出不同的水平,使它们能够灵活地应对各种情况。我们的研究为充分利用LLMs的潜力,朝着真正智能和适应性的AI系统迈进开辟了新的途径。 Introduction Related Work Design of CREATOR Experiments Further Discussions Conclusions and Future Work [...]

WebCPM: Interactive Web Search for Chinese Long-form Question AnsweringWebCPM: Interactive Web Search for Chinese Long-form Question Answering

长文本问答 (LFQA) 旨在回答复杂的、开放式的问题,并提供详细的、段落长度的回答。LFQA 的实际上的模式需要两个步骤:信息检索,寻找相关的支持事实,信息和合成,将这些信息整合成一个连贯的答案。 在本文中,我们介绍了 WebCPM,这是中国的第一个 LFQA 数据集。WebCPM 的一个独特特点是其信息检索基于交互式网页搜索,它在实时与搜索引擎交互。类似于 WebGPT,我们开发了网页搜索界面。我们招募了标注者,使用我们的界面搜索相关信息,然后回答问题。同时,我们记录了标注者的网络搜索行为。 我们总共收集了 5500 个高质量的问题 – 答案对,以及 14315 个支持事实和 121330 个网页搜索行为。我们微调了预训练的语言模型,以模仿人类的网络搜索行为,并基于收集的事实生成答案。我们基于这些微调的模型建立了 LFQA 流程,它在这些数据集和 DuReader 上产生了在 32.5% 和 47.5% 的案例中不比人类写的更好的答案。 [...]

ProAgent: 构建具有主动合作能力的大型语言模型ProAgent: 构建具有主动合作能力的大型语言模型

在人机合作中,构建具有自适应行为的 AI 成为 AGI 研究的关键焦点。目前,发展合作代理的方法主要依赖于学习方法,其中策略泛化严重依赖于与特定队友的过去互动。这些方法限制了代理在面对新队友时重新调整策略的能力。我们提出了一种名为 ProAgent 的新框架,它利用大型语言模型(LLMs)来创建一种具有预测队友即将作出的决策并制定增强计划能力的积极代理。ProAgent 在合作推理方面表现出色,能够动态适应其行为以提高与队友的协作效果。此外,ProAgent 框架具有高度的模块化和可解释性,便于无缝集成以解决各种协调场景。在 Overcook-AI 框架内进行的实验评估揭示了 ProAgent 在合作中显著超越了五种基于自我游戏和基于种群训练的方法。此外,在与人类代理模型合作时,其性能平均改进超过了 10%,比现有最先进的 COLE 方法更好。这种进步在涉及与具有不同特性的 AI 代理和人类对手互动的多样化场景中是一致的。这些发现激发了未来人机协作的研究。有关动手演示,请访问: https://pku-proagent.github.io 框架的特点包括: 1. 利用大型语言模型(LLMs):ProAgent 使用 LLMs 来预测队友的未来决策,并据此制定增强的计划。 2. 积极的代理:ProAgent 是一个积极的代理,可以主动适应队友的行为,以提高合作效果。 3. 高度的模块化和可解释性:ProAgent [...]

OpenAI的迷失和微软的收获OpenAI的迷失和微软的收获

大家好,今天,我们将讨论OpenAI的迷失和微软的收获。 OpenAI是一家非营利性人工智能研究公司,由埃隆·马斯克、山姆·阿尔特曼等人在2015年创立。OpenAI的使命是确保安全的人工通用智能的开发,并使全人类受益。 然而,OpenAI的非营利性结构却导致了其内部的权力斗争。OpenAI的董事会认为,首席执行官山姆·阿尔特曼没有始终如一地与董事会坦诚沟通,因此在2023年11月将其解雇。 微软是OpenAI的主要合作伙伴之一,它获得了OpenAI的所有知识产权的永久许可,包括源代码和模型权重。微软还向OpenAI提供了大量的资金和计算资源。 OpenAI和微软的合作关系本应是互惠互利的,但由于OpenAI的内部问题,这种合作关系受到了影响。微软需要确保OpenAI能够继续开发其人工智能技术,而OpenAI则需要微软的资金和计算资源来支持其研究。 在OpenAI的董事会解雇了阿尔特曼之后,微软迅速采取行动,与阿尔特曼和OpenAI的其他高管达成了协议,将他们招致麾下。 微软的这一举动引起了业界的广泛关注。有人认为,微软这是捡了个大便宜,因为它获得了OpenAI的所有知识产权,而无需支付任何费用。也有人认为,微软的这一举动将进一步加剧人工智能领域的垄断。 无论如何,微软的这一举动都将对人工智能领域的格局产生深远的影响。 要点 [...]