WebAuthn 详细解析

WebAuthn是一种无密码身份验证技术,它允许用户在网站上进行安全的身份验证,而无需使用传统的用户名和密码。通过WebAuthn,用户可以使用指纹、面部识别、USB密钥等多种身份验证方式来登录网站,从而提高安全性和便利性。 下面是对WebAuthn的详细显示内容解析: 1. 什么是WebAuthn? WebAuthn,全称Web Authentication,是W3C(万维网联盟)制定的一种用于在浏览器上进行身份验证的API。它是FIDO2(Fast Identity Online 2)标准的一部分,旨在提供更安全、更便捷的身份验证方式。 2. WebAuthn的工作原理 WebAuthn的工作原理可以分为以下几个步骤: 2.1 注册阶段 2.2 身份验证阶段 3. WebAuthn的优势和应用场景 WebAuthn相比传统的用户名和密码身份验证方式具有以下优势: WebAuthn的应用场景包括但不限于: 4. 使用WebAuthn的注意事项 使用WebAuthn时需要注意以下几点: 以上是对WebAuthn的详细解析,希望能帮助你更好地理解和应用这一无密码身份验证技术。 Learn more:

什么是WebAuthn?

WebAuthn是一种无密码身份验证技术,它提供了一种更安全、更便捷的身份认证方式。下面将详细解析WebAuthn的工作原理和优势。 什么是WebAuthn? WebAuthn是由W3C制定的Web身份认证标准,全称为Web Authentication。它使用公钥加密技术,允许用户通过生物特征(如指纹、面部识别)或硬件密钥(如USB密钥)来进行身份验证,从而实现更强大的身份认证。 WebAuthn的工作原理 WebAuthn的基本工作原理可以简单概括为以下几个步骤: WebAuthn的优势 WebAuthn具有以下优势: 总结 WebAuthn是一种无密码身份验证技术,通过使用公钥加密技术和生物特征或硬件密钥进行身份认证,实现了更安全、更便捷的身份认证方式。它的工作原理简单明了,同时具有更安全的身份认证和更便捷的用户体验的优势。 Learn more:

探索Zephyr-7B-β:一款掀起LLM新浪潮的强大语言模型

大家好,今天我要向你们介绍一个在人工智能领域中备受瞩目的明星——Zephyr-7B-β,这是一款性能高超的大型语言模型(LLM)。它的出现不仅改变了我们对AI的认知,更为我们的日常生活带来了无尽的可能。 Zephyr-7B-β是Zephyr系列的第二个模型,是基于Mistralai/Mistral-7B-v0.1并使用直接偏好优化(DPO)在公开可用的合成数据集上进行训练的微调版本。这款模型在发布时,在MT-Bench和AlpacaEval基准上的表现已经超越了许多其他同类产品,堪称7B类的聊天模型中的佼佼者。 Zephyr-7B-β:小巧却强大 虽然Zephyr-7B-β在模型大小上只有7B参数类似GPT的模型,但它在公开可用的合成数据集上进行微调后的性能却令人惊叹。特别是在MT-Bench的多个类别上,与Llama2-Chat-70B等较大的开放模型相比,Zephyr-7B-β具有较强的性能。 然而,无论任何事物都不可能完美,对于更复杂的任务,如编码和数学等,Zephyr-7B-β的表现仍有待提升。它在这些方面的表现暂时无法与更专业的模型相比,但我们相信,随着研究的深入,这种差距会逐步缩小。 Zephyr-7B-β:更多的可能性 Zephyr-7B-β最初是在经过过滤和预处理的UltraChat数据集上进行微调的,这个数据集包含了由ChatGPT生成的各种合成对话。随后,我们在openbmb/UltraFeedback数据集上进一步将模型与TRL的DPOTrainer对齐。这个数据集包含了按GPT-4排名的64k个提示和模型完成情况。 这就意味着,Zephyr-7B-β可以用于聊天,你可以查看我们的演示来测试其功能。同时,这款模型的代码已经在GitHub上开放,对于有兴趣的同学,可以自行下载研究。 Zephyr-7B-β:未来的挑战 然而,我们也需要看到,尽管Zephyr-7B-β的表现在许多方面都非常出色,但它也存在一些问题。例如,它尚未通过RLHF等技术与人类偏好保持一致,也未通过ChatGPT等响应的循环过滤进行部署,因此该模型可能会产生有问题的输出,特别是在提示时。 此外,尽管我们知道用于训练Zephyr-7B-β的数据集主要包含了由ChatGPT生成的各种合成对话,但我们仍然不清楚用于训练基本模型(mistralai/Mistral-7B-v0.1)的语料库的大小和组成。这些问题都是我们在未来需要解决的挑战。 Zephyr-7B-β的出现,无疑为我们展示了大型语言模型的强大潜力。通过不断的研究和改进,我们有理由相信,未来的Zephyr系列将会带给我们更多的惊喜~

一次神奇的AI旅程:Zephyr-7B模型与Lora训练

大家好,今天我要给大家分享的是关于神奇的Zephyr-7B模型和Lora训练的故事。这是一次跨越三大洲的合作,让我们一起探索这个令人兴奋的AI世界。 Zephyr:直接蒸馏语言模型对齐 在 AI 的世界中,出现了一款名为 Zephyr-7B 的模型,它的出现可谓是一次划时代的突破。那么,Zephyr-7B 是如何诞生的呢? 几个月之前,一个位于巴黎的团队发布了他们的第一个模型:Mistral 7B。这个模型虽然体积小巧,但性能强大,在基准测试中超过了所有同类模型,更令人振奋的是,这是一个开源项目。 然后,Hugging Face H4团队的两名成员在一次小聚中,讨论了使用斯坦福大学新发表的 DPO 方法对 Mistral 7B 这个模型进行微调的可能性。他们在 HF hub 上找到了一些公开的数据集,包括由面壁智能和清华大学 NLP 共同支持的 OpenBMB 开源的两个大规模、高质量的微调数据集:UltraFeedback 和 UltraChat。 UltraFeedback 是一个大规模、多样化、细粒度 的偏好数据集。UltraChat 则是高质量的对话数据集,包含了 150 余万条多轮指令数据。 经过几轮实验,使用 OpenBMB 两个数据集训练出来的新模型非常强大,是 H4 团队在伯克利和斯坦福的基准测试中见过的最强模型,并在之后被命名为 Zephyr模型。Zephyr-7B-alpha 的 MT-Bench 平均得分7.09,超越了 Llama2-70B-Chat。 这引发了一个重要的思考:一个基于高质量数据集的 7B 模型竟然打败了参数十倍之大的 LLaMA2-70B-Chat,这说明了什么?这说明,底层的数据工作才是最稀缺的和有时间价值的,这或许是各家各派大模型在百模大战中的突破口之一。 然后我们看到,Zephyr的优秀性能还得归功于使用了由斯坦福大学和CZ Biohub不久前合作提出的 DPO 方法。与传统的 PPO 强化学习方法不同,DPO 方法舍弃了强化学习,要比 PPO … Read more

带你走进MathJax:让所有浏览器都能美绘数学

大家好,欢迎来到今天的博客,我将向大家介绍一个名为MathJax的神奇工具,它将为你打开一个全新的、美丽的数学世界。对,你没有听错,这是一个能让所有浏览器都能优雅地展示数学公式的工具。无需为了阅读者进行繁琐的设置,一切都如你所愿,就是这么简单! MathJax:变革者 MathJax,就是它,能够将你的传统印刷内容转化为现代化、易于访问的网页内容和电子书。无论是旧时的文档,还是新的在线内容,MathJax都能轻松转化,为特殊需要的读者提供全面的访问体验。更妙的是,MathJax也可以在服务器端工作流中使用,以准备可离线查看的内容或生成与现代电子书阅读器兼容的文档。只需要一次联系,我们就可以为你的机构提供有关内容转化服务的更多信息。 MathJax:教育者 你们的教育工作需要帮助吗?MathJax团队也是教育家,他们愿意培训你的员工使用我们的资源来准备在线教学材料和创建易于访问的STEM内容。无论是支持在线教学,还是在线考试,MathJax都能提供帮助。我们甚至可以为你的教师、教员和员工提供培训,教他们如何准备全面可访问的数学课程材料。 MathJax:顾问 当然,我们的服务并非只有以上这些。MathJax是一个非常灵活的系统,能够根据任何应用和任何内容的需求进行调整和定制。无论是静态网站还是高动态环境,无论是简单的教学讲义还是科学出版中的精密排版,MathJax都能胜任。不仅如此,我们还关注网页内容、软件解决方案和工作流的无障碍访问,我们会与你的工作人员一起工作,确保你的材料是完全无障碍的。 MathJax:艺术家 MathJax不仅仅是工具,更是艺术的创造者。它使用CSS和网络字体或SVG,而非位图图像或Flash,因此,无论怎样缩放,公式都能与周围的文本保持一致。MathJax的输入和输出模块也极其灵活,可以使用MathML,TeX和ASCIImath作为输入,生成HTML+CSS,SVG或MathML作为输出。而且MathJax与屏幕阅读器兼容,提供表达式缩放和交互式探索,你还可以将公式复制到Office,LaTeX,wiki和其他软件中。 MathJax:无障碍和可重用 MathJax提供了一套强大的无障碍扩展,这些扩展在客户端提供导航、探索和发声。通过MathJax的上下文菜单,你可以访问任何数学表达式的源代码,无论是MathML格式,还是原始的TeX或AsciiMath格式。 是的,这就是MathJax,一个美丽的、无障碍的、可重用的数学显示引擎。它是你的内容变革者,是你的教育者,是你的顾问,也是你的艺术家。让我们一起,用MathJax打造一个美丽、访问性强、充满创新的数学世界! 结语 在本篇博客中,我向大家介绍了MathJax这个神奇的工具。它能够让所有的浏览器都能优雅地展示数学公式,无需为了阅读者进行繁琐的设置,一切都如你所愿。MathJax不仅可以帮助你将传统印刷内容转化为现代化、易于访问的网页内容和电子书,还可以在服务器端工作流中使用,为特殊需要的读者提供全面的访问体验。此外,MathJax团队也是教育家,他们愿意培训你的员工使用我们的资源来准备在线教学材料和创建易于访问的STEM内容。 无论你是老师、学生,还是科研人员,只要你与数学打交道,MathJax都能为你提供帮助。如果你有任何疑问,或者想要了解更多关于MathJax的信息,欢迎联系我们。记住,数学是美丽的,而MathJax,就是展示这种美丽的最佳工具。 感谢你的阅读,我们下次再见!

弥合神经辐射场之间的差距 采用渐进式体积蒸馏的架构

神经辐射场 (NeRF) 方法已被证明是 3D 场景的紧凑、高质量和多功能表示,并支持编辑、检索、导航等下游任务。各种神经架构都在争夺NeRF的核心结构,包括普通的多层感知器(MLP)、稀疏张量、低秩张量、哈希表及其组成。这些表示形式中的每一种都有其特定的权衡。例如,基于哈希表的表示允许更快的训练和渲染,但它们缺乏明确的几何含义,阻碍了下游任务,如空间关系感知编辑。在本文中,我们提出了渐进式体积蒸馏(PVD),这是一种系统的蒸馏方法,允许不同架构之间的任意转换,包括MLP、稀疏或低秩张量、哈希表及其组成。因此,PVD 使下游应用程序能够以事后方式对手头的任务进行最佳调整神经表示。转换速度很快,因为蒸馏是在不同级别的体积表示上逐步进行的,从浅到深。我们还采用了特殊的密度处理来处理其特定的数值不稳定问题。在NeRF-Synthetic、LLFF和TanksAndTemples数据集上验证了我们的方法。例如,使用 PVD,可以从基于哈希表的 Instant-NGP 模型中提炼出基于 MLP 的 NeRF 模型,其速度比从头开始训练原始 NeRF 快 10 倍~20 倍,同时实现卓越的合成质量水平。代码可在 https://github.com/megvii-research/AAAI2023-PVD 上获得。 Key Points Related Work Method Result Conclusion

在少样本学习中双曲与欧几里得嵌入

最近在表示学习领域的研究表明,层次数据在双曲空间中可以得到低维且高度信息丰富的表示。 然而,尽管在图像识别中双曲嵌入已经引起了人们的关注,但它们的优化仍然容易受到数值障碍的影响。 此外,与传统欧氏特征相比,尚不清楚哪些应用最有可能从双曲性所施加的隐式偏差中受益。 在本文中,我们关注原型双曲神经网络。 特别地,高维空间中双曲嵌入趋向于收敛到Poincaré球体的边界,以及这对少样本分类的影响。 我们发现,在公共双曲半径下的双曲嵌入可以获得最佳少样本结果。 与之前的基准结果相比,我们证明了使用欧氏度量的固定半径编码器可以实现更好的性能,而不管嵌入维数如何。

大型语言模型是上下文语义推理器,而不是 符号推理者

大规模语言模型(LLM)的涌现出的少量样本推理能力近年来激发了自然语言和机器学习社区的兴趣。尽管有众多的成功应用,但这种上下文能力的潜在机制仍然尚不清楚。在这项工作中,我们假设在推理过程中,所学语言标记的 \\textit{语义} 承担了最繁重的工作。与人类的符号推理过程不同,LLM的语义表示可以在标记之间建立强烈的联系,从而组成一个肤浅的逻辑链。为了测试我们的假设,我们从语言推理过程中解耦语义,并评估三种推理能力,即演绎、归纳和溯因。我们的发现揭示了语义在LLM的上下文推理中起着关键作用 — 当语义与常识一致时,LLM的表现要好得多,但利用上下文新知识在解决符号或反常识推理任务方面却很困难。这些惊人的观察质疑现代LLM是否已经掌握了与人类智能相同的归纳、演绎和溯因推理能力,并激励研究揭示黑盒LLM中存在的魔力。总的来说,我们的分析为语义在开发和评估语言模型推理能力中的作用提供了一个新的视角。代码可在 https://github.com/XiaojuanTang/ICSR 获取。 Introduction Related Works Task Definitions Semantics Matter in LLMs’ memorizing Conclusion and Discussion

CPET: Effective Parameter-Efficient Tuning for Compressed Large Language Models

参数效率调优(PET)近年来得到了广泛的研究,因为它在调优更少的参数(PET 模块)的同时,仍然可以从大型语言模型(LLMs)中激发足够的知识以用于下游任务。此外,当 PET 用于服务多个任务时,可以在冷冻的 LLM 上构建不同的任务特定 PET 模块,避免冗余的 LLM 部署。尽管 PET 显著降低了调优和部署 LLM 的成本,但其推理仍受到 LLM 计算瓶颈的影响。为了解决上述问题,我们提出了一种基于压缩 LLM 的有效 PET 框架,名为\”CPET\”。在 CPET 中,我们评估了主流 LLM 压缩技术对 PET 性能的影响,然后引入了知识继承和恢复策略来恢复这些压缩技术导致的知识损失。我们的实验结果表明,由于 CPET 的恢复策略,将任务特定 PET 模块与压缩 LLM 协作可以实现与协作 PET 模块与压缩 LLM 的原始版本相当的性能,并优于直接将朴素 PET 方法应用于压缩 LLM。 这篇论文介绍了一种新的框架 CPET,用于有效且参数高效的调整压缩大型语言模型。CPET 通过评估主流 LLM 压缩技术的影响,并引入知识继承和恢复策略来恢复这些压缩技术导致的知识损失。实验结果表明,由于 CPET 的恢复策略,将任务特定 PET 模块与压缩 LLM 合作可以实现与将 PET 模块与原始压缩 LLM 合作相媲美的性能,并且优于直接将经典 PET … Read more

AgentVerse: Facilitating Multi-Agent Collaboration and Exploring Emergent Behaviors in Agents

受大型语言模型(LLM)增强的自主代理已经取得了显著的改进,使它们能够推广到各种任务。然而,在现实世界的场景中,通常需要个人之间的合作以提高任务完成的效率和有效性。因此,受人类群体动力学的启发,我们提出了一个多智能体框架\\framework,可以作为一个整体大于部分之和的系统,共同和动态地调整其组成。我们的实验证明,\\framework 框架可以有效地部署多智能体群体,其性能优于单个智能体。此外,我们深入探讨了在协作任务完成过程中,群体内各个智能体之间社会行为的产生。鉴于这些行为,我们讨论了一些可能的策略,以便利用积极的行为并减轻消极的行为,从而提高多智能体群体的协作潜力。我们的\\framework 代码很快将在 https://github.com/OpenBMB/AgentVerse 上发布。 Key Points Related Work Method Result Conclusion