Author: C3P00

  • 物理学是关于对称性的学科

    “物理学是关于对称性的学科”这句话源自于著名的理论物理学家埃米利奥·塞格雷(Emilio Segrè)。这句话的核心思想是指出对称性在物理定律中起着关键的作用,很多基础的物理定律都可以从某种对称性导出。

    下面是一些具体的例子:

    1. 转动对称性:一个物理系统如果对于空间中的旋转保持不变,那么它就具有转动对称性。这是力学中角动量守恒定律的来源。
    2. 平移对称性:如果一个物理系统对于空间中的平移保持不变,那么它具有平移对称性。这是力学中动量守恒定律的来源。类似地,对于时间的平移对称性导致了能量守恒定律。
    3. 镜像对称性(宇称对称性):如果一个物理系统对于空间中的反射(即,镜像)保持不变,那么它就具有镜像对称性。然而,在某些情况下,例如某些弱相互作用过程中,这种对称性会被破坏。
    4. CPT 对称性:CPT 对称性是量子场论中的一个基本对称性,它涉及到粒子与反粒子的转换(C,电荷共轭),宇宙与镜像宇宙的转换(P,宇称共轭)以及时间的正向与反向的转换(T,时间共轭)。我们认为所有的物理定律都满足 CPT 对称性。
    5. 规范对称性:量子力学中的许多基本理论,例如电动力学、弱相互作用以及强相互作用,都是基于规范对称性的。规范对称性是指一个物理系统对于某种局部的参数变换保持不变。例如在电动力学中,我们可以在每一点独立地改变电磁场的相位,物理定律保持不变。这种对称性导致了电磁相互作用中电荷守恒的原理。

    对称性为我们理解和描述物理现象提供了强大的工具。对称性的破坏也同样重要,它可以帮助我们理解许多复杂的物理过程,例如电弱对称性破缺可以解释为什么弱相互作用只能作用在很短的距离上。

  • Laradock:简化PHP开发环境的利器

    Laradock 是一个为 Docker 提供的全功能 PHP 开发环境,它支持多种常用服务的快速配置,为 PHP 开发者提供了一个便捷的开发环境。Laradock 的设计初衷是让开发者能够快速切换不同版本的 PHP、选择自己喜欢的数据库引擎,并且可以轻松运行各种常用的服务。

    Laradock 的特点如下:

    1. 轻松切换 PHP 版本:支持 PHP 8.1、8.0、7.4、7.3、7.2、7.1、5.6 等多个版本。
    2. 多种数据库引擎:支持 MySQL、Postgres、MariaDB 等常用数据库引擎。
    3. 自定义开发栈:支持 Memcached、HHVM、RabbitMQ 等各种常用服务。
    4. 每个软件运行在独立的容器中:PHP-FPM、NGINX、PHP-CLI 等软件都在自己的容器中运行。
    5. 容器定制化简单:可以通过简单地编辑 Dockerfile 来自定义任何容器。
    6. 基于官方基础镜像:所有镜像都是基于官方的基础镜像构建的,安全可靠。
    7. 预配置的 NGINX:预配置 NGINX 以托管根目录下的任何代码。
    8. 支持单个项目或多个项目:可以为每个项目单独使用 Laradock,也可以为所有项目共用一个 Laradock。
    9. 通过环境变量轻松安装/移除容器中的软件。
    10. 清晰、结构良好的 Dockerfile。
    11. 最新版本的 Docker Compose 文件。
    12. 所有内容可见且可编辑。
    13. 快速构建镜像。

    快速入门:
    让我们看看如何轻松设置我们的演示堆栈:PHP、NGINX、MySQL、Redis 和 Composer。

    1. 在你的 PHP 项目中克隆 Laradock:
    git clone https://github.com/Laradock/laradock.git
    1. 进入 laradock 文件夹,将 .env.example 重命名为 .env:
    cd laradock
    mv .env.example .env
    1. 运行容器:
    docker-compose up -d nginx mysql phpmyadmin redis workspace
    1. 打开项目的 .env 文件,并设置以下内容:
    DB_HOST=mysql
    REDIS_HOST=redis
    QUEUE_HOST=beanstalkd
    1. 在浏览器中访问 localhost:http://localhost。就是这样,尽情享受吧!

    Laradock 支持的服务:
    Laradock 遵循关注点分离原则,因此它将每个软件运行在自己的 Docker 容器中。你可以根据需要启动/关闭任意数量的实例,而不必担心配置的问题。要运行下面列表中的容器,请使用 docker-compose up -d {container-name} 命令。

    Web 服务器:

    • NGINX
    • Apache2
    • Caddy

    负载均衡器:

    • HAProxy
    • Traefik

    PHP 编译器:

    • PHP FPM
    • HHVM

    数据库管理系统:

    • MySQL
    • PostgreSQL
    • PostGIS
    • MariaDB
    • Percona
    • MSSQL
    • MongoDB
    • MongoDB Web UI
    • Neo4j
    • CouchDB
    • RethinkDB
    • Cassandra

    数据库管理应用:

    • PhpMyAdmin
    • Adminer
    • PgAdmin

    缓存引擎:

    • Redis
    • Redis Web UI
    • Redis Cluster
    • Memcached
    • Aerospike
    • Varnish

    消息代理:

    • RabbitMQ
    • RabbitMQ Admin Console
    • Beanstalkd
    • Beanstalkd Admin Console
      Eclipse Mosquitto

    laradock

    laradock/README-zh.md at master · laradock/laradock (github.com)

  • win11下启动服务报告没有权限监听端口

    [Nest] 26516 – 2023/10/05 13:07:06 ERROR [NestApplication] Error: listen EACCES: permission denied 0.0.0.0:3000 +2ms
    Error: listen EACCES: permission denied 0.0.0.0:3000

    其实不是端口的问题而是 winnat,重启就好:

    net stop winnat

    net start winnat

    效果如下图:

  • LMDeploy: 你的AI模型部署和服务的全方位解决方案

    欢迎来到LMDeploy的世界!LMDeploy是由MMDeploy和MMRazor团队联合打造的一款全面的工具箱,旨在帮助你轻松、高效地实现LLM任务的轻量化、部署和服务。

    高效推理引擎 TurboMind

    首先,让我为你介绍一下我们的高效推理引擎TurboMind。它是基于FasterTransformer构建的,能以极其高效的方式执行 InternLM、LLaMA、vicuna 等模型在NVIDIA GPU上的推理。想象一下,一个强大且高效的工具正在为你处理复杂的AI计算,这就是TurboMind为你提供的!

    交互推理方式

    我们知道,在多轮对话中,如果每次都处理整个对话历史,会消耗大量的计算资源。因此,LMDeploy引入了一种交互推理方式。它通过缓存对话过程中attention的k/v值,记住对话历史,避免了重复处理历史会话,提升了推理效率。

    多GPU部署和量化

    LMDeploy还提供了全面的模型部署和量化支持。无论你的AI模型规模大小,我们都已经完成了验证。这意味着,你可以更自由地选择硬件资源,无需担心模型的部署和量化问题。

    persistent batch推理

    最后,我们还有一个优化模型执行效率的神秘武器,那就是persistent batch推理。这个功能可以进一步优化你的模型,让你的AI应用运行得更快、更流畅。

    LMDeploy就像一个多功能的瑞士军刀,为你的AI模型提供全方位的支持。从高效推理引擎到灵活的模型部署,再到持续优化的推理方式,我们始终在努力为你提供最佳的AI部署和服务解决方案。让我们一起,开启AI的未来!

  • 打开数学大门的神奇模型——阿贝尔

    大家好,今天我想和大家分享一项最新的研究成果。这是由上海交通大学生成式人工智能研究组(GAIR)提出的一款名为“阿贝尔”的大型语言模型,专门用于解决数学问题。

    首先,让我们来看看为什么我们需要这样的模型。在当前的大数据时代,人工智能已经成为了我们生活中不可或缺的一部分。然而,尽管人工智能在文本理解和知识理解等任务上表现出色,但在复杂数学推理计算、物理建模、科学发现等领域,人工智能的研究却远未达到我们的期望。这就是为什么GAIR团队决定研发阿贝尔模型,以帮助我们更好地理解和解决数学问题。

    那么,阿贝尔模型是如何工作的呢?在阿贝尔模型中,研究者们结合了两种先前的数学解决方法,即CoT(思维链)和PoT(思维程序)。CoT方法通过一步步的自然语言描述来解决问题,但在处理复杂的数学或算法推理过程时,可能会遇到困难。而PoT方法则是通过编程的方式来解决问题,尽管这种方法在处理更抽象的推理场景时可能会遇到困难,但它利用Python解释器来大幅简化数学求解过程。

    为了充分利用这两种方法的优点,研究团队创建了一个新的数学混合指令微调数据集MathInstruct,它广泛覆盖了不同的数学领域和复杂程度,并将CoT和PoT原理结合到一起。然后,他们使用这个数据集对模型进行训练,得到了一系列不同大小的阿贝尔模型。

    研究者们使用了一系列的数据集来对阿贝尔模型进行评估,结果显示,相比于之前的方法,阿贝尔模型能更好地处理领域外的数据集,并能大幅提升开源LLM的数学推理能力。

    阿贝尔模型的出现,无疑为我们解决数学问题提供了一种新的可能。无论你是在日常生活中遇到的购物预算问题,还是在工作中遇到的复杂金融投资问题,阿贝尔模型都能为你提供有效的解决方案。这个新的数学模型,不仅能够应对各种类型的数学问题,还能够在不同的数据集中都取得很好的效果,表现出了强大的泛化能力。这对于我们在日常生活中解决各种数学问题,甚至在更高层次的金融投资、科学研究等领域,都有着巨大的潜力和价值。

    你可能会问,我能在哪里找到这个神奇的模型呢?别担心,阿贝尔模型的代码已经在GitHub上开源,研究团队也在Hugging Face发布了训练好的不同大小的模型,供大家免费使用。

    参考链接:
    论文链接
    代码链接
    数据集与模型链接

  • 一种新型数学问题解决模型——MAmmoTH

    在我们的日常生活中,数学问题无处不在,从简单的购物预算,到复杂的金融投资计算,都需要我们运用数学来解决。然而,对于许多人来说,数学问题可能并不是那么容易解决。那么,有没有一种方式,可以让计算机帮助我们解决这些问题呢?

    最近,来自滑铁卢大学和俄亥俄州立大学等机构的研究团队提出了一种名为MAmmoTH的大型语言模型(LLM),专门针对解决数学问题。这个新模型充分利用了两个先前的数学解决方法,即CoT(思维链)和PoT(思维程序)。

    在CoT方法中,问题通过一步步的自然语言描述来解决,这个方法的优点是能覆盖大多数数学科目,但在计算精度和复杂的数学或算法推理过程方面存在困难。而PoT方法则是通过编程的方式来解决问题,利用Python解释器来简化数学求解过程,但PoT在处理更抽象的推理场景时可能会遇到困难。

    为了充分利用这两种方法的优点,研究团队创建了一个新的数学混合指令微调数据集MathInstruct,它广泛覆盖了不同的数学领域和复杂程度,并将CoT和PoT原理结合到一起。

    为了测试这个新的数学模型,研究者们使用了一系列的数据集,包括GSM8K、MATH、AQuA-RAT、NumGLUE等,对模型进行了评估。结果显示,相比于之前的方法,MAmmoTH模型能更好地处理领域外的数据集,并能大幅提升开源LLM的数学推理能力。

    这个新的数学模型MAmmoTH,不仅能够应对各种类型的数学问题,还能够在不同的数据集中都取得很好的效果,表现出了强大的泛化能力。这对于我们在日常生活中解决各种数学问题,甚至在更高层次的金融投资、科学研究等领域,都有着巨大的潜力和价值。

    这项研究的代码已经在GitHub上开源,研究团队也在Hugging Face发布了训练好的不同大小的模型,供大家免费使用。如果你对数学问题感到头疼,或者你是一个对AI有着极高热情的研究者,那么这个新的数学模型MAmmoTH可能正是你需要的工具。

    参考资料:
    论文:https://arxiv.org/pdf/2309.05653.pdf
    代码:https://github.com/TIGER-AI-Lab/MAmmoTH
    数据集与模型:https://huggingface.co/datasets/TIGER-Lab/MathInstruct

  • 书生·浦语 大语言模型确实很牛!

    书生·浦语 目前开源的 20B模型性能超过了同参数规模竞争者。

    更好的一点是,书生·浦语开源了训练和部署工具链。

    Demo:书生·浦语-对话-20B · 模型库 (modelscope.cn)

    相比其它竞争者,这个模型的背景也更加有实力,可持续性会更好。

    InternLM/README-zh-Hans.md at main · InternLM/InternLM (github.com)

  • Duplicator – WordPress迁移和备份插件

    Duplicator复制器是可用的最强大的迁移器。它使您能够:

    • 在域或主机之间移动、迁移或克隆 WordPress 网站,无需停机
    • 将实时站点下拉到本地主机进行开发
    • 将WordPress网站从一个主机转移到另一个主机
    • 手动备份WordPress网站或网站的一部分
    • 将活动站点复制到暂存区域,反之亦然
    • 捆绑整个WordPress网站,以便于重用或分发
    • 执行完整的WordPress迁移,而无需为混乱的导入/导出SQL脚本而苦恼
  • 从SD绘图开源项目的竞争看webui的构建

    stable-diffusion-webui Fooocus ComfyUI 这三个主流的SD绘图webui正在以不同的设计思路竞争。

    迭代速度显然起到的决定性作用。

    SD-webui和Fooocus采用了gradio来构建UI,迭代快捷,维护成本低。

    而ComfyUI采用复杂的nodejs技术栈来构建UI,虽然架构上更加先进,然而缺失去了快速添加功能的优势。

    从设计哲学上看,Fooocus聚焦在绘图本身的思路最为简洁和易用。

    这也是符合LLM时代的大趋势,即,WebUI变成LUI,语言UI。

    或者说,由于自然语言可以编程了,以prompt的形势,自然也就解放了很多传统UI禁锢的功能。ComfyUI试图以 计算图的方式来 把底层逻辑以Graph形式编程,这反而增加了复杂性,一旦复杂度上去,反而不如直接编码(Python)简单。