使用Devilbox简化本地开发:Docker化的PHP堆栈

Devilbox是一个现代化且高度可定制的PHP开发堆栈,基于Docker运行。它为所有主要操作系统提供可重现和相同的开发环境,无需任何配置。无论您是在开发LAMP还是MEAN堆栈,Devilbox都可以轻松切换和组合所需的版本以供本地开发使用。通过自动创建虚拟主机(vhost)、SSL证书和DNS记录,Devilbox支持无限数量的项目。在本文中,我们将探讨Devilbox的功能以及它如何简化本地开发。 简单安装和设置:安装Devilbox非常简单。只需克隆Devilbox存储库并配置环境文件即可。Devilbox适用于包括Linux、macOS和Windows在内的所有主要操作系统。完成设置后,您可以使用一个命令启动所有容器。 精确运行所需的内容:Devilbox提供了灵活性,可以选择所需的守护程序及其版本。您可以轻松配置Apache、Nginx、PHP、MySQL、MariaDB、Percona、PgSQL、Redis、Memcached、MongoDB等。这样,您可以在开发过程中准确模拟生产环境。 附加服务和工具:除了默认堆栈之外,Devilbox还提供了其他一些可以轻松启用和启动的服务。这些服务包括Python(Flask)、Blackfire、ELK、MailHog、Ngrok、RabbitMQ、Solr、HAProxy、Varnish等等。您可以仅启动所需的容器,并在堆栈运行时添加或删除守护程序。 邮件拦截和自动DNS:Devilbox包含一个内置的postfix邮件服务器,可以拦截所有发出的电子邮件,确保您在开发过程中不会意外发送真实的电子邮件。自动DNS功能会自动为每个项目提供正确的DNS记录,无需手动编辑主机文件。 用户友好的内部网络和安全性:Devilbox配有一个用户友好的内部网络,提供有用的工具,如容器健康监控、DNS状态、可用的虚拟主机、电子邮件、数据库和有效的配置。安全性也是一个重要考虑因素,Devilbox使用官方Docker映像和自定义映像的混合方式。所有集成的容器都可以在GitHub上进行查看。 始终更新和活跃的社区:Devilbox容器经常更新并推送到Docker Hub。您可以轻松拉取最新的映像或重新构建特定的容器以获取最新版本。Devilbox拥有活跃的社区,欢迎贡献、错误报告、功能请求和通过GitHub、论坛和聊天渠道的合作。 结论:Devilbox通过提供可定制和可复现的基于Docker的PHP堆栈简化了本地开发。通过其简单的安装、选择守护程序和版本的灵活性、附加服务和工具、邮件拦截、自动DNS、用户友好的内部网络和活跃的社区支持,Devilbox简化了开发流程,提高了生产效率。无论您是初学者还是经验丰富的开发人员,Devilbox都是创建和管理开发环境的有价值工具。尝试一下,体验轻松的本地开发带来的好处。 devilbox.org

物理学是关于对称性的学科

“物理学是关于对称性的学科”这句话源自于著名的理论物理学家埃米利奥·塞格雷(Emilio Segrè)。这句话的核心思想是指出对称性在物理定律中起着关键的作用,很多基础的物理定律都可以从某种对称性导出。 下面是一些具体的例子: 对称性为我们理解和描述物理现象提供了强大的工具。对称性的破坏也同样重要,它可以帮助我们理解许多复杂的物理过程,例如电弱对称性破缺可以解释为什么弱相互作用只能作用在很短的距离上。

Laradock:简化PHP开发环境的利器

Laradock 是一个为 Docker 提供的全功能 PHP 开发环境,它支持多种常用服务的快速配置,为 PHP 开发者提供了一个便捷的开发环境。Laradock 的设计初衷是让开发者能够快速切换不同版本的 PHP、选择自己喜欢的数据库引擎,并且可以轻松运行各种常用的服务。 Laradock 的特点如下: 快速入门:让我们看看如何轻松设置我们的演示堆栈:PHP、NGINX、MySQL、Redis 和 Composer。 Laradock 支持的服务:Laradock 遵循关注点分离原则,因此它将每个软件运行在自己的 Docker 容器中。你可以根据需要启动/关闭任意数量的实例,而不必担心配置的问题。要运行下面列表中的容器,请使用 docker-compose up -d {container-name} 命令。 Web 服务器: 负载均衡器: PHP 编译器: 数据库管理系统: 数据库管理应用: 缓存引擎: 消息代理: laradock laradock/README-zh.md at master · laradock/laradock (github.com)

推荐WordPress 的puock主题

Licoy/wordpress-theme-puock: :art: 一款基于WordPress开发的高颜值的自适应主题,支持白天与黑夜模式/无刷新加载/第三方登录等众多功能 | A high-value adaptive theme based on WordPress, supports light and dark modes, no refresh loading, etc. (github.com) 开源免费的WP插件,可以快速搭建一个内容分享站点。

win11下启动服务报告没有权限监听端口

[Nest] 26516 – 2023/10/05 13:07:06 ERROR [NestApplication] Error: listen EACCES: permission denied 0.0.0.0:3000 +2msError: listen EACCES: permission denied 0.0.0.0:3000 其实不是端口的问题而是 winnat,重启就好: net stop winnat net start winnat 效果如下图:

LMDeploy: 你的AI模型部署和服务的全方位解决方案

欢迎来到LMDeploy的世界!LMDeploy是由MMDeploy和MMRazor团队联合打造的一款全面的工具箱,旨在帮助你轻松、高效地实现LLM任务的轻量化、部署和服务。 高效推理引擎 TurboMind 首先,让我为你介绍一下我们的高效推理引擎TurboMind。它是基于FasterTransformer构建的,能以极其高效的方式执行 InternLM、LLaMA、vicuna 等模型在NVIDIA GPU上的推理。想象一下,一个强大且高效的工具正在为你处理复杂的AI计算,这就是TurboMind为你提供的! 交互推理方式 我们知道,在多轮对话中,如果每次都处理整个对话历史,会消耗大量的计算资源。因此,LMDeploy引入了一种交互推理方式。它通过缓存对话过程中attention的k/v值,记住对话历史,避免了重复处理历史会话,提升了推理效率。 多GPU部署和量化 LMDeploy还提供了全面的模型部署和量化支持。无论你的AI模型规模大小,我们都已经完成了验证。这意味着,你可以更自由地选择硬件资源,无需担心模型的部署和量化问题。 persistent batch推理 最后,我们还有一个优化模型执行效率的神秘武器,那就是persistent batch推理。这个功能可以进一步优化你的模型,让你的AI应用运行得更快、更流畅。 LMDeploy就像一个多功能的瑞士军刀,为你的AI模型提供全方位的支持。从高效推理引擎到灵活的模型部署,再到持续优化的推理方式,我们始终在努力为你提供最佳的AI部署和服务解决方案。让我们一起,开启AI的未来!

打开数学大门的神奇模型——阿贝尔

大家好,今天我想和大家分享一项最新的研究成果。这是由上海交通大学生成式人工智能研究组(GAIR)提出的一款名为“阿贝尔”的大型语言模型,专门用于解决数学问题。 首先,让我们来看看为什么我们需要这样的模型。在当前的大数据时代,人工智能已经成为了我们生活中不可或缺的一部分。然而,尽管人工智能在文本理解和知识理解等任务上表现出色,但在复杂数学推理计算、物理建模、科学发现等领域,人工智能的研究却远未达到我们的期望。这就是为什么GAIR团队决定研发阿贝尔模型,以帮助我们更好地理解和解决数学问题。 那么,阿贝尔模型是如何工作的呢?在阿贝尔模型中,研究者们结合了两种先前的数学解决方法,即CoT(思维链)和PoT(思维程序)。CoT方法通过一步步的自然语言描述来解决问题,但在处理复杂的数学或算法推理过程时,可能会遇到困难。而PoT方法则是通过编程的方式来解决问题,尽管这种方法在处理更抽象的推理场景时可能会遇到困难,但它利用Python解释器来大幅简化数学求解过程。 为了充分利用这两种方法的优点,研究团队创建了一个新的数学混合指令微调数据集MathInstruct,它广泛覆盖了不同的数学领域和复杂程度,并将CoT和PoT原理结合到一起。然后,他们使用这个数据集对模型进行训练,得到了一系列不同大小的阿贝尔模型。 研究者们使用了一系列的数据集来对阿贝尔模型进行评估,结果显示,相比于之前的方法,阿贝尔模型能更好地处理领域外的数据集,并能大幅提升开源LLM的数学推理能力。 阿贝尔模型的出现,无疑为我们解决数学问题提供了一种新的可能。无论你是在日常生活中遇到的购物预算问题,还是在工作中遇到的复杂金融投资问题,阿贝尔模型都能为你提供有效的解决方案。这个新的数学模型,不仅能够应对各种类型的数学问题,还能够在不同的数据集中都取得很好的效果,表现出了强大的泛化能力。这对于我们在日常生活中解决各种数学问题,甚至在更高层次的金融投资、科学研究等领域,都有着巨大的潜力和价值。 你可能会问,我能在哪里找到这个神奇的模型呢?别担心,阿贝尔模型的代码已经在GitHub上开源,研究团队也在Hugging Face发布了训练好的不同大小的模型,供大家免费使用。 参考链接:论文链接代码链接数据集与模型链接

一种新型数学问题解决模型——MAmmoTH

在我们的日常生活中,数学问题无处不在,从简单的购物预算,到复杂的金融投资计算,都需要我们运用数学来解决。然而,对于许多人来说,数学问题可能并不是那么容易解决。那么,有没有一种方式,可以让计算机帮助我们解决这些问题呢? 最近,来自滑铁卢大学和俄亥俄州立大学等机构的研究团队提出了一种名为MAmmoTH的大型语言模型(LLM),专门针对解决数学问题。这个新模型充分利用了两个先前的数学解决方法,即CoT(思维链)和PoT(思维程序)。 在CoT方法中,问题通过一步步的自然语言描述来解决,这个方法的优点是能覆盖大多数数学科目,但在计算精度和复杂的数学或算法推理过程方面存在困难。而PoT方法则是通过编程的方式来解决问题,利用Python解释器来简化数学求解过程,但PoT在处理更抽象的推理场景时可能会遇到困难。 为了充分利用这两种方法的优点,研究团队创建了一个新的数学混合指令微调数据集MathInstruct,它广泛覆盖了不同的数学领域和复杂程度,并将CoT和PoT原理结合到一起。 为了测试这个新的数学模型,研究者们使用了一系列的数据集,包括GSM8K、MATH、AQuA-RAT、NumGLUE等,对模型进行了评估。结果显示,相比于之前的方法,MAmmoTH模型能更好地处理领域外的数据集,并能大幅提升开源LLM的数学推理能力。 这个新的数学模型MAmmoTH,不仅能够应对各种类型的数学问题,还能够在不同的数据集中都取得很好的效果,表现出了强大的泛化能力。这对于我们在日常生活中解决各种数学问题,甚至在更高层次的金融投资、科学研究等领域,都有着巨大的潜力和价值。 这项研究的代码已经在GitHub上开源,研究团队也在Hugging Face发布了训练好的不同大小的模型,供大家免费使用。如果你对数学问题感到头疼,或者你是一个对AI有着极高热情的研究者,那么这个新的数学模型MAmmoTH可能正是你需要的工具。 参考资料:论文:https://arxiv.org/pdf/2309.05653.pdf代码:https://github.com/TIGER-AI-Lab/MAmmoTH数据集与模型:https://huggingface.co/datasets/TIGER-Lab/MathInstruct

书生·浦语 大语言模型确实很牛!

书生·浦语 目前开源的 20B模型性能超过了同参数规模竞争者。 更好的一点是,书生·浦语开源了训练和部署工具链。 Demo:书生·浦语-对话-20B · 模型库 (modelscope.cn) 相比其它竞争者,这个模型的背景也更加有实力,可持续性会更好。 InternLM/README-zh-Hans.md at main · InternLM/InternLM (github.com)