Month: July 2024

食用油和饮料糖浆安全:当“混装”成为行业潜规则食用油和饮料糖浆安全:当“混装”成为行业潜规则

近年来,随着物流运输行业的利润收窄,一些不良商家为了节省成本,漠视消费者生命健康,在食用油运输过程中,频频出现令人触目惊心的乱象。近日,《新京报》就对罐车运输乱象进行了深度调查,揭露了食用油行业中存在的一个严重问题:食用油和化工液体混装运输。 罐车混装:卸完煤制油,转头就拉食用油 《新京报》的记者通过长时间的追踪调查发现,国内许多普货罐车运输的液体并不固定,既承接糖浆、大豆油等可食用液体,也运送煤制油等化工类液体。更令人震惊的是,很多罐车在换货运输过程中并不清洗罐体,导致食用油被残留的化工液体污染。 以煤制油为例,这是一种由煤炭加工而来的化工液体,如液蜡、白油等。这些煤制油产品虽然不属于危化品,但其中含有的不饱和烃、芳香族烃、硫化物等成分,对人体健康存在潜在风险。 记者调查发现,一些从宁夏运送煤制油到河北的罐车,在卸货后并未清洗储存罐,就直接装上食用大豆油继续运输。这些未经清洗的罐车,残留的煤制油少则几公斤,多则十几公斤,最终与食用油混合在一起,流入市场。 把关不严:食用油厂家“睁一只眼闭一只眼” 更令人担忧的是,面对如此触目惊心的乱象,一些食用油生产企业和监管部门却“睁一只眼闭一只眼”,没有尽到应尽的责任。 一些食用油厂家虽然对运输车辆有一定的要求,例如要求罐体有“食用油专用”字样,工人在装油前会验罐等,但在实际操作中,这些要求形同虚设。 以汇福粮油集团和中储粮油脂(天津)有限公司为例,这两家公司都声称会对运输车辆进行验罐,但实际上,司机只要擦干净罐体泄油口就能过关,甚至有的公司只需要司机提供几张照片就能蒙混过关。 此外,一些食用油厂家为了节省成本,甚至默许罐车不清洗就直接装载食用油。 这种“默契”的存在,使得食用油在运输过程中,几乎处于一种脱管失控的状态。 监管缺位:行业标准和监管机制亟待完善 食用油运输乱象的背后,是行业标准和监管机制的缺失。 目前,我国在食用油运输方面,没有强制性国家标准,只有一部推荐性的《食用植物油散装运输规范》。由于是推荐性的国家标准,对厂家约束力有限。 专家指出, 相关企业应参照《运输规范》执行,使用专用运输车辆,否则食用油在运输过程中就存在被污染的风险。 呼吁:加强监管,保障“舌尖上的安全” 食用油作为人们日常生活中不可或缺的食品,其质量安全关系千家万户。 面对食用油运输过程中的乱象,我们呼吁: “舌尖上的安全”不容忽视,让我们共同努力,加强监管,完善机制,从源头上杜绝食用油运输乱象,保障消费者的健康和安全! 参考文献 https://new.qq.com/rain/a/20240707A074X400 https://finance.sina.com.cn/cj/2024-07-08/doc-incckxrq1590249.shtml http://epaper.bjnews.com.cn/html/2024-07/02/content_845675.htm https://m.bjnews.com.cn/detail/1719909398168176.html 食用油罐车运输乱象调查:隐藏的危机与监管缺失 近日,《新京报》发布了一篇震惊全国的调查报道,揭露了我国食用油运输行业中存在的严重乱象。这篇报道引发了广泛关注和讨论,也暴露出了食品安全监管中的诸多漏洞。让我们深入分析这一事件,探讨其中的问题及可能的解决方案。 触目惊心的行业乱象 根据《新京报》的调查,一些罐车司机为了节省几百元的清洗费用,在运输完煤制油等化工产品后,不经清洗就直接装载食用油。这种行为不仅存在于个别司机中,甚至已经成为行业内的”潜规则”。更令人震惊的是,一些大型食用油生产企业和运输公司对此睁一只眼闭一只眼,默许了这种危险行为的存在。 主要涉事方 [...]

联合示例选择:加速多模态学习的新方法联合示例选择:加速多模态学习的新方法

引言 在人工智能和机器学习领域,数据质量一直是影响模型性能的关键因素。无论是在语言、视觉还是多模态建模中,精心策划的数据集都能显著提高模型性能,同时减少所需的数据量。然而,传统的数据策划方法主要依赖人工,成本高昂且难以扩展。 近年来,基于模型的数据策展方法开始受到关注。这些方法利用正在训练的模型的特征来选择高质量数据,有望改善大规模预训练的效率。然而,现有方法大多关注单个数据点的质量,忽视了批次组成对学习效果的影响。 本文介绍了一种新颖的方法 – 联合示例选择的多模态对比学习(JEST),它通过选择整个批次而非单独的数据点来加速多模态学习。JEST利用多模态对比目标暴露出的数据间依赖关系,提出了一种衡量批次整体可学习性的标准,并开发了一种高效算法来选择最佳批次。实验表明,JEST显著加快了训练速度,比现有最先进模型减少了13倍的迭代次数和10倍的计算量。 JEST方法概述 基于模型的批次选择标准 JEST的核心是一种基于模型的批次选择标准。与传统方法不同,JEST不是对单个样本进行评分,而是对整个子批次进行评分,然后根据这些批次级别的分数进行采样。具体而言,JEST考虑了以下几种评分函数: JEST主要采用可学习性评分,但也提供了简单参考评分作为对照。 联合示例选择算法 对于多模态学习,JEST采用了一种受块吉布斯采样启发的顺序方法来选择批次。算法的主要步骤如下: 这种方法能够快速生成具有高可学习性的批次,效果与暴力吉布斯采样相当,但计算效率更高。 高效评分和多分辨率训练 为了进一步提高计算效率,JEST采用了以下策略: 通过这些优化,JEST在保持高效率的同时,显著减少了评分的计算开销。 实验结果与分析 联合示例选择的有效性 实验结果表明,JEST能够有效地选择高可学习性的批次: JEST加速多模态学习的效果 在多个下游任务(包括ImageNet分类和COCO图像-文本检索)上的实验表明: JEST的优势与创新 结论与展望 联合示例选择的多模态对比学习(JEST)为加速多模态学习提供了一种新颖而有效的方法。通过考虑批次级别的可学习性,JEST能够更好地捕捉数据之间的相互作用,从而显著提高学习效率和模型性能。实验结果表明,JEST不仅能大幅减少训练时间和计算资源,还能在多个下游任务上取得更好的性能。 未来的研究方向可能包括: 总之,JEST为多模态学习领域开辟了一个新的研究方向,有望推动更高效、更强大的AI系统的发展。 参考文献 [...]

使用Firefly在单卡V100上对Qwen1.5进行SFT和DPO训练使用Firefly在单卡V100上对Qwen1.5进行SFT和DPO训练

引言 大语言模型(LLM)的训练一直是AI领域的热点话题。随着开源模型的不断涌现,如何对这些基础模型进行进一步优化和定制化训练成为了很多研究者和开发者关注的焦点。本文将介绍如何使用Firefly框架在单张V100 GPU上对Qwen1.5-7B模型进行SFT(Supervised Fine-tuning)和DPO(Direct Preference Optimization)训练,并探讨训练过程中的关键技术点和实验结果。 Firefly简介 Firefly是一个开源的大模型一站式训练框架,支持对各种主流大模型进行预训练、指令微调和DPO等训练。它支持全量参数、LoRA、QLoRA等多种训练方式,可以适应不同的硬件条件和训练需求。Firefly框架兼容包括Gemma、Qwen1.5、MiniCPM、Mixtral-8x7B、Mistral、Llama等在内的绝大多数主流大模型。 Qwen1.5模型介绍 Qwen1.5是阿里巴巴在2024年春节前开源的大语言模型,支持32K的上下文长度。该模型可以看作是Qwen2的beta版本,未来还会有Qwen2的正式版本发布。从各项评测结果来看,Qwen1.5各个尺寸的模型都显著优于同量级的Llama2。在2024年2月的SuperCLUE大模型榜单中,Qwen1.5也展现出了非常优秀的表现,在开源模型中处于领先地位。 大模型训练的三个阶段 大模型的训练通常可以分为以下三个主要阶段: DPO简介 在RLHF阶段,传统的方法如PPO(Proximal Policy Optimization)存在流程繁琐、显存需求大等问题。相比之下,DPO(Direct Preference Optimization)方法绕过了奖励模型的构建,可以直接使用人类偏好数据对模型进行训练,且在训练时仅需加载策略网络和参考网络,极大地节省了显存占用。 DPO的训练数据包含三个字段:prompt、chosen和rejected。其损失函数计算过程具有对称性,公式如下: 其中,r_θ表示策略网络,r_θ_ref表示参考网络,β是温度系数,σ是sigmoid函数。 在代码实现中,DPO损失函数的计算过程大致如下: 实验设置 本实验在Qwen1.5-7B的基础上,使用Firefly框架进行了SFT和DPO两阶段的训练。整个训练流程仅使用一张V100 GPU,采用QLoRA技术,在所有Linear层都添加adapter以提升训练效果。两个阶段均使用英文数据进行训练。 对话模板 Firefly与Qwen1.5官方的对话模板保持一致: SFT阶段设置 使用Firefly对Qwen1.5进行SFT的启动命令: SFT阶段的主要参数设置如下: DPO阶段设置 [...]

ChatGPT论文写作助手:7小时完成论文的全方位指南ChatGPT论文写作助手:7小时完成论文的全方位指南

在当今快速发展的人工智能时代,ChatGPT作为一款强大的语言模型,正在revolutionizing学术写作的方式。本文将为您详细介绍如何充分利用ChatGPT的功能,从选题构思到最终润色,全方位提升您的论文写作效率和质量。无论您是正在寻找灵感的研究生,还是即将完成论文的博士生,这份指南都将成为您的得力助手。 1. 论文选题:开启学术探索之旅 选择一个好的论文题目是整个研究过程的关键起点。ChatGPT可以在这一阶段为您提供宝贵的建议和灵感。 1.1 选题指令示例 通过这样的提示,ChatGPT可以根据您的背景和兴趣,生成一系列潜在的研究选题。您可以进一步与ChatGPT讨论这些选题的可行性和创新性,从而确定最终的研究方向。 2. 文献综述:构建坚实的理论基础 一篇优秀的论文离不开全面而深入的文献综述。ChatGPT可以帮助您更高效地整理和分析已有的研究成果。 2.1 文献综述指令示例 通过这种方式,ChatGPT可以帮助您快速梳理现有研究的主要观点和方法,为您的研究提供坚实的理论支撑。 3. 理论框架:奠定研究的基石 选择合适的理论框架对于研究的深度和严谨性至关重要。ChatGPT可以为您推荐并解释相关的理论,帮助您构建研究框架。 3.1 理论推荐指令示例 通过这种方式,ChatGPT可以为您介绍相关的理论框架,帮助您更好地设计研究方法和解释研究结果。 4. 论文结构:搭建清晰的逻辑框架 一篇结构清晰、逻辑严密的论文更容易让读者理解和认可。ChatGPT可以帮助您设计合理的论文结构。 4.1 论文结构指令示例 通过这种方式,ChatGPT可以为您生成一个详细的论文大纲,帮助您更好地组织思路和内容。 5. 论文润色:提升学术表达水平 在完成初稿后,润色和修改是提升论文质量的关键步骤。ChatGPT可以在语言表达、逻辑连贯性等方面为您提供宝贵的建议。 5.1 论文润色指令示例 [...]

Redis哨兵机制:实现高可用的利器Redis哨兵机制:实现高可用的利器

Redis作为一款高性能的键值对存储系统,在缓存、数据库等场景中被广泛应用。然而,在传统的主从复制架构中,仍然存在一些问题,特别是在主节点故障时的处理上。为了解决这些问题,Redis引入了哨兵机制,本文将详细介绍Redis哨兵机制的概念、工作原理以及如何搭建一个哨兵系统。 1. 哨兵机制的由来 在传统的Redis主从复制架构中,主要存在两个问题: 哨兵机制主要解决了第一个问题,即高可用性问题。它能够在主节点故障时自动完成故障发现和故障转移,并通知应用程序,从而实现真正的高可用。 2. 哨兵机制概述 Redis的哨兵机制是一个分布式系统,包含多个哨兵节点和Redis数据节点。每个哨兵节点会监控数据节点和其他哨兵节点。当发现节点不可达时,哨兵会对该节点进行下线标识。如果下线的是主节点,哨兵们会进行”协商”,当大多数哨兵对主节点不可达达成共识后,它们会选举出一个领导者来完成自动故障转移,并实时通知Redis客户端。整个过程是完全自动的,无需人工干预。 3. 搭建哨兵系统 接下来,我们将使用Docker来搭建一个Redis哨兵环境,包括3个数据节点(1主2从)和3个哨兵节点。 3.1 搭建数据节点 首先,我们需要创建一个docker-compose.yml文件来定义数据节点: 这个配置文件定义了三个服务:一个主节点和两个从节点。每个节点都使用Redis 5.0.9镜像,并启用了AOF持久化。从节点通过--slaveof参数指定了主节点的地址和端口。 使用以下命令启动数据节点: 3.2 搭建哨兵节点 接下来,我们需要为哨兵节点创建配置文件。在redis-sentinel目录中创建三个相同内容的配置文件(sentinel1.conf, sentinel2.conf, sentinel3.conf): 这个配置指定了哨兵监听的主节点信息,以及判断主节点失效的条件。 然后,创建另一个docker-compose.yml文件来定义哨兵节点: 使用以下命令启动哨兵节点: 4. 哨兵机制的工作原理 哨兵机制的工作流程主要包括以下几个步骤: 4.1 主观下线 [...]

InfoBatch:无损训练加速的无偏动态数据剪枝方法InfoBatch:无损训练加速的无偏动态数据剪枝方法

1. 研究背景与动机 近年来,深度学习在计算机视觉领域取得了显著进展。然而,大多数先进方法都需要在超大规模数据集上进行训练,这对计算资源有限的研究人员来说是一个巨大挑战。因此,如何减少大规模数据集的训练成本变得迫在眉睫。 现有的一些解决方案包括: 针对现有方法的局限性,研究者提出了InfoBatch框架,旨在通过无偏动态数据剪枝实现无损训练加速。 2. InfoBatch方法概述 InfoBatch的核心思想是在保持原始数据集和剪枝后数据集的预期总更新相同的基础上进行数据剪枝。具体来说,InfoBatch包含以下关键步骤: 与之前的方法相比,InfoBatch具有以下优势: 3. 理论分析 InfoBatch的理论基础可以从经验风险最小化的角度来解释。假设所有样本z来自连续分布ρ(z),训练目标可以表示为: arg min E[L(z, θ)] = ∫ L(z, θ)ρ(z)dzθ∈Θ z∈D 应用提出的剪枝策略后,我们根据归一化的(1-Pt(z))ρ(z)对z进行采样。通过对每个样本z的损失进行因子γt(z) = 1/(1-Pt(z))的重缩放,在St上的训练目标变为: arg min 1/ct E[γt(z)L(z, θ)] = [...]

SILU 激活函数SILU 激活函数

“SILU” 激活函数,也被称为”Swish”或”Sigmoid Linear Unit”,是一种在深度学习中使用的激活函数。SILU函数的数学表达式为: [ \text{SILU}(x) = x \cdot \sigma(x) ] 其中 ( x ) 是输入值,( \sigma(x) ) 是sigmoid函数,即: [ \sigma(x) = \frac{1}{1 + e^{-x}} ] SILU函数结合了线性和非线性特性,其输出范围在0到输入值 ( x ) [...]

GraphRAG:智能摘要技术的新突破GraphRAG:智能摘要技术的新突破

在数字化时代,我们每天都在创造海量文本数据。如何从这些数据中提取有价值的信息并进行有效总结,成为了一个重要课题。微软研究院最新推出的GraphRAG技术,为我们提供了一个创新的解决方案。今天,我们就来聊聊这项技术是如何工作的,以及它将如何改变我们的信息处理方式。 什么是GraphRAG? GraphRAG(Graph Retrieval-Augmented Generation)是一种结合了知识图谱和检索增强生成(RAG)的技术。它能够帮助大型语言模型(LLM)更好地理解并总结大规模文本数据集中的信息。 GraphRAG的工作原理 GraphRAG的工作流程分为以下几个步骤: GraphRAG的优势 实际应用案例 为了评估GraphRAG技术,研究者们使用了两个真实世界的数据集:技术播客的转录文本和新闻文章。他们让语言模型基于这些数据集的简短描述生成了一系列问题,并使用GraphRAG来回答这些问题。结果表明,GraphRAG在生成全面和多样化答案方面,明显优于传统的RAG方法。 未来展望 GraphRAG技术为处理大规模文本数据提供了新的可能性。随着技术的不断发展,我们期待GraphRAG能够在更多领域展现其强大的能力,例如自动生成报告、数据分析和知识发现等。 结语 GraphRAG的推出,不仅是技术上的一次飞跃,也为信息检索和摘要领域带来了新的思路。随着技术的不断完善,我们相信GraphRAG将在未来发挥更大的作用。 想要了解更多关于GraphRAG的信息,或者开始使用这项技术,请访问微软研究院的论文。让我们一起探索智能摘要技术的未来。 希望这篇博客文章能够帮助您更好地了解GraphRAG技术,并激发您探索和应用这项技术的兴趣。如果您有任何问题或需要更多信息,请随时与我联系。 [...]

探索GraphRAG:微软研究的新篇章探索GraphRAG:微软研究的新篇章

在人工智能的宏伟蓝图中,GraphRAG(Retrieval-Augmented Generation)技术以其独特的结构化方法,为大型语言模型(LLM)带来了革命性的改进。今天,我们将深入了解GraphRAG的奥秘,并探索它如何增强LLM处理私有数据的能力。 什么是GraphRAG? GraphRAG是一种先进的检索增强生成技术,它与传统的基于语义搜索的方法不同。GraphRAG通过从原始文本中提取知识图谱、构建社区层次结构、生成社区摘要,并在执行基于RAG的任务时利用这些结构。 GraphRAG的主要优势 结构化方法 与使用纯文本片段的简单语义搜索方法相比,GraphRAG采用了一种结构化、分层的方法。 知识图谱构建 GraphRAG能够从大量文本中提取实体、关系和关键主张,并将它们组织成知识图谱。 社区层次结构 通过Leiden技术对图谱进行层次聚类,形成社区,每个社区代表一组相关的实体。 社区摘要 为每个社区生成自下而上的摘要,帮助全面理解数据集。 查询模式 在回答问题时,GraphRAG使用全局搜索和局部搜索模式,提供对社区摘要和具体实体的深入理解。 如何开始使用GraphRAG? 解决方案加速器 微软推荐使用解决方案加速器包快速启动GraphRAG系统,它提供了一个用户友好的端到端体验,集成了Azure资源。 入门指南 查看GraphRAG的入门指南,了解如何开始使用这项技术。 深入学习 深入研究Indexer和Query包的文档,了解GraphRAG的主要子系统。 GraphRAG与传统RAG的比较 基线RAG 大多数基于LLM的工具使用基线RAG技术,它使用向量相似性作为搜索技术,以改进LLM的输出。 GraphRAG的改进 GraphRAG使用知识图谱,在处理复杂信息时,在问答性能上取得了显著提升。它特别擅长处理需要综合不同信息以提供新综合见解的问题,以及对大型数据集合或单一大型文档进行整体理解的问题。 GraphRAG处理流程 索引 查询 [...]

探索DB-GPT:定义数据库的未来交互探索DB-GPT:定义数据库的未来交互

在这个信息爆炸的时代,数据库的管理和交互方式也在不断进化。今天,我们要介绍一个名为DB-GPT的开源项目,它正重新定义我们与数据库的互动方式。让我们一探究竟,看看DB-GPT是如何让数据库应用开发变得更加智能和便捷的。 什么是DB-GPT? DB-GPT是一个创新的AI原生数据应用开发框架,它集成了多种先进技术,包括智能体工作流表达语言(AWEL)和智能体。这个项目的目标是为大模型领域构建基础设施,让开发者能够更容易地围绕数据库构建应用。 DB-GPT的核心特性 如何安装DB-GPT? 安装DB-GPT非常简单,无论你使用的是Linux、macOS还是Windows系统,都有详细的安装教程。你可以选择源码安装,也可以通过Docker或Docker Compose快速部署。 如何贡献到DB-GPT项目? DB-GPT是一个活跃的开源项目,我们鼓励社区成员通过以下方式贡献: 许可与引用 DB-GPT采用MIT许可证,这意味着你可以自由地使用和修改代码。如果你在研究或开发中使用了DB-GPT,请引用其相关论文。 联系我们 对于任何问题或帮助,你可以通过微信联系项目维护者,我们也欢迎你的任何反馈和建议。 结语 DB-GPT项目正在不断进化,加入我们,一起探索和构建数据库的未来。无论你是开发者、研究人员还是对AI和数据库交互有兴趣的爱好者,DB-GPT都期待你的参与。 想要了解更多或开始使用DB-GPT,访问DB-GPT的GitHub页面。如果你准备好了,让我们一起开启这段旅程! 希望这篇博客文章能够帮助你更好地了解DB-GPT项目。如果你有任何问题或需要更多信息,请随时与我联系。 [...]