Month: July 2024

调查记者韩福涛:卧底多年,我很快乐调查记者韩福涛:卧底多年,我很快乐

调查记者是新闻行业中一个特殊而又重要的群体。他们深入社会的各个角落,揭露不为人知的真相,为公众利益发声。本文将聚焦于资深调查记者韩福涛的从业经历,探讨这一职业的魅力与挑战。 一、从”胖哥俩”事件看调查记者的工作方式 2021年8月,韩福涛的一篇关于”胖哥俩肉蟹煲”的调查报道引发广泛关注。这篇报道揭露了该连锁餐厅存在使用隔夜死蟹、腐烂食材等严重的食品安全问题。那么,韩福涛是如何完成这次调查的呢? 1. 线索来源与选题判断 韩福涛接到这个选题的初始线索来自一位消费者的投诉。这位消费者带孩子在”胖哥俩”用餐后全家吃坏肚子,但维权未果。一般来说,单个消费者的投诉很难成为一个有影响力的调查报道。但韩福涛敏锐地发现了这背后可能存在的系统性问题。 他说:”那个消费者当时吃坏肚子之后,上’大众点评’看’胖哥俩’的评价,把北京10多家店的全部评价给梳理了一遍,重点看负面评价,发现很多人跟他有相同的经历。” 这份汇总了几百个差评的Excel表格,成为了韩福涛决定深入调查的关键依据。他意识到这不是个案,而可能是整个企业在食品安全方面存在严重问题。 2. 卧底调查的实施 为了获得第一手资料,韩福涛决定采用卧底的方式进行调查。他说:”食品安全问题只有在后厨才能知道最真实的情况。” 韩福涛先后在两家”胖哥俩”门店成功应聘为切配工,分别是朝阳区合生汇店和北京凯德MALL大峡谷店。在卧底期间,他亲身经历并记录了以下问题: 3. 报道发布与后续影响 2021年8月23日上午8:13,韩福涛的调查报道正式发布。报道引发了广泛关注和讨论: 至此,相关话题的微博阅读量突破10亿。这次调查报道不仅揭露了严重的食品安全问题,还推动了相关部门的监管行动,对保护消费者权益起到了积极作用。 二、调查记者的职业挑战 1. 心理压力与成果不确定性 韩福涛坦言,做调查记者并非易事。他说:”太聪明的人干不了调查记者。”在”胖哥俩”事件中,他每时每刻都在怀疑自己的选择:”我为什么想不开,来做这个选题?看不到成果,不知道能不能出稿,如果做不成,没有任何稿费,做再多都白干。” 这种心理压力源于调查记者工作的特殊性: 2. 公共利益与个人情感的矛盾 2016年,韩福涛参与报道了”常熟童工”事件,揭露了江苏常熟服装厂非法雇佣童工的现象。在调查过程中,他以工人身份卧底进入工厂,结识了一名15岁的童工小熊。 通过与小熊的交往,韩福涛了解到童工们的真实处境: 报道发布后,虽然推动了政府对童工问题的整治,但小熊却因此知道了韩福涛的真实身份。小熊感到被欺骗,拒绝再与韩福涛联系,甚至将他拉黑。 这种情况让韩福涛陷入了道德困境。他说:”从个人层面来说,我骗了他,这确实是我的不对,当时的他只是一个十五岁的小孩子。但是我真的是为了更多孩子能不要重蹈他的覆辙,我只能从大局考虑。” 当被问及如何平衡私人情感与公共利益时,韩福涛哽咽了,停了一会儿,说:”没法平衡。” 这种矛盾是许多调查记者面临的普遍问题。他们必须在揭露真相、推动社会进步与维护个人关系之间做出艰难的选择。 3. [...]

假驴肉产业链调查:母猪肉变身驴肉,添加剂超标催生致癌物假驴肉产业链调查:母猪肉变身驴肉,添加剂超标催生致癌物

在这个追求美食的时代,驴肉以其独特的口感和营养价值,成为了许多消费者青睐的选择。然而,一场席卷全国的假驴肉风波,正在动摇消费者对这一美食的信心。本文将深入探讨假驴肉产业链的运作模式、潜在的健康风险,以及这一现象背后的社会经济因素。让我们一起揭开假驴肉产业的神秘面纱。 1. 假驴肉产业链的形成与扩散 1.1 假驴肉的源头:长丰镇的隐秘作坊 在河北省任丘市长丰镇,一个不为人知的假驴肉生产基地正在悄然运作。新京报记者的调查揭示,这里有多达四五十家假驴肉生产作坊,它们隐藏在普通民居中,外表平平无奇,内里却暗藏玄机。 这些作坊通常规模不大,但生产效率惊人。以一家作坊为例,每天能加工出1600斤”驴肉”。然而,这些所谓的”驴肉”实际上是由廉价的母猪肉或马肉加工而成。 1.2 原料来源:老母猪肉的”华丽转身” 假驴肉的主要原料是被称为”2号肉”的老母猪前腿肉。这种肉来自已经繁殖多年、被养殖场淘汰的老母猪。由于肉质较老,纤维粗糙,口感接近大型牲畜的肉,成为制作假驴肉的理想选择。 记者在调查中发现,这些老母猪肉主要来自吉林长春和山东临沂等地。仅长春一家猪肉分割市场的批发商,每年就向长丰镇供应约500吨老母猪肉。 1.3 加工过程:添加剂的”魔法” 将老母猪肉或马肉变成”驴肉”的关键在于添加剂的使用。主要添加剂包括: 这些添加剂的使用,使得廉价的母猪肉在外观和味道上都更接近真正的驴肉。 1.4 销售网络:遍布全国的假驴肉 假驴肉的销售网络已经遍及全国各地。长丰镇的假驴肉通过多种渠道销往各地: 2. 假驴肉的健康风险 2.1 亚硝酸钠超标问题 亚硝酸钠是假驴肉生产中常用的添加剂,主要用于上色和防腐。然而,记者调查发现,许多作坊在使用亚硝酸钠时严重超标。 根据国家标准,酱卤肉制品每公斤亚硝酸钠残留量应不超过30毫克。但记者送检的样品中,亚硝酸钠残留量最高达到110毫克/公斤,超标2.6倍以上。 2.2 亚硝酸钠过量的健康危害 2.3 其他潜在风险 除了亚硝酸钠超标问题,假驴肉的生产过程中还存在其他潜在风险: 3. [...]

大型语言模型数学推理能力的全面评估:MATHCHECK方法大型语言模型数学推理能力的全面评估:MATHCHECK方法

大型语言模型(LLM)在数学推理方面展现出惊人的能力,这一特性被视为衡量人工智能发展水平的重要指标。然而,如何全面评估LLM的数学能力,并真实反映其在实际应用场景中的表现,已成为一个亟待解决的关键问题。本文将详细介绍一种名为MATHCHECK的创新评估方法,该方法旨在对LLM的数学推理能力进行更加全面和深入的评估。 1. 背景与动机 传统的数学能力评估方法主要关注模型解决特定数学问题的能力,这种方法存在以下局限性: 基于此,研究者提出一个重要观点:如果一个模型真正理解了一个数学问题,它应该能够稳健地应对与该问题相关的各种任务。这一洞见启发了MATHCHECK评估方法的设计。 2. MATHCHECK方法概述 MATHCHECK是一种精心设计的评估清单,旨在测试模型在任务泛化和推理鲁棒性方面的表现。它包含多种数学推理任务和鲁棒性测试类型,以实现对数学推理能力和推理行为的全面评估。 2.1 任务泛化 MATHCHECK在水平方向上评估模型在四种不同数学任务中的表现: 这种多任务评估方法不仅提供了对模型能力的全面评估,也更贴近实际应用场景的需求和复杂性。 2.2 推理鲁棒性 MATHCHECK在垂直方向上通过四种问题形式来评估模型的推理鲁棒性: 通过这种多维度的鲁棒性测试,可以更全面地评估模型是否真正理解了问题的内在数学逻辑。 2.3 清单构建 MATHCHECK数据的创建是一个耗时且需要大量人力的过程。为了提高效率和质量,研究者利用大型语言模型(如GPT-4-Turbo)作为引擎来自动生成MATHCHECK数据。数据构建流程如下: 这种自动化的数据生成流程大大提高了MATHCHECK数据集的构建效率,同时保证了数据的高质量和多样性。 3. MATHCHECK数据集 基于MATHCHECK方法,研究者构建了两个benchmark数据集: 3.1 MATHCHECK-GSM MATHCHECK-GSM是基于GSM8k数据集生成的MATHCHECK风格数据集,用于评估模型的数学文本推理能力。它包含129个MATHCHECK风格的问题组,共3,096条高质量数据。每个问题组包含一个原始问题及其三个鲁棒性变体,每个问题又对应四种不同的任务。 3.2 MATHCHECK-GEO MATHCHECK-GEO是专门用于评估多模态几何推理能力的数据集。它基于GeoQA、UniGeo和Geometry3K等几何问题数据集生成,包含60个MATHCHECK风格的问题组,共1,440条高质量数据。值得注意的是,这是首个涵盖可答性判断、结果判断和过程判断任务的几何问题数据集。 这两个数据集都经过了严格的人工验证,以确保高质量和可靠性。研究者招募了三名经过专门培训的研究生进行数据验证,最终自动数据生成流程的平均通过率达到84.61%。 [...]

RLCard: 强化学习在卡牌游戏中的应用RLCard: 强化学习在卡牌游戏中的应用

强化学习作为人工智能的一个重要分支,在近年来取得了突飞猛进的发展。RLCard是一个专门针对卡牌游戏的强化学习工具包,为研究人员和开发者提供了一个便捷的平台来开发和测试各种强化学习算法。本文将详细介绍RLCard工具包的开发相关内容,包括如何添加预训练/规则模型、开发新的算法、添加新的游戏环境以及自定义环境等方面。 添加预训练/规则模型 在RLCard中添加自己的预训练或规则模型是一个重要的功能,可以让研究人员快速比较不同模型的性能。添加新模型的步骤如下: 然后可以使用leduc_nfsp_model.agents来获取游戏的所有代理。 通过这些步骤,研究人员可以方便地将自己的模型集成到RLCard中,与其他算法进行比较和评估。 开发新算法 RLCard为开发新的强化学习算法提供了灵活的框架。虽然用户可以自由设计和尝试自己的算法,但建议将新算法封装为Agent类,以便与工具包兼容。一个标准的Agent类应该包含以下函数和属性: 通过实现这些标准接口,新开发的算法可以无缝集成到RLCard的评估和比较框架中。 添加新的游戏环境 RLCard的一大优势是其可扩展性,允许研究人员添加新的卡牌游戏环境。添加新环境的一般步骤如下: 要测试新环境是否设置成功,可以使用以下代码: 通过这些步骤,研究人员可以将自己设计的卡牌游戏添加到RLCard中,利用工具包提供的各种算法和评估工具进行研究。 自定义环境 除了使用默认的状态表示和动作编码,RLCard还允许用户自定义环境。以下以Limit Texas Hold’em为例,说明如何修改状态表示、动作编码、奖励计算,甚至游戏规则。 状态表示 要定义自己的状态表示,可以修改/rlcard/envs/limitholdem.py中的extract_state函数。这个函数负责将游戏的当前状态转换为强化学习算法可以理解的格式。例如,可以选择包含不同的信息,或者改变信息的编码方式。 动作编码 要定义自己的动作编码,可以修改/rlcard/envs/limitholdem.py中的decode_action函数。这个函数负责将动作ID转换为游戏中的实际动作。通过自定义这个函数,可以改变动作空间的结构或大小。 奖励计算 要定义自己的奖励计算方式,可以修改/rlcard/envs/limitholdem.py中的get_payoffs函数。这个函数决定了在游戏结束时每个玩家获得的奖励。通过修改奖励计算,可以影响强化学习算法的学习目标和行为。 修改游戏规则 我们还可以通过改变游戏的参数来调整其难度。例如,在rlcard/games/limitholdem/game.py的init函数中,可以修改以下参数: 通过这些修改,研究人员可以创建不同难度或变体的游戏环境,以满足特定的研究需求。 结论 RLCard为卡牌游戏中的强化学习研究提供了一个强大而灵活的平台。通过添加新的模型、算法和环境,以及自定义现有环境,研究人员可以进行广泛的实验和比较。这种可扩展性使RLCard成为探索强化学习在复杂决策问题中应用的理想工具。 随着强化学习技术的不断发展,我们可以期待看到更多创新算法在卡牌游戏中的应用。RLCard为这些研究提供了一个统一的框架,促进了知识的共享和进步。未来,我们可能会看到这些技术不仅应用于游戏,还能扩展到更广泛的决策问题中,如金融交易、资源调度等实际应用场景。 参考文献 [...]

深入了解强化学习在纸牌游戏中的应用:RLCard工具包深入了解强化学习在纸牌游戏中的应用:RLCard工具包

引言 强化学习(Reinforcement Learning, RL)作为机器学习的重要分支,近年来在各类复杂任务中取得了显著成果。特别是在纸牌游戏中,RL算法展示了其强大的决策能力与策略优化能力。本文将详细介绍RLCard工具包中的几种主要算法,包括深度Q学习(Deep-Q Learning, DQN)、神经虚拟自我对弈(Neural Fictitious Self-Play, NFSP)、反事实遗憾最小化(Counterfactual Regret Minimization, CFR)以及深度反事实遗憾最小化(Deep Counterfactual Regret Minimization, DeepCFR)。 深度Q学习(DQN) DQN简介 深度Q学习(DQN)是一种基础的强化学习算法,最早由DeepMind团队提出。DQN通过引入神经网络来逼近Q值函数,从而在复杂的决策环境中能够更高效地学习策略。 DQN在RLCard中的实现 在RLCard工具包中,DQN包含以下几个重要类: DQN工作流程 神经虚拟自我对弈(NFSP) NFSP简介 神经虚拟自我对弈(NFSP)是一种端到端的方法,旨在通过深度强化学习解决纸牌游戏中的策略优化问题。NFSP包含一个内部的RL智能体和一个基于RL智能体生成的数据进行训练的监督学习智能体。 NFSP在RLCard中的实现 在RLCard工具包中,NFSP利用DQN作为其RL智能体,结合监督学习智能体共同进行策略的优化与学习。 NFSP工作流程 反事实遗憾最小化(CFR) CFR简介 [...]

SBC教授的学术之路:一个争议性的成功案例SBC教授的学术之路:一个争议性的成功案例

引言 在当今竞争激烈的学术界,如何快速取得显著成就成为许多年轻学者关注的焦点。本文将介绍一位自称来自M78星云的SBC教授的学术经历,他声称通过一些争议性的方法在短时间内取得了令人瞩目的成就。虽然这些方法存在道德争议,但其经历或许能为我们提供一些思考。 SBC教授的学术背景 SBC教授毕业于华清大学电机工程与应用电子技术系,获得学士和博士学位。他的主要研究方向包括: 值得注意的是,SBC教授在29岁时就获得了国家级人才计划青年拔尖人才称号,成为中国历史上最年轻的获得者。 显著的学术成就 SBC教授声称在短时间内取得了以下学术成就: 这些成就使SBC教授在同龄人中脱颖而出,并最终以助理教授身份留校任职。 争议性的”成功”方法 SBC教授声称,他之所以能在短时间内取得如此多的成就,主要归功于一些争议性的方法,他将其称为”学术不端”。然而,他强调这些方法并不违反学校的规定。以下是他提到的几种主要方法: 1. 数据篡改 SBC教授提到,在他的早期研究中,常常遇到实验结果与预期不符的情况。为了快速发表论文,他选择对数据进行”适当调整”。例如,在他的一篇关于功率半导体器件建模的论文中,他承认对实验数据进行了修改,使其更符合理论预测。 2. 研究成果窃取 为了快速积累学术成果,SBC教授提到他会”借鉴”其他研究者的工作。他认为,只要稍作修改就不算抄袭。这种做法使他能在短时间内产出大量论文。 3. 一稿多投 为了提高论文发表数量,SBC教授承认他经常将同一篇论文同时投递给中英文期刊。虽然这种做法在学术界普遍被认为是不道德的,但他声称这并未影响他的学术生涯。 4. 利用论文申请奖项 SBC教授表示,在积累了大量论文后,他会利用这些论文申请各种奖项和荣誉。他认为,获奖经历能进一步提升他的学术地位,形成良性循环。 对SBC教授方法的批评 虽然SBC教授声称这些方法帮助他取得了显著成就,但这种做法在学术界引发了强烈批评: 结论与反思 SBC教授的经历引发了我们对当前学术评价体系的思考。过分强调论文数量和短期成果可能导致一些学者采取投机取巧的方式。我们应该反思: 总之,SBC教授的案例警示我们,真正的学术成就应建立在扎实的研究基础和严谨的学术道德之上。我们应该鼓励年轻学者踏实做研究,而不是追求表面的”速成”。 参考文献 [...]

RLCard: 强化学习扑克游戏工具包RLCard: 强化学习扑克游戏工具包

RLCard是一个用于卡牌游戏强化学习的开源工具包,为研究人员和开发者提供了一个统一的环境和接口来开发、评估和比较卡牌游戏AI算法。本文将对RLCard的主要功能和使用方法进行详细介绍。 1. RLCard概述 RLCard支持多种流行的卡牌游戏,包括: RLCard提供了统一的接口来访问这些游戏环境,使得开发者可以方便地在不同游戏之间切换和对比算法。同时,RLCard还内置了多种经典的强化学习算法实现,如DQN、CFR等,可以直接用于训练和评估。 RLCard的主要特点包括: 接下来我们将通过几个具体的例子来详细介绍RLCard的使用方法。 2. 使用随机智能体 RLCard提供了一个随机智能体,可以在各个游戏环境中随机行动。下面是一个使用随机智能体的示例代码: 这段代码创建了一个Leduc Hold’em游戏环境,并使用随机智能体进行了一局游戏。通过打印轨迹和观察数据,我们可以了解游戏的进行过程和状态表示。 3. 使用深度Q网络(DQN)训练智能体 RLCard提供了DQN等经典强化学习算法的实现。下面是一个使用DQN在21点游戏上训练智能体的示例: 这段代码在21点游戏上训练了一个DQN智能体。它定期评估智能体的性能,并记录了训练过程中的奖励变化。最后,它还绘制了学习曲线以可视化训练过程。 4. 使用CFR算法求解Leduc Hold’em 对于一些较小规模的游戏,我们可以使用反事实后悔最小化(CFR)等算法来求解纳什均衡。下面是一个在Leduc Hold’em上使用CFR(机会采样)的示例: 这段代码使用CFR算法在Leduc Hold’em上训练了一个智能体。它同样定期评估智能体的性能,并记录了训练过程。 5. 与预训练模型对战 RLCard还提供了一些预训练模型,允许人类玩家与之对战。以下是一个与Leduc Hold’em预训练CFR模型对战的示例: 这段代码允许人类玩家与预训练的CFR模型进行Leduc Hold’em的对战。它展示了每局游戏的结果,并在游戏结束后显示CFR智能体的手牌。 6. [...]

别和傻逼辩论别和傻逼辩论

短讯标题:食用油运输安全问题引发关注 短讯正文:近日,媒体曝光食用油运输过程中存在安全隐患。报道指出,一些罐车在卸完煤制油后未进行清洗,直接装载食用油,可能造成食用油被化工残留物污染。煤制油中含有的有害物质,如不饱和烃和硫化物,长期食用可能对人体健康造成严重影响。 评论:食用油作为日常消费品,其安全直接关系到公众健康。然而,目前食用油运输监管存在明显漏洞,缺乏必要的溯源、专责和检查机制。这一问题暴露了行业监管的不足和标准执行的不力。建议相关部门加强立法,出台强制性标准,确保食用油运输安全。同时,食用油厂家和运输企业也应承担起社会责任,严格执行清洗和检验流程,保障消费者的饮食安全。公众的食品安全意识同样重要,应提高对食品安全问题的关注和监督。 [...]

使用Ollama和Continue打造开源AI代码助手使用Ollama和Continue打造开源AI代码助手

在当今飞速发展的人工智能时代,开发者们渴望拥有一个强大而又易用的AI代码助手。本文将为您详细介绍如何利用Ollama和Continue这两个开源工具,在您自己的编辑器中打造一个完全开源的AI代码助手。让我们一步步深入探索这个激动人心的话题。 Ollama和Continue简介 Ollama: 本地运行大型语言模型的利器 Ollama是一个强大的工具,允许用户在本地设备上运行各种大型语言模型(LLMs)。它支持多种模型,包括Llama、GPT-J等,使得在个人电脑上使用先进的AI模型成为可能。 Continue: 编辑器中的AI助手 Continue是一个创新的IDE插件,可以轻松地在Visual Studio Code和JetBrains等主流编辑器中集成AI辅助功能。它支持代码自动完成、智能对话等特性,大大提升了开发效率。 安装和配置 要开始使用这个强大的AI代码助手,我们需要完成以下安装步骤: 安装完成后,我们就可以开始探索这个强大的AI代码助手了。 探索Ollama和Continue的强大功能 1. 尝试Mistral AI的Codestral 22B模型 Codestral 22B是目前最强大的开源代码模型之一,同时支持自动完成和对话功能。虽然它需要较高的硬件要求,但其表现令人印象深刻。 使用步骤: a. 在终端运行以下命令下载并运行Codestral: b. 在Continue的配置文件(config.json)中添加以下内容: 这样配置后,您就可以在编辑器中体验Codestral强大的代码补全和对话能力了。 2. 组合使用DeepSeek Coder和Llama 3 [...]

中国市场婴儿配方奶粉中矿物油烃含量调查中国市场婴儿配方奶粉中矿物油烃含量调查

引言 近年来,食品中矿物油烃(Mineral Oil Hydrocarbons, MOH)污染问题引起了广泛关注。MOH主要由两部分组成:矿物油饱和烃(MOSH)和矿物油芳香烃(MOAH)。从毒理学角度来看,MOSH可能导致肝脏肉芽肿,而MOAH由于分子中存在芳香环被认为具有致癌性。然而,目前尚无确凿的科学证据表明MOH对人体有明确的毒性效应。 婴儿配方奶粉(IF)是婴儿的主要食物来源,因此了解IF中MOH的污染水平及其潜在的食品安全风险非常必要。但是,目前中国缺乏IF中MOH污染的相关数据。另一方面,MOH的分析方法较为复杂,尚无统一的标准分析方法。 基于上述背景,本研究对中国市场上的IF进行了MOH含量调查,以了解其污染现状,为后续的风险评估和管理提供科学依据。 研究方法 样品收集 本研究于2018年从京东商城网站购买了51个IF样品,包括39个乳基IF和12个羊奶基IF。样品涵盖了不同阶段(1段、2段和3段)和不同包装类型(金属罐和纸盒)的产品。 化学品与仪器 研究使用了多种标准品和化学试剂,包括MOSH和MOAH的参考标准、内标和标记物等。主要分析仪器为GC-FID和GC-MS。 样品前处理 样品前处理包括表面MOH提取、热皂化和MOSH/MOAH分离三个步骤: MOSH和MOAH定量 采用GC-FID进行定量分析,报告和定量的碳链范围为C16-C25和C25-C35。通过积分色谱图上的”驼峰”面积进行定量计算。 方法验证 通过分析加标样品进行方法验证,计算回收率和精密度数据以检查方法性能。 研究结果与讨论 方法验证结果 方法验证结果显示,MOSH和MOAH的平均回收率分别为91.5%和97.5%,重现性相对标准偏差分别为9.2%和18.6%。这表明该方法具有良好的准确度和精密度。 婴儿配方奶粉中MOH含量 在51个IF样品中,有17个样品检出MOH,其中7个样品同时检出定量的MOSH和MOAH,10个样品仅检出定量的MOSH。所有阳性样品中的MOSH和MOAH色谱峰均落在C16-C25区间,这可能意味着污染来源相同。 具体结果如下: 包装材料的影响 研究发现,纸盒包装的IF更容易受到挥发性MOH的污染。在9个纸盒包装的IF样品中,有5个检出MOH阳性(55.6%);而在42个金属罐包装的IF样品中,有12个检出MOH阳性(28.6%)。这一结果与2019年中国的另一项研究结果一致,表明纸质包装可能更容易导致MOH污染。 羊奶基配方奶粉中的MOH污染 值得注意的是,所有12个羊奶基IF样品均检出MOH色谱峰,其中4个样品的含量高于方法定量限。这一结果表明,羊奶基IF可能更容易受到MOH污染,建议进一步分析以找出污染根源,并采取措施控制羊奶基IF中的MOH污染。 MOH污染来源分析 研究结果显示,IF中MOH污染可能有多个来源: [...]