当前位置:

女子造谣“湖北惊现人造毒大米”被处罚,律师:涉民生谣言的法律评价更为严厉

近期,一条“揭秘”湖北人造毒大米的视频在网络广泛流传。视频中,一条生产线正在源源不断地制造出一粒粒像大米一样的东西。配文写道:“湖北某地惊现人造大米生产线,掺杂黄曲霉素,流入低端市场,广大市民千万注意。”

网传虚假视频。图/央视新闻

5月6日,据央视新闻报道,网传“湖北惊现人造毒大米”是假的,造谣者已被处罚。经查,舒某为博眼球、赚流量,利用AI工具恶意制作“湖北人造大米生产线”虚假视频,虚构黄曲霉素超标等骇人细节,并在网络发布,刻意制造食品安全恐慌。
舒某称,刷到关于人造大米生产线的文案,就复制了这段文案,生成了另外一段关于人造大米生产线的文案,用AI工具制作了一个视频。发这些视频,就是为了博眼球刷流量,流量越高,互联网平台以流量付费,每天都会有收益,所以制作了这些视频。
舒某在未核实信息来源的情况下,利用AI工具制作并发布“人造大米”相关谣言视频,其行为已构成“散布谣言故意扰乱公共秩序”。在依法查明事实后,公安机关对舒某进行了严肃的批评教育,责令其立即删除相关不实视频,并依法对其处以罚款700元的行政处罚。
【1】对舒某的罚款高于条款上限,涉民生谣言的法律评价更为严厉
5月7日,九派新闻联系到北京市京师(武汉)律师事务所律师余昊,他介绍,舒某被处以罚款700元,依据的是《中华人民共和国治安管理处罚法》(以下简称“治安管理处罚法”)第二十五条第一项,“散布谣言,谎报险情、疫情、警情或者以其他方法故意扰乱公共秩序的”,处5日以上10日以下拘留,可以并处500元以下罚款;情节较轻的,处5日以下拘留或者500元以下罚款。他分析,本案中罚款700元略高于该条款的“500元”上限,可能是执法机关综合裁量的结果,或适用了其他条款的合并处罚。
在什么情况下,这类AI造谣行为会从行政处罚升级为刑事责任?余昊认为,该行为升级为刑事责任需满足以下条件:一是谣言内容严重失实,且行为人主观上具有直接故意;二是造成严重社会危害后果,如引发社会恐慌、导致公共秩序严重混乱、造成重大经济损失或恶劣社会影响;三是符合《中华人民共和国刑法》(以下简称“刑法”)第二百九十一条之一“编造、故意传播虚假信息罪”的构成要件——编造虚假的险情、疫情、灾情、警情,在信息网络或者其他媒体上传播,或者明知是上述虚假信息而故意传播,严重扰乱社会秩序。
他补充道,若涉及食品安全领域,且造成特别严重后果,还可能触及《刑法》第一百四十三条、第一百四十四条关于生产、销售不符合安全标准食品罪或有毒有害食品罪的相关精神。虽本案不涉及实际生产销售,但谣言造成的恐慌性后果可能作为量刑考量。换言之,行政处罚与刑事责任的界限在于,社会危害性是否达到“严重扰乱社会秩序”的程度。

舒某坦白造谣。图/央视新闻

余昊告诉九派新闻,涉民生领域谣言与普通谣言在法律责任认定和处罚力度上存在显著区别。行政责任方面,虽然《治安管理处罚法》第二十五条未对谣言类型作区分,但执法实践中,涉及食品安全、粮食安全等民生领域的谣言,因其直接关联公众生命健康和社会稳定,通常被认定为“情节较重”,处罚倾向于适用拘留而非单纯罚款,或适用较高额度的罚款。本案中舒某被罚款700元,虽属行政处罚范畴,但已接近较高标准,且警方特别强调其“关系到民生领域——食品安全问题”,这本身就是从重考量的因素。
而在刑事责任方面,涉及食品安全的谣言更容易触发《刑法》第二百九十一条之一“编造、故意传播虚假信息罪”的入罪标准。该罪要求“严重扰乱社会秩序”,而民生领域谣言因易引发群体性恐慌、抢购潮或市场秩序混乱,更容易被认定为达到此标准。此外,若谣言针对特定食品企业或农产品品牌,还可能构成损害商业信誉、商品声誉罪。
另外,在民事赔偿责任方面,涉民生谣言往往造成更广泛的实际损害,包括农户经济损失、企业商誉损害、社会管理成本增加等,赔偿范围和数额通常更大。
他强调,近年来司法机关对涉食品、药品、粮食安全等民生领域犯罪持“零容忍”态度,相关司法解释和指导意见均强调从严惩处。因此,同一传播量级下,涉民生谣言的法律评价更为严厉。
【2】AI生成内容应添加显著标识,网络平台负有多重法定监管义务
余昊还表示,现行法律对AI生成内容的标识有明确规定:《互联网信息服务深度合成管理规定》(2023年1月施行)第十六条、第十七条要求,深度合成服务提供者对使用其服务生成的内容,应当添加不影响使用的标识,提示用户该内容系深度合成技术生成;提供智能对话、合成人声、人脸生成等服务时,应当在生成内容中进行显著标识。此外,《生成式人工智能服务管理暂行办法》(2023年8月施行)第十二条也规定,提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等内容进行标识。《人工智能生成合成内容标识办法》(2025年9月1日起施行)进一步细化了标识要求,明确服务提供者应当对生成内容添加显式标识和隐式标识,任何组织和个人不得恶意删除、篡改、伪造、隐匿标识。
他指出,对造谣者而言,若其利用的工具未进行内容审核,并不能免除其自身的法律责任——行为人不能以“工具未审核”作为免责事由,主观上仍具有散布谣言的故意。但对平台或AI工具提供者而言,若未履行审核义务,可能面临《中华人民共和国网络安全法》(以下简称“网络安全法”)第四十七条、第六十八条及《深度合成规定》第二十二条规定的法律责任,包括警告、罚款、暂停服务、吊销许可证等。若平台明知或应知用户利用其服务传播谣言而未采取必要措施,可能与造谣者构成共同侵权,承担连带责任。因此,审核机制的缺失会显著增加平台的法律风险敞口。

公安机关揭露案件细节。图/央视新闻

余昊补充道,网络平台也对用户利用AI发布的内容负有多重法定监管义务。依据《网络安全法》第四十七条,网络运营者应当加强对其用户发布信息的管理,发现法律、行政法规禁止发布或者传输的信息的,应当立即停止传输该信息,采取消除等处置措施,防止信息扩散,保存有关记录,并向有关主管部门报告。依据《网络信息内容生态治理规定》第十条、第十一条,平台应当建立健全生态治理机制,防范和抵制不良信息,对严重违反法律法规的内容及时处置。依据《深度合成规定》第六条、第七条,深度合成服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制机理审核、数据安全等管理制度,对深度合成内容开展安全评估。
若平台未能及时屏蔽、防止信息扩散或向主管部门报告,可能面临法律后果。他介绍,在行政处罚层面,依据《网络安全法》第六十八条,由有关主管部门责令改正,给予警告、没收违法所得;拒不改正或者情节严重的,处10万元以上50万元以下罚款,并可以责令暂停相关业务、停业整顿、关闭网站、吊销相关业务许可证或者吊销营业执照。在民事责任层面,若谣言造成他人损害,平台可能与侵权人承担连带责任(《中华人民共和国民法典》第一千一百九十七条)。在刑事责任层面,若平台明知他人利用其服务实施犯罪,而拒不履行安全管理义务,可能构成《刑法》第二百八十六条之一“拒不履行信息网络安全管理义务罪”。
【3】现有法律体系在预防、识别和打击AI造谣行为方面存在突出短板
余昊认为,现有法律体系在预防、识别和打击AI造谣行为方面存在以下突出短板。首先,技术识别能力滞后于技术生成能力。AI视频生成工具迭代极快,生成的内容逼真度已接近,甚至超越人眼辨识阈值,而现有的内容审核技术准确率有限,且存在“道高一尺、魔高一丈”的被动追赶困境。法律虽要求添加标识,但技术上标识易被删除、篡改或绕过,隐式标识的提取和验证机制尚未普及。
其次,法律适用的精准性不足。现行法律多将AI造谣纳入传统谣言治理框架(如《治安管理处罚法》第二十五条),未充分考虑AI生成内容的特殊性——其制作门槛低、传播速度快、溯源难度大、主观故意认定复杂(行为人可能辩解“只是用AI工具创作,不知是谣言”)。法律对“AI辅助造谣”与“AI自主生成谣言”的责任划分尚不清晰。
第三,跨境监管与工具溯源困难。许多AI生成工具由境外主体提供,或开源模型可在本地部署,国内监管部门难以对工具提供者实施有效管辖。即使发现谣言,追踪具体使用了哪款工具、哪个模型版本、谁提供了算力支持,存在技术和法律双重障碍。
第四,平台责任边界模糊。法律要求平台履行“审核义务”,但何为“充分审核”、平台应在技术层面投入多少资源、AI生成内容的审核标准是否高于普通内容,缺乏明确量化标准。平台往往以“技术中立”“算法黑箱”为由推卸责任,而监管部门的认定标准又不统一,导致“同案不同罚”现象。
第五,预防性法律机制薄弱。现有法律以事后打击为主,缺乏有效的事前预防机制。例如,对AI工具的强制性安全评估、生成内容的强制备案、高风险场景的生成限制等制度尚未建立。用户在使用AI工具时无需进行真实性承诺或法律风险提示,工具本身也未被强制要求嵌入“事实核查”功能。
第六,民事救济与公益诉讼衔接不畅。AI造谣受害者往往分散,且单个损害较小,难以通过个体诉讼获得救济,而现行公益诉讼制度在个人信息保护、消费者权益保护等领域已有探索,但在网络谣言治理领域尚未形成成熟机制。此外,AI造谣造成的“社会恐慌”等无形损害难以量化赔偿。
第七,执法资源配置与技术培训不足。基层公安机关网安部门面对海量AI生成内容,缺乏专业的技术鉴定人员和设备,对AI生成内容的取证、固证、鉴定周期长、成本高,影响打击效率。
余昊对九派新闻强调,建议从技术赋能(开发AI检测工具)、制度完善(建立AI内容溯源机制)、责任细化(明确平台审核标准)、预防前置(强制工具安全评估)四个维度补齐短板,构建适应AI时代需求的谣言治理法律体系。

来源:九派新闻

编辑:徐丹

相关链接

    频道精选

  • 百科知识
  • 权威发布
  • 以案说法
  • 法律法规
  • 谣言曝光台

阅读下一篇

返回湖南省互联网辟谣平台首页