注:本文发表于《法学学刊》2025年2期 41-43。
摘要:在数字技术深刻重塑社会治理格局的当下,人工智能算法决策依靠高效的数据处理能力与精准的预测能力逐渐成为行政执法智能化转型的核心推动力,不过算法的技术自主性、“黑箱”特征及其潜藏的数据偏见,和现行行政法律体系里的合法性原则、程序正义理念发生激烈冲突。本文梳理算法决策在交通管理、市场监管等典型执法场景中的实际应用,系统分析其面临的权力来源模糊、公正性缺乏、透明度不足等法律难题,从权力法定、程序正当、监督问责三个层面明确法律边界,并有针对性地提出构建“立法—技术—人员”三位一体的法律规制体系,力求为人工智能时代行政执法的法治化、规范化发展提供理论支撑与实践导向。
(图片源自360图库)
关键词:人工智能;算法决策;行政执法;法律边界;法律规制
Abstract: In the current era where digital technology profoundly reshapes the social governance pattern, artificial intelligence algorithm decision-making, relying on efficient data processing capabilities and accurate prediction capabilities, has gradually become the core driving force for the intelligent transformation of administrative law enforcement. However, the technological autonomy, "black box" characteristics, and hidden data biases of algorithms conflict fiercely with the principles of legality and procedural justice in the current administrative legal system. This article reviews the practical application of algorithmic decision-making in typical law enforcement scenarios such as traffic management and market supervision. It systematically analyzes the legal challenges it faces, such as ambiguous power sources, lack of fairness, and insufficient transparency. The legal boundaries are clarified from three levels: power legality, procedural legitimacy, and supervision and accountability, and a targeted proposal is made to construct a "legislation technology personnel" three in one legal regulatory system, aiming to provide theoretical support and practical guidance for the rule of law and standardized development of administrative law enforcement in the era of artificial intelligence.
Keywords: artificial intelligence; algorithmic decision-making; administrative law enforcement; legal boundaries; legal regulation
随着数字经济时代的到来,企业在重要决策中越来越多地使用了计算机程序辅助。其中的一些程序利用了人工智能机器学习(Machine Leaming)算法,能够在自己过去的行动经验中自主学习,这引起了学界对这种人工智能决策是否会在没有事前沟通的条件下形成“合谋”的关注,而这将对现有的反垄断法形成重要挑战。其原因在于,一是人工智能行为主体模糊,不具有协同行为的主观意愿:二是具有竞争关系的经营者(算法)之间没有协议甚至没有任何沟通。这导致算法间的“合谋”成为默契合谋(tacitcollusion)。这些问题凸显出人工智能算法决策在行政执法中法律边界模糊的现状,明确其法律边界已成为数字法治建设的关键任务。
一、人工智能算法决策在行政执法中的应用现状
(一)应用场景不断拓展
在交通执法范畴,智能监控系统构建起“感知—分析—处置”的全链条执法范式。深圳市交警部门布设的AI交通违法识别系统,整合图像识别与行为分析算法,能辨识闯红灯、超速等常见违法行为,亦能对车辆违停、未按规 定车道行驶等情形作出精准判定,该系统日均处理案件数量超5万件,借助对海量交通违法数据的学习,算法识别准确率不断提高,当前已达95%以上。在市场监管领域,国家市场监督管理总局研发的“网络交易监测系统” ,运用语义分析算法对电商平台超2000万条商品信息开展筛查,系统可以识别商品标题、详情页中的虚假宣传用语,以及价格欺诈行为。
(二)执法效率大幅提高
传统行政执法存在信息滞后、人工干预成本高的问题,算法决策的应用切实加快了执法响应速度。以税务稽查场景为例,浙江省税务局打造的“智慧稽查”系统,借助机器学习算法对企业财务数据实施关联分析。该系统可自动比对企业增值税发票数据、财务报表数据及银行流水数据,在30分钟内完成对百万级数据的疑点筛查,相较人工稽查效率提升80倍。当系统检测到异常交易数据时,会自动生成稽查线索,执法人员便能依据线索迅速开展调查工作。
二、人工智能算法决策在行政执法中面临的法律问题
(一)合法性面临挑战
依据《中华人民共和国行政处罚法》,行政处罚权须由法律法规予以明确授权。然而现实中,部分地方政府径直采用企业开发的商业算法用于处罚决策。某省会城市引入第三方公司的“交通违法智能判定系统”,该系统算法规则由企业自行拟定,未经立法机关审查。在实际运用时,因算法规则不透明,致使当事人对处罚决定依据存疑,引 发多起行政诉讼,法院审理发现,该算法判定交通违法行为时,对某些特殊交通标志识别欠准,致使行政处罚依据合法性遭受质疑。与此同时,算法决策过程欠缺法定程序约束。某县市场监管局运用算法开展企业信用评级,未履行法定听证程序,企业信用评级被降后,才知晓评级由算法决定,却无法知悉算法具体评价标准与数据来源,合法权益遭受严重侵害。
(二)公正性存在隐患
研究指出,基于过往数据训练的算法,有延续乃至放大社会偏见的可能。在国内某城市招聘监管算法因训练数据集中于特定学历群体,致使低学历求职者在职业资格审查时遭遇系统性歧视。该算法筛选求职者简历之际,将学历设为首要筛选标准,并且对低学历人群的其他能力与经验指标赋予较低权重,大量有能力的低学历求职者因此被排除在外,还缺乏有效的救济途径。
(三)透明度严重不足
算法所具“黑箱”特性,给执法过程透明化带来阻碍,算法模型多采用繁杂的神经网络构造,其决策逻辑难为人类洞悉。以某市智能审批系统为例,拒绝申请人资质时,仅反馈“不符合条件”,未阐明具体算法依据,申请人多次要求公开算法决策的详尽规则与数据来源,相关部门却以算法涉及商业秘密、技术机密为由予以拒绝,致使申请人难以行使陈述申辩权。就监管部门而言,算法代码的商业保密性与技术专业性,令其难以对决策过程展开有效审查。据中国政法大学调研,78%的基层执法人员无法全然理解所使用算法的运行原理,这使他们在执法期间难以对算法决策进行有效监督、纠正,易引发执法不公、权力滥用等状况。
(图片源自360图库)
三、人工智能算法决策在行政执法中的法律边界界定
(一)权力来源需依法明确
算法决策权力理应遵循“法无授权不可为”这一准则。从立法层面来讲,拟定《人工智能行政执法应用条例》极为必要,以此清晰界定算法适用的执法领域、权力层级以及实施条件,诸如规定涉及限制人身自由的行政处罚,严禁采用算法自动决策,从而切实保障公民基本权利不受侵害。对于其他类别的行政处罚,也需明确算法决策具体的权限与范围;在技术合作方面,必须借助合同明确行政机关和算法开发企业的权责界限,要求企业定期呈交算法审计报告,对算法的运行状况、数据运用情况等予以详细阐释。德国《行政领域算法使用指引》明确要求算法决策必须具备明确法律依据,同时构建备案审查制度,所有用于行政执法的算法都要历经相关部门严格审查,以确保其契合法律规定以及公共利益,此做法可以为我国所借鉴。
(二)程序正当需严格保障
算法决策过程需构建完整的程序正义体系。事前阶段,行政机关应履行充分告知义务,以通俗易懂的语言向相对人阐释算法决策的基本原理、数据来源及潜在影响,可以通过编制宣传手册、制作在线视频等方式,让相对人知晓算法在执法中的功能与运行机制;事中阶段,建立“人工复核+听证”机制,针对算法作出的不利决定,须由执法人员进行实质审查,以确保算法决策的准确性与公正性,同时保障相对人申请听证的权利,在听证过程中,行政机关需公开算法决策相关信息,接受相对人质询;事后阶段,畅通行政复议与行政诉讼渠道,允许当事人对算法决策的合法性、合理性提出质疑。例如,美国第九巡回法院在“王诉洛杉矶警局”案中,明确将算法决策纳入司法审查范畴,法院会对算法决策的依据、程序等进行全面审查,为保障当事人合法权益提供司法保障。
(三)监督问责需清晰界定
构建“内部监管+外部监督+技术问责”的三维监督体系。内部层面,行政机关需设立算法伦理委员会,该委员会由法律专家、技术专家、公众代表等构成,定期审查算法的合规性与公正性。通过对算法运行数据的分析评估,及时发现算法存在的问题并给出改进建议;外部层面,引入第三方审计机构对算法开展独立评估,同时搭建公众举报平台,鼓励公众对算法决策中的违法违规行为进行监督举报;问责机制方面,要明确算法开发企业、数据提供方、行政机关的责任划分。例如,若因数据造假致使决策错误,数据提供方需承担主要责任;若算法设计存在缺陷,开发企业需承担连带责任;若行政机关在使用算法过程中未履行监管职责,同样需承担相应责任。欧盟《人工智能法案》的风险分级问责制度,依据算法应用的风险程度确定不同的问责标准和程序,对构建监督问责体系具有参考意义。
四、人工智能算法决策在行政执法中的法律规制路径
(一)健全立法规范
构建“基本法+单行条例+实施细则”的立法体系。国家层面制定《人工智能法》,确立算法决策法律地位与基本原则,明确其在行政执法中的适用范围、权利义务等内容;部门规章层面出台《行政执法算法应用管理办法》,细化数据采集、模型训练、结果输出等环节操作规范,如规定数据采集须遵循合法、正当、必要原则,不得过度采集个人信息。模型训练需使用审核通过的合法数据,保障算法公正性;地方立法层面鼓励试点城市制定实施细则,如深圳发布《深圳经济特区人工智能产业促进条例》,对执法领域算法应用作出探索性规定,其他城市可以借鉴其经验,结合本地实际制定具体实施细则。同时修订《中华 人民共和国行政处罚法》《中华人民共和国行政强制法》等现有法律,增加算法决策专章条款,让算法决策在行政执法中具备明确法律依据。
(二)加强技术监管
建立全生命周期的技术治理框架。算法研发阶段推行“沙盒测试”机制,要求企业在模拟执法环境中验证算法可靠性,通过设置多元测试场景,模拟不同执法情形,对算法准确性、稳定性开展全面测试。部署阶段实行“算法备案+安全认证”双轨制,未经认证的算法严禁投入使用,相关部门需对算法安全性、公正性进行严格审查,确保算法契合执法要求;运行阶段构建动态监测平台,实时追踪算法运行状态与数据变化。借鉴新加坡“AIVerify”系统,开发自动化算法审查工具,实现对算法偏见、数据泄露等风险的智能预警,一旦发现算法存在异常状况,及时采取措施予以调整优化,保障算法正常运行与执法公正性。
(图片源自360图库)
(三)提升人员能力
构建“复合型”执法人才体系。针对行政执法人员实施“法律+技术”并行培养模式,运用案例研讨、情景模拟等手段,培育其算法运行机理认知、数据解析及风险研判素养,组织法律界与技术界专家协同授课,帮助其明晰算法于执法实践中的适用情境与潜在隐患,强化运用算法辅助执法的能力。面向算法研发人员开展法律伦理培育,把《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律准则融入职业资格考核范畴,引导其在算法设计环节充分考量法律规范与社会公共福祉,规避开发违法或违背公序良俗的算法程序。组建跨学科专家资源库,汇聚法学、计算机科学、统计学等领域专业人士参与执法决策咨询工作,为执法实践供给专业技术与法律支撑,推动技术逻辑与法律逻辑深度交融。
五、结束语
人工智能算法决策与行政执法的融合乃是数字时代的必然走向,然而技术创新务必在法治轨道上运行,需明确权力来源、保障程序正当、强化监督问责,以此构建科学合理的法律边界,同时配套完善立法体系、技术监管及人才培养机制。如此一来,既能释放算法决策在提升执法效能层面的巨大潜力,又能有效防范技术滥用风险,推动智慧执法与法治保障的协同发展,为国家治理体系和治理能力现代化注入新的动能,伴随人工智能技术的不断演进,法律规制体系亦需进行动态调整,以契合技术创新与法治发展的双重需求,确保人工智能算法决策在行政执法中始终发挥积极作用,维护社会公平正义与法治秩序。
参考文献:
[1 ] 张自妍,张顺顺,马娟,等 . 基于人工智能机器学习决 策树算法的上海某社区中老年群体衰弱表型分析[J].老年医学与保健,2024,30(05):1230-1238.
[2]陈姿含.人工智能算法决策中的敏感个人信息保护[J].法律科学:(西北政法大学学报),2024,42(06):63-75.
[3]江真宇,宋泽珩.人工智能时代刑法适应性变革意义探究[J].法学学刊,2025,2(01):16-18.