◆ 王永恒(西北政法大学)
智能司法作为数字正义的重要载体,其信任构建直接关系着司法公信力与技术应用实效。当前,算法黑箱、数据安全、责任模糊等问题仍制约着公众对智能司法的信任,需从制度规范、技术透明、权利保障三方面协同发力,让智能司法在科技赋能中坚守公正底色。
制度引领是信任的根基。应严格落实《最高人民法院关于规范和加强人工智能司法应用的意见》要求,将安全合法、公平公正、透明可信等原则嵌入应用全流程。一是建立算法备案审查制度,对类案推送、量刑辅助等核心系统实施动态评估,确保技术应用不偏离司法规律。二是明确“辅助审判”定位,坚守人工智能不得代替法官裁判的底线,厘清技术提供方与司法机关的责任边界,避免责任推诿消解信任。
技术透明是信任的关键。一是破解“算法黑箱”困境,需推动司法人工智能从“可用”向“可信”升级。研发可解释性技术模块,用通俗语言呈现裁判辅助逻辑,避免模糊表述,让当事人看懂技术决策依据。二是强化数据治理,实施司法数据分类分级管理,严防非必要信息采集与隐私泄露,所有系统必须通过国家数据安全认证。同时,建立算法偏见检测机制,定期排查地域、身份等歧视性偏差,保障技术的中立性。
权利保障是信任的纽带。一是拓宽公众参与渠道,通过开放测试、意见征询等方式吸纳社会各界对算法规则的建议,避免“闭门造车”,针对困难群体与特殊群体,优化智能服务的普适性设计,提供必要的人工辅助,确保技术普惠不脱节。二是完善权利救济机制,当事人对智能辅助结果有异议时,赋予申请复核、要求人工介入的权利,让技术应用始终接受司法监督与公众检验。
[本文系西安市2024年度社会科学规划基金项目“智能司法纠纷解决中司法信任机制构建研究”(项目编号:24FZ79)的阶段性成果]