“十五五”规划纲要提出全面实施“人工智能+”行动。人工智能同产业发展、文化建设、民生保障、社会治理广泛深度融合,将全方位赋能千行百业,为经济社会发展增添新活力。与此同时,算法歧视、深度伪造等伦理风险也愈加凸显。加强人工智能科技伦理治理,是坚守科技向善、筑牢科技安全底线、保障产业高质量发展的必然要求。
人工智能的伦理风险源于技术的“黑箱性”“自主性”与数据依赖性。治理不是减速器,而是稳压器和安全网。人工智能科技伦理治理,本质是通过制度规则、技术约束与价值引导,为技术划定边界、明确责任,实现技术发展与人类福祉的协同推进。近年来,面对席卷全球的人工智能浪潮,从《关于加强科技伦理治理的意见》对科技伦理治理作出顶层设计和系统部署,到《科技伦理审查办法(试行)》对科技伦理审查主体、审查程序作出具体规定;从党的二十届三中全会强调“加强科技伦理治理”,到“十五五”规划纲要提出“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则”,党和国家高度重视科技伦理工作,统筹发展和安全,坚持促进创新与防范风险相统一,确保人工智能负责任创新。近日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,标志着我国人工智能伦理治理从原则倡导迈向制度化、规范化新阶段。
有效的治理必须以科学理念和清晰的原则作为指导。全球人工智能发展进入新阶段,呈现出跨界融合、人机协同、群智开放等新特征,正在深刻改变人类社会生活、改变世界。以习近平总书记关于人工智能治理的重要论述为指引,我国确立了人工智能治理的七项伦理原则,即增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信,这些原则为人工智能的开发、部署与应用提供了不可或缺的价值导向和行为规范。将这些原则贯穿于人工智能的研发、测试、应用与迭代全过程,是确保人工智能技术健康、可持续发展并造福人类社会的基础。
构建多元协同的人工智能科技伦理治理体系。“人工智能+”背景下,技术应用场景更加多元,单一部门难以覆盖全部监管需求。因此,需要整合政府、企业、科研机构、社会等多方力量,构建以内部审查与外部监督相结合为基本框架的多元协同治理体系。其一,强化政府监管与制度保障,出台专项法规与伦理审查办法,实施分类分级监管,对高风险AI应用强制审查,完善全生命周期闭环管控,筑牢规则底线。其二,压实企业主体责任,推动企业建立内部伦理委员会,将伦理要求嵌入研发、运营全过程,强化数据治理与算法透明化,主动承担伦理合规与风险防控责任。其三,构建多方协同共治生态,推动政府、企业、科研机构、公众协同发力,加强全球规则对接与联合监管,凝聚治理合力,应对跨国伦理挑战。
加强人工智能伦理治理技术研发与工具创新。人工智能科技伦理治理不仅需要制度规范,也需要“硬科技”支撑。人工智能科技伦理审查涉及训练数据的选择标准,涉及算法、模型、系统的设计是否合理,是否采取措施防止偏见歧视、算法压榨,如何保障资源分配、机会获取、决策过程的客观性与包容性等问题,强化以技术手段防范人工智能科技伦理风险,要推动技术内嵌伦理,运用去偏算法、隐私计算、可解释AI等技术,从源头规避伦理风险,实现技术手段与伦理要求的深度融合。这就需要聚焦算法公平性监测、深度伪造鉴别等关键技术开展专项攻关,研发实用的伦理评估工具、风险模拟平台和算法审计系统。
人工智能的可持续发展不仅关乎技术进步,更关乎人类社会的未来。人工智能科技伦理治理不是对技术创新的限制,而是为创新划定安全边界、建立信任基础的必要举措。面对日益复杂的伦理风险,只有持续优化治理体系,平衡创新与风险、效率与公平,确保人工智能在安全、可靠、可信的轨道上运行,才能真正实现“以人为本,智能向善”的愿景。
(作者单位:华东政法大学法律学院)