(来源:经济参考报)
近日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),提出建立和完善人工智能科技伦理标准体系,支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。这为我国人工智能科技伦理审查与服务工作提供了明确指引。
专家表示,《办法》的出台,标志着我国人工智能伦理治理从原则倡导迈向制度化、规范化、可操作的新阶段,为推动人工智能健康发展提供了重要制度遵循。
据悉,《办法》对人工智能科技伦理审查的适用范围、服务促进、实施主体、工作程序、监督管理等作出规定,并结合人工智能科技活动特点,明确了申请与受理、一般程序、简易程序、专家复核程序、应急程序等不同程序要求,有效规范人工智能科技活动伦理治理。
《办法》提出,开展人工智能科技伦理审查,重点关注人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护6个方面,包括训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性;是否合理披露算法、模型、系统的用途、运行逻辑、交互方式说明、潜在风险等信息等。
事实上,近年来,我国坚持“伦理先行”的治理要求,在统筹发展和安全基础上,持续推进人工智能科技伦理治理工作。例如,在伦理规范层面,国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》,明确了人工智能科技伦理的基本伦理规范,涵盖人工智能管理、研发、供应、使用全链条。在制度体系层面,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》对科技伦理治理作出顶层设计和系统部署,构建了我国科技伦理治理的基本模式、监管框架、制度体系。
“此次《办法》是国家科技伦理治理体系在人工智能领域的落地,是我国科技伦理制度链条的重要延伸与细化完善。”工业和信息化领域科技伦理专家委员会主任委员魏一鸣说,《办法》立足人工智能技术迭代快、跨界融合深等特点,在通用审查规则基础上实现领域化、精细化适配,填补了人工智能科技伦理审查的制度空白。
为推进人工智能科技伦理服务体系建设,《办法》从标准建设、服务体系、鼓励创新、宣传教育、人才培养五个方面制定支持举措,帮助企业切实提升科技伦理风险防控能力。其中提出,强化人工智能科技伦理风险监测预警、检测评估、认证、咨询等服务供给;促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测等。
“伦理治理不仅需要制度规范,更需要技术支撑。”魏一鸣认为,具有深厚技术实力的企业、高校和科研机构,应主动承担起研发科技伦理治理“硬科技”的使命,加强人工智能伦理治理技术研发与工具创新。聚焦可解释人工智能、算法公平性监测、深度伪造鉴别等关键技术开展专项攻关,为伦理审查提供技术工具。通过研发实用的伦理评估工具、风险模拟平台和算法审计系统,将抽象的伦理原则转化为可量化、可操作、可嵌入工程流程的技术指标与解决方案,推动伦理治理技术化、工程化。