工信部等十部门联合印发AI科技伦理审查办法
| 来源:【字号:大 中 小】
2026年4月2日,工业和信息化部、国家发展改革委、教育部、科技部、农业农村部、国家卫生健康委、中国人民银行、国家网信办、中国科学院、中国科协等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),旨在落实国家科技伦理治理顶层部署,应对算法歧视、深度伪造等AI衍生的伦理风险。该办法通过规范审查流程与服务体系,推动科技向善,为人工智能产业的高质量发展与负责任创新提供制度保障。
《办法》立足AI技术特征细化了审查机制,并针对高风险场景提出新管控方式。在审查流程上,设置了申请、受理、分类审查、专家复核及跟踪审查等闭环环节,重点聚焦公平公正、透明可解释、隐私保护等维度。针对具有较强影响的人机融合、舆论引导算法及高危场景自主决策系统三类高风险AI活动,要求必须经地方或主管部门开展专家复核。
《办法》与现有人工智能治理相关政策法规实现有效协同,承接了《科技伦理审查办法(试行)》的通用要求并进一步作了针对性细化,并与《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国科学技术进步法》等法律法规相衔接,厘清了违规行为的调查处理与处罚依据。
在服务与促进方面,《办法》专门构建了涵盖标准建设、促进服务、鼓励创新、宣传教育、人才培养的务实举措体系,具体包括:通过鼓励多元主体参与标准制定以凝聚共识;推进风险监测预警、检测评估等服务体系建设以降低中小微企业合规成本;支持运用技术手段防范伦理风险;推动职业体系与课程体系建设,加快专业人才培养;全面提升公众AI伦理意识与素养。
信息来源:
https://www.miit.gov.cn/jgsj/kjs/wjfb/art/2026/art_2995f16b28504ddcbb604e918eb15759.html
https://www.cnii.com.cn/zcjd/202604/t20260407_728897.html
