财经态度丨十部门发文规范人工智能科技活动伦理治理,专家解读→

经观智讯2026-04-09 12:48

经济观察网 据央视财经消息,工业和信息化部等十部门日前发布了《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),提出建立和完善人工智能科技伦理标准体系,支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。

△工信部官网

这为我国人工智能科技伦理审查与服务工作提供了明确指引。这将对我国人工智能发展带来哪些重要影响?经济之声《财经态度》采访了北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括。

△经济之声《财经态度》专访吴沈括音频

吴沈括表示,当前人工智能领域的伦理与安全风险呈现多层次、系统性特征,表现形式多样。此次《办法》的出台,标志着我国人工智能伦理治理从原则倡导逐步走向制度化、规范化、可操作化的新阶段。

吴沈括表示,根据《办法》,人工智能科技伦理审查围绕六大核心维度展开,形成完整审查框架:比如人类福祉维度,重点审查人工智能科技活动是否具备科学价值与社会价值,是否真正服务于增进人类整体福祉,而非单纯追求商业利益或技术突破;再比如公平公正维度,审查人工智能系统是否采取有效措施防止偏见与算法歧视,保障资源分配、机会获取及决策过程的客观性与包容性等。

针对《办法》提出的“强化以技术手段防范人工智能科技伦理风险”要求,吴沈括表示,需重点关注四个方向:一是加强关键核心技术攻关,聚焦可解释人工智能、算法公平性监测、深度伪造鉴别等关键领域的技术研发;二是推动伦理治理技术化与工程化,通过研发实用的伦理评估工具、风险模拟平台和算法审计系统,将抽象的伦理原则转化为可量化、可操作、可嵌入工程流程的技术指标与解决方案;三是促进高质量数据集和工具的开源开放,同时加强对高质量数据集有序开源开放的全流程监测与必要审计;四是推广符合伦理的产品和服务,在技术创新基础上,形成“研发—应用—保护”的良性循环,推动人工智能产业健康有序发展。