全国人大代表周云杰:加速AI赋能工业智能化 筑牢安全隐私伦理防线

经济观察报 关注 2026-03-05 10:20

2026年3月5日,第十四届全国人民代表大会第四次会议在北京开幕。

作为全国人大代表,海尔集团董事局主席周云杰提出,中国具身智能正处于技术爆发与产业导入的交叉期,要实现全球领跑,多个瓶颈亟须突破。他建议,应加快发展具身智能,赋能工业智能化。

与此同时,周云杰指出,人工智能正以前所未有的广度和深度融入经济社会发展各个领域,然而技术爆发式增长伴生的安全、隐私与伦理挑战也日益凸显。他建议,为筑牢人工智能健康安全发展防线,应从多个方面积极应对人工智能应用的安全、隐私和伦理等挑战。

以具身智能赋能工业智能

人工智能是引领新一轮科技革命和产业变革的战略性技术。当前,人工智能正从“感知—认知”阶段迈向与物理世界深度交互的“具身智能”新阶段。作为人工智能与机器人技术的深度融合方向,具身智能对推动制造业智能化升级、培育新质生产力具有战略意义,已成为业界共识。

在周云杰看来,目前,中国在人工智能基础模型、机器人本体及核心零部件等方面已具备一定研发与制造基础,部分领域达到国际先进水平,为抢抓具身智能战略机遇创造了有利条件。但在日常广泛调研中,他却发现,中国具身智能正处于技术爆发与产业导入的交叉期,要实现全球领跑,多个瓶颈亟须突破:

其一,技术融合“堵点”。周云杰发现,具身智能涉及的AI大模型、精密机构、驱控系统、多模态传感器等“大脑—小脑—肢体”尚未形成高效协同,复杂非结构化工业场景下的实时性、鲁棒性(系统对外部干扰和不确定性的适应能力)与作业可靠性显著低于人类水平,制约规模化落地。

其二,数据与仿真“短板”。高保真、多模态、可扩展的物理交互数据稀缺,行业级数据共享机制缺位;同时,国产高并行、高保真仿真训练平台供给不足,导致“仿真—现实”迁移效率低、试错成本高,增加了研发成本和风险。

其三,场景应用深度不足。当前,中国具身智能的应用还属于初始阶段,主要集中于表演型、展示型场景,在高端装配、柔性生产、设备运维、危险环境作业等“高复杂度、高灵巧性、高可靠”的场景缺乏应用和解决方案,标杆性示范数量与辐射带动力不足,产业赋能潜力远未释放。

其四,标准体系缺乏,阻碍在工业领域的规模化应用。具身智能是跨学科跨领域的产业,需要各行业领域的协同发力,但目前在标准、检测、认证体系建设方面几乎空白,硬件接口标准不统一不通用,开发制造成本高;工业应用领域缺乏最基本的安全和性能标准,产业链协同性差,不利于形成可持续的商业闭环。

为抢占具身智能战略先机,赋能新型工业化,周云杰提出以下建议:

一是突破关键核心技术,设立具身智能国家重点研发专项。建议在现有国家重点研发计划中,设立“具身智能”重点专项,集中力量攻克多模态感知与理解、环境自适应学习、仿生灵巧操作等核心算法;同时,支持高精度传感器、智能关节、实时控制系统等关键硬件部件的研发与产业化,提升“大脑”与“小脑”的协同能力,突破技术融合瓶颈。

二是构建具身智能基础设施,建设国家级开放创新平台与数据集。建议由工业和信息化部牵头,联合龙头企业、科研院所,建设若干国家级具身智能开放创新平台。平台应集成高保真仿真环境、真实机器人试验场、共享算力支持及标准数据集,降低研发门槛。

三是构建工规级具身智能机器人标准体系,加速推动机器人工厂级规模化落地。建议由国家标准化管理委员会牵头,联合行业组织、重点企业和科研机构,围绕机械电气安全、功能性能指标、人机协同规范、系统互联互通、行业工艺集成等关键维度,加快建立覆盖设计、生产、测试、应用全链条的工规级具身智能机器人标准体系。通过统一功能安全、环境适应性、任务可靠性等要求,提升机器人在复杂工业场景下的鲁棒性与精准作业能力,降低集成应用门槛与风险。同时,结合汽车、电子、航空航天等典型行业特点,推动制定细分场景下的机器人系统集成与工艺适配标准,促进机器人与现有生产流程、管理系统深度融合。

四是开展应用示范,支持龙头企业打造具身智能标杆场景。建议工业和信息化部通过专项资金、试点示范等方式,优先在汽车制造、电子信息、航空航天、仓储物流、医疗康复等基础好、需求迫切的重点行业,支持龙头企业联合技术公司,开展具身智能在复杂装配、精密检测、高危作业、个性化定制等环节的深度应用试点;同步鼓励由单机智能向产线级、工厂级“群体认知与决策”升级,实现多机协同调度、动态工艺优化和全域安全管控,打造一批可复制、可推广的标杆案例,形成示范效应并验证价值,带动全行业应用水平提升。

人工智能的挑战

当下,人工智能迅猛发展,正以前所未有的广度和深度融入经济社会发展各个领域。然而,这一技术爆发式增长伴生的安全、隐私与伦理挑战也日益凸显,成为制约人工智能健康发展的关键瓶颈,直接关系到国家安全、社会稳定与公民权益。

在周云杰看来,人工智能带来的一系列挑战,具体体现在三个层面:

一是技术层面:技术滥用与责任主体缺失的双重危机。

目前,自动化决策、生成式人工智能等技术的滥用,已催生出网络诈骗、知识产权侵害等社会问题。此外,在自动驾驶、医疗机器人等物理交互场景,算法的安全容错率极低,事故发生后的责任归属如何在开发者、部署者、使用者之间界定,成为法律与伦理的真空地带。

二是场景层面:全球文化差异与行业多样性增加治理复杂性。

不同国家和地区在价值观、伦理道德、法律制度上存在显著差异,导致人工智能的合规侧重点和应对策略各不相同,跨国企业人工智能全球应用面临文化冲突和合规挑战。而不同垂域行业对人工智能的风险容忍度、合规要求、透明度等存在差异。例如,医疗行业重视隐私与准确性,单一的技术方案和治理模式难以适配所有业态。

三是体系层面:人工智能治理体系适配性与协同效能不足。

在供给侧,基础模型原生可信体系设计不完善,对于伦理、幻觉、对抗、价值观、可解释性等模型原生防护能力不足;在应用侧,不同产业业态伦理风险差异明显,缺乏细分领域差异化监管标准;在治理侧:跨部门、跨领域治理协同难度大,人工智能的复合型人才短缺,难以有效支撑人工智能创新发展。

为筑牢人工智能健康安全发展防线,周云杰提出以下建议:

一是健全人工智能标准体系,明确多元治理责任。建议由国家网信办牵头,联合工信部、科技部等相关部委,建立分级分类、风险导向的管理体系,鼓励重点行业联盟牵头制定垂直领域的安全与伦理专项标准及实践指南,通过柔性立法与动态标准,既守住合规底线,又为创新留下空间。

二是强化技术源头防控,推动供给侧原生可信能力建设。建议由科技部、工信部牵头,聚焦安全左移(将安全措施和考虑提前到软件开发生命周期早期的实践方法)、原生可信的理念推动基础模型原生合规能力建设,集中力量重点突破幻觉治理、深度伪造鉴别、对抗攻击防护、算法可解释性等核心技术,打造原生可信的基础模型。

三是构建共治生态,试点建立“监管沙盒”并强化行业自律。建议在人工智能产业聚集区,选取金融科技、医疗、智能汽车等领域,联合开展“监管沙盒”试点,小范围测试并观察风险、迭代规则,探索包容审慎的监管新模式;同时,指导成立由龙头企业发起的“伦理治理联盟”,形成政府监管、企业自律、社会监督、公众参与的多元共治良性生态。

免责声明:本文观点仅代表作者本人,供参考、交流,不构成任何建议。
主任