AI算力下半场:芯片“内生安全”成为新的竞争变量

2026-03-25 10:44

过去两年,生成式AI把“算力”推到前所未有的位置。从大模型训练到推理应用,算力规模不断被拉高,云厂商与芯片厂商也随之进入新一轮竞赛。但当算力成为“刚需资源”,一个曾被相对忽视的问题开始被放大——安全。

近日,依托海光自主研发的第三代机密计算技术(CSV3.0),天翼云正式推出新一代国产化机密计算云主机,成为业内首家搭载海光CSV3.0技术的云服务商。

这一动作将“安全算力”推向台前。相比单纯提升算力规模,这类产品更像是在回答一个更现实的问题:当数据、模型和算力全部上云,客户如何真正“放心使用”? 

AI放大风险,安全成为隐性成本

AI在重塑数据价值的同时,也在放大风险暴露。

根据IBM发布的《2025数据泄露成本报告》,全球数据泄露平均成本仍维持在约444万美元,处于历史高位区间。

与此同时,AI相关安全问题正在快速显性化。IBM同一报告指出,在涉及AI的安全事件中,绝大多数企业尚未建立完善的数据访问控制与治理机制。换句话说,AI被大规模接入业务系统的同时,安全体系并未同步完成升级。

在国内市场,这一趋势同样清晰。随着金融、政务、医疗等行业加速上云,数据在存储、传输与计算过程中的暴露面不断扩大。特别是在涉及个人隐私与关键行业数据的场景中,数据一旦发生泄露或滥用,影响不仅限于企业层面,还可能波及公共信任与行业秩序。

但现实问题在于,传统云安全体系仍以网络边界防护与软件隔离为主。在多租户环境中,一旦遭遇底层攻击或高权限漏洞利用,现有防护体系往往难以及时识别与阻断。

也因此,行业逐渐形成一个共识:在AI时代,安全不再只是“附加能力”,而是直接影响算力是否可用、数据是否可流、业务是否可扩的基础能力。在这一背景下,将安全能力从系统层“下沉”至硬件层,正成为新的技术路径选择。

从“补丁式安全”到“芯片级信任”

在传统架构中,安全更多依赖软件与系统层的叠加,就像在已有系统上不断加“补丁”。但在AI时代,这种模式逐渐显得力不从心。

海光信息副总裁应志伟在谈及这一趋势时表示:“AI时代的算力安全挑战已超越传统方案能力范畴,必须从计算架构最底层寻求突破,通过内生安全技术,建立从硬件到应用的信任基石。”

这一判断背后,是算力安全逻辑的根本变化——安全不再只是“保护计算过程”,而是要“重构计算过程本身”。

以CSV3.0为代表的机密计算技术,将安全能力下沉至CPU、GPU等芯片层面。其核心能力包括:首先,让数据在内存中始终保持加密状态,实现“可用不可见”;此外,通过硬件隔离机制,为每个计算实例构建独立安全空间;它还支持远程可信验证,确保运行环境真实可信。并且与现有应用兼容,降低使用门槛。

这些能力的组合,使得数据在计算过程中始终处于“受控状态”,从而降低被攻击或泄露的风险。从产业角度看,这种能力意味着安全不再依赖外部系统,而是成为算力本身的一部分。

安全算力:AI企业的竞争分水岭

如果说过去企业比拼的是“谁的模型更强”,那么在安全能力逐渐成为标配的当下,竞争开始转向“谁的算力更可信”。

对于AI企业来说,安全算力的价值体现在三个方面:

第一,保障数据资产安全。高价值数据往往决定模型上限,只有在可信环境中运行,企业才敢使用更多真实数据进行训练与优化。

第二,支撑多方协同计算。在金融、医疗等行业,数据往往分散在不同机构之间。只有具备“数据可用不可见”的能力,才能实现跨机构协同。

第三,保护模型本身。随着模型商业价值提升,防止模型被窃取或滥用,已成为企业核心需求。

天翼云与海光的合作,正是围绕这些需求展开。在金融场景中,它可以构建“数据保险箱”,支持多方数据在安全状态下完成计算;在政务与医疗领域,则可作为“安全沙箱”,推动数据在可控前提下开放流通;在AI场景中,则为模型与数据提供硬件级保护。

结语

长期以来,中国云计算市场的竞争主要集中在价格与资源规模上。但随着AI时代到来,这种单一维度正在被打破。

海光与天翼云通过国产芯片与云平台的深度协同,将安全能力内嵌到算力基础设施中,形成“算力+安全”的一体化能力。这种模式的意义在于,它让云服务不再只是提供“算力”,而是提供“可信算力”。

当算力成为关键生产要素,能够提供“可信算力”的企业,才有机会在未来的AI竞争中占据更稳固的位置。

免责声明:本文观点仅代表作者本人,供参考、交流,不构成任何建议。