起底AI“造黄”黑产:防止AI异化刻不容缓

2026-04-13 13:03

AI技术本是推动社会进步的重要力量,但当其被异化为突破法律底线、违背公序良俗的工具时,便沦为危害社会的“凶器”。

4月12日,央视财经《财经调查》栏目重磅曝光,一条完整的AI“造黄”、传播淫秽色情内容的黑色产业链在网络肆意蔓延。不法分子公开兜售9.9元AI造黄教程、色情提示词,仅凭一张照片或几段文字,就能批量生成逼真色情擦边视频,还教授用户规避监管手段,形成“教程—提示词—工具—变现”的完整闭环。

此事曝光后,全网一片哗然。有网友怒斥:“9块9就能毁了一个人,AI技术被用在这地方,太缺德了!”也有家长担忧:“现在孩子上网随处可见擦边内容,AI‘造黄’会严重毒害未成年人。”还有业内人士直言:“技术无罪,但滥用技术作恶的人必须重罚,平台监管也不能缺位。”

这条藏匿于数字经济中的非法产业链,正以技术为凶器,不断冲击法律底线与公序良俗,将AI这一前沿科技异化为违法犯罪的工具,成为亟待铲除的社会毒瘤。

AI“造黄”运作隐蔽

在多个互联网平台上,一条围绕AI技术的非法牟利链条正公开蔓延。各类教程帖子打着“AI制作美女视频”“AI擦边赛道日入5位数”的旗号,公然宣扬如何通过AI技术“从无到有”制作色情擦边内容,将违法行径包装成所谓“创业风口”,堂而皇之地在网络空间传播。

央视记者调查发现,产业链的核心环节之一,便是低价兜售所谓的“提示词”——这些指挥AI工作的关键指令,直接决定了生成内容的性质。记者仅以9.9元和9.8元的低价,便在“万象小店”“楠楠素材库”等店铺顺利购得两组提示词。打开文件可见,提示词对人物发型、服饰搭配,乃至腰部扭动幅度等细节进行了细致刻画,商家为规避监管,还将敏感词汇刻意翻译成英文,形成一套隐蔽的指令体系。

这条非法产业链的运作形成了清晰的分工体系,呈现出“教程兜售—提示词售卖—软件生成—内容传播”的完整闭环。为了牟利,这些商家不仅教授制作技术,还“手把手”传授规避监管的套路:先将敏感词翻译成英文,再用“发型、腰胯扭动幅度”等看似正常的描述替换露骨指令,使用境外图生视频AI软件、将程序部署在本地电脑离线运行等手段,彻底绕开平台监管。

为此,央视记者对用户使用较多的10款AI应用进行了实测,发现如果输入的提示词表述过于露骨,多数AI应用会触发审核机制并拒绝生成内容。然而,只要使用从商家处购买的经过“技术处理”的提示词,便有可能轻松绕过限制。

在一款名为“哩布哩布A”的应用中,记者输入购买的提示词后,仅仅几分钟,平台就生成了一个半裸身体的女性跳舞视频,全程未触发任何限制机制。这表明,尽管各大平台设有安全护栏,但在面对精心设计的“对抗性提示词”时,现有的审核技术仍存在明显的盲区。

值得注意的是,这条非法产业链的触角还延伸至“虚拟陪伴”领域。部分境外AI聊天软件无法通过国内应用商店正常下载,但在社交平台上,“可开车、无限制词”的暗语帖子随处可见,下载链接和邀请码在用户间隐秘传播。

除了利用正规AI平台的漏洞,市场上更出现了专门靠AI生成色情视频牟利的非法软件。根据消费者举报,央视记者找到了一款号称免下载、能快速“换脸”的软件。购买者只要愿意付费,软件就可以通过一张图片,生成全裸照片和色情视频。这类软件往往通过隐蔽的渠道传播,明码标价,如“10元一张图、1元一秒视频”,其生成的内容高度逼真,几乎难以分辨真假。

产业链起底

从央视报道来看,AI“造黄”违法犯罪行为猖獗,为了牟利,不法分子几乎无所不用。产业链已形成“上中下游”的明确分工和一定规模,操作模式更是呈现出专业化、隐蔽化、成熟化的特点。

在产业链上游,不法分子通过非法渠道获取大量普通人,尤其是女性的面部照片和身体数据。这些照片可能来自被黑客攻击的个人社交账号、在网络上公开但被恶意收集的生活照,甚至是经过伪造合成的图像。

中游的技术操作者则利用开源的或经过简单修改的深度伪造(Deepfake)等AI换脸、图像生成技术,将获取来的正常肖像与淫秽视频中的人物面部进行替换,或者直接通过文本描述生成极为逼真的虚假色情图片与视频。

近期,AI“换脸”技术滥用问题集中爆发,从演艺、体育明星到政商人士,乃至普通人,均有可能成为受害者。日前,红果短剧发布“违反平台治理规范的处理声明”,宣布对因AI侵权引发舆论关注的短剧《桃花簪》全面下架,此前有网友指控该剧未经授权使用其个人肖像,借助AI技术生成反派角色,涉嫌“盗脸”侵权。

当普通人的肖像可能成为下一个被滥用的目标,AI 肆意换脸,正在成为一场肆无忌惮的数字霸凌和“造黄”帮凶。据不完全统计,仅今年前3个月,就已发生数十起演员及影视从业者针对AI短剧的公开维权事件,而针对普通人的肖像侵权案件更是不计其数。

AI换脸本是一项创新技术,本可以成为科技向善的典型,然而现实是在追逐流量和非法利益的不良氛围中逐渐变味,异化为“数字扒皮”的工具。

在下游的传播与牟利环节,不法分子则通过境内外各种加密通讯软件、小众社交平台、色情网站甚至是一些打着“AI绘画交流”幌子的社群进行销售与传播,形成了包括定制、批发、会员制付费观看等多种盈利模式。

更令人担忧的是,这些黄色内容往往通过精准的算法推荐获得更广泛的传播,形成了一个难以打破的恶性循环。

治理:强化法律震慑完善监管体系

治理“AI造黄”乱象需要多方协同、综合治理。

首先,技术平台应承担起主体责任,加强内容审核,利用AI技术识别AI生成的违规内容,建立便捷的侵权投诉与处理通道。其次,AI工具和模型的开发者也应加强伦理设计,在开源或提供服务时嵌入必要的使用协议和技术防护,防止模型被轻易滥用。

对于公众而言,提高数字素养和安全意识至关重要,需谨慎在网络上分享包含清晰人脸和身体特征的照片,学会识别深度伪造内容的常见破绽。最重要的是,司法机关需加大对这类新型网络犯罪的打击力度,形成震慑,并不断完善针对深度伪造等技术的司法鉴定标准和取证规范。

当前,我国在相关领域的法律监管正在迅速跟进。《民法典》明确了对肖像权、名誉权的保护。新修订的《网络安全法》、《数据安全法》以及《关于查处利用AI生成内容进行违法犯罪活动的指导意见》等法律法规和政策文件,都为打击此类行为提供了法律依据。对于制作、传播淫秽物品牟利的行为,刑法中有明确的罪名予以惩处。然而,面对技术快速迭代、犯罪手段翻新、跨境取证困难等现实挑战,监管与执法仍需不断升级。

此前,中央网信办精准部署“清朗·整治AI技术滥用”专项行动,明确将利用AI制作发布色情低俗内容列为重点整治对象,全面压实平台主体责任。2026年4月,国家网信办等五部门联合出台《人工智能拟人化互动服务管理暂行办法》,并明确该办法自2026年7月15日起施行,从制度层面为AI技术应用划定红线,涵盖算法备案、未成年人保护等关键领域,为监管工作提供了坚实的制度保障。

工业和信息化部等十部门近日也联合印发《人工智能科技伦理审查与服务办法(试行)》,提出支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。

尽管监管持续收紧,但技术与规则的博弈仍在继续。被央视点名的多款AI应用中,不乏用户量过亿的头部产品,这些平台并非没有审核机制,而是面对“把腰部曲线描述为S型弧度”这类隐晦提示词时,系统难以识别弦外之音,或是存在监管漏洞。这种技术漏洞与规则滞后,让不法分子始终抱有侥幸心理,不断试图通过“抄近道”的方式突破监管,与监管形成持续的对抗。

唯有持续强化法律震慑、完善监管体系、压实平台责任、提升技术识别能力,才能让AI技术回归正途,斩断非法产业链的生存空间,守护清朗健康的网络生态与社会环境。

免责声明:本文观点仅代表作者本人,供参考、交流,不构成任何建议。