社媒禁令潮蔓延至亚洲,中国短视频平台防沉迷问题何解?

经济观察报 关注 2026-04-10 17:48

文/张健康

澳大利亚的社媒禁令立法产生的冲击波正在快速向全球蔓延。

2026年4月8日,希腊总理基里亚科斯·米佐塔基斯(Kyriakos Mitsotakis)宣布,禁止15岁以下未成年人使用社交媒体。

虽然希腊议会预计要2026年年中才能完成社媒禁令的立法工作,但是希腊政府已经提前宣布了法律的执行时间表:2027年1月1日起正式强制实施。

希腊是最新一个宣布跟进通过专门立法对青少年使用社媒进行限制的国家。

上个月的最后一周,世界第四大人口大国印度尼西亚刚刚正式实施针对16岁以下人群的社交媒体禁令。

澳大利亚是全球第一个通过具有法律约束力的专门法来对青少年实施社媒禁令的国家。2024年11月,澳大利亚议会正式通过了《2024年网络安全修正案(社交媒体最低年龄)法案》,明确规定16岁以下青少年禁止持有社交媒体账号。该法律的一个突出特点是,把违规责任完全压到科技平台身上,而非家长和青少年。如果平台未能采取“合理步骤”阻止 16 岁以下用户注册,会面临高达 4950 万澳元的罚款。

2025年12月10日法律正式生效。

继澳大利亚之后,英国、西班牙、挪威、马来西亚、印度尼西亚纷纷采取了通过专门立法的形式对青少年实施社媒禁令,葡萄牙、波兰、斯洛文尼亚、希腊正在积极推进相关立法,而法国正在积极推动欧盟层面的统一立法(欧盟数字服务法的延伸),提议把全欧范围内的社媒“数字成年年龄”统一设定为 15岁。

另有很多国家,虽然还没有进行专门立法,已经利用既有法律规定对青少年使用社媒进行限制。

中国从2024年起就开始通过行政监督的形式对青少年使用短视频等平台进行限制。从新一轮的社媒禁令潮中,中国监管又能获得哪些启示,从而推动短视频防沉迷问题得到进一步解决呢?

“切断式”立法

印度尼西亚2025年1月就宣布要仿效澳大利亚,研究设定社媒最低使用年龄,作为加强网络保护的一项国家战略。

当年3月27日,印尼政府便正式通过2025年第17号政府条例,规定了电子系统提供商对保护儿童个人数据和数字权利应承担的法律义务。从而为社媒禁令提供了母法。

2026年3月6日,印尼通信与数字事务部发布具体的部长令,对禁令进行了细节化,明确设定16岁为使用社媒的准入门槛。

3月28日,法律法律正式生效。印尼正式成为亚洲第一个通过专门立法强制执行社媒禁令的国家。

根据该法律,YouTube、TikTok、Facebook、Instagram等8家以短视频信息流作为主打产品的平台,必须于2026年6月6日前完成自主风险评估和向政府提交合规报告。过渡期内,13岁至16岁的用户,可以经“父母授权”使用低风险平台,高风险平台则是全面切断。

该项法律的实施,可能影响约7000万印尼年轻人的网络使用。

印尼仿效的澳大利亚的社媒禁令立法,从提案到法案获得通过和正式实施,只用了约1年半的时间。

2024年年中,澳大利亚总理安东尼·阿尔巴尼斯(Anthony Albanese)公开称社媒是“社会公害”,承诺年底前推出法律保护青少年免受数字风险侵害。到该年11月便完成了年龄验证技术试验、提交议案、公众意见征询等立法程序。11月27日和29日,分别获众议院和参议院通过。

获得两院高票通过的《2024年网络安全修正案(社交媒体最低年龄)法案》给了科技公司1年的过渡期,要求科技公司必须于2024年12月至2025年12月期间完成“年龄防范”系统的开发、测试和上线工作。期间,Meta、TikTok、Google等科技巨头与澳大利亚网络安全专员进行了多轮技术谈判,讨论什么是“合理步骤”来验证年龄。但最终还是于2025年12月10日正式进入强制执行阶段。

首批被纳入限制名单的社媒平台包括Facebook、Instagram、TikTok、X(Twitter)、Snapchat和Reddit等主流社媒。YouTube的教育和儿童功能(YouTube Kids)获得了特定豁免。

澳大利亚的社媒禁令立法,被视为全球首例“切断式”立法的标杆。

Meta的至暗一周

与印尼社媒禁令生效的同一周,Meta连续遭遇了两次败诉。

首先是2026年3月24日,经过近7周审理,美国新墨西哥州陪审团做出裁定:Meta违反了该州消费者保护法,基于陪审团认定的数千项违规事实,Meta共需支付3.75亿美元民事罚款。

案件起因可追溯至2023年的一次卧底调查:新墨西哥州调查人员伪装成14岁以下未成年用户分别注册了一个Facebook和Instagram诱饵账户,随后便收到大量色情内容和性邀约。

检方指控Meta通过算法设计使年轻用户沉迷平台,同时隐瞒平台上儿童性剥削的风险以及对儿童心理健康的影响。

Meta不服判决结果,计划上诉。该案预计于5月4日进行后续审理。如果“公共滋扰”指控成立,Meta可能被迫更改相关算法和安全性保护措施。

新墨西哥州法庭判决公布次日,Meta和YouTube又被加利福尼亚州洛杉矶一家法院陪审团判定应对儿童用户造成的伤害承担责任,被判令赔偿原告300万美元。

原告是一位名叫Kaley的20岁女性。她声称6岁起就使用YouTube、9岁起就使用Instagram,童年时期对社交媒体的沉迷加剧了她的焦虑、抑郁和身体形象问题。

一同被列入被告的还有TikTok和Snap。但二者庭审前已达成和解。

该案被认为具有风向标意义,裁决结果很可能直接影响数千起类似诉讼的审理方向。而且从法律层面来看,此次诉讼有一个重要突破口,那就是绕过了《通信规范法》第230条。根据该条款规定,科技产品对用户发布的内容享有法律豁免权。但此次起诉没有聚焦于内容,而是聚焦于平台的设计和运营,包括无限滚动、自动播放和通知推送等被指具有沉迷性的功能。

根据媒体最新报道,美国数以千计的学区和家庭正联合起诉科技巨头,指控它们故意设计带有成瘾性的产品特性。而科技巨头们迫于压力,主动修改了算法,以规避天价赔偿。

美国立法拉锯战

美国各州检方利用既有法律规定对青少年使用社媒进行限制,是迫不得已的举措。因为美国宪法第一修正案对言论自由的保护,使得美国的“社媒禁令”落实遇到了极大的法律阻力。

美国不是没有努力从联邦和州级层面进行立法对青少年使用社媒进行限制。2024年7月30日,美国联邦参议院就以91票赞成、3票反对的压倒性优势通过了两项保护儿童数字安全的法案——《儿童网络安全法》(KOSA)和《儿童在线隐私保护法案》(COPPA 2.0)。

KOSA的核心不是直接“禁止使用”,而是建立“注意义务”,要求平台默认开启最高级别的隐私设置,同时采取措施防止未成年人接触鼓励自残、饮食失调、性剥削的内容;提供更强大的家长监控工具,允许父母限制孩子的使用时间和社交功能;还强制大型科技公司每年接受独立审计,评估它们的产品对青少年心理健康的影响。

但直到2026年初,《儿童网络安全法》还处于众议院审议中。而且众议院能源和商务委员3月5日投票推进了一项包含KOSA的“儿童在线安全一揽子计划”。该计划与参议院版本对执行细节和州政府权限存在分歧。

另外,联邦卫生总监2025年至2026年多次提议社交媒体强制标注类似于烟草上标注“吸烟有害健康”那样的“心理健康警告标签”。

联邦层面的立法遇阻,州级立法同样遭遇了“拉锯战”。

比如加利福尼亚州议会2022年8月就全票通过一项《加州适龄设计规范法案》(CAADCA),要求平台设计阶段就必须优先考虑未成年人利益。同年9月15日,加州州长加文·纽森(Gavin Newsom)已经正式签署通过。法案原定于2024年7月1日正式生效,但是2023年9月科技行业协会NetChoice提起诉讼,认为该法案侵犯了宪法第一修正案,而美国第九巡回上诉法院随后裁定,政府不能以保护儿童为名,强制要求私营公司对合法言论进行审查,从而阻止了该法案的如期实施。

佛罗里达州与犹他州的立法遭遇了与加州相似的命运。两州曾试图立法禁止14岁抑或16岁以下青少年拥有社媒账号,然而科技行业协会随即提起诉讼,认为州的法案违反了宪法第一修正案。

压力转移给社媒平台

不管是澳大利亚、西班牙、挪威、印尼等国的专门立法,还是美国各州的利用既有法律进行司法诉讼,此轮社媒禁令潮呈现出以下几个共同的特点:

一是责任倒置,压力转移给社媒平台。

正如澳大利亚总理安东尼·阿尔巴尼斯多次强调的那样,该项立法的目的不是要惩罚孩子和让家长感到内疚,而是要强迫社交媒体公司承担责任。

社媒平台的核心责任是,进行产品设计时就必须证明它们提供的内容对未成年人是安全的,而不是像过去那样通过简单的“年龄声明”来规避责任。

如果平台未能采取“合理步骤”阻止青少年用户注册,就会面临巨额罚款。

二是从呼吁行业自律转向强制法律义务。

立法前,各国政府的普遍做法是通过发布“青少年上网指南”“行业自律公约”,建议社交平台减少有害内容。但因为没有法律强制力,社媒平台仍然是“法外之地”,拥有定义规则的权力。

各国政府通过立法收回了平台的规则制定权,给青少年划定了数字国界。

为了确保数字国界不被轻易逾越,各国的立法不再允许用户勾选“我已满16岁”之类的“自我声明年龄”的谎言,而是强制平台使用生物识别(比如面部分析)、电子ID、第三方验证服务。据报道欧盟多国正联合开发跨国界的身份核验App,以实现标准化的年龄认证。

尽管法律做出了严格的规定,而且现在已经具备技术可行性,但是要彻底防止“自我声明年龄”谎言绝非易事。Meta庭审中回应检方的指控时称“准确确定在线年龄是整个行业面临的挑战”并非全是托词。

三是保护的目标转向心理健康和防沉迷。

“隐私安全”是以前各国保护青少年网络用户的重点,但各国的社媒禁令立法不再仅仅关注“隐私安全”,而是转向心理健康防护和防沉迷。比如针对日益严重的网络霸凌、深伪色情和网络诱拐,立法明确要求平台建立“防火墙”。再比如社媒的无限滚动、点赞机制和个性化推送普遍被视为导致青少年焦虑、抑郁和自残倾向的诱因,要求平台修改算法防止成瘾。

四是区分工具和社媒,设立数字避风港。

立法不是要彻底断绝青少年使用社媒的权力,对于一些青少年学习和社交的基本工具,各国禁令普遍设立了一个“避风港”,比如WhatsApp、Messenger等即时通讯工具通常不被列入禁令。还有YouTube Kids、线上课堂工具以及Steam那样的游戏分发平台,通常不被定义为“社媒”。

中国短视频防沉迷待解

青少年沉迷短视频等社交媒体是全球性问题,在我国也同样存在类似的挑战。根据共青团中央与中国互联网络信息中心(CNNIC)联合发布的《第5次全国未成年人互联网使用情况调查报告》提供的数据显示,随着游戏监管收紧,短视频和社交媒体已成为未成年人主要的网上休闲活动,且经常刷短视频的比例已达到54.1%,成为了新的监管挑战点。

客观而言,作为一个拥有超两亿6岁至19岁网络用户的国家,中国在对未成年人的数字保护上,一直走在世界前列。从2023年10月24日国务院颁布《未成年人网络保护条例》,到2024年11月15日国家网信办发布《移动互联网未成年人模式建设指南》和国家网信办联合中央精神文明建设办公室、教育部、国家广播电视总局等部委共同发布《可能影响未成年人身心健康的网络信息分类办法》,再到2025年9月28日全国人大常委会修订通过《中华人民共和国网络安全法》,中国的未成年人网络保护已经形成一个“系统级干预+分龄管理”的模式。从未成年人数字保护的法制进程来看,中国立法和监管部门走在了世界前列,并取得了明显效果。

但在2026年全国“两会”期间,未成年人的数字沉迷问题依然成为讨论热点。针对不少青少年沉迷刷短视频、睡眠时间被严重挤占问题,有人大代表进一步推行“深夜静默”模式,强化凌晨时段平台管控,以保障青少年的身心健康。一些代表委员正式呼吁设置16周岁“数字年龄”红线,改变目前主要通过实名制和未成年人模式进行数字保护的做法,改为禁止16岁以下未成年人注册社交媒体账号。

这些建议背后的一个客观事实是,当前针对包括短视频在内的社交媒体监管,仍存在明显短板和漏洞,比如未成年人可通过游客模式或借用成人账号轻易绕过青少年模式,防护机制形同虚设。此外,当前的未成年人保护模式,严格依赖家庭监督难以应对平台算法的系统性风险,部分平台在盈利与合规之间存在博弈,执行动力不足,对未成年人的访问行为缺乏足够的检查和防范动力,让未成年模式的保护效果大打折扣。

从当下海外的未成年人数字保护趋势来看,一方面从法律上进一步压实平台责任,从之前指引性的“软提示”变为法律的“硬约束”;另一方面在责任追究上,也从之前的以内容为核心,开始延展到平台的产品设计机制,像Meta案中的无限滚动、自动播放和通知推送等机制,同样被认为是对青少年造成伤害的重要元凶。

作为青少年数字保护领域的优等生,在全球数字保护浪潮不断升温的背景下,中国对未成年人的数字保护模式也到了从无到优、从优到严的关键时刻。从澳大利亚、英国、西班牙、挪威、印尼等国的立法经验和美国多州的司法实践来看,实行责任倒置,让社媒平台承担更多的责任,可能是无法避免的选择。

(作者系经济学者)