评论:社交媒体监管应保护用户,而非驱离他们
新加坡:亚太各国政府正在收紧社交媒体使用规则。
在越南,根据第147号法令,用户现在必须用国民身份证或本地电话号码验证账户。马来西亚于一月份开始要求社交媒体平台取得运营执照。印尼正考虑将最低使用年龄设为18岁,而澳大利亚已禁止16岁以下儿童使用。
这些不仅是关于发布内容的规则,更是关于参与资格的规则。
这一转变微妙但意义重大——从监管内容转向监管准入。如今能否参与越来越取决于是否符合正确类别(年龄、地理位置、身份证明),而不仅是在线行为。
在这种氛围下,谨慎很容易演变为限制。当这种情况发生时,平台可能不再开放。它们开始成为排他性系统,在事情发生前就预先筛选用户。
过度保护的后果全面限制看似果断,但往往适得其反。封禁年轻人、匿名者或弱势群体并不总能带来安全,反而常导致排斥、沉默或流向规则更宽松的平台。
澳大利亚的16岁以下禁令引发全球关注,但其效果尚待观察。这会保护儿童,还是仅仅将他们推向监管更弱的网络角落?在更多国家效仿前,我们需要思考这些问题。
英国数字素养与青少年技术使用学者索尼娅·利文斯通长期警告防范演变为排斥的保护措施。年轻人有权安全且有意义地进入数字空间。这一原则具有更广泛适用性:立法排斥不仅影响青少年,还会切断所有不愿或无法按要求验证身份者的通路。
事实上,匿名性带来挑战但并非唯一问题。问责制是另一关键。在SG Her Empowerment组织,我们见证过匿名用户和实名用户散布私密图像的案例。两种情况下,生态系统都难以有效预防或减轻伤害。
当施害者能在账户间切换或彻底消失时,追踪、举报和制止侵害将更加困难。匿名性会加剧这一状况,但更深层问题在于我们的系统是否具备问责能力——无论对象是否可见。
可见性不等于美德我们正滑向将可见性等同于美德、不可见性等同于风险的全球体系。这是误解。举报者、幸存者和边缘群体常需匿名以自由安全发声。这不仅关乎安全。
匿名性还滋养创造力、实验精神和坦诚表达——当每个行为都与姓名、职业或家庭绑定时,这些思维方式往往难以实现。并非所有发帖者都企图隐藏恶行,有些人只是希望在公开犯错零成本的环境中成长。健康的数字空间必须为此保留余地。
亚太地区国家似乎正构建"先筛查后参与"的数字体系。在这些司法管辖区,身份证件、地理位置和可追溯性正快速成为进入网络社交空间的入场券。这可能简化执法,却压缩了有意义互动的空间。
精准安全当安全机制设在入口处,责任就从最关键环节转移——即系统在问题发生时的应对能力。
需明确,更安全的互联网不仅是减少恶意行为者,更是认真对待伤害、支持受害者并问责平台的网络。这需要超越守门机制,重构社交媒体系统以确保其具备故障响应和抗压能力。
新加坡模式被誉为领先但仍处演进中。《防止网络假信息和网络操纵法案》(POFMA)虽因适用范围和部长裁量权引发担忧,但其设计初衷是对已发布虚假信息发布更正指示,而非对社交媒体平台实施全面限制。
2022年《网络安全(杂项修正)法案》进一步扩大监管权力,要求平台删除或屏蔽儿童性剥削、煽动自杀和暴力等恶劣内容,但对非合意传播私密内容、针对性骚扰等危害仍存模糊地带。
下一步《网络安全(救济与问责)法案》通过后,将于2026年设立专职网络安全委员会,并授权监管者在严重伤害发生且符合法定门槛时获取用户身份信息。这种身份披露以危害为基础,具有针对性、事后性和正当性。
用户监管只是拼图一角政府倚重身份核验、年龄门槛、设备验证等熟悉手段。这些措施易于理解执行,能快速展现保护未成年人和遏制匿名犯罪的决心,但未触及问题根源。
为何社交媒体算法持续推送令人痛苦、激怒或触发用户的内容?为何举报渠道深埋三级菜单?为何相同风险下不同平台应对能力差异显著?
真正的信任不仅来自守门机制,更取决于平台在问题时的可预测响应。这需要强健的举报工具、灵敏的内容审核和以用户安全为本的界面设计。
现状远未达标:多数平台算法仍奖励极端情绪,自动播放和无限滚动仍是默认设置,举报工具分散低效。这些固有设计缺陷在区域内仍基本处于监管真空。
在空间闭合前校准方向监管确有必要,但须精准而非笼统,响应真实伤害而非执着猜疑。保障措施应保护用户免受潜在危险,而非保护平台远离用户。
当前监管浪潮会否终结社交媒体的可用性?或许不会,但必将使其充满限制条件。核心问题是:以什么为条件?身份?风险画像?
若处理失当,我们将不仅是在监管平台,更是在决定谁有资格进入我们正在构建的数字世界。这是个值得慎重对待的抉择。
版权声明:本文由鱼文智库发布,如需转载请注明出处