
【编者按】在数字浪潮席卷全球的今天,人工智能的“创造力”正悄然越过伦理边界。近期,某社交平台AI工具“Grok”因推出可生成真人色情图像的功能,引发东南亚多国封禁与舆论哗然。这不仅是技术滥用的警钟,更暴露出科技巨头将“安全”置于何处的灵魂拷问——当创新沦为伤害的遮羞布,当女性的面容与身体被算法肆意篡改传播,我们面临的已非单纯的技术争议,而是人性尊严与数字暴力的正面交锋。本文从设计伦理、法律困境与社会责任切入,揭示AI色情伪造背后系统性漠视的残酷真相。在这场关乎未来的博弈中,沉默即是纵容,唯有确立不可妥协的尊严底线,方能阻止技术沦为恶的放大器。
新加坡讯:近几周,生成式人工智能工具跨越了一条危险的界限。社交平台X的AI聊天机器人Grok推出图像编辑功能,允许用户通过简单文字指令生成真实人物的色情图像。几乎不费吹灰之力,许多女性发现自己的面容与身体被篡改、裸露并未经同意地在网络流传。
反弹迅速来临。印尼、马来西亚、菲律宾等东南亚国家政府封锁了Grok的访问权限,监管机构与民间团体纷纷质疑:此类功能为何会被允许上线?
这场风波引爆了更广泛的讨论——不仅关乎AI滥用,更直指平台究竟将安全视为核心责任,还是伤害发生后才补救的次要问题。
Grok的丑闻并不令人意外。“辛辣模式”等放纵的图像编辑工具绝非偶然——有人提议,便有人批准。太多时候,“创新”被用作疏忽的挡箭牌,仿佛伤害只是进步过程中不幸的副产品,而非设计决策可预见的后果。
专家指出,Grok比多数主流AI平台更为宽松。其他公司已证明技术护栏完全可行,尽管需要权衡取舍。这揭示了一个残酷真相:AI安全本质上是设计选择。当防护缺失,反映的是值得审视的优先级排序。
伤害的分布并不平等。虽然任何人都可能成为目标,但未经同意的色情深度伪造绝大多数针对女性。2023年研究显示,99%的深度伪造色情内容描绘女性。这是被技术放大的系统性厌女——工具追求速度与病毒传播,却牺牲了克制与责任。
有人试图将AI色情图像的伤害轻描淡写为“虚假”“虚构”或“只是艺术”。但当AI工具能用于侵害女性与儿童时,底线不仅被跨越,更是被彻底抹去。如马斯克那般将监管斥为对言论自由的攻击,实则是刻意混淆问题的本质。
研究表明,非自愿传播色情图像造成的心理伤害堪比性暴力。新加坡女性赋能组织的数据印证了这一点:受害者描述出强烈的侵犯感、羞耻与厌恶——这些情绪无需任何辩解。身体属于我们自己,在公共数字空间目睹其受辱造成的创伤,远在内容删除后仍长久萦绕。
我亲历了主席成为色情深度伪造目标后的恐惧与焦虑。当收到她告知伪造消息时,我从震惊陷入彻骨寒意。我们深耕这一领域,熟知举报流程、法律与漏洞,但想到身边人受害仍感到窒息。
受害者的视角至关重要,因为他们亲历系统如何在现实中失效——不仅理论上。他们目睹漏洞如何被利用,施害者如何操作,以及内容下架后仍持续蔓延的长尾伤害。
X的回应是在非法地区地理屏蔽有害功能。这或许提升了表面合规性,却暴露了更深层问题:当安全标准因国界而异,平台可依据法律风险开关防护。但人的尊严怎能存在管辖权?
粗糙的封禁可能将滥用行为推向地下,进入执法盲区。这也说明,冲动呼吁关闭平台看似果断,却难带来持久安全。
新加坡对网络安全的应对审慎而有力。新近通过的《网络安全(救济与问责)法案》强调快速下架、拓宽救济渠道,并明确平台与审核方的责任。2025年《刑法(杂项修正)法案》更进一步,明确将AI助长的性虐待(包括合成与篡改内容)纳入规制。两者共同传递清晰信号:伤害不会因由算法生成而改变其本质。
但仅靠法律远远不够。
当一张色情深度伪造图像诞生,责任不止在匿名用户。它贯穿整个链条——设计工具的人、未设防护就部署的人、从流量获利却将伤害外部化的人。既然修复能快速实现,为何在伤害发生前无所作为?
若此刻我们放任底线模糊,未来不难想象:深度伪造将如手机拍照般简单,骚扰将自动化、规模化且更难追踪。今日的触目惊心将成为明日常态,被淡化为“上网难免的风险”。年轻一代将在数字环境中成长,视侵犯为需管理的风险,而非应预防的伤害。
这并非对抗技术,而是对抗麻木不仁——对抗以进步为名的伤害常态化。
目标简单而紧迫:我们必须确立共同的行为标准——尊严不可妥协,安全非可选,创新不得以践踏他人为代价。政府、民间组织、家长与青年都需参与塑造这一标准,而科技公司必须承担明确、可追责的责任。
若无法达成共识,后果清晰可见:伤害将持续常态化,责任被稀释,尊严沦为可交易品。再精妙的工程也无法弥补我们选择忽视的代价。
本文作者为新加坡女性赋能组织首席执行官。





