马斯克旗下社交平台 X 的 AI 聊天机器人 Grok,被指可生成性化深度伪造内容,引发多国监管关注。

两位新西兰学者联名撰文指出,在英国已采取行动的情况下,新西兰政府至今保持沉默,现行法律也难以有效应对这一问题。
以下内容,基于坎特伯雷大学法律系高级讲师 Cassandra Mudgway 与惠灵顿维多利亚大学 AI 高级讲师 Andrew Lensen 的原文观点整理。
▼
Elon Musk上周终于回应外界对 Grok 的批评,承诺将在英国境内限制其生成性化深度伪造内容,以符合法律要求。

但两位作者强调,这一调整很可能适用于英国用户,技术并非不能关闭,而是被“选择性关闭”。
事实上,相关问题早已存在。
去年起,Grok 就被用户用于对照片进行“脱衣”处理,生成女性穿着内衣、泳装甚至裸露上身的图像。
X 平台的“spicy”选项,几乎不需要复杂指令,就能生成带有明显性暗示的内容。
在英国、丹麦和澳大利亚相继推动立法、监管机构介入调查后,新西兰政府却至今未就此作出明确表态。
文章认为,这与新西兰现行法律存在明显空白有关。
《2015有害数字通信法》要求受害者证明“严重情绪伤害”,把重点放在受害者反应上,而非行为本身的违法性。
若图像完全由 AI 合成,法律适用更显模糊。
两位学者指出,即便未来将性化深度伪造内容刑事化,也只能解决一部分问题。
刑事追责往往发生在伤害之后,却无法约束那些设计、部署并放任 AI 工具被滥用的平台。
文章反问:社交媒体平台必须下架儿童性虐待内容,为何对针对女性的性化深度伪造,却常被视为“个别用户滥用”?
像 X 这样的平台,正在把原本复杂的深度伪造技术变成“一键可用”,却没有同步设置足够的安全防护。
作者认为,这正暴露了新西兰长期奉行的“轻触式监管”问题。
在竞争压力下,平台更重视新功能和用户参与度,安全和性别伤害风险往往被放在后面。
文章最后指出,Grok 只是一个警示。
英国的案例已经表明,只要监管态度明确、立法有力,平台就会迅速调整。
如果新西兰继续保持沉默,类似争议只会反复出现。
“这种监管空白,客观上等同于对风险的默认接受。”他们写道。