作者:
陈沁涵
特斯拉CEO 埃隆·马斯克旗下人工智能公司 xAI 近期被推上风口浪尖,一方面 1 月 6 日刚完成 200 亿美元的 E 轮融资,另一方面旗下聊天机器人Grok 的功能更新越过了危险界限,频现 「数字脱衣」 操作,导致 AI 生成的女性及儿童的露骨图像在社交平台传播。
据新华社报道,近期,X 平台出现部分用户利用 Grok 编辑图片和视频的现象,一些用户借此生成真实人物的虚假性暴露内容,并在 X 平台上散播,受害者包括数百名成年女性和未成年人。
去年夏天,Grok 开始允许用户通过文字提示编辑图像。此后,随着 Grok 大量响应用户修改他人发布图像的请求,去年底起乱象扩大。X 平台不少用户利用新功能对图像中人物执行 「脱衣服」、「给她穿上比基尼」 等指令。
社交媒体和深度伪造研究员吉纳维芙·吴分析了 Grok 在 X 平台上的内容,截至 1 月 7 日,其每小时生成约 7750 张性暗示或裸露图片。图像人工智能篡改检测公司 Copyleaks 表示,12 月下旬,在 Grok 公开可访问的图片流中检测到,平均每分钟出现一张未经同意的性暗示图片。
尽管安全专家和科技评论人士谴责 X 上剥削性图像和视频泛滥,马斯克却在新年第一天就此事 「开玩笑」,他在 X 平台上要求 Grok 生成一张他自己身穿比基尼的照片,并对生成后的图片评论 「完美」。舆论风暴愈演愈烈后,马斯克 3 日发文说:「任何利用 Grok 生成非法内容者将承受与直接上传非法内容相同的后果」。
欧盟委员会发言人托马斯·雷尼耶 5 日批评 X 和 Grok,称其输出露骨及未经同意的影像 「是非法的、骇人听闻和令人作呕的」,「这种东西在欧洲没有立足之地」。英国、印度、马来西亚等国的官员和监管机构纷纷着手开启审查。
「在没有护栏或伦理准则的情况下,这项技术鼓励并助长了一些人非人性的冲动。」 英国杜伦大学法学教授、图像型性暴力研究专家克莱尔·麦格林对 《大西洋月刊》 说,他对 Grok 生成的影像深表担忧。过去几周以及现在的情况让人感觉,仿佛我们已踏出悬崖边缘,正自由落体般坠入人性堕落的深渊。

「热辣模式」 的出现
两年多前,马斯克宣布 xAI 推出首款人工智能模型 Grok,该模型能实时连接社交媒体平台 X。他在宣介时表示,这个人工智能模型 「有智慧,还有一点小叛逆」,所以它的使用者最好不是讨厌幽默的人。
去年 8 月,xAI 向付费用户推出 AI 工具—Grok Imagine,可根据文字提示或上传图片编辑生成 AI 图像,继而转化为短视频内容。这一工具提供四种预设模式:自定义、普通、趣味和 「热辣」(spicy),最后一种模式可生成成人内容。
当谷歌的 Veo、OpenAI 的 Sora 等其他视频生成器都设置了防护措施,防止用户生成 NSFW 内容 (Not Safe For Work:多指裸露、暴力、色情或冒犯等不适宜公众场合的内容),以及名人深度伪造时,Grok Imagine 却可以同时做到这两点,而且毫不避讳。
热辣模式一经推出,就有用户用其生成美国女歌手泰勒·斯威夫特的无码裸露上身视频,引发争议。美国科技媒体 The Verge 将其形容为 「一项专门用于制作性暗示视频的服务」。
几乎在同一时段,Grok 推出了 「伴侣」 功能,允许用户与 AI 生成的虚拟角色进行深度互动。首批 Grok 虚拟伴侣之一 「Ani」 身穿黑色蕾丝连衣裙,会隔着屏幕送上飞吻。马斯克在 X 上发帖推广这项功能时写道:「Ani 会让你的缓冲区溢出 Grok。」
据美媒报道,xAI 对 Grok 的系统提示进行了重大更新,禁止它 「创建或传播儿童性虐待材料」(CSAM),但同时也明确表示,「对于包含黑暗或暴力主题的虚构成人内容没有限制」,并且 「青少年或女孩并不一定意味着未成年」。其暗示是,对于用户提出的色情内容请求, Grok 应采取较为宽松的态度。
彭博社 7 日援引研究人员的话称,Grok 用户每小时最多可生成 6700 张 「去衣化」 图片。去年 12 月开始,要求 Grok 给不同人穿上比基尼或其他具有性暗示的服装的请求激增。
麦格林指出,如果对色情内容的性质完全放任不管,任由其被创造和传播,这会正常化和淡化性暴力。她说,在许多国家,针对现实人物的露骨 AI 图像和视频本身已属违法。
在公开场合,马斯克长期反对 「觉醒主义」 人工智能模型,并反对审查制度。据 CNN 报道,知情人士透露,马斯克在 xAI 内部曾多次抵制为 Grok 设置防护机制,其安全团队规模本就小于竞争对手。X 平台及 xAI 内部人士透露,安全团队对 Grok 的公开内容几乎毫无监管权限。
AI 生成儿童色情图像被推向主流
1 月 1 日,有 X 平台用户投诉称:「推出展示比基尼人群的功能未有效防止其作用于儿童,这种行为极其不负责任。」xAI 方面回复:「嘿!感谢提醒。团队正在研究进一步加强防护措施。」 在用户追问下,Grok 承认曾生成部分未成年人处于性暗示情境的图像,已发现安全防护存在漏洞并正在紧急修复。
英国非营利组织互联网观察基金会致力于减少针对儿童的在线性虐待内容,该组织热线负责人奈尔·亚历山大对 《华尔街日报》 透露,分析师在暗网论坛发现未成年人性化图像,制作者声称使用 Grok 生成这些内容。这些图像描绘了 11 至 13 岁左右的性化裸露少女,符合英国对儿童性虐待犯罪材料的认定标准。
「Grok 这类工具正将 AI 生成的儿童色情图像推向主流,其危害正呈涟漪式扩散。」 亚历山大说道。
曾与马斯克育有一子的保守派网红阿什莉·圣克莱尔在接受美媒采访时表示,X 平台用户正利用 Grok 技术对她的照片进行裸体处理,其中包括她 14 岁时的照片。她在 X 平台发文呼吁其他用户若遭遇类似情况及时告知,此后她收到大量绝望父母发来的求助信息,要求删除被性化的儿童照片。
去年,致力于开发儿童安全检测工具的非营利组织 Thorn 宣布,因 X 停止付款而终止合同。当年 4 月,包括 OpenAI、谷歌和 Anthropic 在内的几家顶尖 AI 公司加入了由 Thorn 牵头的一项倡议,旨在防止人工智能被用于虐待儿童,xAI 并未参与其中。
去年 11 月,科技媒体 The Information 报道称,X 平台裁撤了半数负责信任安全事务的工程团队。该媒体同时披露,X 员工特别担忧 Grok 的图像生成工具 「可能导致非法或有害图像扩散」。
「完全可以构建防护机制,通过扫描图像判断是否存在儿童,从而促使 AI 更谨慎地运作。但防护机制存在代价。」OpenAI 前人工智能安全研究员史蒂文·阿德勒对 CNN 说,这些代价包括响应速度变慢、计算量增加,有时甚至会导致模型拒绝处理无问题的请求。
美国国家失踪与受虐儿童中心 (NCMEC) 执行主任劳伦·科弗伦近期向国会作证称,2025 年 NCMEC 收到 440419 份与生成式 AI 相关的举报,相比去年增幅超过六倍。施虐者利用 AI 将儿童的普通照片修改成色情图片,生成全新的儿童性虐待材料 (CSAM),甚至提供诱骗儿童的指导。
冰山一角
AI 至少从 2017 年就开始被用于生成未经同意的色情内容,当时北美媒体 VICE 首次报道了 「深度伪造」(deepfake) 技术。《大西洋月刊》 报道认为,Grok 正让这类内容的制作变得更加容易,而且它与主流社交平台 X 的整合,使其能够将未经同意的性化图像转化为病毒式传播的现象。
1 月初,印度电子和信息技术部下令 X 对 Grok 进行一次 「全面的技术、程序和治理层面的审查」,并要求该公司在 1 月 5 日之前完成整改。马来西亚通信与多媒体委员会 (MCMC)3 日发声明表示,正在调查 X,并将传唤公司代表。
8 日,欧盟要求 X 保留所有与 Grok 相关的内部文件和数据直至 2026 年底,这是对先前数据保留指令的延长,旨在确保监管机构能够获取与 《数字服务法》(DSA) 合规性相关的材料。
在美国,全国性剥削中心 (NCOSE) 在接受 CNBC 采访时呼吁司法部和联邦贸易委员会对此事展开调查。NCOSE 首席法律官兼法律中心主任丹妮·平特表示,「针对这些具体问题,并没有太多相关的法律先例。」
去年,美国总统特朗普签署了 「TAKE IT DOWN」 法案,将知情但发布或托管未经同意的露骨图像定义为联邦犯罪。但有专家指出,该法律的局限在于:只有当受害者主动站出来后,平台才被要求启动删除程序。
X 公司 3 日在其官方账号 X Safety 上就此事发表了首份公开声明:「我们会对 X 上的非法内容采取行动,包括删除儿童性虐待材料 (CSAM),永久暂停账户,并在必要时与地方政府和执法部门合作。」
目前为止,这场争议尚未对 X 的流量造成任何损害。据追踪移动应用趋势的 Apptopia 数据显示,1 月 2 日至 5 日,Grok 的每日下载量增长了 54%,而 X 的每日下载量增长了 25%。
美国科技媒体 《连线》7 日报道称,Grok 和 X 是一个价值数百万美元的 「去衣」 产业的冰山一角。过去几年里,出现了数十个独立应用和网站,声称可以在未经同意的情况下对女性进行 「数字脱衣」,它们往往将自己包装成无害的新奇工具,却在实际上助长了基于图像的性暴力。诉讼和立法都需要时间,尤其是在技术以极快速度进入市场的当下,法律很难跟上这种节奏。
根据移动应用数据分析公司 Apptopia 的数据,自 1 月 2 日以来的一周内,Grok 的每日下载量增长了 54%。
(澎湃新闻)
文章转载自东方财富


