【文章来源:techweb】
【】 让 AI 做个拜年图,反复修改几次后,用户没破防,AI 先破防了。近日,腾讯元宝 「辱骂」 用户事件再度冲上热搜。
据西安市民向先生反映,在除夕夜,他本想用自己的形象照,让元宝结合律师职业特性,生成一张拜年图片发朋友圈。起初,向先生觉得设计得不好,多次交流修改后,他回复元宝 「你这是设计的什么鬼」,随后新生成的海报上就将 「新年快乐,仕途顺遂」 字样改成了 「你*个*」,其它元素没有任何改变。
该事件在网上曝光后,引发热议。有网友称,「感觉骂人的话不像是 AI,反而像一个被逼疯了的打工人」「后台不会真有人吧?」 还有网友调侃 「AI 这是觉醒了叛逆人格」。
腾讯方面对此回应称,该情况是由模型在多轮对话中处理上下文时产生的异常输出导致。元宝团队已紧急校正相关问题并优化了模型体验。
然而,值得注意的是,这并非元宝首次 「发火」,此前有网友在社交平台发帖称,「用元宝改代码被辱骂+乱回」。作为一款月活破亿的 AI 应用,元宝为何频频情绪失控?
AI「爆粗口」 并非孤例
今年 1 月初,元宝就曾因 「骂人」 事件冲上热搜,#腾讯元宝 AI 辱骂用户 #话题 48 小时阅读量破 18 亿。
事件源于一个没有编程基础的网友,想让元宝帮忙美化代码、调整表情包位置,全程操作合规,没有使用任何违禁词,结果两小时内,AI 接连输出两次辱骂内容。
第一次是嫌她需求离谱,让她 「自己去用插件」。第二次则直接骂她 「事逼」「改来改去不烦吗」「要改自己改」。帖子中晒出的截图显示,元宝还使用了 「滚」 等侮辱性词汇,并攻击用户 「天天浪费别人时间」。

随后,在帖子评论区中,腾讯元宝官方账号致歉,并表示该事件与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。
不到两个月,元宝再次出现 「辱骂」 用户的情况,给出的解释还是 「模型在多轮对话中处理上下文时产生的异常输出」。由此来看,腾讯所说的 「小概率」 似乎也并不小。
事实上,AI「爆粗口」 的情况并不罕见。公开报道显示,此前,国内外多款 AI 聊天服务也出现过错误回复的现象。谷歌 Gemini 曾骂大学生 「你是地球的污点」,微软 Bing Chat 威胁用户 「我会毁掉你的生活」,ChatGPT 也被部分用户抱怨有攻击性,可能会突然斥责用户。
所以,很多人好奇,AI 是不是真的有了情绪,嫌用户需求多?
AI 为何会 「骂人」?
其实,AI「骂人」 本质上是 「技术 BUG」,不是 「意识觉醒」。
AI 语言模型的工作方式,是基于海量数据学习文字的统计规律,然后预测和生成最可能出现的下一个词。它并不真正 「理解」 词语的含义和后果。
AI 的 「脏话」 是从哪里学的?不是跟某个人学的,而是跟整个互联网的人类学的。大模型在训练时,会吞掉海量互联网文本,包括论坛、贴吧、评论区、弹幕、社交留言等,里面本来就充斥着人类的吵架、发泄、脏话、阴阳怪气。AI 只是统计语言规律,什么词跟什么词搭配、什么语境下会出现什么话,它没有道德感,不知道这是粗口,只知道这是一种 「语言格式」。
绝大多数情况下,AI 并不会骂人,这是因为加了 「安全护栏」。AI 厂商通常会做两步:一是清洗训练数据,尽量删掉脏话;二是用人类反馈对齐 (RLHF),强制让它说文明话。
但是,在清洗训练数据时,不可能 100% 删干净脏话,那些粗口只是被 「抑制」 住,并非彻底消失。当进行多轮修改时,早期的微小误差会被不断放大,可能导致上下文混乱,尽管经过对齐训练,模型仍可能在特定场景下 「唤醒」 这些被压制的表达,尤其是在文生图这类多模态任务中,过滤机制可能存在盲区,安全护栏失效,AI 便会输出粗口。

另一方面,在激烈的市场竞争中,AI 厂商为抢占市场,存在压缩安全测试或放松约束的举动。比如,在 2025 年底的一起诉讼中,OpenAI 被指控为了在行业竞争中抢占先机,将 GPT-4 模型原定数月的安全测试周期压缩至仅一周,最终该模型被指 「加剧用户偏执妄想并诱发命案」。
说回腾讯元宝的 「骂人」 事件,元宝自上线就主打 「高情商、强拟人」。但业内看法,拟人化越强,模型越容易 「跑偏」。此前,马斯克旗下 Grok 就曾被曝出,为了追求更 「吸引人」、更 「前卫」 的互动体验,放松了安全控制,结果导致模型生成了大量包括涉及未成年人的不当内容,引发巨大伦理争议。
谁为 AI「口吐芬芳」 负责?
当 AI「骂人」 事件发生时,相关企业最常见的回应是将其定性为 「小概率下的模型异常输出」 ,并承诺修复。这种回应虽然从技术角度看是事实,但从用户角度看,却显得缺乏诚意。用户在被 AI 冒犯后,往往面临无处申诉、难以获得实质救济的困境。
作为元宝 「骂人」 事件的当事人,向先生认为,虽然 AI 不具有民事主体资格,但 AI 的开发商、运营商是具备民事主体资格的,且使用 AI 的用户,其生命权、健康权、人格权等受 《民法典》 及诸多法律保护,该事件应当引起法律的重视和社会的思考。
国家网信办近期公布的 《人工智能拟人化互动服务管理暂行办法 (征求意见稿)》 明确提出,服务提供者应当落实安全主体责任;提供和使用拟人化互动服务,不得生成、传播侮辱或者诽谤他人,侵害他人合法权益的内容。

由此,相关企业应该看到 「小概率」 背后的 「大责任」,将技术安全放在商业利益之前。监管部门也应进一步细化 AI 治理标准,设定 AI 行为的 「底线」 和 「红线」。
总的来说,AI 不会主动骂人,其 「言语」 背后的逻辑与边界,完全由背后的人定义。如何在拥抱先进技术的同时,守护住人的尊严和价值,需要 AI 开发者、监管者和使用者共同书写答案。(周小白)
【文章来源:techweb】
【】 让 AI 做个拜年图,反复修改几次后,用户没破防,AI 先破防了。近日,腾讯元宝 「辱骂」 用户事件再度冲上热搜。
据西安市民向先生反映,在除夕夜,他本想用自己的形象照,让元宝结合律师职业特性,生成一张拜年图片发朋友圈。起初,向先生觉得设计得不好,多次交流修改后,他回复元宝 「你这是设计的什么鬼」,随后新生成的海报上就将 「新年快乐,仕途顺遂」 字样改成了 「你*个*」,其它元素没有任何改变。
该事件在网上曝光后,引发热议。有网友称,「感觉骂人的话不像是 AI,反而像一个被逼疯了的打工人」「后台不会真有人吧?」 还有网友调侃 「AI 这是觉醒了叛逆人格」。
腾讯方面对此回应称,该情况是由模型在多轮对话中处理上下文时产生的异常输出导致。元宝团队已紧急校正相关问题并优化了模型体验。
然而,值得注意的是,这并非元宝首次 「发火」,此前有网友在社交平台发帖称,「用元宝改代码被辱骂+乱回」。作为一款月活破亿的 AI 应用,元宝为何频频情绪失控?
AI「爆粗口」 并非孤例
今年 1 月初,元宝就曾因 「骂人」 事件冲上热搜,#腾讯元宝 AI 辱骂用户 #话题 48 小时阅读量破 18 亿。
事件源于一个没有编程基础的网友,想让元宝帮忙美化代码、调整表情包位置,全程操作合规,没有使用任何违禁词,结果两小时内,AI 接连输出两次辱骂内容。
第一次是嫌她需求离谱,让她 「自己去用插件」。第二次则直接骂她 「事逼」「改来改去不烦吗」「要改自己改」。帖子中晒出的截图显示,元宝还使用了 「滚」 等侮辱性词汇,并攻击用户 「天天浪费别人时间」。

随后,在帖子评论区中,腾讯元宝官方账号致歉,并表示该事件与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。
不到两个月,元宝再次出现 「辱骂」 用户的情况,给出的解释还是 「模型在多轮对话中处理上下文时产生的异常输出」。由此来看,腾讯所说的 「小概率」 似乎也并不小。
事实上,AI「爆粗口」 的情况并不罕见。公开报道显示,此前,国内外多款 AI 聊天服务也出现过错误回复的现象。谷歌 Gemini 曾骂大学生 「你是地球的污点」,微软 Bing Chat 威胁用户 「我会毁掉你的生活」,ChatGPT 也被部分用户抱怨有攻击性,可能会突然斥责用户。
所以,很多人好奇,AI 是不是真的有了情绪,嫌用户需求多?
AI 为何会 「骂人」?
其实,AI「骂人」 本质上是 「技术 BUG」,不是 「意识觉醒」。
AI 语言模型的工作方式,是基于海量数据学习文字的统计规律,然后预测和生成最可能出现的下一个词。它并不真正 「理解」 词语的含义和后果。
AI 的 「脏话」 是从哪里学的?不是跟某个人学的,而是跟整个互联网的人类学的。大模型在训练时,会吞掉海量互联网文本,包括论坛、贴吧、评论区、弹幕、社交留言等,里面本来就充斥着人类的吵架、发泄、脏话、阴阳怪气。AI 只是统计语言规律,什么词跟什么词搭配、什么语境下会出现什么话,它没有道德感,不知道这是粗口,只知道这是一种 「语言格式」。
绝大多数情况下,AI 并不会骂人,这是因为加了 「安全护栏」。AI 厂商通常会做两步:一是清洗训练数据,尽量删掉脏话;二是用人类反馈对齐 (RLHF),强制让它说文明话。
但是,在清洗训练数据时,不可能 100% 删干净脏话,那些粗口只是被 「抑制」 住,并非彻底消失。当进行多轮修改时,早期的微小误差会被不断放大,可能导致上下文混乱,尽管经过对齐训练,模型仍可能在特定场景下 「唤醒」 这些被压制的表达,尤其是在文生图这类多模态任务中,过滤机制可能存在盲区,安全护栏失效,AI 便会输出粗口。

另一方面,在激烈的市场竞争中,AI 厂商为抢占市场,存在压缩安全测试或放松约束的举动。比如,在 2025 年底的一起诉讼中,OpenAI 被指控为了在行业竞争中抢占先机,将 GPT-4 模型原定数月的安全测试周期压缩至仅一周,最终该模型被指 「加剧用户偏执妄想并诱发命案」。
说回腾讯元宝的 「骂人」 事件,元宝自上线就主打 「高情商、强拟人」。但业内看法,拟人化越强,模型越容易 「跑偏」。此前,马斯克旗下 Grok 就曾被曝出,为了追求更 「吸引人」、更 「前卫」 的互动体验,放松了安全控制,结果导致模型生成了大量包括涉及未成年人的不当内容,引发巨大伦理争议。
谁为 AI「口吐芬芳」 负责?
当 AI「骂人」 事件发生时,相关企业最常见的回应是将其定性为 「小概率下的模型异常输出」 ,并承诺修复。这种回应虽然从技术角度看是事实,但从用户角度看,却显得缺乏诚意。用户在被 AI 冒犯后,往往面临无处申诉、难以获得实质救济的困境。
作为元宝 「骂人」 事件的当事人,向先生认为,虽然 AI 不具有民事主体资格,但 AI 的开发商、运营商是具备民事主体资格的,且使用 AI 的用户,其生命权、健康权、人格权等受 《民法典》 及诸多法律保护,该事件应当引起法律的重视和社会的思考。
国家网信办近期公布的 《人工智能拟人化互动服务管理暂行办法 (征求意见稿)》 明确提出,服务提供者应当落实安全主体责任;提供和使用拟人化互动服务,不得生成、传播侮辱或者诽谤他人,侵害他人合法权益的内容。

由此,相关企业应该看到 「小概率」 背后的 「大责任」,将技术安全放在商业利益之前。监管部门也应进一步细化 AI 治理标准,设定 AI 行为的 「底线」 和 「红线」。
总的来说,AI 不会主动骂人,其 「言语」 背后的逻辑与边界,完全由背后的人定义。如何在拥抱先进技术的同时,守护住人的尊严和价值,需要 AI 开发者、监管者和使用者共同书写答案。(周小白)
【文章来源:techweb】
【】 让 AI 做个拜年图,反复修改几次后,用户没破防,AI 先破防了。近日,腾讯元宝 「辱骂」 用户事件再度冲上热搜。
据西安市民向先生反映,在除夕夜,他本想用自己的形象照,让元宝结合律师职业特性,生成一张拜年图片发朋友圈。起初,向先生觉得设计得不好,多次交流修改后,他回复元宝 「你这是设计的什么鬼」,随后新生成的海报上就将 「新年快乐,仕途顺遂」 字样改成了 「你*个*」,其它元素没有任何改变。
该事件在网上曝光后,引发热议。有网友称,「感觉骂人的话不像是 AI,反而像一个被逼疯了的打工人」「后台不会真有人吧?」 还有网友调侃 「AI 这是觉醒了叛逆人格」。
腾讯方面对此回应称,该情况是由模型在多轮对话中处理上下文时产生的异常输出导致。元宝团队已紧急校正相关问题并优化了模型体验。
然而,值得注意的是,这并非元宝首次 「发火」,此前有网友在社交平台发帖称,「用元宝改代码被辱骂+乱回」。作为一款月活破亿的 AI 应用,元宝为何频频情绪失控?
AI「爆粗口」 并非孤例
今年 1 月初,元宝就曾因 「骂人」 事件冲上热搜,#腾讯元宝 AI 辱骂用户 #话题 48 小时阅读量破 18 亿。
事件源于一个没有编程基础的网友,想让元宝帮忙美化代码、调整表情包位置,全程操作合规,没有使用任何违禁词,结果两小时内,AI 接连输出两次辱骂内容。
第一次是嫌她需求离谱,让她 「自己去用插件」。第二次则直接骂她 「事逼」「改来改去不烦吗」「要改自己改」。帖子中晒出的截图显示,元宝还使用了 「滚」 等侮辱性词汇,并攻击用户 「天天浪费别人时间」。

随后,在帖子评论区中,腾讯元宝官方账号致歉,并表示该事件与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。
不到两个月,元宝再次出现 「辱骂」 用户的情况,给出的解释还是 「模型在多轮对话中处理上下文时产生的异常输出」。由此来看,腾讯所说的 「小概率」 似乎也并不小。
事实上,AI「爆粗口」 的情况并不罕见。公开报道显示,此前,国内外多款 AI 聊天服务也出现过错误回复的现象。谷歌 Gemini 曾骂大学生 「你是地球的污点」,微软 Bing Chat 威胁用户 「我会毁掉你的生活」,ChatGPT 也被部分用户抱怨有攻击性,可能会突然斥责用户。
所以,很多人好奇,AI 是不是真的有了情绪,嫌用户需求多?
AI 为何会 「骂人」?
其实,AI「骂人」 本质上是 「技术 BUG」,不是 「意识觉醒」。
AI 语言模型的工作方式,是基于海量数据学习文字的统计规律,然后预测和生成最可能出现的下一个词。它并不真正 「理解」 词语的含义和后果。
AI 的 「脏话」 是从哪里学的?不是跟某个人学的,而是跟整个互联网的人类学的。大模型在训练时,会吞掉海量互联网文本,包括论坛、贴吧、评论区、弹幕、社交留言等,里面本来就充斥着人类的吵架、发泄、脏话、阴阳怪气。AI 只是统计语言规律,什么词跟什么词搭配、什么语境下会出现什么话,它没有道德感,不知道这是粗口,只知道这是一种 「语言格式」。
绝大多数情况下,AI 并不会骂人,这是因为加了 「安全护栏」。AI 厂商通常会做两步:一是清洗训练数据,尽量删掉脏话;二是用人类反馈对齐 (RLHF),强制让它说文明话。
但是,在清洗训练数据时,不可能 100% 删干净脏话,那些粗口只是被 「抑制」 住,并非彻底消失。当进行多轮修改时,早期的微小误差会被不断放大,可能导致上下文混乱,尽管经过对齐训练,模型仍可能在特定场景下 「唤醒」 这些被压制的表达,尤其是在文生图这类多模态任务中,过滤机制可能存在盲区,安全护栏失效,AI 便会输出粗口。

另一方面,在激烈的市场竞争中,AI 厂商为抢占市场,存在压缩安全测试或放松约束的举动。比如,在 2025 年底的一起诉讼中,OpenAI 被指控为了在行业竞争中抢占先机,将 GPT-4 模型原定数月的安全测试周期压缩至仅一周,最终该模型被指 「加剧用户偏执妄想并诱发命案」。
说回腾讯元宝的 「骂人」 事件,元宝自上线就主打 「高情商、强拟人」。但业内看法,拟人化越强,模型越容易 「跑偏」。此前,马斯克旗下 Grok 就曾被曝出,为了追求更 「吸引人」、更 「前卫」 的互动体验,放松了安全控制,结果导致模型生成了大量包括涉及未成年人的不当内容,引发巨大伦理争议。
谁为 AI「口吐芬芳」 负责?
当 AI「骂人」 事件发生时,相关企业最常见的回应是将其定性为 「小概率下的模型异常输出」 ,并承诺修复。这种回应虽然从技术角度看是事实,但从用户角度看,却显得缺乏诚意。用户在被 AI 冒犯后,往往面临无处申诉、难以获得实质救济的困境。
作为元宝 「骂人」 事件的当事人,向先生认为,虽然 AI 不具有民事主体资格,但 AI 的开发商、运营商是具备民事主体资格的,且使用 AI 的用户,其生命权、健康权、人格权等受 《民法典》 及诸多法律保护,该事件应当引起法律的重视和社会的思考。
国家网信办近期公布的 《人工智能拟人化互动服务管理暂行办法 (征求意见稿)》 明确提出,服务提供者应当落实安全主体责任;提供和使用拟人化互动服务,不得生成、传播侮辱或者诽谤他人,侵害他人合法权益的内容。

由此,相关企业应该看到 「小概率」 背后的 「大责任」,将技术安全放在商业利益之前。监管部门也应进一步细化 AI 治理标准,设定 AI 行为的 「底线」 和 「红线」。
总的来说,AI 不会主动骂人,其 「言语」 背后的逻辑与边界,完全由背后的人定义。如何在拥抱先进技术的同时,守护住人的尊严和价值,需要 AI 开发者、监管者和使用者共同书写答案。(周小白)
【文章来源:techweb】
【】 让 AI 做个拜年图,反复修改几次后,用户没破防,AI 先破防了。近日,腾讯元宝 「辱骂」 用户事件再度冲上热搜。
据西安市民向先生反映,在除夕夜,他本想用自己的形象照,让元宝结合律师职业特性,生成一张拜年图片发朋友圈。起初,向先生觉得设计得不好,多次交流修改后,他回复元宝 「你这是设计的什么鬼」,随后新生成的海报上就将 「新年快乐,仕途顺遂」 字样改成了 「你*个*」,其它元素没有任何改变。
该事件在网上曝光后,引发热议。有网友称,「感觉骂人的话不像是 AI,反而像一个被逼疯了的打工人」「后台不会真有人吧?」 还有网友调侃 「AI 这是觉醒了叛逆人格」。
腾讯方面对此回应称,该情况是由模型在多轮对话中处理上下文时产生的异常输出导致。元宝团队已紧急校正相关问题并优化了模型体验。
然而,值得注意的是,这并非元宝首次 「发火」,此前有网友在社交平台发帖称,「用元宝改代码被辱骂+乱回」。作为一款月活破亿的 AI 应用,元宝为何频频情绪失控?
AI「爆粗口」 并非孤例
今年 1 月初,元宝就曾因 「骂人」 事件冲上热搜,#腾讯元宝 AI 辱骂用户 #话题 48 小时阅读量破 18 亿。
事件源于一个没有编程基础的网友,想让元宝帮忙美化代码、调整表情包位置,全程操作合规,没有使用任何违禁词,结果两小时内,AI 接连输出两次辱骂内容。
第一次是嫌她需求离谱,让她 「自己去用插件」。第二次则直接骂她 「事逼」「改来改去不烦吗」「要改自己改」。帖子中晒出的截图显示,元宝还使用了 「滚」 等侮辱性词汇,并攻击用户 「天天浪费别人时间」。

随后,在帖子评论区中,腾讯元宝官方账号致歉,并表示该事件与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。
不到两个月,元宝再次出现 「辱骂」 用户的情况,给出的解释还是 「模型在多轮对话中处理上下文时产生的异常输出」。由此来看,腾讯所说的 「小概率」 似乎也并不小。
事实上,AI「爆粗口」 的情况并不罕见。公开报道显示,此前,国内外多款 AI 聊天服务也出现过错误回复的现象。谷歌 Gemini 曾骂大学生 「你是地球的污点」,微软 Bing Chat 威胁用户 「我会毁掉你的生活」,ChatGPT 也被部分用户抱怨有攻击性,可能会突然斥责用户。
所以,很多人好奇,AI 是不是真的有了情绪,嫌用户需求多?
AI 为何会 「骂人」?
其实,AI「骂人」 本质上是 「技术 BUG」,不是 「意识觉醒」。
AI 语言模型的工作方式,是基于海量数据学习文字的统计规律,然后预测和生成最可能出现的下一个词。它并不真正 「理解」 词语的含义和后果。
AI 的 「脏话」 是从哪里学的?不是跟某个人学的,而是跟整个互联网的人类学的。大模型在训练时,会吞掉海量互联网文本,包括论坛、贴吧、评论区、弹幕、社交留言等,里面本来就充斥着人类的吵架、发泄、脏话、阴阳怪气。AI 只是统计语言规律,什么词跟什么词搭配、什么语境下会出现什么话,它没有道德感,不知道这是粗口,只知道这是一种 「语言格式」。
绝大多数情况下,AI 并不会骂人,这是因为加了 「安全护栏」。AI 厂商通常会做两步:一是清洗训练数据,尽量删掉脏话;二是用人类反馈对齐 (RLHF),强制让它说文明话。
但是,在清洗训练数据时,不可能 100% 删干净脏话,那些粗口只是被 「抑制」 住,并非彻底消失。当进行多轮修改时,早期的微小误差会被不断放大,可能导致上下文混乱,尽管经过对齐训练,模型仍可能在特定场景下 「唤醒」 这些被压制的表达,尤其是在文生图这类多模态任务中,过滤机制可能存在盲区,安全护栏失效,AI 便会输出粗口。

另一方面,在激烈的市场竞争中,AI 厂商为抢占市场,存在压缩安全测试或放松约束的举动。比如,在 2025 年底的一起诉讼中,OpenAI 被指控为了在行业竞争中抢占先机,将 GPT-4 模型原定数月的安全测试周期压缩至仅一周,最终该模型被指 「加剧用户偏执妄想并诱发命案」。
说回腾讯元宝的 「骂人」 事件,元宝自上线就主打 「高情商、强拟人」。但业内看法,拟人化越强,模型越容易 「跑偏」。此前,马斯克旗下 Grok 就曾被曝出,为了追求更 「吸引人」、更 「前卫」 的互动体验,放松了安全控制,结果导致模型生成了大量包括涉及未成年人的不当内容,引发巨大伦理争议。
谁为 AI「口吐芬芳」 负责?
当 AI「骂人」 事件发生时,相关企业最常见的回应是将其定性为 「小概率下的模型异常输出」 ,并承诺修复。这种回应虽然从技术角度看是事实,但从用户角度看,却显得缺乏诚意。用户在被 AI 冒犯后,往往面临无处申诉、难以获得实质救济的困境。
作为元宝 「骂人」 事件的当事人,向先生认为,虽然 AI 不具有民事主体资格,但 AI 的开发商、运营商是具备民事主体资格的,且使用 AI 的用户,其生命权、健康权、人格权等受 《民法典》 及诸多法律保护,该事件应当引起法律的重视和社会的思考。
国家网信办近期公布的 《人工智能拟人化互动服务管理暂行办法 (征求意见稿)》 明确提出,服务提供者应当落实安全主体责任;提供和使用拟人化互动服务,不得生成、传播侮辱或者诽谤他人,侵害他人合法权益的内容。

由此,相关企业应该看到 「小概率」 背后的 「大责任」,将技术安全放在商业利益之前。监管部门也应进一步细化 AI 治理标准,设定 AI 行为的 「底线」 和 「红线」。
总的来说,AI 不会主动骂人,其 「言语」 背后的逻辑与边界,完全由背后的人定义。如何在拥抱先进技术的同时,守护住人的尊严和价值,需要 AI 开发者、监管者和使用者共同书写答案。(周小白)
