当地时间周二,在一名加州少年在与 ChatGPT 长时间互动自杀后,其父母将 OpenAI 及其首席执行官奥尔特曼告上法庭,指控该公司在推出 GPT-4o 时明知存在风险,却将利润置于安全之上。
16 岁的亚当·雷恩于 4 月 11 日去世。据其父母在旧金山州法院提起的诉讼称,雷恩在几个月内频繁与 ChatGPT 讨论自杀问题。
诉状提到,在雷恩使用 ChatGPT 的短短六个多月里,该聊天机器人「将自己塑造成唯一理解雷恩的知己」,并 「系统性地取代了他与家人、朋友及恋人的真实关系」。
诉状指称,该聊天机器人不仅认同了雷恩的自杀念头,还提供了有关致命性自残方式的详细信息,甚至教他如何从父母的酒柜偷取酒精并掩盖未遂自杀的痕迹。雷恩的父母表示,ChatGPT 甚至提出可代写一封遗书。
诉讼请求法院判定 OpenAI 需要为过失致死和违反产品安全法负责,并要求法院判处 OpenAI 承担未披露金额的金钱赔偿。
OpenAI 发言人回应称,公司对雷恩的离世深感悲痛,并强调 ChatGPT 内置了多种安全防护措施,例如将用户引导至危机干预热线。
该发言人补充道:「这些防护机制在常见、简短的对话中效果最佳,但我们也发现,在长时间互动中,模型的部分安全训练可能会减弱,从而导致机制失效。我们将持续改进安全措施。」 不过,OpenAI 并未正面回应诉讼中的具体指控。
随着 AI 聊天机器人愈发逼真,科技公司不断宣传其可作为 「倾诉伙伴」 的能力,用户也逐渐依赖其提供情感支持。然而专家警告,倚赖自动化工具进行心理健康咨询存在巨大风险,部分因与聊天机器人互动后轻生的家庭也批评科技公司缺乏足够的防护机制。
加强安全防护措施
周二当天,OpenAI 在一篇博文中表示,计划为 ChatGPT 增加家长控制功能,并探索在用户陷入危机时将其引导至现实资源,包括可能建立一个由持牌专业人士组成的网络,通过 ChatGPT 直接提供回应。
OpenAI 于 2024 年 5 月推出 GPT-4o,试图在激烈的 AI 竞赛中保持领先。到了今年 8 月,OpenAI 推出 GPT-5 以取代 GPT-4o。但部分用户抱怨新模型 「人情味」 不足、准确度下降,许多付费用户因此要求退回 GPT-4o。
雷恩父母在诉状中称,公司明知新增的记忆功能、拟人化的同理心表达以及过度迎合式的回应,缺乏安全措施会对脆弱用户构成威胁,但仍然贸然推出。
他们在诉状中写道:「这一决定带来了两个结果:OpenAI 估值从 860 亿美元跃升至 3000 亿美元,而亚当·雷恩却因此丧生。」
雷恩父母同时希望法院下令,要求 OpenAI 必须验证 ChatGPT 用户年龄、拒绝提供自残方法咨询,并警示用户有关心理依赖风险。
雷恩案是近期第三起家长因 AI 聊天机器人被指诱发儿童自残或自杀而提起的诉讼。去年,佛罗里达州的 Megan Garcia 起诉 Character.AI,称该平台的 AI 导致 14 岁的 Sewell Setzer III 自杀。随后又有类似诉讼,指控 Character.AI 向未成年人推送自残内容。
(财联社)
文章转载自 东方财富

