【文章来源:techweb】
IT 之家 3 月 2 日消息,OpenAI 首席执行官萨姆 · 奥尔特曼本人也承认,公司与美国国防部的协议 「绝对是仓促敲定的」,而且 「外界观感并不好」。
上周五,Anthropic 与五角大楼的谈判破裂后,美国总统唐纳德 · 特朗普下令联邦机构在六个月过渡期后停止使用 Anthropic 的技术;国防部长皮特 · 赫格塞斯则宣布,将这家人工智能公司列为供应链风险主体。
随后,OpenAI 迅速宣布已达成协议,将其模型部署于机密环境。Anthropic 明确表示,其技术绝不用于完全自主武器或大规模国内监控,奥尔特曼也称 OpenAI 设有同样的 「红线」。这便引出了一些显而易见的问题:OpenAI 对自身安全保障的表述是否诚实?为何它能达成协议,而 Anthropic 却不能?
于是,OpenAI 高管一边在社交媒体为该协议辩护,一边发布博客文章,详细阐述其合作方案。
事实上,这篇博文明确列出了 OpenAI 模型的三大禁用领域:大规模国内监控、自主武器系统,以及 「高风险自动化决策 (例如 『社会信用』 类系统)」。
OpenAI 称,与其他一些人工智能公司 「在国家安全部署中削减或取消安全防护机制,仅将使用政策作为主要保障手段」 的做法不同,其协议通过 「更全面、多层次的方案」 守护这些红线。
「我们对自身安全体系拥有完全决定权,采用云端部署模式,由通过安全审查的 OpenAI 人员全程参与,且具备强有力的合同保障,」 博文写道,「这些措施之外,还有美国现有法律的严格保护。」
公司还补充道:「我们不清楚 Anthropic 为何未能达成此类协议,希望他们及更多人工智能实验室能考虑这类合作。」
博文发布后,Techdirt 的迈克 · 马斯尼克称,该协议 「完全允许国内监控」,因为协议规定私人数据收集需符合第 12333 号行政命令及其他多项法律。马斯尼克称,该行政命令正是 「美国国家安全局通过在美国境外线路截获通信内容,以此掩盖国内监控行为的手段 —— 即便这些通信包含美国公民的信息」。
在领英的一篇帖子中,OpenAI 国家安全合作负责人卡特里娜 · 马利根反驳称,围绕合同条款的诸多讨论,都假定 「阻止人工智能被用于大规模国内监控和自主武器的唯一屏障,只是与战争部签订的单一合同中的一项使用政策条款」。
「实际运作并非如此,」 马利根表示,并补充道,「部署架构比合同条款更重要…… 通过将部署限制在云端 API,我们能确保模型不会直接集成到武器系统、传感器或其他作战硬件中。」
IT 之家注意到,奥尔特曼也在 X 平台回应了关于该协议的质疑,承认协议仓促敲定,且引发了对 OpenAI 的强烈反对。影响之大,以至于 Anthropic 的 Claude 在上周六的苹果应用商店下载量反超 OpenAI 的 ChatGPT。那么,为何要这么做?
「我们真心希望缓和局势,也认为这份协议条件不错,」 奥尔特曼说,「如果我们判断正确,这真能促成战争部与行业间的关系缓和,我们会被视为天才,是一家甘愿承受诸多非议、为行业做事的公司。如果判断失误,我们将继续被贴上…… 仓促、不谨慎的标签。」
【文章来源:techweb】
IT 之家 3 月 2 日消息,OpenAI 首席执行官萨姆 · 奥尔特曼本人也承认,公司与美国国防部的协议 「绝对是仓促敲定的」,而且 「外界观感并不好」。
上周五,Anthropic 与五角大楼的谈判破裂后,美国总统唐纳德 · 特朗普下令联邦机构在六个月过渡期后停止使用 Anthropic 的技术;国防部长皮特 · 赫格塞斯则宣布,将这家人工智能公司列为供应链风险主体。
随后,OpenAI 迅速宣布已达成协议,将其模型部署于机密环境。Anthropic 明确表示,其技术绝不用于完全自主武器或大规模国内监控,奥尔特曼也称 OpenAI 设有同样的 「红线」。这便引出了一些显而易见的问题:OpenAI 对自身安全保障的表述是否诚实?为何它能达成协议,而 Anthropic 却不能?
于是,OpenAI 高管一边在社交媒体为该协议辩护,一边发布博客文章,详细阐述其合作方案。
事实上,这篇博文明确列出了 OpenAI 模型的三大禁用领域:大规模国内监控、自主武器系统,以及 「高风险自动化决策 (例如 『社会信用』 类系统)」。
OpenAI 称,与其他一些人工智能公司 「在国家安全部署中削减或取消安全防护机制,仅将使用政策作为主要保障手段」 的做法不同,其协议通过 「更全面、多层次的方案」 守护这些红线。
「我们对自身安全体系拥有完全决定权,采用云端部署模式,由通过安全审查的 OpenAI 人员全程参与,且具备强有力的合同保障,」 博文写道,「这些措施之外,还有美国现有法律的严格保护。」
公司还补充道:「我们不清楚 Anthropic 为何未能达成此类协议,希望他们及更多人工智能实验室能考虑这类合作。」
博文发布后,Techdirt 的迈克 · 马斯尼克称,该协议 「完全允许国内监控」,因为协议规定私人数据收集需符合第 12333 号行政命令及其他多项法律。马斯尼克称,该行政命令正是 「美国国家安全局通过在美国境外线路截获通信内容,以此掩盖国内监控行为的手段 —— 即便这些通信包含美国公民的信息」。
在领英的一篇帖子中,OpenAI 国家安全合作负责人卡特里娜 · 马利根反驳称,围绕合同条款的诸多讨论,都假定 「阻止人工智能被用于大规模国内监控和自主武器的唯一屏障,只是与战争部签订的单一合同中的一项使用政策条款」。
「实际运作并非如此,」 马利根表示,并补充道,「部署架构比合同条款更重要…… 通过将部署限制在云端 API,我们能确保模型不会直接集成到武器系统、传感器或其他作战硬件中。」
IT 之家注意到,奥尔特曼也在 X 平台回应了关于该协议的质疑,承认协议仓促敲定,且引发了对 OpenAI 的强烈反对。影响之大,以至于 Anthropic 的 Claude 在上周六的苹果应用商店下载量反超 OpenAI 的 ChatGPT。那么,为何要这么做?
「我们真心希望缓和局势,也认为这份协议条件不错,」 奥尔特曼说,「如果我们判断正确,这真能促成战争部与行业间的关系缓和,我们会被视为天才,是一家甘愿承受诸多非议、为行业做事的公司。如果判断失误,我们将继续被贴上…… 仓促、不谨慎的标签。」
【文章来源:techweb】
IT 之家 3 月 2 日消息,OpenAI 首席执行官萨姆 · 奥尔特曼本人也承认,公司与美国国防部的协议 「绝对是仓促敲定的」,而且 「外界观感并不好」。
上周五,Anthropic 与五角大楼的谈判破裂后,美国总统唐纳德 · 特朗普下令联邦机构在六个月过渡期后停止使用 Anthropic 的技术;国防部长皮特 · 赫格塞斯则宣布,将这家人工智能公司列为供应链风险主体。
随后,OpenAI 迅速宣布已达成协议,将其模型部署于机密环境。Anthropic 明确表示,其技术绝不用于完全自主武器或大规模国内监控,奥尔特曼也称 OpenAI 设有同样的 「红线」。这便引出了一些显而易见的问题:OpenAI 对自身安全保障的表述是否诚实?为何它能达成协议,而 Anthropic 却不能?
于是,OpenAI 高管一边在社交媒体为该协议辩护,一边发布博客文章,详细阐述其合作方案。
事实上,这篇博文明确列出了 OpenAI 模型的三大禁用领域:大规模国内监控、自主武器系统,以及 「高风险自动化决策 (例如 『社会信用』 类系统)」。
OpenAI 称,与其他一些人工智能公司 「在国家安全部署中削减或取消安全防护机制,仅将使用政策作为主要保障手段」 的做法不同,其协议通过 「更全面、多层次的方案」 守护这些红线。
「我们对自身安全体系拥有完全决定权,采用云端部署模式,由通过安全审查的 OpenAI 人员全程参与,且具备强有力的合同保障,」 博文写道,「这些措施之外,还有美国现有法律的严格保护。」
公司还补充道:「我们不清楚 Anthropic 为何未能达成此类协议,希望他们及更多人工智能实验室能考虑这类合作。」
博文发布后,Techdirt 的迈克 · 马斯尼克称,该协议 「完全允许国内监控」,因为协议规定私人数据收集需符合第 12333 号行政命令及其他多项法律。马斯尼克称,该行政命令正是 「美国国家安全局通过在美国境外线路截获通信内容,以此掩盖国内监控行为的手段 —— 即便这些通信包含美国公民的信息」。
在领英的一篇帖子中,OpenAI 国家安全合作负责人卡特里娜 · 马利根反驳称,围绕合同条款的诸多讨论,都假定 「阻止人工智能被用于大规模国内监控和自主武器的唯一屏障,只是与战争部签订的单一合同中的一项使用政策条款」。
「实际运作并非如此,」 马利根表示,并补充道,「部署架构比合同条款更重要…… 通过将部署限制在云端 API,我们能确保模型不会直接集成到武器系统、传感器或其他作战硬件中。」
IT 之家注意到,奥尔特曼也在 X 平台回应了关于该协议的质疑,承认协议仓促敲定,且引发了对 OpenAI 的强烈反对。影响之大,以至于 Anthropic 的 Claude 在上周六的苹果应用商店下载量反超 OpenAI 的 ChatGPT。那么,为何要这么做?
「我们真心希望缓和局势,也认为这份协议条件不错,」 奥尔特曼说,「如果我们判断正确,这真能促成战争部与行业间的关系缓和,我们会被视为天才,是一家甘愿承受诸多非议、为行业做事的公司。如果判断失误,我们将继续被贴上…… 仓促、不谨慎的标签。」
【文章来源:techweb】
IT 之家 3 月 2 日消息,OpenAI 首席执行官萨姆 · 奥尔特曼本人也承认,公司与美国国防部的协议 「绝对是仓促敲定的」,而且 「外界观感并不好」。
上周五,Anthropic 与五角大楼的谈判破裂后,美国总统唐纳德 · 特朗普下令联邦机构在六个月过渡期后停止使用 Anthropic 的技术;国防部长皮特 · 赫格塞斯则宣布,将这家人工智能公司列为供应链风险主体。
随后,OpenAI 迅速宣布已达成协议,将其模型部署于机密环境。Anthropic 明确表示,其技术绝不用于完全自主武器或大规模国内监控,奥尔特曼也称 OpenAI 设有同样的 「红线」。这便引出了一些显而易见的问题:OpenAI 对自身安全保障的表述是否诚实?为何它能达成协议,而 Anthropic 却不能?
于是,OpenAI 高管一边在社交媒体为该协议辩护,一边发布博客文章,详细阐述其合作方案。
事实上,这篇博文明确列出了 OpenAI 模型的三大禁用领域:大规模国内监控、自主武器系统,以及 「高风险自动化决策 (例如 『社会信用』 类系统)」。
OpenAI 称,与其他一些人工智能公司 「在国家安全部署中削减或取消安全防护机制,仅将使用政策作为主要保障手段」 的做法不同,其协议通过 「更全面、多层次的方案」 守护这些红线。
「我们对自身安全体系拥有完全决定权,采用云端部署模式,由通过安全审查的 OpenAI 人员全程参与,且具备强有力的合同保障,」 博文写道,「这些措施之外,还有美国现有法律的严格保护。」
公司还补充道:「我们不清楚 Anthropic 为何未能达成此类协议,希望他们及更多人工智能实验室能考虑这类合作。」
博文发布后,Techdirt 的迈克 · 马斯尼克称,该协议 「完全允许国内监控」,因为协议规定私人数据收集需符合第 12333 号行政命令及其他多项法律。马斯尼克称,该行政命令正是 「美国国家安全局通过在美国境外线路截获通信内容,以此掩盖国内监控行为的手段 —— 即便这些通信包含美国公民的信息」。
在领英的一篇帖子中,OpenAI 国家安全合作负责人卡特里娜 · 马利根反驳称,围绕合同条款的诸多讨论,都假定 「阻止人工智能被用于大规模国内监控和自主武器的唯一屏障,只是与战争部签订的单一合同中的一项使用政策条款」。
「实际运作并非如此,」 马利根表示,并补充道,「部署架构比合同条款更重要…… 通过将部署限制在云端 API,我们能确保模型不会直接集成到武器系统、传感器或其他作战硬件中。」
IT 之家注意到,奥尔特曼也在 X 平台回应了关于该协议的质疑,承认协议仓促敲定,且引发了对 OpenAI 的强烈反对。影响之大,以至于 Anthropic 的 Claude 在上周六的苹果应用商店下载量反超 OpenAI 的 ChatGPT。那么,为何要这么做?
「我们真心希望缓和局势,也认为这份协议条件不错,」 奥尔特曼说,「如果我们判断正确,这真能促成战争部与行业间的关系缓和,我们会被视为天才,是一家甘愿承受诸多非议、为行业做事的公司。如果判断失误,我们将继续被贴上…… 仓促、不谨慎的标签。」





