2025 世界人工智能大会期间,德勤科技、媒体、电信行业主管合伙人程中接受记者专访时表示,生成式 AI 治理需人员、流程、技术三者协同。企业 AI 化重构需经历四个阶段,面临价值量化难、路径依赖等阵痛。程中建议通过 「轻架构、软集成、分布式演进」 实现 AI 架构升级,并构建多层防线应对 AI 幻觉。对于高风险场景,需构建幻觉熔断机制。
每经记者|张韵 每经编辑|魏官红
「在生成式 AI(人工智能) 的热潮下,价值挖掘与风险防控的失衡已成为企业必须跨越的鸿沟。」「2025 世界人工智能大会」 期间,德勤中国提出,技术狂奔与风险管理的落差,本质是传统框架难以适配新变量。
如何让生成式 AI 的潜力真正转化为可持续的商业价值?德勤科技、媒体、电信行业主管合伙人程中在接受 《每日经济新闻》 记者 (以下简称 NBD) 专访时表示,生成式 AI 治理并非是可暂缓的选项,企业须尽快行动起来。人员上明确权责、提升素养,流程上贯穿全生命周期控险合规,技术上借平台破解黑箱难题,三者协同才能在竞争中占据主动。
「过去一年,我们看到一种趋势:企业已从追问要不要做生成式 AI,转向如何做得更好。」 程中认为,真正的竞争在于谁能更快将技术转化为业务流程的实际增效,其中,聚焦至关重要,需优先投资可验证回报的实际案例。
德勤科技、媒体、电信行业主管合伙人程中
图片来源:企业供图
企业 AI 投资需经历漫长阵痛期
NBD:在企业的 AI 化重构过程中,推动 AI 迈向真正能被财务报表验证的 ROI(投资回报率) 闭环需要经历怎样的阵痛期?
程中:AI 化重构过程通常有四个阶段。企业起初需要建立 AI 战略愿景,这个时候,管理层对 AI 的 ROI 预期与实际存在较大落差,且各部门多为自发推进项目,缺乏统一的方向与协同机制。
到了试点探索阶段,企业会通过小范围试点来验证 AI 在具体场景的可行性与效率提升潜力,但存在 「价值量化难」 的问题。同时,IT(信息技术) 部门与业务部门协作不畅,模型部署与业务流程嵌入脱节。
接下来企业会将 AI 深度嵌入核心业务流程,此时业务团队容易对传统流程产生路径依赖,导致对 AI 决策的信任度不足。
最后才是财务映射阶段,企业建立起 AI 投资与财务指标的直接关联。当然这个时候,企业仍会面临阵痛,比如 AI 带来的客户满意度提升等间接收益难以量化入账。
NBD:面对企业旧系统改造的高成本,是否有轻量化方案实现整体的 AI 架构升级?企业现有 AI 投资应该如何规避技术路线颠覆带来的成本风险?
程中:多数传统企业面临遗留系统复杂、预算有限、AI 人才缺乏等挑战,可通过 「轻架构、软集成、分布式演进」 实现 AI 架构升级。
所谓轻架构是将 AI 能力封装为 API 服务,降低对核心系统的重构压力;软集成是采用智能体、RPA(机器人流程自动化) 与 AI 协同工具,将 AI 接入现有流程而非替代流程;分布式演进则是聚焦高 ROI、高数据成熟度的场景 (如客服、报告生成、供应链预测) 优先落地,而非追求一次性全流程打通。
为规避技术路线颠覆带来的成本风险,建议企业对现有 AI 投资保持技术选型的灵活性,提前布局新兴技术,具备快速切换技术路线的能力。此外,通过与技术供应商签订灵活合同,约定技术升级、维护责任,也可降低技术路线变更成本。
如何破除幻觉与黑箱?投资可信 AI
NBD:在流程中嵌入 AI 后,企业的日常决策如何摆脱大模型幻觉带来的负面影响?您认为最该优先解决哪类幻觉?德勤如何帮助企业量化幻觉导致的隐性成本?
程中:「幻觉」 表现为输出流畅但存在事实错误或逻辑不严谨,可能损害业务判断和合规性。德勤提出的 「可信人工智能框架」 建议企业构建多层防线,比如明确人工审核角色,设置结构化事实核查环节,建立留痕和持续学习机制。
我们认为,最优先应解决的是结构性幻觉。这类幻觉常出现在 AI 输出表格、图表、摘要、数据分析结果时,表面上看逻辑清晰、格式整齐,但基础数据虚构、推理链条断裂,极易误导决策者,风险高于开放式文本幻觉。
正如你所说,幻觉带来的成本具有 「隐形特征」,会产生客户被误导、运营错误、内容重复劳动,乃至声誉或法律风险的严重后果。要量化这些隐形成本,可以通过评估模型输出准确率、重复率等指标;用实际运营数据建模潜在影响;核算重工成本的时间和人效损失,形成 ROI 对比分析。
NBD:具体到医疗诊断、金融合规、司法文书等容错率近零的场景,该如何降低 AI 风险?
程中:我们建议通过系统性手段构建幻觉熔断机制,确保 AI 输出不直接用于高风险决策。技术路线选择需满足 「确定性+可控性」,建议优先采用小模型与专家规则的混合架构,尤其在法律、合规等规则明确领域,其可靠性优于黑箱大模型。另外,用行业领域数据对模型微调,并对接专属知识库,可以提升输出准确率与可解释性。技术选型时必须具备详细日志能力,支持模型输出可追溯与责任归因。
图片来源:企业供图
NBD:当发展 AI 智能体提高到了企业的战略高度,董事会应该如何驱动员工更好地训练与应用智能体?对于媒体部署 AI 智能体完成基础写稿任务,您会提出怎样的风险警示与战略路线?
程中:我们建议董事会重新定义 「人机」 的价值边界,强调 AI 智能体是 「增强工具」 而非 「替代者」,提供培训与奖励。比如,在媒体行业中,让编辑参与智能体的 Prompt 调教、内容审核和标准制定,也要注意设置 「AI 使用红线」,如敏感内容必须通过人工审核。
当前,AI 写稿仍存在缺乏深度、事实偏差、版权纠纷、舆论争议等风险,在战略选择上,建议先用于基础场景,如资讯、数据稿等,然后对 AI 智能体进行针对性训练,利用自有数据提升其对媒体风格、内容要求的适应性,采用 「试验沙盒+反馈闭环」 机制,从低风险场景逐步拓展,在应用中持续优化,使 AI 智能体逐步成为团队的可靠协作伙伴。
生成式 AI 步入价值创造关键期
NBD:当董事会要求彻底消除幻觉并破解黑箱难题,您会如何做出建议?您认为有效的 AI 治理范式应该如何进行?
程中:我认为,要消除幻觉并破解黑箱难题,企业不仅要明确 AI 使用边界,还要提升技术的透明性与可解释性,将 AI 治理运营化。
有效的 AI 治理范式应该是从被动到主动的转变,如在战略层面,制定清晰的 AI 发展战略与目标,明确 AI 在企业中的定位与作用;在组织层面,设立专门的 AI 治理团队,负责监督 AI 应用合规性、风险管理等;在技术层面,采用可解释 AI 技术、数据治理工具,保障 AI 系统透明、可控;在文化层面,培养员工 AI 素养,树立正确使用 AI 的意识与态度。
NBD:多数企业仍将 AI 安全视为负担,如何破解这种思维惯性?安全投入在直接驱动营收时有怎样的具体表现?
程中:与将 AI 简单叠加于遗留系统的零散方案不同,首先企业应该构建统一架构,使 AI 成为核心支柱,并在各流程中整合治理模型。德勤蓝图可以帮助企业有效完成网络战略与企业 AI 转型的协同规划,企业也要建设 AI 驱动的网络安全团队,提升团队与 AI 工具的协作能力。
保障数据安全可防止因数据泄露导致的客户流失,维持甚至增加营收。满足合规要求,企业能避免巨额罚款,确保业务正常开展。安全可靠的 AI 系统可提升客户满意度与忠诚度,促进客户复购与口碑传播,间接增加营收。
在实践中,某金融服务公司将 AI 集成到网络安全架构,实现威胁检测自动化,事件响应时间减少 60%;某制造企业通过德勤治理框架,减少 40% 的停机时间,生产效率提升直接带动营收增长。
文章转载自 每经网