当地时间 10 月 22 日,谷歌在 《自然》 杂志上介绍了量子算法突破,称其使量子计算机运行速度比超级计算机快 13000 倍,是该领域又一里程碑。此外,北京时间 10 月 16 日,谷歌推出最新视频模型 Veo 3.1,迎战 OpenAI。该模型核心亮点是更丰富的音频生成、更强的风格理解与叙事控制,及更逼真的质感还原,但整体提升并不算大。
每经编辑|毕陆名
当地时间 10 月 22 日,谷歌在 《自然》 杂志上介绍了一项量子算法突破,它使量子计算机的运行速度比超级计算机快 13000 倍。
图片来源:视觉中国
谷歌表示:「这是历史上量子计算机首次成功运行超越超级计算机能力的可验证算法。这种可重复、超越经典的计算是可扩展验证的基础,使量子计算机更接近成为实际应用的工具。」 本月刚获得诺奖的谷歌量子人工智能部门首席科学家米歇尔·德沃雷特表示,这一消息是该领域的又一个里程碑。
此外,北京时间 10 月 16 日,就在 Sora 2 发布半个月后,谷歌火速推出了最新视频模型 Veo 3.1 和 Veo 3.1 Fast,正面迎战 OpenAI。
在官方推文中,谷歌称 「Veo 正在进行重大升级」,不过,从国内外各方实测来看,从 Veo 3 到 Veo 3.1,确实如名字一样,只是进行了一次小的迭代,在画质、物理上的提升并不算大,在 AI 音频、自动分镜等方面都不如 Sora 2,但 Veo 3.1 的光影效果更突出,生成速度更快。
视频生成赛道的竞争越发白热化。就在今年 5 月,谷歌才发布 Veo 3,一度刷屏并占据文生视频模型榜首。不过,本月初发布的 Sora 2 迅速抢走了风头。
距离上一代模型更新仅 5 个月后,谷歌拿出了 Veo 3.1。有趣的是,北京时间 10 月 16 日中午,OpenAI 也放出了 Sora 2 的更新,称普通用户可以生成 15 秒的视频,专业用户则可以生成长达 25 秒的视频。两大巨头的火药味颇浓。
就模型本身来看,谷歌这次 Veo 3.1 更新的核心亮点是更丰富的原生音频生成、更强的电影风格理解与叙事控制,以及更逼真的质感还原。
Veo 3.1 在多个功能中集成了音频,支持自然对话、音效和环境噪音,在视频画面生成的同时,模型会自动根据画面内容生成环境音、动作声及氛围配乐。此次迭代后,音频质量更逼真,尤其在对话上,过去生成一个科幻短片的音频可能听起来像机器人朗读,而现在,Veo 3.1 能模拟出紧张的背景配乐与人物语言。
每日经济新闻综合公开信息
封面图片来源:视觉中国
文章转载自 每经网