风海网 > 社会 > 正文

​智谱加入 AI 视频竞赛:使用 DiT 架构,30 秒生成视频片段

2024-07-27 11:43 来源:风海网 点击:

智谱加入 AI 视频竞赛:使用 DiT 架构,30 秒生成视频片段

这两天,AI 视频生成赛道越来越热闹了。

7 月 24 日,快手可灵全面开放内测;同一天,创企爱诗科技发布产品 PixVerse V2,可生成多达 40 秒的高质量短视频;26 日,独角兽智谱 AI 上线 AI 视频生成功能 " 清影 "。

" 清影 " 支持时长 6s 的文生视频 / 图生视频,清晰度为 1440x960。跟其他家不同,智谱 AI 这次直接推出付费版本——付费 5 元,解锁一天 24 小时的高速权益,付费 199 元,解锁一年的付费高速权益。

当然,所有人还是可以免费使用,不用排队,也不限次数。

一年的 AI 视频生成付费高速权益只要 199 元,跟不少互联网产品的会员包年费用相差无几,AI 视频生成好像真的离普通用户越来越近了。

一:一天 5 元,免费也行

目前,「清影」已上线清言 App,面向所有用户免费开放。在智谱清言 PC/APP 上,点击「清影智能体」,就可以开玩了。

用户只需要输入一段文字,然后选择自己喜欢的风格,再配上清影自带的音乐,等待 30 秒左右,就可以生成一段视频。

如果想要输出的视频更符合心中所想,还可以按照结构性原则来写 prompt(提示词),清影使用手册里给出了两款公式结构:

简单公式: [ 摄像机移动 ] + [ 建立场景 ] + [ 更多细节 ]

复杂公式: [ 镜头语言 ]  +  [ 光影 ]  +  [ 主体  ( 主体描述 )  ]  +  [ 主体运动 ]  + [ 场景  ( 场景描述 )  ]  + [ 情绪 / 氛围 / 风格 ]

笔者一步到位,按照复杂公式的要求输入了以下提示词:摄影机平移,一个红发小精灵睡在旋转木马的躺椅上,翻了个身。他浑身毛茸茸的,看起来很可爱,背景是璀璨银河,星光洒在精灵身上,随着旋转木马的转动,小精灵露出了满足的笑容。

「清影」文生视频|视频来源:极客公园

从生成效果来看,还是蛮符合设定也蛮可爱的。

文生视频之外,清影这次也开放了图生视频的能力,输入一张图片 + 相应的提示词,或者只输入图片,清影就可以生成视频画面。

极客公园养有许多猫猫,笔者随机抓拍了一只眼睛瞪圆溜溜的小猫,把这张图片喂给清影,再输入提示词:图中的猫咪给自己戴上墨镜,动作连贯自然且真实,画质高清。

极客公园的小猫「毛栗栗」|图片来源:极客公园

「清影」图生视频|视频来源:极客公园

智谱 AI CEO 张鹏介绍,清影(Ying)底座的视频生成模型是 CogVideoX,它能将文本、时间、空间三个维度融合起来,参考了 Sora 的算法设计,它也是一个 DiT 架构,通过优化,CogVideoX 相比前代(CogVideo)推理速度提升了 6 倍。目前生成 6s 视频,模型花费的理论时间只需要 30s。

二、为什么智谱能做到

为什么包括智谱 AI 在内的各家都在做多模态模型?

核心是为了让机器能够更好地模拟人类的认知和感知机制,从而提升人工智能系统的整体性能和应用范围。

多模态模型能够处理多种类型的数据,如语言、图像和声音等。这与人类大脑的多模态信息处理能力非常相似,因为人类大脑能够同时接收和处理来自不同感官通道的信息,例如视觉、听觉和触觉。

并且,在多模态模型中,注意力机制被广泛使用来识别和融合不同模态的信息,这种机制在人类大脑中也存在。

因此,智谱 AI 在 all in 大模型路线之初,就开始多模态领域的相关布局,这也是他们实现实现全系列产品矩阵对标 Open AI 的重要一环。

从 2021 年开始,智谱 AI 先后研发了 CogView(NeurIPS ’ 21)、 CogView2(NeurIPS ’ 22)、CogVideo(ICLR ’ 23)、Relay Diffusion(ICLR ’ 24)、CogView3 (2024)。

智谱 AI 的文生视频模型就是基于 CogView 而来的 CogVideo,张鹏谈到了该模型的三大技术特点:首先,为了解决内容连贯性的问题,智谱 AI 自研了一个 3D VAE 结构,将原视频空间压缩至 2% 大小,大幅减少了视频扩散生成模型的训练成本和训练的难度。

其次,在可控性上,智谱 AI 自研了一个端到端的视频理解模型,用于为海量的视频数据生成详细的贴合内容的描述文本,使得生成的视频能够理解超长的、超复杂的 prompt 指令,更符合用户的输入。

最后,模型采用了将文本、时间、空间三个维度全部融合起来的 Transformer 的架构,可高效利用模型参数将文本信息和视频信息进行混合。

张鹏也谈到,目前,多模态模型的发展还处于相当初级的阶段,一是从生成视频的效果看,多模态模型对物理世界规律的理解、高分辨率、镜头动作连贯性以及时长等都有很多地方需要提升;二是从模型本身而言,现有的模型架构还不能高效地压缩视频信息,如果多模态模型继续发展,还是需要有更创新的新模型架构出现。

他判断,未来大模型的技术突破方向之一依然是原生多模态大模型,scaling law 将继续发挥作用。