IT之家 11 月 22 日消息,专注于开发人工智能(AI)产品的初创公司 Stability AI 发布了其最新的 AI 模型 ——Stable Video Diffusion。这款模型能够通过现有图片生成视频,是基于之前发布的 Stable Diffusion 文本转图片模型的延伸,也是目前为止市面上少有的能够生成视频的 AI 模型之一。
不过,这款模型目前并不是对所有人开放的。Stable Video Diffusion 目前处于 Stability AI 所谓的“研究预览”阶段。想要使用这款模型的人必须同意一些使用条款,其中规定了 Stable Video Diffusion 的预期应用场景(例如“教育或创意工具”、“设计和其他艺术过程”等)和非预期的场景(例如“对人或事件的事实或真实的表达”)。
稳定视频扩散实际上由两个模型组成——SVD和SVD-XT。SVD可以将静态图片转化为14帧的576×1024像素视频。SVD-XT采用相同的结构,但帧数提高到24。两者都能以每秒3到30帧的速度生成视频
根据 Stability AI 随 Stable Video Diffusion 一起发布的一篇白皮书,SVD 和 SVD-XT 最初是在一个包含数百万视频的数据集上进行训练的,然后在一个规模较小的数据集上进行了“微调”,这个数据集只有几十万到一百万左右的视频片段。这些视频的来源并不十分清楚,白皮书暗示许多是来自公开的研究数据集,所以无法判断是否有任何版权问题。
SVD和SVD-XT均能够生成高质量的四秒视频,从Stability AI博客上精心挑选的样本来看,其质量可以与Meta最新的视频生成模型、谷歌、AI初创公司Runway和Pika Labs的AI生成视频相媲美
IT之家注意到,稳定视频扩散也有限制。Stability AI对此也非常坦诚,他们称这些模型不能生成没有运动或缓慢摄像机平移的视频,也不能通过文本进行控制,也不能渲染文字(至少不能清晰地渲染),也不能一致地“正确地”生成人脸和人物
尽管处于早期阶段,Stability AI指出这些模型具有很高的扩展性,可以适应生成物体的360度视图等各种用例
Stability AI 最终的目标似乎是将其商业化,称 Stable Video Diffusion 在“广告、教育、娱乐等领域”都有潜在的应用。
以上是稳定AI发布稳定视频扩散模型,根据图像生成视频的详细内容。更多信息请关注PHP中文网其他相关文章!