52个AIGC视频生成算法模型介绍

这篇具有很好参考价值的文章主要介绍了52个AIGC视频生成算法模型介绍。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

52个AIGC视频生成算法模型介绍,AIGC

基于Diffusion模型的AIGC生成算法日益火热,其中文生图,图生图等图像生成技术普遍成熟,很多算法从业者开始从事视频生成算法的研究和开发,原因是视频生成领域相对空白。

52个AIGC视频生成算法模型介绍,AIGC

AIGC视频算法发展现状

从2023年开始,AIGC+视频的新算法层出不穷,其中最直接的是把图像方面的成果引入视频领域,并结合时序信息去生成具有连续性的视频。随着Sora的出现,视频生成的效果又再次上升了一个台阶,因此有必要将去年一年到现在的视频领域进展梳理一下,为以后的视频方向的研究提供一点思路。

52个AIGC视频生成算法模型介绍,AIGC

AIGC视频算法分类

AIGC视频算法,经过梳理发现,可以大体分为:文生视频,图生视频,视频编辑,视频风格化,人物动态化,长视频生成等方向。具体的输入和输出形式如下:

  1. 文生视频:输入文本,输出视频

  2. 图生视频:输入图片(+控制条件),输出视频

  3. 视频编辑:输入视频(+控制条件),输出视频

  4. 视频风格化:输入视频,输出视频

  5. 人物动态化:输入图片+姿态条件,输出视频

  6. 长视频生成:输入文本,输出长视频



52个AIGC视频生成算法模型介绍,AIGC

具体算法梳理

  文生视频
  • CogVideo: Large-scale Pretraining for Text-to-Video Generation via Transformers

机构:清华

时间:2022.5.29

https://github.com/THUDM/CogVideo.

简单介绍:基于两阶段的transformer(生成+帧间插值)来做文生视频

52个AIGC视频生成算法模型介绍,AIGC

  • IMAGEN VIDEO

机构:Google

时间:2022.10.5

简单介绍:基于google的Imagen来做的时序扩展,而Imagen和Imagen video都没有开源

52个AIGC视频生成算法模型介绍,AIGC

  • Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video Generators

机构:Picsart AI Resarch

时间:2023.3.23

https://github.com/Picsart-AI-Research/Text2Video-Zero

简单介绍:基于图像diffusion model引入corss-frame attention来做时序建模,其次通过显著性检测来实现背景平滑。

52个AIGC视频生成算法模型介绍,AIGC

  • MagicVideo: Efficient Video GenerationWith Latent Diffusion Models

机构:字节

时间:2023.5.11

简单介绍:直接将图像SD架构扩展成视频,增加了时序信息

52个AIGC视频生成算法模型介绍,AIGC

  • AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning

机构:上海 AI Lab

时间:2023.7.11

https://animatediff.github.io/

简单介绍:基于图像diffusion model,训练一个运动建模模块,来学习运动信息

52个AIGC视频生成算法模型介绍,AIGC

  • VideoCrafter1: Open Diffusion Models for High-Quality Video Generation

机构:腾讯 AI Lab

时间:2023.10.30

https://ailab-cvc.github.io/videocrafter

简单介绍:基于diffusion模型,网络架构采用空间和时序attention操作来实现视频生成

52个AIGC视频生成算法模型介绍,AIGC

  图生视频
  • AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning

机构:上海 AI Lab

时间:2023.7.11

https://animatediff.github.io/

  • VideoCrafter1: Open Diffusion Models for High-Quality Video Generation

机构:腾讯 AI Lab

时间:2023.10.30

https://ailab-cvc.github.io/videocrafter

  • stable video diffusion

机构:Stability AI

时间:2023.11.21

https://stability.ai/news/stable-video-diffusion-open-ai-video-model

简单介绍:基于SD2.1增加时序层,来进行视频生成

  • AnimateZero: Video Diffusion Models are Zero-Shot Image Animators

机构:腾讯 AI Lab

时间:2023.12.6

https://github.com/vvictoryuki/AnimateZero(未开源)

简单介绍:基于Animate Diff增加了位置相关的attention

52个AIGC视频生成算法模型介绍,AIGC

  • AnimateAnything: Fine-Grained Open Domain Image Animation with Motion Guidance

机构:阿里

时间:2023.12.4

https://animationai.github.io/AnimateAnything/

简单介绍:可以针对特定位置进行动态化,通过学习运动信息实现时序信息生成

52个AIGC视频生成算法模型介绍,AIGC

  • LivePhoto: Real Image Animation with Text-guided Motion Control

机构:阿里

时间:2023.12.5

https://xavierchen34.github.io/LivePhoto-Page/(未开源)

简单介绍:将参考图,运动信息拼接作为输入,来进行图像的动态化

52个AIGC视频生成算法模型介绍,AIGC

  视频风格化
  • Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation

机构:南洋理工

时间:2023.12.17

https://www.mmlab-ntu.com/project/rerender/

简单介绍:基于SD+controlnet,结合cros-frame attention来风格化视频序列

52个AIGC视频生成算法模型介绍,AIGC

  • DCTNet

机构:阿里达摩院

时间:2022.7.6

https://github.com/menyifang/DCT-Net/

简单介绍:基于GAN的框架做的视频风格化,目前支持7种不同的风格

52个AIGC视频生成算法模型介绍,AIGC

  视频编辑

主要是将深度图或者其他条件图(canny/hed),通过网络注入Diffusion model中,控制整体场景生成,并通过prompt设计来控制主体目标的外观。其中controlnet被迁移进入视频编辑领域,出现了一系列controlnetvideo的工作。

  • Structure and Content-Guided Video Synthesis with Diffusion Models

机构:Runway

时间:2023.2.6

https://research.runwayml.com/gen1

52个AIGC视频生成算法模型介绍,AIGC

  • Animate diff+ControlNet(基于WebUI API)

  • Video-P2P: Video Editing with Cross-attention Control

机构:港中文,adobe

时间:2023.3.8

https://video-p2p.github.io/

52个AIGC视频生成算法模型介绍,AIGC

  • Pix2Video: Video Editing using Image Diffusion

机构:Abode

时间:2023.3.22

https://duyguceylan.github.io/pix2video.github.io/

52个AIGC视频生成算法模型介绍,AIGC

  • InstructVid2Vid: Controllable Video Editing with Natural Language Instructions

机构:浙大

时间:2023.5.21

52个AIGC视频生成算法模型介绍,AIGC

  • ControlVideo: Training-free Controllable Text-to-Video Generation

机构:华为

时间:2023.5.22

https://github.com/YBYBZhang/ControlVideo

52个AIGC视频生成算法模型介绍,AIGC

  • ControlVideo: Conditional Control for One-shot Text-driven Video Editing and Beyond

机构:清华

时间:2023.11.28

https://github.com/thu-ml/controlvideo

52个AIGC视频生成算法模型介绍,AIGC

  • Control-A-Video: Controllable Text-to-Video Generation with Diffusion Models

时间:2023.12.6

https://controlavideo.github.io/

52个AIGC视频生成算法模型介绍,AIGC

  • StableVideo: Text-driven Consistency-aware Diffusion Video Editing

机构:MSRA

时间:2023.8.18

https://github.com/rese1f/StableVideo

52个AIGC视频生成算法模型介绍,AIGC

  • MagicEdit: High-Fidelity and Temporally Coherent Video Editing

机构:字节

时间:2023.8.28

https://magic-edit.github.io/(未开源)

52个AIGC视频生成算法模型介绍,AIGC

  • GROUND-A-VIDEO: ZERO-SHOT GROUNDED VIDEO EDITING USING TEXT-TO-IMAGE DIFFUSION MODELS

机构:KAIST

时间:2023.10.2

https://ground-a-video.github.io/

52个AIGC视频生成算法模型介绍,AIGC

  • FateZero: Fusing Attentions for Zero-shot Text-based Video Editing

机构:腾讯AI Lab

时间:2023.10.11

https://fate-zero-edit.github.io

52个AIGC视频生成算法模型介绍,AIGC

  • Motion-Conditioned Image Animation for Video Editing

机构:Meta

时间:2023.11.30

facebookresearch.github.io/MoCA(未开源)

52个AIGC视频生成算法模型介绍,AIGC

  • VidEdit: Zero-shot and Spatially Aware Text-driven Video Editing

机构:Sorbonne Université, Paris, France

时间:2023.12.15

https://videdit.github.io

52个AIGC视频生成算法模型介绍,AIGC

  • Zero-Shot Video Editing Using Off-The-Shelf Image Diffusion Models

时间:2024.1.4

https://github.com/baaivision/vid2vid-zero

52个AIGC视频生成算法模型介绍,AIGC

  人物动态化

主要是通过人体姿态作为条件性输入(结合controlnet等),将一张图作为前置参考图,或者直接使用文本描述生成图片。其中阿里和字节分别有几篇代表性论文,其中字节的代码有两篇已经开源,阿里的代码还在等待阶段。

  • Follow Your Pose

机构:腾讯AI Lab

时间:2023.4.3

https://follow-your-pose.github.io/

52个AIGC视频生成算法模型介绍,AIGC

  • DreamPose: Fashion Image-to-Video Synthesis via Stable Diffusion

机构:google,nvidia

时间:2023.5.4

https://grail.cs.washington.edu/projects/dreampose/

52个AIGC视频生成算法模型介绍,AIGC

  • DISCO: Disentangled Control for Realistic Human Dance Generation

机构:微软

时间:2023.10.11

https://disco-dance.github.io

52个AIGC视频生成算法模型介绍,AIGC

  • MagicAnimate: Temporally Consistent Human Image Animation using Diffusion Model

机构:字节

时间:2023.11.27

https://showlab.github.io/magicanimate/

52个AIGC视频生成算法模型介绍,AIGC

  • MaigcDance

机构:字节

时间:2023.11.18

https://boese0601.github.io/magicdance/

52个AIGC视频生成算法模型介绍,AIGC

  • Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation

机构:阿里

时间:2023.12.7

https://humanaigc.github.io/animate-anyone/(未开源)

52个AIGC视频生成算法模型介绍,AIGC

  • DreaMoving: A Human Video Generation Framework based on Diffusion Model

机构:阿里

时间:2023.12.11

https://dreamoving.github.io/dreamoving(未开源)

52个AIGC视频生成算法模型介绍,AIGC

  长视频生成
  • NUWA-XL: Diffusion over Diffusion for eXtremely Long Video Generation

机构:微软亚研院

时间:2023.3.22

https://msra-nuwa.azurewebsites.net/

52个AIGC视频生成算法模型介绍,AIGC

  • Latent Video Diffusion Models for High-Fidelity Long Video Generation

机构:腾讯AI Lab

时间:2023.3.20

52个AIGC视频生成算法模型介绍,AIGC

  • Gen-L-Video: Multi-Text to Long Video Generation via Temporal Co-Denoising

机构:上海AI Lab

时间:2023.3.29

https://github.com/G-U-N/Gen-L-Video

52个AIGC视频生成算法模型介绍,AIGC

  • Sora(OpenAI)

时间:2024.2

https://openai.com/sora(未开源)

52个AIGC视频生成算法模型介绍,AIGC


  • Latte: Latent Diffusion Transformer for Video Generation

机构:上海AI Lab

时间:2024.1.5

https://maxin-cn.github.io/latte_project

52个AIGC视频生成算法模型介绍,AIGC

52个AIGC视频生成算法模型介绍,AIGC

算法效果分析

本章节选择了一些代表性的方法进行效果分析

  • Animate Diff

效果:https://animatediff.github.io/,支持文生视频,图生视频,以及和controlnet结合做视频编辑


  • Animate Diff+ControlNet

输入视频:moonwalk.mp4

输出样例

52个AIGC视频生成算法模型介绍,AIGC

52个AIGC视频生成算法模型介绍,AIGC

52个AIGC视频生成算法模型介绍,AIGC

52个AIGC视频生成算法模型介绍,AIGC

canny和openpose

注意:要输入主语保证主体一致性(比如michael jackson或者a boy)

  • AnimateAnything

能够指定图片的运动区域,根据文本进行图片的动态化

效果:

  • Stable Video Diffusion

能够基于静止图片生成25帧的序列(576x1024)

效果:

52个AIGC视频生成算法模型介绍,AIGC

ControlVideo

输入+输出样例:500.mp4,300.mp4,整体效果不错

问题:因为推理过程需要额外的训练,消耗时间久,第一个视频需要50min(32帧),第二个视频需要14min(8帧)

300

500

  • Rerender A Video

输入:

输出:

输入:

输出:

整体效果还可以,运行速度和视频帧数有关,10s视频大约在20min左右。

  • DCTNet

效果:整体画面稳定,支持7种风格,显存要求低(6-7G),上面视频40s左右就可以处理完

  • DreamPose

52个AIGC视频生成算法模型介绍,AIGC

  • Animate Anyone

  • MagicDance

输入图片:

52个AIGC视频生成算法模型介绍,AIGC

输出:

  • Sora

效果:https://openai.com/sora

能够生成长视频,质量很好,但是尚未开源

52个AIGC视频生成算法模型介绍,AIGC

总结和展望

  1. 文生视频和图生视频算法:其中Animate Diff,VideoCrafter等已经开源,支持文/图生成视频,并且经过测试效果还不错,同时图生视频还支持通过结合不同的base模型实现视频的风格化。不过生成的视频帧数基本都在2s以内,可以作为动图的形式进行展示。其中Stable Video Diffusion是stability ai开源的一个图生视频的算法,效果相对更加逼真,视频质量更高,但是视频长度依旧很短。

  2. 视频编辑算法:比如基于controlnet的可控生成视频可以初步达到预期的效果,支持实现特定目标或者属性(颜色等)的更换,也支持人物的换装(比如颜色描述)等等,其中生成的视频长度和GPU显存相关。

  3. 视频风格化:基于diffusion 模型的视频风格化效果最好的是rerender a video,可以支持prompt描述来进行视频的风格化,整体来讲这个方法对人脸和自然环境有比较好的效果,运行成本也相对较低(相较于视频编辑算法)

  4. 特定的人物动态化算法:目前demo效果最好的animate anyone和dream moving都还没有开源。不过这两个算法都对外开放了使用接口,比如通义千问app以及modelscope平台。重点介绍一下通义实验室的Dream moving,https://www.modelscope.cn/studios/vigen/video_generation/summary是其开放的使用平台,里面支持同款的动作生成,图生视频,视频的风格化以及视频贺卡等功能,整体来讲效果很好。而目前开源的方法中,测试的效果最好的是MagicDance,但是人脸有一定的模糊,距离animate anyone和dream moving展示的效果还有差距。

  5. 长视频算法:随着Sora的出现,Diffusion Transformer的架构后续会备受关注,目前大部分算法都局限于2s左右的短视频生成,而且质量上不如Sora。后续会有更多的算法将Sora的思路融入现有的方法中,不断提升视频质量和视频长度。不过目前sora的模型和实现细节并没有在技术报告中公开,因此在未来还会有一段的摸索路要走。

  6. 整体总结:


是否可用

优势

劣势

适用场景

代表性方法

文/图生视频

视频质量高

视频长度短

短视频动态封面

Animate Diff(可扩展性强)

VideoCrafter(质量较好)

Stable Video Diffusion(质量更好)

视频编辑算法

待定

算法种类多,可实现的功能多(修改任意目标的属性)

推理速度较慢,显存要求高,视频长度短

人物换装(最简单的改变衣服颜色),目标编辑,用户体验

ControlVideo(效果好但运行时间久)

视频风格化

显存要求相对视频编辑更低,推理速度更快。

画面存在一定的不稳定问题。但是基于GAN的DCTNet相对更稳定

用户体验

Rerender-A-Video(更灵活)

DCTNet(效果更稳定)

人物动态化

待定

用户可玩性高

效果最好的代码暂时没有开源,开源的代码生成的人脸会有一定的模糊

用户体验

Animate Anyone(待开源)

DreamMoving(待开源)

MagicDance(已开源)

长视频生成

视频长度远超2s

整体质量偏差

(Sora还没开源)

影视制作

Sora



¤ 拓展阅读 ¤

3DXR技术 | 终端技术 | 音视频技术

服务端技术 | 技术质量 | 数据算法文章来源地址https://www.toymoban.com/news/detail-844008.html

到了这里,关于52个AIGC视频生成算法模型介绍的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 精炼爆炸性新闻!OpenAI发布革命性AI视频生成模型Sora:实现长达60秒的高清视频创作「附AIGC行业系统搭建」

    在人工智能领域,每一次技术革新都引领着未来的发展方向。OpenAI,作为全球领先的人工智能研究机构,再次证明了其在推动AI技术革新方面的领导地位。近日,OpenAI宣布推出了一款革命性的AI视频生成模型——Sora,这一大胆的创新举措,无疑将AI视频生成技术推向了一个新的

    2024年02月20日
    浏览(101)
  • 【AIGC】阿里达摩院:文本生成视频大模型-通用领域 (Text-to-video-synthesis Model in Open Domain)

    说实话,这篇破文章没什么营养,就是记录一下 阿里达摩院的文章水平。 :多模态 text2video generation diffusion model 文到视频 文生视频 文本生成视频  目录 文本生成视频大模型-通用领域 (Text-to-video-synthesis Model in Open Domain) 模型描述 (Model Description)

    2023年04月09日
    浏览(53)
  • 【超详细】AIGC生成图片和视频

    前沿 准备 接入 源代码 这两天突然看到一个niubility的项目,名叫:stability,这个网站就是大名鼎鼎的stability,网址是:stability.io,感兴趣的朋友可以去访问试试。 今天的主要目的是写一个对接这个项目的一个实操案例,主要是用golang来实现的。 下面呢我会带着大家一步一步

    2024年02月03日
    浏览(35)
  • 【AIGC-文本/图片生成视频系列-9】MagicVideo-V2: 多阶段高美感视频生成

    目录 一. 项目概述与贡献 二. 方法详解​编辑 三. 文本生成视频相关结果 四. 与其他方法对比结果 五. 个人感悟 最近得益于扩散模型的快速发展,文本到视频(T2V)模型的激增。 今天要介绍的是字节的MagicVideo-V2,一个新颖的多阶段 T2V 框架,它集成了 文本到图像 (T2I)、图像

    2024年01月19日
    浏览(43)
  • AIGC视频生成/编辑技术调研报告

    人物AIGC:FaceChain人物写真生成工业级开源项目,欢迎上github体验。 简介:  随着图像生成领域的研究飞速发展,基于diffusion的生成式模型取得效果上的大突破。在图像生成/编辑产品大爆发的今天,视频生成/编辑技术也引起了学术界和产业界的高度关注。该分享主要介绍视频

    2024年02月05日
    浏览(67)
  • AIGC之图像生成内容介绍

    AIGC(Artificial Intelligence Generated Content)是一种基于人工智能技术生成内容的方法,它在图像生成领域有广泛的应用。图像生成是指通过计算机算法和模型生成新的图像,这些图像可能是完全虚构的、艺术创作的、或者是根据现有图像进行修改和增强的。下图的人物则是由图像

    2024年02月09日
    浏览(44)
  • AIGC产业研究报告2023——视频生成篇

    易观: 今年以来,随着人工智能技术不断实现突破迭代,生成式AI的话题多次成为热门,而人工智能内容生成(AIGC)的产业发展、市场反应与相应监管要求也受到了广泛关注。为了更好地探寻其在各行业落地应用的可行性和发展趋势,易观对AIGC产业进行了探索并将发布AIGC产

    2024年02月10日
    浏览(44)
  • CVPR 2023 | 视频AIGC,预测/插帧/生成/编辑

    视频预测(video prediction)的性能已经通过先进的深度神经网络大幅提高。然而,大多数当前的方法存在着大的模型尺寸和需要额外的输入(如,语义/深度图)以实现良好的性能。出于效率考虑,本文提出了一个动态多尺度体素流网络(Dynamic Multi-scale Voxel Flow Network,DMVFN),

    2024年02月09日
    浏览(83)
  • 【AIGC-图片生成视频系列-4】DreamTuner:单张图像足以进行主题驱动生成

    目录 一. 项目概述 问题: 解决: 二. 方法详解 a) 整体结构 b) 自主题注意力 三. 文本控制的动漫角色驱动图像生成的结果 四. 文本控制的自然图像驱动图像生成的结果 五. 姿势控制角色驱动图像生成的结果 2023年的最后一天,发个文记录下。马上就要迎来新的一年,在这里预

    2024年02月03日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包