首页 AI视频工具 四大AI视频工具“打架” 一篇文章教你如何玩

四大AI视频工具“打架” 一篇文章教你如何玩

标题:四大AI视频工具“斗法” 一文教你怎么玩

AI视频工具赛道越来越拥挤,各种升级铺天盖地,尤其是Gen-2、Pika1.0、Stable Video Diffusion、Magic Animate。它们正在成为用户最常用的视频生成产品,背后都有实力派人士。 AI大模型支持。

目前的大型视频模型虽然还没有“用文字描述一个故事就能生成电影”那么强大,但已经可以通过一系列的提示文字打造出生动的视频,并且还开发了图胜视频等强大的多元视频模型。模态能力。

《元宇宙日报》测试了四大AI视频工具,希望能帮助您快速上手。需要提醒的是,在所有工具中输入提示词时最好使用英文,生成效果会比中文提示更好。在此,我们也希望国产AI视频生成工具能够快速赶上,创造出适合中国用户的好产品。

Runway Gen-2Gen-2 是Runway Research 开发的第一个公开可用的文本生成视频工具。其相关功能包括文本/图片转视频、视频风格化、图像扩展、一键视频背景扣除、擦除指定视频元素、训练特定AI模型等,可以说是目前最强大的AI视频生成/编辑目前的工具。

Gen-2的文本生成视频功能相比Gen-1有了很大的改进。这里可以看到输入“raccoon play Snow ball Fight in sunny Snow Christmas heaven”(浣熊在阳光明媚的雪圣诞操场上打雪仗)的生成效果。可以说Gen-2无论是画质还是构图都十分出色。但是,会出现关键词缺失的问题。比如“圣诞节”、“打雪仗”的效果就没有体现在画面中。

就在日前,Runway推出了一项新功能“动感刷”。我们只需要在图像上绘制一个区域,就可以将静态图像变成动态内容。 “动感画笔”功能在操作上非常人性化。选择一张图片,用画笔画出想要移动的区域,然后调整大体的移动方向,静止的图片就可以按照时间表移动了。

不过,目前“动感画笔”功能也存在一些不足。比如适合慢速移动的图片,无法生成快速移动的车辆等快速移动的图片。此外,如果使用运动画笔,涂抹之外的区域将几乎保持静止,从而无法微调多个对象的运动轨迹。

目前,Runway免费帐户只能生成4秒的视频,每秒花费5点。最多可生成31个视频,且水印无法去除。如果您想要更高分辨率、无水印、更长的视频,则需要付费升级您的帐户。

另外,如果想学习AI视频,可以试试Runway推出的电视频道Runway TV,每天24小时循环播放AI制作的视频。通过这些AI视频,你或许还能找到一些创作灵感。

网站定位:

https://app.runwayml.com/video-tools/teams/wuxiaohui557/ai-tools/gen-2

Pika 1.0Pika 1.0是由中国团队创立的人工智能科技初创公司Pika Labs发布的产品的第一个正式版本。 Pika 1.0不仅可以生成3D动画、动画、漫画和电影,甚至可以实现风格转换、窗帘展开、视频编辑等主要功能。 Pika 1.0非常擅长制作动漫风格的图片,可以生成具有电影效果的短视频。

皮卡1.0最受网友欢迎的玩意无疑是“AI魔棒”,也就是本地修改功能。几个月前,这还是AI绘画领域才有的能力。现在“局部修改”可以修改视频中所有背景和主体的局部特征,而且实现起来也很方便。只需三步:上传动态视频;在Pika的控制台中选择要修改的区域;输入提示词并告诉皮卡你想用什么来替换它。

除了“本地修改”功能外,Pika1.0还将Vincent图工具Midjourney的“图像扩展”功能带到了视频世界。这是视频人工智能生成工具的首次。与抖音上被谩骂的“AI图像展开”不同,皮卡1.0的视频展开相当靠谱,不仅画面自然,而且逻辑性很强。

目前,Pika1.0支持用户免费体验,但需要申请试用额度。如果还在排队,可以选择Discord登录官网看一下。与Midjourney类似,用户需要在Discord中进行云端创作,并且可以体验文字视频和图片视频两大功能。

进入Pika 1.0 Discord服务器后,点击Generat中的任意频道,输入“/”,选择“创建”,在弹出的提示文本框中输入提示词。

与Gen-2相比,Pika 1.0对提示词的理解更好,但画面质量不如Gen-2。这可能是由于云创建造成的。我们看一下效果:

如果使用图片生成视频,输入“/”,选择“动画”,上传图片,输入提示文字描述。

Pika 1.0的图像视频效果与Gen-2相当。

网站定位:

https://pika.art/候补名单

Stable Video Diffusion 11 月22 日,Stability AI 发布了AI 生成视频的开源项目:Stable Video Diffusion (SVD)。据Stability AI官方博客介绍,新的SVD支持文本到视频和图像到视频的生成,还支持单一视角的对象。多视角的变换就是3D合成。生成效果不亚于Runway Gen2和Pika 1.0。

目前在线使用有两种方式,一种是replica上发布的官方demo,另一种是新的在线网站,两者都是免费的。

我们测试的是第一个,因为它支持参数调整,操作也比较简单:上传图片,调整帧数、长宽比、整体运动等参数。但美中不足的是图像生成效果比较随机,需要不断调试才能达到预期效果。

Stable Video Diffusion目前只是一个基础模型,尚未商业化。不过,官方透露,“正计划继续扩大和建立类似Stable Diffusion的生态系统”,并计划根据用户对安全和质量的反馈继续改进模型。

网站定位:试用版、网络版

https://replicate.com/stability-ai/stable-video-diffusionhttps://stable-video-diffusion.com/Magic AnimateMagicAnimate是一种基于扩散模型的人像动画生成方法,旨在增强时间一致性,保持参考图像的真实性,并提高Animation Fidelity,由新加坡国立大学表演实验室和字节跳动联合推出。

简单地说,给定参考图像和姿势序列(视频),它可以生成跟随姿势运动并保持参考图像身份的动画视频。操作也非常简单,只需要三步:上传一个人的静态照片;上传您想要生成的动作演示视频;并调整参数。

MagicAnimate还在GitHub上提供了本地体验方法。有兴趣的朋友可以尝试一下!

网站定位:

https://github.com/magic-research/magic-animate

热门文章