你有没有想过,让你相册里的老照片动起来,甚至开口说话?不是那种技术宅才能搞定的复杂操作,而是点几下鼠标,上传一张图,它就真的“活”了。听起来有点不可思议,但这事儿现在真的能办到。而且,很多这样的工具还是免费的。

今天就聊聊这个话题,不讲那些虚头巴脑的概念,直接上手教你怎么玩。
这东西到底是个啥?
简单说,就是一种人工智能技术,它能识别照片里的人脸,然后根据你给的音频或者另一段视频,让照片里的人脸做出相应的口型和表情。以前这都是电影特效团队干的活,现在一个网页工具就能搞定。
市面上这类工具有不少,比如 D-ID、HeyGen,它们功能很全,但免费额度用起来总有点束手束脚。今天主要说一个最近在很多地方都看到有人在玩的工具,它叫 Viggle AI。它还处在测试阶段,所以目前是免费的。
Viggle AI 有个特点,它不只是让照片开口说话,还能让静态照片里的人,去模仿一段视频里的动作。 比如,你上传一张朋友的普通站立照,再上传一个跳舞的视频,它就能生成一个你朋友跟着跳舞的视频。这个过程,圈子里的人喜欢叫它“图生视频”。
怎么用?新手三步走
这东西听起来复杂,用起来其实很简单。Viggle AI 目前主要是在 Discord 这个聊天软件里用。 你可能没用过 Discord,别担心,跟着下面的步骤走,几分钟就能搞定。
第一步:准备工作
搞定 Discord:你得先有个 Discord 账号。它就跟微信、QQ 差不多,是个聊天软件,很多 AI 工具都喜欢把程序架设在上面。直接去它官网注册就行,有网页版和客户端,用哪个都行。
加入 Viggle AI 的服务器:有了 Discord 账号之后,你需要加入 Viggle AI 的官方服务器。你可以把它想象成加入一个 QQ 群。在浏览器里搜索“Viggle AI Discord”,通常第一个结果就是邀请链接。点进去,接受邀请,你就进到他们的“地盘”了。
第二步:开始创作
进入服务器后,你会看到左边有一列频道列表。找到任何一个以“animate”开头的频道,比如“animate-1”、“animate-2”,随便点一个进去。这里就是创作区。
现在,我们来实际操作一下,让一张照片动起来。这里主要用到它的四个核心功能命令。你只需要在聊天框里输入斜杠 /,就会弹出这些命令。
/animate:这是最核心的功能。 它的作用是,让一张静态图里的人,去模仿一段视频里的动作。- 怎么用:在聊天框输入
/animate,然后回车。这时会弹出几个选项框。 image:点这里,上传你准备好的静态照片。照片里的人最好是全身或者半身的,正面照效果最好。video:点这里,上传你想要模仿的动作视频。比如一段跳舞的视频、一段打招呼的视频。这个视频不需要露脸,AI 只抓取里面的动作。background:你可以选择背景。white就是白色背景,green就是绿幕,方便你后期抠图。finetune:这个选项默认是关闭的。打开它,生成视频的细节会多一些,但时间也会更长。新手可以先不开。- 都设置好之后,按回车发送。然后就是等待。机器人会开始处理,过一两分钟,视频就生成好了。
- 怎么用:在聊天框输入
/ideate:这个功能是用来“文生视频”的。 也就是你用文字描述一个场景,它帮你生成一段视频。- 怎么用:输入
/ideate,然后会出现一个prompt输入框。你在这里用英文写下你想要的画面。比如,a cat is dancing(一只猫在跳舞)。然后发送,AI 就会根据你的描述创作视频。说实话,目前这个功能生成的效果比较随机,有时候会很奇怪,可以当个玩具玩玩。
- 怎么用:输入
/character:这个是“文生图”功能。 和 Midjourney 类似,你用文字描述一个角色,它帮你画出来。- 怎么用:输入
/character,在prompt里写描述。比如a cool boy with sunglasses(一个戴墨镜的酷男孩)。它就会生成一张对应的图片。这张图你可以直接保存,或者用在刚才的/animate功能里,作为主角。
- 怎么用:输入
/style:这个功能是让你上传一张图,然后用这张图的风格去生成另一张图。- 怎么用:输入
/style,在image里上传你的风格参考图,然后在prompt里写你想要画的内容。比如,你上传一张梵高《星空》的画,然后在 prompt 里写a running dog(一只奔跑的狗),它就会生成一张有《星空》风格的狗的图片。
- 怎么用:输入
第三步:下载和分享
当 AI 处理完你的请求后,会在频道里直接发布生成的视频或图片。你直接右键点击,选择“保存视频”或“保存图片”就行了。
一些实际经验和避坑指南
我用这个工具也玩了一段时间,有些心得可以分享给你,能让你少走点弯路。
照片和视频的选择很重要。
- 关于照片:尽量用清晰度高的正面照。如果照片里的人是侧脸,或者被什么东西挡住了,生成的效果会差很多,脸部可能会扭曲。全身照比大头照更容易成功,因为 AI 需要识别整个身体的轮廓去匹配动作。
- 关于视频:动作视频不要太复杂。如果视频里的人动作幅度特别大,或者速度特别快,比如那种激烈的街舞,AI 很容易跟不上,生成的视频里人物的四肢可能会变得很奇怪,像是“骨折”了一样。简单的、节奏适中的舞蹈或者日常动作,效果最好。
背景处理是个加分项。
- 用
/animate功能时,建议把背景选成green(绿幕)。 这样生成的视频,人物背景是纯绿色的。然后你用剪映或者任何一个视频剪辑软件,都能一键把绿色背景换成你想要的任何背景。这样一来,你的视频就不是简单地在一个白板前跳舞了,可以放在任何场景里,看起来真实感会强很多。
- 用
平常心看待生成结果。
- 记住,这东西目前还是免费测试版。所以有时候生成视频需要排队,等很久。有时候服务器会出问题,指令没反应。还有的时候,生成的结果会很诡异,人物变形、画面撕裂。这都正常。多试几次,换个时间段再试,或者换张照片、换个视频,通常就能解决。不要因为一次失败就觉得这东西不行。
脸部细节的问题。
- 目前这类 AI 工具的一个通病是,脸部细节处理得还不够完美。虽然它能模仿口型和基本表情,但仔细看,还是会觉得有点僵硬,眼神也比较空洞。这是当前技术的一个瓶颈。所以,如果你想用它来做一个需要精细表情特写的视频,效果可能不会太好。但用在一些中远景的、以身体动作为主的视频里,就基本看不出破绽。
除了 Viggle AI,还有别的选择吗?
当然有。如果你只是想让照片开口说话,做个“会说话的头像”,那有更专门的工具。
比如 SadTalker,这是一个开源项目,你可以把它部署在自己的电脑上跑,完全免费,也没有次数限制。但缺点是需要一定的技术能力,要安装配置环境,对普通用户不太友好。
还有像 Runway Gen-2 和 Pika Labs,它们也是现在很火的视频生成工具。它们更侧重于通过文字或者图片直接生成一个完整的、带有场景和动态效果的视频,而不是像 Viggle AI 这样,专注于让一个静态角色去模仿另一个视频的动作。它们的功能更强大,但操作和理念也不太一样。Pika Labs 最近也推出了一个新功能,可以让你上传一张图,然后用文字指令让图里的一部分动起来,比如让瀑布流动、让头发飘动,也很有意思。
总的来说,如果你是新手,想找个免费、简单、效果又惊艳的工具入门,Viggle AI 是个不错的起点。它把“让照片动起来”这件事的门槛降得很低,你不需要懂任何复杂的技术,只要会打字、会上传图片,就能做出让人眼前一亮的东西。你可以用它来让老家的旧照片动起来,给家人一个惊喜;也可以用它来恶搞朋友的照片,做成有趣的表情包。玩法很多,就看你怎么发挥创意了。

技能提升网