欢迎光临
我们一直在努力

AI绘画总是“画手画脚”?掌握这3个神级指令,秒出神图

AI画不好手脚,这事儿都快成了一个梗。你肯定见过那些一张脸画得惊为天人,一看手,要么六根手指,要么直接拧成了麻花。怎么解决这个问题呢,你得学会用更精确的指令去控制它。下面这3个方法,你一定要试试。

第一个,先从最简单的“负面提示词”聊起

这东西基本上是所有AI绘画工具的标配,比如Midjourney里的--no或者Stable Diffusion里的Negative Prompt。它的作用就是告诉AI“我不要什么”,而不是“我想要什么”。很多人用它来去掉一些画风上的东西,比如加个--no anime来避免日漫感。但其实,它对修正“画崩”的人体结构特别有效。

具体到手脚上,你怎么用?很简单,直接把你最不想看到的东西列出来。

比如,你直接在负面提示词里加上mutated hands and fingers(变异的手和手指)、deformed(畸形)、blurry(模糊)、bad anatomy(糟糕的人体结构)、extra limbs(多余的肢体)、fused fingers(融合的手指)、too many fingers(手指过多)、malformed limbs(畸形的四肢)。

我给你看个例子。假设我的提示词是:“一个女人坐在咖啡馆里喝咖啡,特写镜头”。生成的图片里,她的手可能就像一团刚和好的面。

现在,我加上这些负面提示词:“一个女人坐在咖啡馆里喝咖啡,特写镜头 –no mutated hands, extra fingers, deformed limbs”。

你看,区别就出来了。AI在生成图像时,会主动避开那些被你“拉黑”的特征。它就像一个学生,你不仅告诉他要考什么,还给他划了重点,告诉他哪些是绝对不能碰的送命题。这样一来,它犯错的概率自然就小了很多。

这个方法的原理是给AI的创作空间画一个圈,把那些明显错误的路给堵死。AI在生成图像时,本质上是在一个巨大的可能性空间里找一个最符合你描述的点。负面提示词就像路障,能把通往“六指琴魔”或者“鸡爪手”的那些路给封了。

而且,这个方法的好处是普适性强。不管你用的是Midjourney、Stable Diffusion,还是其他的什么工具,基本上都有这个功能。你只要把上面那堆关键词记下来,每次画人的时候顺手加上,出图的成功率就能提高不少。当然,也别加太多,加得太狠了,AI可能就不知道怎么画了,直接给你一张空图。凡事都要有个度。

第二个方法,就要说到“局部重绘”这个功能了

这个功能在Stable Diffusion里叫Inpainting,在Midjourney里虽然没有直接的工具,但可以通过Vary (Region)功能实现类似的效果。它的逻辑很简单:一张图你都画好了,就是手上出了问题。那行,我不重新画整张图,我框住这只手,让AI单独把这只手重画一遍,直到我满意为止。

这个方法比单纯用负-面提示词要精确得多,因为它把计算资源全都集中在了那个最需要修改的小区域上。

具体怎么操作?我拿Stable Diffusion举例。

  1. 你先正常地生成一张图。比如,你画了一个拿着水晶球的女巫,结果她的手和水晶球糊在了一起。
  2. 把这张图发送到“图生图”模块里的“局部重绘” (Inpainting)功能区。
  3. 你会看到一个画笔工具。用这个画笔,把那只画坏了的手整个涂上蒙版。涂的时候不用太小心翼翼,稍微涂出去一点也没关系。
  4. 然后,在提示词框里,把你对这只手的要求写清楚。这时候就不用写整个画面的描述了,直接聚焦在这只手上。比如,你可以写:“一只优雅的、拥有五根纤细手指的手,正轻轻握着水晶球” (a beautiful hand with five slender fingers, gently holding a crystal ball)。
  5. 同时,别忘了你的负面提示词。这时候依然可以把extra fingers, mutated hands这些加上,效果更好。
  6. 设置一下“重绘幅度” (Denoising strength)。这个值很重要,它决定了AI在重绘时有多大的自由度。如果值太高,新画出来的手可能跟你的原图风格完全不搭;如果值太低,AI可能就只是在原来那坨烂泥上稍微修改一下,起不到什么作用。一般建议从0.5到0.75之间开始尝试,多试几次,总能找到一个平衡点。
  7. 点击生成。AI就会在那个被你框住的区域里,根据你的新提示词,重新画一只手。一次不行就两次,总能刷出来一张能看的。

这个方法的好处是给了你“后悔药”吃。一张图99%都完美,就因为那1%的手给毁了,删掉实在可惜。局部重绘就是为了解决这种问题而生的。它就像给图片做局部手术,哪里坏了就治哪里,不用全身麻醉。而且因为计算范围小,出图速度也快。Midjourney的Vary (Region)也是一个道理,你框选出不满意的区域,然后可以修改提示词,让它只重新生成那一块。虽然自由度没Stable Diffusion那么高,但对于大部分用户来说也够用了。

第三个,我们聊点更高级的,就是用ControlNet来精确控制姿态

如果说前两个方法还是在“纠错”,那ControlNet就是在“防错”。它能让你在图片生成之前,就给AI规定好手的具体形态和位置。这对于那些需要特定手部姿势的场景来说,简直是神技。

ControlNet是Stable Diffusion的一个扩展插件,它能通过分析一张参考图,提取出里面的轮廓、深度、姿态等信息,然后强制AI在生成新图时遵循这些信息。

用在手上,最常用的就是它的OpenPoseCanny模型。

OpenPose模型专门用来识别人体骨骼关节点,包括手部的所有指关节。你可以给它一张真人手的照片,OpenPose会分析出这张照片里手的所有骨骼点的位置。然后,你在生成新图的时候,AI就会严格按照这个骨骼结构去画手,手指的位置、弯曲程度都不会出错。

操作步骤大概是这样:

  1. 你需要先找到一张你想要的手部姿势的参考图。可以是你自己拍的,也可以是网上找的。
  2. 在Stable Diffusion的ControlNet插件区域,上传这张参考图。
  3. 选择预处理器为openpose_full,模型为control_openpose。这个组合专门用来处理包含手部细节的姿态。
  4. 然后正常写你的提示词,比如“一个宇航员在太空中做出OK手势”。
  5. 点击生成。你会发现,新生成的宇航员的手,姿势会和你给的那张参考图一模一样,而且因为骨骼点都固定好了,手指的数量和结构基本不会出错了。

除了OpenPoseCanny模型也很有用。Canny的作用是提取图像的边缘轮廓。你可以直接画一张手的简笔画,线条就行,然后让Canny提取这个轮廓。AI在生成时,就会被你画的这个框框给限制住,只能在这个轮廓内进行创作。 这样画出来的手,外形上绝对不会跑偏。

ControlNet这个方法,门槛确实比前两个高一点,你需要先安装和了解这个插件怎么用。但它的上限也最高。它把AI绘画从一个纯粹“抽卡”的游戏,变得更像一个可控的创作工具。你不再是单纯地许愿,而是可以给AI画好一张精准的蓝图,让它来填色。对于商业插画或者有明确构图需求的人来说,这几乎是必备技能。

总的来说,解决AI画手的问题,思路就是不断增加约束。从用负面提示词“排除错误”,到用局部重绘“针对性修改”,再到用ControlNet“预先设定”,你给AI的限制越多、越具体,它能犯错的空间就越小,最终生成的结果自然就越接近你的想法。所以,下次再遇到“鸡爪手”,别急着点刷新,试试这几个方法,你会发现,让AI听话,其实没那么难。

赞(0)
分享到

评论 抢沙发

登录

找回密码

注册