欢迎光临
我们一直在努力

还用PS熬夜?这3款AI制图神器,让设计小白也能封神

还在用PS熬夜抠图、调色、找灵感?以前做设计,没个几年经验,不熬几十个通宵,根本不敢说自己会设计。但现在不一样了,AI制图工具让设计这件事的门槛变得很低。很多以前需要专业设计师才能搞定的活儿,现在普通人也能用AI轻松做出来。

这不是说设计师要失业了,而是说,我们终于可以把时间花在更有创意的事情上,而不是那些重复、熬人的基础操作。下面就给你介绍3款我一直在用的AI制tú工具,不管你是完全没接触过设计的小白,还是想提高效率的设计师,都能用得上。

第一款:Midjourney——给创意插上翅膀

你肯定在网上看过那些效果惊人、细节丰富的AI画作,其中大部分都来自Midjourney。简单说,Midjourney就是一个能把你的文字想法变成高质量图像的工具。你只需要告诉它你想要什么画面,它就能给你画出来。

听起来很简单,但要让它“听懂”你的话,还是需要一点技巧。Midjourney不是一个独立的软件,你需要通过一个叫Discord的聊天软件来使用它。

怎么用Midjourney生成图片?

  1. 准备工作:你需要一个Discord账号。这软件就像国外的YY语音,很多人用它来玩游戏和聊天。注册好之后,你需要加入Midjourney的官方服务器。
  2. 进入“新手村”:在服务器里,你会看到很多以“newbies”开头的频道,随便点进一个。这里就是大家一起“念咒语”的地方。
  3. 开始念咒语(写提示词):在聊天框里,输入斜杠/,然后选择 imagine 这个命令。接着,在后面写下你想要的画面描述,也就是提示词(Prompt)。

写提示词有什么技巧?

提示词是关键。你写得越具体,Midjourney生成出来的图就越接近你的想法。比如,你不能只写“一只猫”,这样出来的结果会很随机。

你可以试试这个公式:主体 + 细节 + 风格 + 参数

举个例子,我想生成一张“穿着宇航服的橘猫,坐在月球上看地球”的图片,我可能会这么写:

A ginger cat wearing a detailed astronaut suit, sitting on the surface of the moon, looking at the earth, cinematic lighting, hyperrealistic, 8k --ar 16:9

我们来拆解一下这个提示词:

  • 主体A ginger cat(一只橘猫)
  • 细节wearing a detailed astronaut suit, sitting on the surface of the moon, looking at the earth(穿着细节丰富的宇航服,坐在月球表面,看着地球)
  • 风格cinematic lighting, hyperrealistic, 8k(电影级光效,超写实,8K分辨率)
  • 参数--ar 16:9 这个参数是用来设置图片的长宽比,16:9 就是我们常见的宽屏比例。

写完之后按回车,机器人就会开始画画。大概一分钟后,它会给你4张草稿图。

拿到草稿图之后呢?

图片下方有两排按钮:

  • U1, U2, U3, U4:“U”是Upscale的意思,就是放大图片。如果你对第3张图最满意,就点 U3,机器人会给你一张更大、更清晰的图。
  • V1, V2, V3, V4:“V”是Variation,意思是基于某张图进行微调。比如你觉得第1张图的大方向不错,但还想看看其他可能性,就点 V1。机器人会以第一张图为基础,再生成4张风格类似的新草稿。
  • 刷新按钮:如果4张图你都不满意,可以点那个蓝色的刷新按钮,让它重新画一次。

Midjourney的强项在于创意表达和艺术效果。只要你的想法够大胆,它就能帮你实现。无论是做PPT插图、社交媒体配图,还是寻找设计灵感,它都非常合适。缺点就是,它目前需要付费才能使用,而且需要一点学习成本来掌握写提示词的技巧。

第二款:Stable Diffusion——完全免费的专业级工具

如果说Midjourney是让你发挥创意的画板,那Stable Diffusion就像一个功能齐全的暗房,你可以对图片的每个细节进行精准控制。最关键的是,它是开源的,这意味着你完全可以免费使用它。

Stable Diffusion最吸引人的地方在于它的可控性。你可以用它来做很多Midjourney做不到的事情,比如:

  • 精准控制人物姿势:通过一个叫ControlNet的插件,你可以上传一张人物姿势的参考图,然后让AI按照这个姿势生成一个全新的人物。
  • 局部修改(Inpainting):比如你生成了一张人像,但对眼睛不满意。你可以只把眼睛部分涂掉,然后告诉AI“a pair of blue eyes”,它就会只重绘眼睛,而其他部分保持不变。
  • 线稿上色:你可以自己画一张黑白线稿,然后让Stable Diffusion帮你上色,还能选择不同的上色风格。

怎么在自己电脑上用Stable Diffusion?

在本地部署Stable Diffusion需要你的电脑有一张不错的显卡,最好是英伟达(NVIDIA)的显卡,显存至少在6GB以上。步骤稍微有点复杂,但网上有很多一键安装包,大大简化了流程。

  1. 下载启动器:去GitHub或者一些国内的AI社区(比如C站)找一个整合好的一键启动包。
  2. 下载模型:Stable Diffusion本身只是一个底层框架,你需要下载“模型”文件才能生成特定风格的图片。这些模型就像是AI的大脑,有专门画二次元的,有专门画写实照片的。你可以在Civitai(C站)这样的网站上找到海量免费的模型。
  3. 启动并开始使用:解压启动包,把下载好的模型文件放到指定的 models 文件夹里,然后双击启动程序。它会在你的浏览器里打开一个操作界面。

Stable Diffusion的基本操作界面是什么样的?

它的界面看起来比Midjourney复杂,但核心功能区就几个:

  • 文生图(txt2img):这是最基础的功能,和你用Midjourney一样,通过写提示词来生成图片。
  • 图生图(img2img):你可以上传一张图片,然后让AI基于这张图进行再创作。
  • 提示词/反向提示词:除了告诉AI你“想要什么”,你还可以通过反向提示词(Negative Prompt)告诉它你“不想要什么”。比如,你不希望画面里出现手部畸形,就可以在反向提示词里写bad hands, extra fingers

Stable Diffusion的学习曲线比Midjourney陡峭,你需要花时间去了解不同的模型、参数和插件。但是,一旦你掌握了它,它能给你的创作自由度是其他工具无法比拟的。它更适合那些对画面有精准控制需求的用户,比如插画师、游戏美术师,或者想深入学习AI绘画技术的人。

第三款:Canva(可画)——为打工人量身定做的设计平台

前面两个工具,更侧重于从无到有地“生成”图片。但很多时候,我们需要的不是一张全新的画,而是在现有的设计上做修改,比如做一张海报、一个PPT或者一篇公众号文章的头图。这种情况下,Canva(国内版叫“可画”)里的AI功能就非常实用。

Canva本身就是一个在线设计平台,里面有海量的模板。它把AI功能无缝地整合到了我们熟悉的设计流程里。

Canva里有哪些好用的AI功能?

  1. Magic Edit(魔法编辑):这个功能和Stable Diffusion的局部修改很像,但操作简单得多。在一张图片上,你用画笔涂抹想要修改的区域,然后输入文字告诉它你想把这个区域变成什么。比如,你有一张会议室的照片,但桌上空空如也,你可以涂抹桌面,然后输入“一束鲜花”,它就会在桌上生成一束花,而且光影、透视都融合得很好。
  2. Magic Eraser(魔法橡皮擦):这就是我们常说的“AI消除路人”。照片里有不想要的东西?用这个工具涂一下,它就会自动识别并移除,然后智能地填补背景,效果非常自然。以前在PS里用仿制图章工具吭哧吭哧修半天,现在几秒钟就搞定。
  3. Text to Image(文生图):Canva也内置了文生图功能,虽然效果和细节比不上Midjourney,但优点是方便。你在做海报时,如果缺一张合适的配图,可以直接在侧边栏的工具里输入文字生成一张,然后拖到你的设计里,不用在不同软件之间来回切换。

Canva的AI功能不是为了创造惊艳的艺术品,而是为了解决实际工作中的具体问题。它的目标用户非常明确,就是那些需要快速完成设计任务的普通上班族、学生或者运营人员。它把复杂的AI技术包装成了几个简单直接的按钮,你不需要懂任何复杂的参数,点几下就能完成任务,极大地提升了日常工作的效率。

总的来说,这三款工具代表了目前AI制图的三个不同方向:Midjourney专注于高质量的创意生成,Stable Diffusion提供专业级的精准控制和无限的扩展性,而Canva则将AI能力融入到日常的设计工作流中,主打简单、高效。

如果你是想找灵感、做一些酷炫的图片,可以从Midjourney开始。如果你对技术感兴趣,想拥有完全的控制权,并且不介意花时间折腾,那Stable Diffusion是你的不二之选。而如果你只是想在日常工作中快速搞定设计任务,做个海报、PPT什么的,那Canva里的AI工具就足够用了。别再熬夜和PS死磕了,试试这些工具,你会发现设计原来可以这么轻松。

赞(0)
分享到

评论 抢沙发

登录

找回密码

注册