用 AI 绘画出图10分钟,比设计总监下班都早,太太太方便了!

AI百科2个月前更新 快创云
28 0

  Midjourney和Stable Diffusion是目前最受欢迎的AI绘图工具。本文将展示58的设计师如何利用Stable Diffusion在视觉设计上的三个维度技巧。

线稿秒变3D场景

  在过去,将线稿设计图转变为3D场景可能需要复杂的步骤,如线稿填色、3D建模、打光渲染等。而现在,使用Stable Diffusion,只需数秒即可完成。

  关于Stable Diffusion的使用原理,网络上已有许多教程。接下来,我将分享如何将Midjourney生成的线稿图转变为3D场景。关键在于controlnet,前后选择为canny-边缘检测或lineart-标准线稿提取。根据画面添加正反向描述关键词,调整参数,即可得到想要的效果。若效果不佳,可结合图生图模式下的局部重绘或上传重绘蒙版功能,重新绘制直至达到预期效果。熟悉创作模式后,批量输出方案的效率将大大提升。

平面卡通IP秒变3D角色

  除了线稿转3D场景,平面IP卡通人物也能通过Stable Diffusion秒变3D。此过程与上述案例不同,需更精准地按照平面插画制作3D人物。以Midjourney生成的IP卡通平面三视图为例,添加详细描述关键词构建预期效果,重绘幅度设为0.5。在模型选择上,大模型为revanimated_v122.safetensors,滤镜为animevae.pt。controlnet采用depth-zoe控制深度,canny或lineart-anime控制外形线稿提取。lora模型选择blindbox给予有趣的3D效果,charturnerv2:0.4增强塑料质感,形成如图的3D角色。

真实场景替换与修复

  在互联网应用领域,筛选符合预期的人物场景图是个难题。但Stable Diffusion的图生图模式结合controlnet的精准控制,使这一问题迎刃而解。例如,将工作人员从空调旁移至微波炉旁的场景,可将原图放入图生图模式,大模型选relisticv20,滤镜选animevae.pt。lora模型选filmvelvia2烘托真实氛围,controlnet用openpose_full控制姿势,结合重绘幅度调节及关键词描述达到效果。此外,通过SD的进阶模型embeddings修复手部问题,face editor插件调整脸部参数,使人物更真实自然。

创意风格字体设计

  Stable Diffusion不仅能创作3D、真实场景图,还能设计创意风格字体。通过文生图形式给予SD更多创作空间产出多样风格。以冰块文字为例,在文生图模式下选择realisticVision大模型及特定滤镜和采样方法。导入白底黑字图片,描述想要的效果,多次尝试后得到惊喜。最后导入图生图模式二次处理,视觉效果更惊艳细致。具体参数和模型可根据情况调节。

AIGC学习计划分享

  为初学者提供完整学习计划:第一阶段(30天)学习AI-GPT从入门到深度应用;第二阶段(30天)学习AI-绘画进阶实战;第三阶段(30天)学习AI-视频高段位;第四阶段(20天)学习AI-虚拟数字人课程;第五阶段(45天以上)学习AIGC-多渠道变现课程。通过项目演练应用新媒体、电子商务等岗位知识实现引流和带货变现。所有AI绘画工具、模型和插件资源已整理好,扫码即可免费获取。希望此计划对你的学习之路有所帮助。

© 版权声明

相关文章