Stable Diffusion 插件、“AI 绘画细节控制大师”ControlNet 迎来重磅更新:
只需使用文本提示词,就能在保持图像主体特征的前提下,任意修改图像细节。
比如给美女从头发到衣服都换身造型,表情更亲和一点:
抑或是让模特从甜美邻家女孩切换到高冷御姐,身体和头部的朝向、背景都换个花样儿:
—— 不管细节怎么修改,原图的“灵魂”都还在。
除了这种风格,动漫类型的它也能驾驭得恰到好处:
来自推特的 AI 设计博主 sundyme 就称:
效果比想象得要好!
咳咳,各位 AI 绘画圈的朋友们,打起精神来,又有好玩的了。
ControlNet 上新:保留原图画风的修图功能
以上更新内容,其实指的是一个叫作“reference-only”的预处理器。
作者介绍,这个功能其实类似于“inpaint”功能,但不会让图像崩坏。
一些资深玩家可能都知道一个 trick,就是用 inpaint 来进行图像扩散。
比如你有一张 512x512 的狗的图像,然后想用同一只狗生成另一张 512x512 的图像。
这时你就可以将 512x512 的狗图像和 512x512 的空白图像连接到一张 1024x512 的图像中,然后使用 inpaint 功能,mask 掉空白的 512x512 部分,漫射出具有相似外观的狗的形象。
在这个过程中,由于图像只是简单粗暴的进行拼接,加上还会出现失真现象,所以效果一般都不尽如人意。
有了“reference-only”就不一样了:
它可以将 SD的注意力层直接链接到任何独立的图像,方便 SD 直接读取这些图像作为参考。
也就是说,现在你想要在保持原图风格的前提下进行修改,使用提示词直接在原图上就能操作。
如官方示例图将一只静立的小狗改成奔跑动作:
网友:ControlNet 迄今最好的一个功能
“reference-only”功能一出,有不少网友就上手体验了。
有人称这是 ControlNet 迄今为止最棒的一个功能:
还有人称:
是时候把以前丢弃的废图都捡回来重新修复一下了。
当然,认为它也不是那么完美也有,但网友还是表示“总归方向是对了”。
以下是三位推特博主尝试的效果,主要都是动漫风,一起欣赏一下:
有没有戳中你的心巴?
参考链接:
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。