AIGC-一分钟了解图像生成

AI图像生成技术已经算是比较成熟,今天和大家简单聊聊文生图的原理和使用。

生成原理:图片生成模型不止一种,常用的有生成对抗网络(GANs),变分自编码器(Variational Autoencoders,简称VAEs),扩散模型(diffusion),今天我们主要聊的是diffusion model,不同于生成对抗网络(GANs)和变分自编码器(VAEs),扩散模型并不依赖于隐变量方法。相反,它们通过反向扩散过程来生成新的样本,这个方法的优点是,它可以生成具有高度复杂性和多样性的样本,而且可以很自然地处理多模态分布(也就是说,数据可以有多个不同的“类别”或“风格”)。此外,由于这个方法的概率性质,它还可以用于估计数据的概率密度,这是许多其他的生成模型无法做到的。

当前市面上的两个最热的工具,Midjourney和Stable Diffusion都是基于扩散模型的应用类产品,虽然目前看起来他们走了两个完全不同的方向,简单来说在生成预期图片的基础上SD主控制,MJ主创意,建议感兴趣的朋友都尝试一下,而且SD是开源免费的,网上安装教程很多。
使用上来说,主流玩法都是通过文字输入(俗称念咒)生成图片,也就是说描述决定生成图片的内容,比如下图(使用的是stable diffusion),在其他描述不变的情况下(生成个美女呗),增加了elegant sitting posture(优雅的坐姿)后,图片是有明确的反馈效果的。

描述的作用

对于MJ来说描述几乎是我们所有的工作内容(准备工作MJ已经做完了,而且是专业的),只要你用心描述,大概率就有精美甚至超出你想象的图片生成,但是对于SD来说描述前还要有很多准备工作,甚至描述本身你也需要更多的尝试验证,否则生成的图片可能不会让你满意,但这也恰恰是开源的乐趣所在,你可以做更加定制化的尝试,从商业角度MJ显然是更成功的公司,而SD给了更多公司和个人变现的机会。

今天练习描述词生成了很多图,贴几张给大家。以后我们会开个专门使用sd的工具分享,当然不局限于美女图片。

展开阅读全文

页面更新:2024-06-21

标签:编码器   样本   概率   也就是说   模型   图像   原理   两个   简单   方法   图片

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top