Stable diffusion的一些参数意义及常规设置

这篇具有很好参考价值的文章主要介绍了Stable diffusion的一些参数意义及常规设置。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

在线stabel Diffusion模型

https://huggingface.co/spaces/stabilityai/stable-diffusion
随机种子 seed
如果想要同一个文本提示,生成多次都是同一图像,可以设置一个随机种子,类似于random.seed()的原理,并将生成器传递给管道。每次使用具有相同种子的生成器时,都会得到相同的图像输出。
这里注意的是,实测中如果设置为 -1,那么每次会随机生成
num_inference_steps
可以使用 num_inference_steps 参数更改模型推理的步数
一般来说,使用的步数越多,结果越好,但是步数越多,建议使用默认的推理步数 50。如果想要更快的结果,可以使用较小的步数。如果想要更高质量图像,可以使用更大数字的步数。
实测中,对比图像发现,不同的num_inference_steps ,图像的内容和结构基本是一致的,但是一些形状细节存在很多不同,这表明num_inference_steps=较小值 的去噪步骤,提到的图像质量相对较低,通常使用 50 次去噪步骤,足以得到一个高质量图像。
guidance_scale
前面的所有示例统称为guidance_scale。guidance_scale是一种增加对指导生成(如文本)以及总体样本质量的条件信号的依从性的方法。它也被称为无分类器引导,简单地说,调整它可以更好的使用图像质量更好或更具备多样性。值介于7和8.5之间通常是稳定扩散的好选择。默认情况下,管道使用的guidance_scale为7.5。

  • 如果值很大, 图像质量可能更好,但对应的多样性会降低
  • 如果值很小, 图像质量可能更差,但对应的多样性会增加

默认情况下,稳定扩散生成512×512像素的图像。使用height和width参数以纵向或横向比例创建矩形图像非常容易出现缩放比例错误,部分图像内容,未展示出来,被覆盖了(这是因为图像内容大小大于设置的图像尺寸大小了)

最好在设置height和width参数,值为8的倍数

Sampling method: 采样方法

Sampling steps:采样迭代步数

Restore faces: 面容修复

Tiling: 生成平铺纹理

Highres.fix: 高分辨率修复

Firstpass width: 一开始的低分辨率的宽

Firstpass height: 一开始的低分辨率的高

CFG scale: 数值越小,AI多样性越多,越大限制越多

Variation seed: 在原来种子数的基础之上的子种子数

Denoising strength:跟原来图片的差距大小文章来源地址https://www.toymoban.com/news/detail-722096.html

到了这里,关于Stable diffusion的一些参数意义及常规设置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • DiffBIR: Towards Blind Image Restoration with Generative Diffusion Prior

    DiffBIR: Towards Blind Image Restoration with Generative Diffusion Prior

    论文链接:https://arxiv.org/abs/2308.15070 项目链接:https://github.com/XPixelGroup/DiffBIR 我们提出了DiffBIR,它利用预训练的文本到图像扩散模型来解决盲图像恢复问题。我们的框架采用两阶段pipeline。在第一阶段,我们在多种退化中预训练恢复模块,以提高现实场景中的泛化能力。第二

    2024年02月09日
    浏览(8)
  • Generative Diffusion Prior for Unified Image Restoration and Enhancement 论文阅读笔记

    Generative Diffusion Prior for Unified Image Restoration and Enhancement 论文阅读笔记

    这是CVPR2023的一篇用diffusion先验做图像修复和图像增强的论文 之前有一篇工作做了diffusion先验(Bahjat Kawar, Michael Elad, Stefano Ermon, and Jiaming Song, “Denoising diffusion restoration models,” arXiv preprint arXiv:2201.11793, 2022. 2, 4, 6, 7),但这个模型只能做线性的退化,对于暗图增强这种非线性

    2024年02月15日
    浏览(19)
  • 代码笔记:Generate lmages with Stable Diffusion

    代码笔记:Generate lmages with Stable Diffusion

    目录 1、conda环境 2、使用过程中遇到的问题 (1)环境名称:ldm_py38 (2)pip -e git+https://github.com/CompVis/taming-transformers.git@master#egg=taming-transformers (以及pip -e git+https://github.com/openai/CLIP.git@main#egg=clip)报错:ERROR: Command errored out with exit status 128 报错原因:服务器的SSL证书没有经

    2024年02月10日
    浏览(11)
  • 【思路合集】talking head generation+stable diffusion

    【思路合集】talking head generation+stable diffusion

    改进方向 针对于自回归训练方式可能导致的漂移问题: 训练时,在前一帧上引入小量的面部扭曲,模拟在生成过程中自然发生的扭曲。促使模型查看身份帧以进行修正。 在像VoxCeleb或LRS这样的具有不受限制条件的训练集中,训练更多样化的说话人数据。 针对训练速度慢,算

    2024年01月24日
    浏览(14)
  • 106、Text-Image Conditioned Diffusion for Consistent Text-to-3D Generation

    106、Text-Image Conditioned Diffusion for Consistent Text-to-3D Generation

     很多工作在扩散先验中注入跨视图一致性,但仍然缺乏细粒度的视图一致性。论文提出的文本到3d的方法有效地减轻了漂浮物(由于密度过大)和完全空白空间(由于密度不足)的产生。  简单而言,论文工作是 Dreamfusion+Zero123 。  使用两种不同的分数蒸馏进行监督:文本条件下

    2024年01月17日
    浏览(12)
  • 【文生图】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation

    【文生图】DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation

    论文地址:https://arxiv.org/abs/2208.12242v1 项目地址:https://dreambooth.github.io/ DreamBooth 主要的工作目的是实现保留主体的细致特征的情况下使用文本对其进行环境等编辑。整体方法为给定一个主体的3-5个图像和文本提示作为输入,微调预训练的文生图模型(Imagen,但不限于特定模型

    2024年02月05日
    浏览(9)
  • dreambooth:fine-tuning text-to-image diffusion models for subject-driven generation

    dreambooth:fine-tuning text-to-image diffusion models for subject-driven generation

    【笔记】Stable Diffusion模型优化入门级介绍 - LoRA vs Dreambooth vs Textural Inversion vs Hypernetworks - 知乎 22年9月份一个获奖作品使AI绘画引爆全网,10月我在本地部署了一个StableDiffusionWebUI程序,然后,就没有然后了。看着我本地生成的一张张垃圾图,从小就喜欢画画又没有天赋的我心

    2024年02月10日
    浏览(10)
  • tune a video:one-shot tuning of image diffusion models for text-to-video generation

    tune a video:one-shot tuning of image diffusion models for text-to-video generation

    【Diffusion Models】新加坡国立大学、腾讯强强联手Tune-A-Video:One-Shot微调图像扩散模型用于文本到图像的生成!_哔哩哔哩_bilibili 【Diffusion Models】新加坡国立大学、腾讯强强联手Tune-A-Video:One-Shot微调图像扩散模型用于文本到图像的生成!共计2条视频,包括:[论文代码阅读]T

    2023年04月11日
    浏览(9)
  • 【Kaggle】Stable Diffusion - Image to Prompts竞赛代码初步理解

    【Kaggle】Stable Diffusion - Image to Prompts竞赛代码初步理解

    此次代码集成了 CLIP Interrogator、OFA 模型和 ViT 模型。 首先安装指定版本的 transformers 库: transformers-4.18.0.dev0-py3-none-any.whl 是一个 transformers 库的文件,它的命名方式表示这是一个开发版本(dev)的预构建轮子(wheel)文件。 轮子文件是 Python 包的一种打包格式,可以通过 pip

    2024年02月03日
    浏览(10)
  • Stable Diffusion 本地部署教程 踩的一些坑

    Stable Diffusion 本地部署教程 踩的一些坑

            参考教程 Stable Diffusion 本地部署教程 | AI技术聚合 一步一步进行本地部署,我在部署过程中遇到的一些问题 问题1          描述 : could not find a version that satisfies the requirement tb-nightly (from gfpgan) 无法安装 tb-nightly,然后尝试直接pip 安装,出现如下错误:   

    2024年02月16日
    浏览(13)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包