画像生成

SDXL 1.0 (Stable Diffusion XL 1.0) で Image2Image + LoRA を試す

はじめにText2Image + LoRAは以前書きました。 touch-sp.hatenablog.com 今回は Image2Image + LoRA に挑戦しました。注意Diffusers==0.19.3までは以下のエラーが出ます。 from diffusers import AutoPipelineForImage2Image import torch pipe = AutoPipeli…

【SDXL 1.0 (Stable Diffusion XL 1.0)】生成画像の画質が良くない時はどうすれば良いか?いろいろ試してみました。

はじめに 最初は普通にText2Image 画質向上 SDXLのリファイナーを使う方法 方法1 方法2 方法3(Image2Image) GFPGANを使う方法 結果の比較 はじめにSDXL 1.0 (Stable Diffusion XL 1.0) の派生モデルである「DreamShaper XL1.0 Alpha2」というのを使って…

SDXL 1.0 (Stable Diffusion XL 1.0) の二つのテキストエンコーダーに別々とプロンプトを与える?複雑すぎるでしょ!どれが最適解か全くわかりません。

はじめにSDXL 1.0 (Stable Diffusion XL 1.0)には二つのテキストエンコーダーがあるようです。テキストエンコーダーとはざっくり言うとユーザーが与えたプロンプトを処理する部分です。それが二つ(OpenCLIP と OpenAI CLIP)あるようです。デフォルトではそ…

【Compel】SDXL 1.0 (Stable Diffusion XL 1.0) でプロンプト内のワードに重みづけをしてみた

結果左がボールを強調した生成画像 真ん中がノーマルの生成画像 右が猫を強調した生成画像 なんとなく効果があるような気がします。 今回とは関係ないですがこのレベルの画像が簡単に生成できるSDXL 1.0 (Stable Diffusion XL 1.0) には驚かされるばかりです…

SDXL 1.0 (Stable Diffusion XL 1.0) の派生モデルが公開され始めています。 CounterfeitXL というモデルを Diffusers から使ってみました。

はじめにSDXL 1.0の基本的な使い方はこちらを参照して下さい。 touch-sp.hatenablog.com 環境 Windows 11 CUDA 11.7 Python 3.10「omegaconf」が必要になります。 pip install torch==2.0.1+cu117 --index-url https://download.pytorch.org/whl/cu117 pip i…

SDXL 1.0 (Stable Diffusion XL 1.0) で Image2Image をやってみました

最終更新日:2023年8月2日はじめにSDXL 1.0はベースとリファイナーの2つのモデルからできています。今回はベースモデルとリファイナーモデルでそれぞれImage2Imageをやってみました。Text2ImageはSDXL 1.0のベースモデルを使わずに「BracingEvoMix_v1」を使…

SDXL 1.0 (Stable Diffusion XL 1.0) にLoRAを適用させてみました

はじめにSDXLで使えるLoRAがCIVITAIに公開されていたので使ってみました。最近公開されたDiffusers==0.22.0からLoRAの使い方が変わったようです。SDXL 1.0の基本的な使い方はこちらを参照して下さい。 touch-sp.hatenablog.com Pythonスクリプト「LoRA」とい…

SDXL 1.0 (Stable Diffusion XL 1.0) に専用VAEを適用させてみました

はじめにこちらにSDXL専用と思われるVAEが公開されていたので使ってみました。 huggingface.co SDXL 1.0の基本的な使い方はこちらを参照して下さい。 touch-sp.hatenablog.com Pythonスクリプト from diffusers import DiffusionPipeline, AutoencoderKL imp…

SDXL 1.0 (Stable Diffusion XL 1.0) が公開されたので Diffusers から使ってみる

最終更新日:2023年8月5日はじめに新しく公開されたSDXL 1.0をDiffusersから使ってみました。Diffusers公式のチュートリアルに従って実行してみただけです。環境 Windows 11 CUDA 11.7 Python 3.10pip install torch==2.0.1+cu117 --index-url https://downl…

【Diffusers】「from_single_file」がVAEにも使えるようになったので変換作業が不要になりました

最終更新日:2023年8月3日 左がデフォルト、右が専用VAEです。はじめにDiffusersで専用のVAEを使用するためには変換が必要でした。 touch-sp.hatenablog.com 新たに「from_single_file」がVAEにも使えるようになったのでその作業は不要になりました。使い方…

【Diffusers】DiffusersからT2I-Adapterが使えるようになったのでBRA(Beautiful Realistic Asians) V6と組み合わせて使ってみました

from PIL import Image import numpy as np import torch from diffusers.utils import load_image from controlnet_aux import PidiNetDetector from diffusers import StableDiffusionAdapterPipeline, T2IAdapter from compel import Compel image = load…

【Diffusers】 Kandinskyというモデルが2.2にアップデートされてControlNetが使えるようになりました

最終更新日:2023年7月28日はじめに以前Kandinsky 2.1に関する記事を書きました。 touch-sp.hatenablog.com 今回は新しくなったKandinsky 2.2をControlNetと組み合わせて使ってみます。 「Text-to-Image」と「Image-to-Image」の両方で使えるようなので比較…

【Diffusers】BRA(Beautiful Realistic Asians) V6 が公開されたので ControlNet 1.1 と組み合わせて使ってみました

はじめにタイトル通りです。V6はこちらからダウンロードさせて頂きました。 V4、V5の記事はこちらです。 touch-sp.hatenablog.com touch-sp.hatenablog.com 結果 自分はV5の方が好みかもしれません。実行方法「cv2_canny.py」と「canny2image_torch2.py」を…

【Inpaint-Anything】【Remove Anything】画像内に写っている要らないものを消す

はじめに以前から画像内の不要物を消すことはいろいろ挑戦してきました。 touch-sp.hatenablog.com 今回は「Inpaint-Anything」というのに含まれる「Remove Anything」を試してみました。 github.com 環境構築 Ubuntu 20.04 on WSL2 CUDA 11.6 Python 3.81行…

【UniControl】ControlNetの進化版?UniControlというのをとりあえず使ってみました。

github.com はじめに「UniControl」というものを使ってみました。通常のControlNetとの違いがいまいちわかりません。下に紹介文を貼っておきます。Introduction原文そのままWe introduce UniControl, a new generative foundation model that consolidates a…

【Mixture of Diffusers】Outpaintingのようなものに挑戦。(建物の写真に空を追加)

左が元の建物の画像です。右が空を追加した画像です。 github.com 環境構築 Windows 11 Python 3.10 CUDA 11.7pip install torch==2.0.1+cu117 torchvision==0.15.2+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install git+https://gith…

【Diffusers】最新学習モデル「BracingEvoMix」をDiffusersから使ってみる

最終更新日:2023年7月12日 Pythonスクリプト from diffusers import StableDiffusionPipeline, EulerAncestralDiscreteScheduler import torch from compel import Compel, DiffusersTextualInversionManager import argparse parser = argparse.ArgumentPa…

【Compel】【Diffusers】プロンプト内のワードの重みづけ

最終更新日:2023年6月5日 はじめにプロンプト内のワードの重みづけをしたい時、DiffusersではCompel Libraryを使うようです。インストールは簡単です。 pip install compel使い方実際のPythonスクリプト from diffusers import StableDiffusionPipeline, Eu…

【Diffusers】Stable Diffusion Mixture Tiling を使ってみる

最終更新日:2023年6月3日 はじめにDiffusersに新たにCommunity Pilelineとして追加された「Stable Diffusion Mixture」を使ってみました。「家」と「道」と「ロボット」を別々のプロントで一つのモデルに与えるとそれを合成(Mix)した画像を生成してくれま…

MasaCtrl を使ってみる

github.com はじめにMasaCtrlは一貫性のある画像(例えば同じキャラクターの姿勢違いなど)を生成することが可能です。ReferenceOnly + ControlNet のようなものと思って使いました。間違っていたらごめんなさい。なにができる?結果を示した方が分かりやす…

【Diffusers】 Kandinsky-2 というモデルを使ってみる

最終更新日:2023年6月10日 Kandinsky-2とはgithub.com 上記レポジトリにはこのように記載されています。 Kandinsky 2.1 inherits best practicies from Dall-E 2 and Latent diffusion, while introducing some new ideas.日本語訳(DeepLで翻訳) Kandinsk…

【Diffusers】BRA(Beautiful Realistic Asians) V5 が公開されたので ControlNet 1.1 と組み合わせて使ってみました

はじめに少し前にBRA(Beautiful Realistic Asians) V4を使ったばかりです。 touch-sp.hatenablog.com 新たにV5が公開されたようですのでさっそく使ってみました。結果 服の色は指定していませんがseedを変えるといろいろな色になりました。実行方法こちらの…

【Diffusers】BRA(Beautiful Realistic Asians) V4 と ControlNet 1.1を組み合わせて使ってみました

はじめにControlNet 1.0ではすでに試しています。 touch-sp.hatenablog.com 結果が悪かったわけではないのですが新しいControlNetが公開されているので使ってみました。 モデルには「BRA(Beautiful Realistic Asians) V4」を使用しました。 さらに今回はsche…

【DIffusers】Diffusersで「EasyNegative」を使ってみる

はじめに「EasyNegative」については以下の記事を参照させて頂きました。 koneko3.com 今回はDiffuserに「EasyNegative」を導入してみます。EasyNegativeを使う必要なのはたったの2行でした。(こちらを参照) pipe.load_textual_inversion("EasyNegative-te…

【DiffEdit】【Diffusers】写真に写る犬を猫に変換する

はじめにあらたにDiffEdit(Zero-shot Diffusion-based Semantic Image Editing with Mask Guidance)というのがDiffusersから使えるようになっていたので試してみます。やったことはタイトル通り「写真に写る犬を猫に変換する」です。似たようなものは過去…

【Diffusers】Multi-ControlNetでスマホを持つ手をきれいに描く

はじめに以前からControlNetを使って手をきれいに描画することに挑戦してきました。 touch-sp.hatenablog.com touch-sp.hatenablog.com 何かを持つ手はさらに難易度が高いとのことで今回はそれに挑戦しました。 「スマホを持つ手」をきれいに描画することが…

【Diffusers】Stable Diffusion 2.1用の ControlNet が公開されていたのでさっそく Waifu Diffusion 1.5 Beta 2 - Frosty Aesthetic Ver と組み合わせて使ってみました

はじめにStable Diffusion 2.1用のControlNetが公開されていました。 →こちらです。 Stable Diffusion 2.1をベースとしたモデルを探していたらWaifu Diffusion 1.5 Betaに行きつきました。 中でもBeta 2 - Frosty Aesthetic Verはリアルに近い画像が出力され…

【Diffusers】Multi-ControlNetで人物をきれいに描く

SDXL版はこちら。はじめに前回の進化版です。 touch-sp.hatenablog.com 手をきれいに描くためにはcanny2imageでのエッジ検出の閾値を低く設定する必要がありました。 そうするとその他の部分も忠実に元画像が再現されてしまうので似たような画像が大量にでき…

【Diffusers】ControlNet + Inpainting が実装されていたので使ってみました

ControlNetとInpaintを組み合わせるとどのようなことが可能になるのか?実際に使ってみて一例を紹介しています。

【Diffusers】【ControlNet】【scribble2image】線の太さは画像に影響するか?

ControlNetのscribble2imageを使用するときに線の太さはどれくらいが適切か?いろいろなパターンを試してみました。