2023-08-01から1ヶ月間の記事一覧

MasaCtrl が一部 SDXL 1.0 (Stable Diffusion XL 1.0) に対応しています。さっそく試してみました。

github.com はじめにMasaCtrlに関しては過去に記事を書いているのでよかったら見て下さい。 touch-sp.hatenablog.com touch-sp.hatenablog.com 簡単に言うと一貫性のある画像(例えば同じキャラクターの姿勢違いなど)を生成することが可能なモデルです。 SD…

【Diffusers】【StableDiffusionXLAdapterPipeline】SDXL 1.0 (Stable Diffusion XL 1.0) の T2I-Adapter が使えるようになりました

huggingface.co はじめにDiffusersを使わない場合の記事を以前書きました。 touch-sp.hatenablog.com 今回、DiffusersからT2I-Adapterが使えるようになったので使い方を紹介します。方法Canny画像から画像生成もともとCanny画像が用意できているものとします…

【SDXL 1.0】fuduki_mix を公開している人が新たに haduki_mix というモデルを公開してくれました

はじめに「fuduki_mix」というモデルを公開してくれている「kotajiro001」さんが新たにSDXL派生モデルとして「haduki_mix」というモデルを公開してくれています。この方は「yayoi_mix」というSD 1.5のモデルも公開してくれています。弥生(やよい:3月)文月…

【SDXL 1.0】 Zoe-Depth ControlNet が Diffusers から公開されたのでさっそく使ってみました

huggingface.co はじめに以前から「Depth」の ControlNet は公開されていました。 touch-sp.hatenablog.com 新たに「 Zoe-Depth」の ControlNet が公開されたので使ってみました。元画像こちらで作成した画像を使用しました。「girl.png」として保存していま…

「layered-neural-atlases」で「StableVideo」の事前準備を行う

はじめに「StableVideo」で自前の動画を元動画として使用する場合には事前学習が必要です。「StableVideo」については以下の記事を見て下さい。 touch-sp.hatenablog.com 事前学習を行うのが「layered-neural-atlases」です。 さっそく「layered-neural-atla…

「layered-neural-atlases」が動かせる環境をつくる

github.com はじめに前回「StableVideo」について記事を書きました。 touch-sp.hatenablog.com 自前の動画を元動画として使用する場合には事前学習が必要になります。 それを行うのが「layered-neural-atlases」です。環境 Ubuntu 20.04 on WSL2 CUDA 11.6 P…

「StableVideo」という動画作成モデルがすごいです。AIによる動画作成がより実用的になった気がします。

github.com 環境 Ubuntu 22.04 on WSL2 CUDA 11.8 Python 3.11.4 Python環境構築は以下の1行です。 pip install -r https://raw.githubusercontent.com/dai-ichiro/myEnvironments/main/StableVideo/requirements_cu118.txtこれで失敗するようなら以下を試し…

SDXL 1.0 (Stable Diffusion XL 1.0) に使える T2I-Adapter-SDXL が公開されているので紹介します

環境Windows 11ではうまく動きませんでした。以下の環境で実行しています。 Ubuntu 22.04 on WSL2 CUDA 11.8 Python 3.10実行と結果元画像からCanny画像を作成してから画像生成SDXL 1.0-base python test.py \ --prompt 'portrait of japanese girl, plain w…

【SDXL 1.0】Diffusers で ControlNet と LoRA が併用できるようになったのでさっそく使ってみました

はじめにタイトルにあるように Diffusers で SDXL に ControlNet と LoRA が併用できるようになりました。「DreamShaper XL1.0」というSDXL派生モデルに ControlNet と「Japanese Girl - SDXL」という LoRA を使ってみました。「Japanese Girl - SDXL」は日…

二つのマイコンを無線で接続出来たらラジコン作りたくなりますよね?ということで作ってみました。3号機です。

はじめに前回ESP-WROOM-32同士をBluetoothで接続してシリアル通信を無線化しました。 touch-sp.hatenablog.com これが出来たらラジコン作りたくなります。 ということで作ってみました。完成品車 コントローラー 特徴Groveコネクタを利用してなるべくはんだ…

Diffusersに新たに実装された GLIGEN って何?どういった事ができるの?

はじめにDiffusersからGLIGENというモデルが使えるようになりました。 github.com ControlNetと非常に似ているものになりますが、ボックスで物体の場所を指定できるところが特徴の一つです。 今回はその特徴を使いながら画像生成をしてみました。 まずはこの…

【SDXL 1.0】yayoi_mix を公開している人がSDXL派生の fuduki_mix というモデルを公開してくれています

はじめにリアルな(アニメではない)美しい女性が描けるモデルとして「yayoi_mix」があります。そのモデルを公開してくれている「kotajiro001」さんがSDXL派生モデルとして「fuduki_mix」というモデルを公開してくれています。さっそく使ってみました。使い…

【SDXL 1.0】Multi-ControlNetを使ってみる

はじめにDiffusersにSDXL用のMulti-ControlNetが実装されたので使ってみました。元画像 元画像はぱくたそから使わせて頂きました。 こちらの画像です。 1024x1024になるようにトリミング、リサイズして「girl.jpg」として保存しています。 ここからImage2Ima…

ESP-WROOM-32同士をBluetoothで接続してシリアル通信を無線化する

使用したのはこちらです。二つ用意しています。 ESPr® Branch 32(Groveコネクタ付き)www.switch-science.com BluetoothのMACアドレスを取得する一つのESPに以下を書き込み実行します。今後こちらがスレイブ側になります。 void setup(void) { Serial.begin…

【SDXL 1.0】 OpenPose ControlNet が公開されたのでさっそく使ってみました

huggingface.co はじめに「Canny」「Depth」に続いて「OpenPose」の ControlNet が公開されました。「Canny」に関してはこちらを見て下さい。 touch-sp.hatenablog.com 「Depth」に関してはこちらを見て下さい。 touch-sp.hatenablog.com 元画像ぱくたその画…

【SDXL 1.0】 Depth ControlNet が Diffusers から公開されたのでさっそく使ってみました

huggingface.co はじめに「Canny」に続いて「Depth」の ControlNet が公開されました。「Canny」に関してはこちらを見て下さい。 touch-sp.hatenablog.com 元画像こちらで作成した画像を使用しました。「girl.png」として保存しています。 Depth画像の作成4…

【SDXL 1.0】LoRA学習 (DreamBooth fine-tuning via LoRA) の設定あれこれ

はじめに前回の続きです。 touch-sp.hatenablog.com より良い結果を求めて設定をいろいろいじってみました。 今回はデータセットを二つ用意しました。 一つ目は前回と同じもの(36枚)です。 二つ目は新たに写真撮った28枚です。テキストエンコーダーの学習…

自前の画像でSDXL 1.0 (Stable Diffusion XL 1.0) のLoRA学習 (DreamBooth fine-tuning via LoRA) を行う

はじめに今回の学習は「DreamBooth fine-tuning of the SDXL UNet via LoRA」として紹介されています。いわゆる通常のLoRAとは異なるようです。以前にサンプル画像を使って学習を行いました。 touch-sp.hatenablog.com 今回は自前の画像を学習させてみました…

SDXL 1.0 (Stable Diffusion XL 1.0) 派生モデルとControlNetを組み合わせる

はじめに 本題 実行 結果 他のモデルとの比較 original SDXL DreamShaper XL1.0 alpha2 CounterfeitXL beta niji-diffusion-xl-base-1.0 v1.1 niji-diffusion-xl-base-1.0 v2.0 niji-diffusion-xl-base-1.0 v2.3 Animagine XL Mysterious - SDXL Version v3.…

SDXL 1.0 (Stable Diffusion XL 1.0) 派生モデルの safetensorsファイル を Diffusersフォーマット に変換する

実行CIVITAIなどからモデルをダウンロードするとほとんどの場合「**.safetensors」というファイルです。そのままDiffusersから使うにはこのようにします。 from diffusers import StableDiffusionXLPipeline import torch pipe = StableDiffusionXLPipeline.…

SDXL 1.0 (Stable Diffusion XL 1.0) で使える ControlNet が Diffusers から公開されたのでさっそく使ってみました

待望のSDXL 1.0 (Stable Diffusion XL 1.0) 用ControlNetが公開され始めています。今のところは「Canny」しか公開されていませんが今後増えると思われます。その都度記事は更新していきます。

SDXL 1.0 (Stable Diffusion XL 1.0) のLoRA学習 (DreamBooth fine-tuning via LoRA) がVRAM 16GBでできるんだって。やるしかないでしょ。

github.com github.com はじめに今回の学習は「DreamBooth fine-tuning of the SDXL UNet via LoRA」として紹介されています。いわゆる通常のLoRAとは異なるようです。16GBで動かせるということはGoogle Colabで動かせるという事だと思います。自分は宝の持…

CounterfeitXL が α → β を経てv1.0になりました。画像を比較してみました。

モデルはいずれもCIVITAIからダウンロードさせて頂きました。 左からα→β→v1.0です。 v1.0でだいぶ印象が変わりました。 CounterfeitXLの使い方はこちらを見て下さい。 touch-sp.hatenablog.com さらに多い比較結果をこちらに載せています。 support-touchsp.…

SDXL 1.0 (Stable Diffusion XL 1.0) で Image2Image + LoRA を試す

はじめにText2Image + LoRAは以前書きました。 touch-sp.hatenablog.com 今回は Image2Image + LoRA に挑戦しました。注意Diffusers==0.19.3までは以下のエラーが出ます。 from diffusers import AutoPipelineForImage2Image import torch pipe = AutoPipeli…

Diffusers を使って Zero-1-to-3 (Zero-shot One Image to 3D Object) を実行する方法が公開されました。VRAM使用量がかなり減っているようです。

はじめにオリジナルの「Zero-1-to-3 (Zero-shot One Image to 3D Object)」をみるとVRAM 22GB使用すると書かれています。 github.com 新たに「A diffuser implementation of Zero123」が公開されたので使ってみました。 github.com VRAM 16GBのRTX 3080 Lapt…

【SDXL 1.0 (Stable Diffusion XL 1.0)】生成画像の画質が良くない時はどうすれば良いか?いろいろ試してみました。

はじめに 最初は普通にText2Image 画質向上 SDXLのリファイナーを使う方法 方法1 方法2 方法3(Image2Image) GFPGANを使う方法 結果の比較 はじめにSDXL 1.0 (Stable Diffusion XL 1.0) の派生モデルである「DreamShaper XL1.0 Alpha2」というのを使って…

SDXL 1.0 (Stable Diffusion XL 1.0) の二つのテキストエンコーダーに別々とプロンプトを与える?複雑すぎるでしょ!どれが最適解か全くわかりません。

はじめにSDXL 1.0 (Stable Diffusion XL 1.0)には二つのテキストエンコーダーがあるようです。テキストエンコーダーとはざっくり言うとユーザーが与えたプロンプトを処理する部分です。それが二つ(OpenCLIP と OpenAI CLIP)あるようです。デフォルトではそ…

【Compel】SDXL 1.0 (Stable Diffusion XL 1.0) でプロンプト内のワードに重みづけをしてみた

結果左がボールを強調した生成画像 真ん中がノーマルの生成画像 右が猫を強調した生成画像 なんとなく効果があるような気がします。 今回とは関係ないですがこのレベルの画像が簡単に生成できるSDXL 1.0 (Stable Diffusion XL 1.0) には驚かされるばかりです…