画像生成
huggingface.co Diffusersから簡単に使えます。 サンプルスクリプトをみるとSDXLのUnet部分を変更しているだけに見えます。Pythonスクリプト import torch from diffusers import StableDiffusionXLPipeline, UNet2DConditionModel, EulerDiscreteScheduler …
はじめに以前ControlNet と Inpaintを組み合わせて使用したことがあります。 touch-sp.hatenablog.com 今回はさらにIP-AdapterのFaceモデルを組み合わせて写真の顔を入れ替えてみます。 SD1.5を使って同じようなことをこちらでやっています。 touch-sp.haten…
はじめに以前にmultiple IP-Adaptersを使ったことがあります。 touch-sp.hatenablog.com それと似たようなものですが、画像のどの部分にIP-Adapterを使用するかをmask画像で大まかに指定することが可能になりました。 github.com 結果用意した二人の顔写真 …
はじめにStability AIは以下のような画像生成AIを公開してきました。 「Stable Diffusion 1.x」→「Stable Diffusion 2.x」→「SDXL」→「SDXL Turbo」今回新たに「Stable Cascade」というモデルを公開しました。「SDXL」より高速かつ高品質に画像生成ができる…
github.com はじめに「MGIE」(Guiding Instruction-based Image Editing via Multimodal Large Language Models)はアップルとカリフォルニア大学サンタバーバラ校(UCSB)が共同で開発したマルチモーダル大規模言語モデルを基にしたAI画像編集ツールです。Gi…
はじめに1枚の顔写真からアニメ風画像を作成することが目的です。前回PhotoMakerというものを使って同様のことをしました。 touch-sp.hatenablog.com 今回はmultiple IP-Adaptersを使ってみました。結果左の画像から右の画像を作成しました。よーく見ると、…
目的1枚の顔写真からディズニー風画像を作成することが目的です。結果ただのImage2imageではないです。左の画像から右の画像を作成しました。よーく見ると、なんとなく特徴を捉えているような気もします。 どうでしょう? Pythonスクリプト import torch fro…
結果 学習に使用した画像の一部を下に載せておきます。 この人物を再現しようとしたのが上記画像です。 再現できていると言えるでしょうか? はじめにLoRA自体は以前からある手法です。それにPivotal Tuningを組み合わせる方法が公開されたのはごく最近です…
はじめに「IP-Adapter-FaceID-PlusV2」を使うと1枚の顔写真からその人物の写真を何枚も作成することが可能になります。 touch-sp.hatenablog.com 顔の再現性は完璧ではありません。 しかし、作成する画像の一貫性は高いです。 実例を見た方がわかりやすです…
はじめについ先日、SDXL用のIP-Adapter-FaceIDを紹介したばかりです。 touch-sp.hatenablog.com にもかかわらず新たにIP-Adapter-FaceID-PlusV2が公開されました。 驚くべき開発スピードです。 さっそく使ってみて以前のモデルと比較してみました。目的1枚の…
github.com はじめに「PhotoMaker」をつかえば色々人物写真をカスタマイズできるようですが、今回は1枚の写真から同一人物の写真を作成してみます。以前「IP-Adapter」を使って同様のことをしています。 touch-sp.hatenablog.com touch-sp.hatenablog.com 用…
はじめにタイトルにある通りです。Diffusersから直接使う場合、環境構築が非常に楽になります。「FaceID-Plus」と「FaceID-PlusV2」については別記事にしています。 touch-sp.hatenablog.com PC環境 Windows 11 CUDA 11.8 Python 3.11Python環境構築 pip ins…
はじめにInpaintは画像の一部修正をすることです。Inpaint専用モデルもありますが、今回は通常のText2Imageモデルを使用してInpaintを行います。「yabalMixTrue25D_v5」というモデルを使用しました。使い方が2通りあるので、両方を実行して比較してみました…
この写真に写る女性の顔をこの顔に変えられるかどうか試してみました。 実行するにあたりこのようなマスク画像を用意しました。 結果Diffusersを使って実行しています。 DiffusersではFaceIDがまだ使えないのでそれ以前のIP-Adapterで試してます。ip-adapter…
2024年2月1日追記この問題はDiffusers v0.26.0以降修正されています。はじめにタイトルにある通りです。たしかにノイズが多いなとの印象はありましたが、そんなもんだと思っていました。その都度GFPGANやRefinerを使ってノイズ除去を行ってきました。一時的…
はじめにIP-Adapterの進化が止まりません。「FaceID」→「FaceID-Plus」→「FaceID-PlusV2」とどんどん進化しています。今回は今現在最新の「FaceID-PlusV2」を使ってみます。目的顔写真1枚からその人物の複数の画像を作成することです。PC環境 Windows 11 CUD…
はじめに「Long Weighted Prompt Pipeline」はプロンプトの重み付けをする時にA1111のスタイルが使え、かつ長いプロンプトが使用できるようになるパイプラインです。Diffusersではそういった用途にcompelというライブラリを使用するのですが、はっきり言って…
結果左から v1.0 → v1.5 → v2.0 です。 今回使用したプロンプトでは、キリっとしたかっこいい女性から綺麗な女性に変わってきている気がします。Pythonスクリプトプロンプトはこちらからそのまま使わせてもらいました。 from diffusers import DiffusionPipe…
はじめに以前「DragGAN」について記事を書きました。 touch-sp.hatenablog.com 「DragGAN」はGAN(敵対的生成ネットワーク)を使っています。 今回紹介する「SDE Drag」は拡散モデルを使ったものになります。目的以下の女性の髪を伸ばしてみます。 この女性…
疑問「typeK」とはどういう意味なのでしょうか?結果左から v1.0 → v1.5 → v1.6 typeK です。 Pythonスクリプトプロンプトはこちらからそのまま使わせてもらいました。 from diffusers import StableDiffusionXLPipeline, DPMSolverMultistepScheduler impor…
はじめにLCM-RoLAが短い時間で画像が生成できると話題になっていますが、それを上回るかもしれない SDXL-Turbo というのが Stable Diffusion を開発している Stability AI から公開されました。試しに使ってみました。また、LCM-LoRA と比較してみました。Py…
はじめにnagatsuki_mix v1.0については以下を見て下さい。 touch-sp.hatenablog.com 今回はnagatsuki_mixのv1.0とv2.0の比較、nagatsuki_mix v2.0とLCM-LoRAの相性についてみてみました。v1.0とv2.0の比較左がv1.0、右がv2.0です。 nagatsuki_mix v2.0とLCM-…
はじめにIP-Adapterに関してはこちらを参照して下さい。 touch-sp.hatenablog.com touch-sp.hatenablog.com 環境必要とするのはこれだけです。(PyTorchは自分の環境に合わせて変更して下さい) pip install torch==2.1.1+cu121 torchvision==0.16.1+cu121 -…
github.com はじめにDiffBIRはImage Restoration(画像復元)のためのモデルです。画像復元とSuper Resolution(超解像)との違いはよくわかっていません。どちらも低解像度の画像を綺麗にする手法です。結果最初に結果を示します。 左の画像から右の画像が…
github.com はじめに今回の目的は顔写真1枚からその人物の複数の画像を作成することです。環境 Windows 11 CUDA 11.7 Python 3.11pip install torch==2.0.1+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install diffusers[torch] pip ins…
github.com 環境 Windows 11 CUDA 11.7 Python 3.10pip install torch==2.0.1+cu117 torchvision==0.15.2+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install diffusers[torch] pip install transformersモデルのダウンロードあらかじめ…
はじめに以前は「convert_original_stable_diffusion_to_diffusers.py」という実行ファイルを用いて変換していました。実は「from_single_file」と「save_pretrained」を使うと簡単にできることが分かりました。例 from diffusers import StableDiffusionPip…
github.com 環境 Windows 11 CUDA 11.7 Python 3.10pip install torch==2.0.1+cu117 torchvision==0.15.2+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install diffusers[torch] pip install transformers omegaconf sentencepiece beaut…
はじめに目的はタイトルにある通りです。今回はBeautiful Realistic Asians Version 5, 6, 7の3つを比べてみました。結果左から version 5→6→7 です。並べてくれるところまで自動でできるようにスクリプトを書いています。 Pythonスクリプト今回のスクリプト…
目的画像生成モデルに自前の物体を描画させる試みです。以前にもDreamBoothやLoRAで同様のことをやっています。 この物体を描写させます。具体的にはビーチに立たせてみます。 ViCo (Detail-Preserving Visual Condition for Personalized Text-to-Image Gen…