2023-01-01から1年間の記事一覧

Diffusers から IP-Adapter が使えるようになったのでさっそく試してみました

はじめにIP-Adapterに関してはこちらを参照して下さい。 touch-sp.hatenablog.com touch-sp.hatenablog.com 環境必要とするのはこれだけです。(PyTorchは自分の環境に合わせて変更して下さい) pip install torch==2.1.1+cu121 torchvision==0.16.1+cu121 -…

【Diffusers】AnimateDiff で Latent Consistency Model (LCM) が使えます

はじめにLatent Consistency Model (LCM) は画像生成の高速化を可能にします。基本的な使い方は以前記事を書いたのでそちらを参照して下さい。 touch-sp.hatenablog.com AnimateDiff でも Latent Consistency Model (LCM) が使えるようなので動画生成の高速…

AnimateDiff が SDXL に対応したのでさっそく使ってみました。

github.com 環境 Ubuntu 22.04 on WSL2 CUDA 12.1 Python 3.10 torch==2.1.1+cu121Python環境構築1行で済むようにrequirements.txtを作成しました。 pip install -r https://raw.githubusercontent.com/dai-ichiro/myEnvironments/main/AnimateDiff_SDXL/req…

DiffBIR (Towards Blind Image Restoration with Generative Diffusion Prior) で画像復元

github.com はじめにDiffBIRはImage Restoration(画像復元)のためのモデルです。画像復元とSuper Resolution(超解像)との違いはよくわかっていません。どちらも低解像度の画像を綺麗にする手法です。結果最初に結果を示します。 左の画像から右の画像が…

【IP-Adapter】IP-Adapter-Face がアップデートされたのでさっそく使ってみました。

github.com はじめに今回の目的は顔写真1枚からその人物の複数の画像を作成することです。環境 Windows 11 CUDA 11.7 Python 3.11pip install torch==2.0.1+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install diffusers[torch] pip ins…

少ないstep数で画像生成を可能にする Latent Consistency Model (LCM) を Diffusers から使う

github.com 環境 Windows 11 CUDA 11.7 Python 3.10pip install torch==2.0.1+cu117 torchvision==0.15.2+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install diffusers[torch] pip install transformersモデルのダウンロードあらかじめ…

【Diffusers】「from_single_file」と「save_pretrained」を使うとsafetensorsファイルをDiffusersフォーマットに簡単に変換できます

はじめに以前は「convert_original_stable_diffusion_to_diffusers.py」という実行ファイルを用いて変換していました。実は「from_single_file」と「save_pretrained」を使うと簡単にできることが分かりました。例 from diffusers import StableDiffusionPip…

PixArt-alpha を Diffusers から使ってみる

github.com 環境 Windows 11 CUDA 11.7 Python 3.10pip install torch==2.0.1+cu117 torchvision==0.15.2+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install diffusers[torch] pip install transformers omegaconf sentencepiece beaut…

Diffusers から AnimateDiff が使えるようになりました

github.com 動作環境動作確認できた環境です。必ずしもこれでなければいけないということはありません。Windows 11 Windows 11 CUDA 11.7 Python 3.10WSL2 Ubuntu 22.04 on WSL2 CUDA 11.8 Python 3.10環境構築CUDA 11.8の場合 pip install torch==2.0.1+cu1…

【LongerCrafter (FreeNoise)】LongerCrafter という動画作成モデルを試してみました

github.com はじめに「LongerCrafter」は「FreeNoise」という方法を用いた動画生成モデルです。高品質の長い動画を生成することができるのが特徴とされています。さっそく試してみました。環境構築 Ubuntu 22.04 on WSL2 CUDA 11.8 Python 3.10 1行で環境構…

【備忘録】Ubuntu 22.04に入門

はじめに インストール関連 日本語入力できるようにする ドライブのフォーマット セカンダリードライブを自動でマウントする zoxide と fzf をインストールする NVIDIA Driver and CUDA NVIDA DriverとCUDAのアンインストール NVIDA Driverのインストール CU…

【Diffusers】画像生成においてモデル間の比較が簡単にできるようにPythonスクリプトを書きました。

はじめに目的はタイトルにある通りです。今回はBeautiful Realistic Asians Version 5, 6, 7の3つを比べてみました。結果左から version 5→6→7 です。並べてくれるところまで自動でできるようにスクリプトを書いています。 Pythonスクリプト今回のスクリプト…

【Rerender A Video】【Video2Video】また新しい動画生成モデルを見つけたのでさっそく試してみました。

github.com 環境 Ubuntu 22.04 on WSL2 CUDA 11.8 Python 3.10Python環境構築 pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 --index-url https://download.pytorch.org/whl/cu118 git clone https://github.com/williamyang1991/Rerender_A_Vi…

WSL2でターミナルのディレクトリ表示を短くしたい

結果元画面 変更後 すっきり!方法「/home/ (user name)」フォルダ内に存在する「.bashrc」の中身を変更します。具体的には環境変数 PS1 の部分を一部書き換えるだけです。 cd sudo nano .bashrc変更する部分 if [ "$color_prompt" = yes ]; then PS1='${deb…

animatediff-cli-prompt-travel の create-config で動画の各フレームに対してプロンプトを自動生成したら余計な単語がたくさん入ってきたので Perl で一括削除しました

animatediff-cli-prompt-travel の create-config を行うと以下のように各フレームに対してプロンプトを返してくれます。 "0": "(blonde_hair:0.83),(long_hair:0.83),(looking_at_viewer:0.61),(blue_shirt:0.50),(denim:0.35),(pants:0.68),(teeth:0.41),(…

Windowsで動画ファイルを開こうとして「HEVC ビデオ拡張機能」(有料)が必要と言われたら

「FFMEPG」で変換してしまいましょう。 画質が落ちるかも知れませんが有料ソフトに手が出せない人には良い選択かと思います。 ffmpeg -i input.mp4 -vcodec h264 output.mp4 これだけで開けるようになりました。

【Hotshot-XL】SDXLモデルを使った動画作成

はじめにいろいろな動画生成AIに触れてきましたが今までのはほぼすべてStable Diffusion 1.5をベースとしたモデルを使用していました。今回SDXLをベースとした動画作成モデルが公開されていたので使ってみました。 github.com 導入 Windows 11 CUDA 11.7 Pyt…

【animatediff-cli-prompt-travel】背景がチカチカしていやなら固定すればいいじゃないか

はじめに前回からの続きです。 touch-sp.hatenablog.com Video2Videoで動画をアニメ化した時に背景がチカチカすることがあります。前回作成した動画がそうでした。 今回は背景を固定する方法にチャレンジしました。PC環境WindowsではうまくいかなかったのでW…

RIFE (Real-Time Intermediate Flow Estimation for Video Frame Interpolation) は AI で動画を作成する人にとって非常に役立つツールです

はじめにRIFE は動画のフレーム補間をしてくれるツールです。 github.com 動画のFPSを上げたい時にも役に立ちますが、今回は違う使い方を紹介します。使用例AIで動画を作成すると1フレームだけおかしくなることがあります。たとえば以下の例では1フレーム…

animatediff-cli-prompt-travel であえて ControlNet を使った Video2Video を行う

はじめにanimatediff-cli-prompt-travel は名前にpromptという単語が含まれている通り Text2Video を行うモデルです。今回はあえて ControlNet を使った Video2Video を行ってみました。animatediff-cli-prompt-travel に関しての過去の記事はこちらです。 t…

【続】【Text2Video】animatediff-cli-prompt-travel で動画を作る(良い結果を求めて)

はじめに前回の続きです。 touch-sp.hatenablog.com この1週間いろいろ設定を変えて動画を作りました。 その中で一番良かったものを記録として残しておきます。Configファイル { "name": "sample", "path": "safetensors/mistoonAnime_v20.safetensors", "mo…

【Video2Video】MMagic の Controlnet Animation で DW Openpose が使えるようにする

はじめにMMagic の Controlnet Animation はデフォルトで「sd-controlnet-hed 」を使うようになっています。DW Openposeが使えるようにスクリプトを一部改変しました。結果 動画はGoogle Bloggerに載せています。 support-touchsp.blogspot.com 環境 Windows…

【Text2Video】animatediff-cli-prompt-travel を試してみる

はじめにAnimateDiff周りはどんどん開発がすすんでいます。今回はanimatediff-cli-prompt-travelというのを試してみました。 github.com 環境 Windows 11 CUDA 11.8 Python 3.10Python環境構築 git clone https://github.com/s9roll7/animatediff-cli-prompt…

【Video2Video】リアルな動画をアニメ風に変えるならわざわざ拡散モデルを使わなくても以前からあるGAN(敵対的生成ネットワーク)の技術で十分な気がしたので実際にやってみました

はじめにStable Diffusionなどの拡散モデルを使ったVideo2Videoが盛んに開発されています。GAN(敵対的生成ネットワーク)を使っても同様のことができる気がするのですが、すでに古い技術になってしまったのかあまりそれに言及する人がいません。GANを使った…

動画作成をいろいろ試してみたけど顔だけを動かすなら現状 SadTalker がベストだと思います

はじめに無料でできる動画作成をいろいろ試しましたが顔だけを動かすなら現状 SadTalker がベストだと思います。AnimateDiffが話題になっていて更新され続けているのでいずれはそちらがベストになるような気もします。画像を1枚だけ準備する今回用意した画像…

OpenMMLab の MMagic で ViCo (Detail-Preserving Visual Condition for Personalized Text-to-Image Generation) を試してみる

目的画像生成モデルに自前の物体を描画させる試みです。以前にもDreamBoothやLoRAで同様のことをやっています。 この物体を描写させます。具体的にはビーチに立たせてみます。 ViCo (Detail-Preserving Visual Condition for Personalized Text-to-Image Gen…

【Controled AnimateDiff】ControlNet と AnimateDiff を組み合わせて Video2Video に挑戦

github.com はじめにすでに開発してくれている個人がいます。上記GitHubがそれです。今回はそちらを使わせて頂きVideo2Videoに挑戦しました。環境imageioは2.27.0かまたはそれ以前のものを使う必要があります。それ以降を使うと以下のエラーが出ます。 TypeE…

OpenMMLab の MMagic で AnimateDiff が使えるようになったので試してみました

環境 Windows 11 CUDA 11.7 Python 3.11.5Python環境構築 pip install torch==2.0.1+cu117 torchvision==0.15.2+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install mmcv==2.0.1 -f https://download.openmmlab.com/mmcv/dist/cu117/tor…

SDXL で IP-Adapter を試してみる

github.com はじめにIP-Adapter を Stable Diffusion Web UI の拡張機能としてではなく公式のGitHub通りに動かしてみました。IP-Adapterは画像をプロンプトのように扱うモデルです。画像をモデルに与えることで生成画像を制御します。冒頭の画像は左の人物に…

【SDXL 1.0】Diffusers から CLIP-skip が使えるようになったのでさっそく使ってみました。

結果 左からCLIP-skip None→1→2→3です。Pythonスクリプト from diffusers import StableDiffusionXLPipeline, DPMSolverMultistepScheduler import torch import os model_id = "osorubeshimerge_v10.safetensors" pipe = StableDiffusionXLPipeline.from_si…