【Rerender A Video】【Video2Video】また新しい動画生成モデルを見つけたのでさっそく試してみました。

github.com 環境 Ubuntu 22.04 on WSL2 CUDA 11.8 Python 3.10Python環境構築 pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 --index-url https://download.pytorch.org/whl/cu118 git clone https://github.com/williamyang1991/Rerender_A_Vi…

WSL2でターミナルのディレクトリ表示を短くしたい

結果元画面 変更後 すっきり!方法「/home/ (user name)」フォルダ内に存在する「.bashrc」の中身を変更します。具体的には環境変数 PS1 の部分を一部書き換えるだけです。 cd sudo nano .bashrc変更する部分 if [ "$color_prompt" = yes ]; then PS1='${deb…

animatediff-cli-prompt-travel の create-config で動画の各フレームに対してプロンプトを自動生成したら余計な単語がたくさん入ってきたので Perl で一括削除しました

animatediff-cli-prompt-travel の create-config を行うと以下のように各フレームに対してプロンプトを返してくれます。 "0": "(blonde_hair:0.83),(long_hair:0.83),(looking_at_viewer:0.61),(blue_shirt:0.50),(denim:0.35),(pants:0.68),(teeth:0.41),(…

Windowsで動画ファイルを開こうとして「HEVC ビデオ拡張機能」(有料)が必要と言われたら

「FFMEPG」で変換してしまいましょう。 画質が落ちるかも知れませんが有料ソフトに手が出せない人には良い選択かと思います。 ffmpeg -i input.mp4 -vcodec h264 output.mp4 これだけで開けるようになりました。

【Hotshot-XL】SDXLモデルを使った動画作成

はじめにいろいろな動画生成AIに触れてきましたが今までのはほぼすべてStable Diffusion 1.5をベースとしたモデルを使用していました。今回SDXLをベースとした動画作成モデルが公開されていたので使ってみました。 github.com 導入 Windows 11 CUDA 11.7 Pyt…

【animatediff-cli-prompt-travel】背景がチカチカしていやなら固定すればいいじゃないか

はじめに前回からの続きです。 touch-sp.hatenablog.com Video2Videoで動画をアニメ化した時に背景がチカチカすることがあります。前回作成した動画がそうでした。 今回は背景を固定する方法にチャレンジしました。PC環境WindowsではうまくいかなかったのでW…

RIFE (Real-Time Intermediate Flow Estimation for Video Frame Interpolation) は AI で動画を作成する人にとって非常に役立つツールです

はじめにRIFE は動画のフレーム補間をしてくれるツールです。 github.com 動画のFPSを上げたい時にも役に立ちますが、今回は違う使い方を紹介します。使用例AIで動画を作成すると1フレームだけおかしくなることがあります。たとえば以下の例では1フレーム…

animatediff-cli-prompt-travel であえて ControlNet を使った Video2Video を行う

はじめにanimatediff-cli-prompt-travel は名前にpromptという単語が含まれている通り Text2Video を行うモデルです。今回はあえて ControlNet を使った Video2Video を行ってみました。animatediff-cli-prompt-travel に関しての過去の記事はこちらです。 t…

【続】【Text2Video】animatediff-cli-prompt-travel で動画を作る(良い結果を求めて)

はじめに前回の続きです。 touch-sp.hatenablog.com この1週間いろいろ設定を変えて動画を作りました。 その中で一番良かったものを記録として残しておきます。Configファイル { "name": "sample", "path": "safetensors/mistoonAnime_v20.safetensors", "mo…

【Video2Video】MMagic の Controlnet Animation で DW Openpose が使えるようにする

はじめにMMagic の Controlnet Animation はデフォルトで「sd-controlnet-hed 」を使うようになっています。DW Openposeが使えるようにスクリプトを一部改変しました。結果 動画はGoogle Bloggerに載せています。 support-touchsp.blogspot.com 環境 Windows…

【Text2Video】animatediff-cli-prompt-travel を試してみる

はじめにAnimateDiff周りはどんどん開発がすすんでいます。今回はanimatediff-cli-prompt-travelというのを試してみました。 github.com 環境 Windows 11 CUDA 11.8 Python 3.10Python環境構築 git clone https://github.com/s9roll7/animatediff-cli-prompt…

【Video2Video】リアルな動画をアニメ風に変えるならわざわざ拡散モデルを使わなくても以前からあるGAN(敵対的生成ネットワーク)の技術で十分な気がしたので実際にやってみました

はじめにStable Diffusionなどの拡散モデルを使ったVideo2Videoが盛んに開発されています。GAN(敵対的生成ネットワーク)を使っても同様のことができる気がするのですが、すでに古い技術になってしまったのかあまりそれに言及する人がいません。GANを使った…

動画作成をいろいろ試してみたけど顔だけを動かすなら現状 SadTalker がベストだと思います

はじめに無料でできる動画作成をいろいろ試しましたが顔だけを動かすなら現状 SadTalker がベストだと思います。AnimateDiffが話題になっていて更新され続けているのでいずれはそちらがベストになるような気もします。画像を1枚だけ準備する今回用意した画像…

OpenMMLab の MMagic で ViCo (Detail-Preserving Visual Condition for Personalized Text-to-Image Generation) を試してみる

目的画像生成モデルに自前の物体を描画させる試みです。以前にもDreamBoothやLoRAで同様のことをやっています。 この物体を描写させます。具体的にはビーチに立たせてみます。 ViCo (Detail-Preserving Visual Condition for Personalized Text-to-Image Gen…

【Controled AnimateDiff】ControlNet と AnimateDiff を組み合わせて Video2Video に挑戦

github.com はじめにすでに開発してくれている個人がいます。上記GitHubがそれです。今回はそちらを使わせて頂きVideo2Videoに挑戦しました。環境imageioは2.27.0かまたはそれ以前のものを使う必要があります。それ以降を使うと以下のエラーが出ます。 TypeE…

OpenMMLab の MMagic で AnimateDiff が使えるようになったので試してみました

環境 Windows 11 CUDA 11.7 Python 3.11.5Python環境構築 pip install torch==2.0.1+cu117 torchvision==0.15.2+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install mmcv==2.0.1 -f https://download.openmmlab.com/mmcv/dist/cu117/tor…

SDXL で IP-Adapter を試してみる

github.com はじめにIP-Adapter を Stable Diffusion Web UI の拡張機能としてではなく公式のGitHub通りに動かしてみました。IP-Adapterは画像をプロンプトのように扱うモデルです。画像をモデルに与えることで生成画像を制御します。冒頭の画像は左の人物に…

【SDXL 1.0】Diffusers から CLIP-skip が使えるようになったのでさっそく使ってみました。

結果 左からCLIP-skip None→1→2→3です。Pythonスクリプト from diffusers import StableDiffusionXLPipeline, DPMSolverMultistepScheduler import torch import os model_id = "osorubeshimerge_v10.safetensors" pipe = StableDiffusionXLPipeline.from_si…

【SDXL 1.0】Diffusers から Textual Inversion が使えるようになったのでさっそく使ってみました。

結果 一番左がNegative Promptなし 真ん中がunaestheticXL AYv1を使った場合 一番右がunaestheticXL v3.1を使った場合使い方 from safetensors.torch import load_file state_dict = load_file("embeddings/unaestheticXLv31.safetensors") pipe.load_textua…

GROVE接続のLCD(液晶ディスプレイ)が神だった件

今回の商品 GROVE - 16 x 2 LCD(青背景・白文字)www.switch-science.com 使用例接続がめちゃめちゃ簡単です。 Arduinoスケッチ #include <Wire.h> #include <rgb_lcd.h> rgb_lcd lcd; void setup() { lcd.begin(16, 2); lcd.print("hello, world!"); } void loop() { } ちなみ</rgb_lcd.h></wire.h>…

【SDXL Caricaturized Lora】Image2Image と LoRA を組み合わせて顔写真から似顔絵を作成する

はじめにImage2Image + LoRAは以前に試しています。 touch-sp.hatenablog.com 今回は「SDXL Caricaturized Lora」というLoRAを使って顔写真から似顔絵を作成してみます。結果一番左がもとの顔写真、右3枚が今回作成した画像です。 3年程前に「WarpGAN」とい…

【AnimateDiff】Motion Module v2 が公開されて作成動画の質が向上したそうです。さっそく試してみました。

github.com 結果 作成動画はGoogle Bloggerに載せています。 support-touchsp.blogspot.com 環境 Windows 11 CUDA 11.7 Python 3.10 Git for Windows 2.39.0Python環境構築1行で完結します。 pip install -r https://raw.githubusercontent.com/dai-ichiro/m…

【Controlnet Animation】OpenMMLab の MMagic で Video2Video ができるという事で試してみました

実行動画の準備今回はこちらからダウンロードした「dance26.mp4」という動画を使わせて頂きます。 600x600で75フレームある動画です。 Configファイルの書き換えこちらから「anythingv3_config.py」をダウンロードして一部を書き換えます。 書き換え前 contr…

OpenMMLab の MMagic を使って超解像。え、たったの3行?

はじめに以前から超解像の記事はいくつも書いてきました。超解像(Super Resolution)とは画像の解像度を上げることです。「アップスケール」と言われているものとほぼ同じだと思います。今まではOpenMMLabのMMEditingを使うことが多かったのですが、いつの…

【StableDiffusionXLInstructPix2PixPipeline】ある画像に対して「写っている犬を猫に変えて」みたいなプロンプトで新しい画像が生成できる Instruct-Pix2Pix が SDXL に対応したのでさっそく使ってみました

はじめに以前 Instruct-Pix2Pix の記事を書きました。 touch-sp.hatenablog.com 今回 SDXLに対応したとのことで改めて試してみました。 huggingface.co 768x768の画像データで学習されているようです。特徴写真に写る犬を猫に変換したい場合プロンプトは「re…

Windowsで OpenMMLab の MMagic を使って Matting

環境 WIndows 11 CUDA 11.7 Python 3.10Python環境構築 pip install torch==2.0.1+cu117 torchvision==0.15.2+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install mmcv==2.0.1 -f https://download.openmmlab.com/mmcv/dist/cu117/torch…

Windowsで OpenMMLab の MMSegmentation v1.1.1 を使う

環境 WIndows 11 CUDA 11.7 Python 3.10Python環境構築 pip install torch==2.0.1+cu117 torchvision==0.15.2+cu117 --index-url https://download.pytorch.org/whl/cu117 pip install mmcv==2.0.1 -f https://download.openmmlab.com/mmcv/dist/cu117/torch…

【SDXL 1.0】ControlNet と Inpaint を組み合わせると何ができるか?

,はじめにDiffusers に「StableDiffusionXLControlNetInpaintPipeline」という SDXL 1.0 に対して ControlNet と Inpaint を組み合わせて使えるPipelineが実装されました。さっそく使ってみたいと思います。元画像 元画像はぱくたそから使わせて頂きました。…

【悪用厳禁】顔をすり替える Roop を Stable Diffusion Web UI の拡張機能としてではなく単独で動かす

github.com はじめにディープフェイク画像が作れるという事で「悪用厳禁」、使用は「自己責任」でお願いします。WSL2を使いました。環境構築で難しいのはcudnnをインストールするところだけです。環境 Ubuntu 22.04 on WSL2 CUDA 11.8 Python 3.10準備cuDNN…

GFPGANを使ってサクッと超解像【Windows】

はじめに PC環境 Pythonの環境構築 学習済みモデルのダウンロード リポジトリのクローン いよいよ実行 等倍 2倍にアップスケール ここからが本題です 結果 追記 はじめにGFPGANをWindows環境で使う方法を紹介します。 github.com PC環境 Windows 11 CUDA 11.…