2023-12-01から1ヶ月間の記事一覧

C#を使ってシンボリックリンクの作成を簡略化する

C#

using System; using System.Diagnostics; using System.IO; using System.Windows.Forms; namespace make_simlink { public partial class Form1 : Form { public Form1() { InitializeComponent(); } private void button1_Click(object sender, EventArgs…

【Diffusers】AnimateDiff + Multi-ControlNet で作成する動画のフレーム数上限を上げる方法

はじめにこちらの続きです。 touch-sp.hatenablog.com この記事ではフレーム数上限は32だと書きました。 その上限を上げる方法が見つかったので紹介します。方法こちらの記事で「convert_animatediff_motion_module_to_diffusers.py」を使ってモーションモジ…

【AnimateDiff】Diffusers用にモーションモジュールを変換するスクリプトが公開されたので Diffusers から AnimateDiff v3 が使えるようになりました。

変換用スクリプトファイル名は「convert_animatediff_motion_module_to_diffusers.py」です。こちらのスクリプトです。 github.com 変換方法 python convert_animatediff_motion_module_to_diffusers.py ` --ckpt_path v3_sd15_mm.ckpt ` --use_motion_mid_b…

【OpenAI/Whisper】日本語音声の文字起こしをする際に専門用語に弱い点を克服する方法。

はじめに large-v2とlarge-v3の比較 large-v2 Pythonスクリプト「run.py」 実行 結果 large-v3 Pythonスクリプト「run.py」 実行 結果 ここから本題 Pythonスクリプト「run.py」 実行 結果 はじめにWhisperにlarge-v3という新しいモデルが追加されていたので…

【ToDo】最近気になるサイト

試してみたいけどまだ試していないもの、コードがまだ公開されていないものなどです。 進歩が速すぎてなかなか追いつけません。画像生成github.com github.com 動画生成github.com github.com github.com github.com すでに試してみたものLongAnimateDiffgit…

「fuduki_mix v2.0」が公開されています。過去のモデルと比較してみました。

結果左から v1.0 → v1.5 → v2.0 です。 今回使用したプロンプトでは、キリっとしたかっこいい女性から綺麗な女性に変わってきている気がします。Pythonスクリプトプロンプトはこちらからそのまま使わせてもらいました。 from diffusers import DiffusionPipe…

【AnimateAnyghing】AnimateAnyghing を使って Image2Videoを試してみる

github.com はじめに以前AnimateDiff Motion Module v3 と SparseCtrl を使って同じことをしました。 touch-sp.hatenablog.com AnimateAnyghingでは変化させたくない部分をそのまま残せます。その点が前回との違いになります。元画像用意した1枚の画像に動き…

【AnimateDiff】Motion Module v3 と SparseCtrl で Image2Video を試してみる

元画像用意した1枚の画像に動きを持たせることが目的です。 以下のスクリプトで作成しました。 from diffusers import StableDiffusionPipeline, EulerAncestralDiscreteScheduler import torch from compel import Compel, DiffusersTextualInversionManage…

【AnimateDiff】Motion Module v3 が公開されたので v2 と比較してみました。

はじめにv2はこちらを見てください。 touch-sp.hatenablog.com v2と全く同じ環境で動作可能でした。YAMLファイル以下のようなYAMLファイルを用意しました。 # 1-animation - adapter_lora_path: "models/Motion_Module/v3_sd15_adapter.ckpt" dreambooth_pat…

【Diffusers】SDE Drag Pipeline の紹介。女性の髪を伸ばしてみました。

はじめに以前「DragGAN」について記事を書きました。 touch-sp.hatenablog.com 「DragGAN」はGAN(敵対的生成ネットワーク)を使っています。 今回紹介する「SDE Drag」は拡散モデルを使ったものになります。目的以下の女性の髪を伸ばしてみます。 この女性…

動画の質を向上させる FreeInit を紹介します。

github.com はじめに公式ページそのまま We propose FreeInit, a concise yet effective method to improve temporal consistency of videos generated by diffusion models. FreeInit requires no additional training and introduces no learnable paramet…

【Diffusers】AnimateDiff + Multi-ControlNet + IP-Adapterで動画作成してみる

目的この女性が歩く動画(アニメ調)を作っていきます。 この女性の写真はこちらで作成したものです。 touch-sp.hatenablog.com walking動画walking動画はPixabayからこちらの動画を使わせて頂きました。 結果LCM-LoRAなしなんとなく顔は似ているような気が…

「haduki_mix v1.6 typeK」というモデルが公開されています。過去のモデルと比較してみました。

疑問「typeK」とはどういう意味なのでしょうか?結果左から v1.0 → v1.5 → v1.6 typeK です。 Pythonスクリプトプロンプトはこちらからそのまま使わせてもらいました。 from diffusers import StableDiffusionXLPipeline, DPMSolverMultistepScheduler impor…

【Diffusers】AnimateDiff + Multi-ControlNet で動画作成してみる

はじめに以前、単一のControlNetを使う場合の記事を書きました。 touch-sp.hatenablog.com 新たにMulti-ControlNetに挑戦しました。はまりポイント最大32フレームまでしか対応していないようです。それ以上の動画を作ろうとするとエラーがでます。 RuntimeEr…

【controlnet_aux】動画に対してControlNet用のPreprocessを行う

はじめに以前複数の画像に対してまとめてControlNet用のPreprocessを行う方法を書きました。 touch-sp.hatenablog.com 今回は動画を対象としました。 さらにGIFでも出力できるようにしました。Pythonスクリプト import cv2 from PIL import Image import os …

【Diffusers】AnimateDiff + IP-Adapter で動画作成してみる

IP-Adapter用の画像を作成まずは「yabalMixTrue25D」というモデルを使って女性の画像を作成しました。 なんとなく作ったのですが手の描写が完璧すぎて驚きました。 from diffusers import DiffusionPipeline, DPMSolverMultistepScheduler, AutoencoderKL pi…

【Diffusers】AnimateDiff + ControlNet で動画作成してみる

はじめに最近DiffusersのAnimateDiffでControlNetが使えるようになりました。さっそく使ってみました。環境 Windows 11 CUDA 11.8 Python 3.11Python環境構築 pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 --index-url https://download.pytor…

MagicAnimate で 使用できる DensePoseモーション動画を作成する

環境 Ubuntu 22.04 on WSL2 CUDA 11.7 or 11.8 Python 3.10方法① Python環境構築動画作成後にMagicAnimateを使うことを想定して環境構築します。たったの2行です。 pip install -r https://raw.githubusercontent.com/dai-ichiro/myEnvironments/main/magic-…

巷でうわさの「MagicAnimate」を使ってみました

github.com 環境 環境構築 CUDA 11.7の場合 CUDA 11.8の場合 準備 実行(GUIなし) YAMLファイルの作成 実行 実行(Gradio:GUIあり) 続き 環境 Ubuntu 22.04 on WSL2 CUDA 11.7 or 11.8 Python 3.10Python 3.10以外でも動くと思いますが確認はできていませ…

【controlnet_aux】複数の画像に対してまとめてControlNet用のPreprocessを行う

はじめにcontrolnet-auxというライブラリを使って複数の画像に対してまとめてControlNet用のPreprocessを行うスクリプトを書きました。controlnet-auxについては以下を見て下さい。 touch-sp.hatenablog.com Pythonスクリプト from PIL import Image import …