Gazou-Seiri-Bu commited on
Commit
d9983ef
·
verified ·
1 Parent(s): a0db691

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +48 -13
README.md CHANGED
@@ -1,29 +1,64 @@
1
- # 画像仕分けワークフロー
2
 
3
- ![](仕分けワークフロー使用例.png)
4
 
5
  ## 概要
6
 
7
- フォルダ内の画像をタガーで分析してその結果から指定した条件を満たす画像を
8
 
9
- 仕分け先のフォルダに移動・コピーするComfy UI用ワークフローです。
10
 
11
- A1111やForgeで作られたPNG画像ならメタデータからの仕分けもできます。(試してませんがpng以外はダメな気がします)
12
 
13
- 条件の指定はノードを組み合わせて行います。
14
 
15
- TagFinderはコンマで区切られたプロンプトの中に一部でも入力した文字を見つけるとTrueを返す仕様ですのでご注意ください。
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
16
 
17
  ## 使い方
18
- Comfy UIのcustom_nodesフォルダ内に適当なフォルダを作りそこにPlay_with_Tag.pyと__init__.pyを置いてComfy UIを起動してください。
19
 
20
- 操作の手順は使用例のワークフローをご覧ください。
 
 
 
 
 
 
 
 
 
 
 
 
 
21
 
 
22
 
23
- # おまけ:ものぐさtagger
24
 
25
- ![](ものぐさtagger.png)
26
 
27
- タグ付けとタグの削除とトリガーワードの追加を一遍にやるものぐさtaggerのワークフローです。
28
 
29
- 仕分けワークフロー同様ComfyUIにPlay_with_Tag.pyと__init__.pyを入れると使えます。
 
1
+ # 自働ボイスストーリー生成ワークフロー
2
 
3
+ ![](Auto-Voice-Story.png)
4
 
5
  ## 概要
6
 
7
+ ローカルLLM実行ソフトollamaで作ったストーリーのセリフをAI音声合成ソフトのStyle-Bert-Vits2に渡して声を作る作業をComfy UIで自動化したワークフローです。
8
 
9
+ 生成した声はフォルダ内に実行順にナンバリングされたファイル名がつけられ、フォルダ内連続再生を設定した音声プレイヤーで聞くことができます。
10
 
11
+ 現在ComfyでローカルLLMを実行するのには様々なカスタムノードがあり、ManagerでLLMを検索するとLLM partyというノードが最も人気があるのですが、
12
 
13
+ 私の環境ではモデルの切り替えに失敗してエラーになることが多いので今回はComfy上からollamaを操作できるようになるcomfyui-ollamaというノードを使っています。
14
 
15
+ Comfyでもう別のLLMノードを使っている方はそちらに置き換えてくださって結構ですし、Chat GPTに書かせたストーリーをコピペしたり
16
+
17
+ 自分で話を全部書くという方はollamaのインストールは必要ありません。
18
+
19
+ 【ollamaのインストール】
20
+
21
+ https://ollama.com/
22
+
23
+ ollamaはソフト本体に加えggufモデルのインストールが必要です。解説記事やChat GPTなどをご参考に。
24
+
25
+ ollamaは常駐するのでワークフロー実行時に立ち上げる必要はありません。
26
+
27
+ 【Style-Bert-VITS2のインストール】
28
+
29
+ https://github.com/litagin02/Style-Bert-VITS2
30
+
31
+ こちらはこのワークフローの実行には必須です。Style-Bert-VITS2は最初から4つのお試しモデルが入っているのですぐに声の生成を実行することができます。
32
+
33
+ 説明手順に従ってインストールすると、これ一本で音声合成からモデルの作成までできるようになります。
34
+
35
+ 制作者のlitaginさん自らの使い方解説のYouTube動画が非常にわかりやすいです。
36
+
37
+ ワークフローの実行の前にStyle-Bert-VITS2フォルダの下のServer.batをダブルクリックしてサーバーを起動しておいて下さい。
38
 
39
  ## 使い方
 
40
 
41
+ Style-Bert-Vits2にAPIを使ってデータを渡すカスタムノードを入れる必要があります。
42
+
43
+ Comfy UIのcustom_nodesフォルダ内に適当なフォルダを作りそこにこのリポジトリのAuto_Voice_Story.pyと__init__.pyを置いてComfy UIを起動してください。
44
+
45
+ ノードの働きはワークフローの中にnoteで書いてあります。
46
+
47
+ Autoと銘打ちながらLLM出力にはハズレが多いので、まずワークフロー左半分でストーリーガチャをして、
48
+
49
+ あたりの文章が出たらそれを推敲して右半分に渡して声生成というセミオート運用が現実的だと思います。適宜左右Groupのバイパスを切り替えてください。
50
+
51
+
52
+ ### 音声単独生成フロー
53
+
54
+ ![](Auto-Voice-Story+.png)
55
 
56
+ 生成する声の中にはどうしてもアクセントがおかしいものが含まれてしまいます。
57
 
58
+ また、あとから追加のセリフを挿入したくなることもあります。
59
 
60
+ そういった声の修正用や追加用にセリフを単独で生成するワークフローも用意しました。
61
 
62
+ 部分的な修正を何度試してもイメージに近くならなかったら、思い切って文章全体を変えてしまうのも手です。
63
 
64
+ イメージ通りの声ができたら声フォルダに実行番号にリネームして置いて下さい。