nextaltair
nextaltair
毛ほどの役にも立ちゃしねぇ
4K posts
好きなゲームから性癖まで
Don't wanna be here? Send us removal request.
nextaltair · 1 year ago
Text
370 : 警備員[Lv.18][初] (ワッチョイ 6440-jREh) [↓] :2024/04/27(土) 09:59:38.07 ID:rqlsfkzP0 (2/2) [PC] 849 警備員[Lv.25][苗][芽] (ワッチョイ c6dc-t3I8) sage 2024/04/26(金) 07:29:42.55 ID:FvKVi1T60 845 cnlllite-anystyleとりあえず動かすだけなら(forge環境) 1.cnlllite-anystyle_v3-step00004000.safetensors落としてくる(作者推奨が4000stepだから) 2.これをmodels\ControlNet配下に置く 3.forge起動する 4.ControlNet Integratedのチェックボックスを有効にしてEnableもチェック 5.Control TypeはAllのままでPreprocessorもnoneのままでいい 6.Preprocessorの横のModelの横のなんかクルクルしてるアイコン押してモデルを読み込む 7.Modelの中に多分一番上にcnlllite-anystyle_v3-step00004000.safetensorsが出てくるからそれを選択 8.あとは元にしたい画像をSingle Imageに投げ込んで画像生成
0 notes
nextaltair · 1 year ago
Quote
129無念Nameとしあき24/04/23(火)15:25:39 ID:QTr2xFC6[2]No.1208819911No.1208819911 ng+ 画質悪い素材使う時はdimを上げると画質の悪さとかまで覚えちゃうから低dimでやるといいかも?とかは聞いたけど試してないので上手くいくのかは分からない
AIに絵を描いてもら - 二次元裏@ふたば
0 notes
nextaltair · 1 year ago
Quote
CogVLM には少なくとも 12GB VRAM を備えた GPU が必要です (おそらく)
GPT-4V 画像キャプショナー。 インストールと実行 | 投稿者: Yushan777 | 中くらい
0 notes
nextaltair · 1 year ago
Photo
Tumblr media
(LoRA をトレーニングするための基本から上級までのガイド | チビタイから) 前提条件 :
学習率を 1 に設定します 。これは最も重要です。 Prodigy はトレーニング中に学習率を動的に調整します。 追加の引数 」フィールドに : 「オプティマイザーの追加引数 、適切な開始点として次の設定を入力します。 "decouple=True" "weight_decay=0.01" "d_coef=0.8" "use_bias_correction=True" "safeguard_warmup=True" "betas=0.9,0.99"
Prodigy パラメータを理解する:
d_coef (範囲: 0.1 ~ 2 、推奨: 0.8 ): これは、変更する必要がある唯一のパラメータです 。 このパラメータは学習率の変化率に影響します。 一般に、1 未満に保ちます。データセットが小さい場合は、より高い値を検討してください。 モデルが何も学習せずにオーバーフィットする場合は、値を下げる必要があります。 Weight_decay (推奨: 0.01 ): これは、データセットの学習における減衰の割合を表します。 これにより、損失関数にペナルティが追加され、重みの大きさを小さくする (モデルの単純化を促進する) ことで過学習を防止します。 トレーニング中、このペナルティ項により、モデルは重みを小さく保つことが奨励され、重みの大きさが効果的に減少します。 これにより、重み減衰によりモデルが単純化され、トレーニング データにノイズが適合する可能性が低くなり、新しい未知のデータに適切に一般化される可能性が高くなります。 これは、多くの最適化アルゴリズムで一般的な手法です。 チュートリアルによっては 0.1 や 0.5 などの値を推奨する場合がありますが、私の経験ではこれは非効率です。 これは、ステップごとにトレーニングの 10% または 50% が失われることを意味します (これは賢明ではないことに気づいているかもしれません)。 0.05 まで上げることができますが、何も変更する必要はありません。 モデルが何も学習せずにオーバーフィットする場合は、モデルの値を少し上げてみることをお勧めします。 safeguard_warmup : これをTrue 使用する場合は、 0 より大きいウォームアップを に設定します。 それ以外の場合はfalse 。 decuple : これを True に設定したままにします。 Prodigy の論文 ( https://github.com/konstmish/prodigy ) で読むことができます。 これが何をするのか知りたい場合は、 betas デフォルトの 「0.9,0.99」 :安定拡散の場合は のままにしておきます。 ベータ版を理解するには、オプティマイザーの仕組みをさらに深く掘り下げる必要がありますが、このガイドでは説明しません。
[ADVANCED] その他の調整パラメータ
0 notes
nextaltair · 1 year ago
Quote
>描き手の情熱みたいなものって結構見る側に影響与えるよね >って思った 絵って描き手と受け手のコミュケーションなんだなって AIのおかげで気づけた気がする つまりエロい絵でシコるのは描き手とのセックスに等しい
俺の描いた落書きを頼 - 二次元裏@ふたば
0 notes
nextaltair · 1 year ago
Quote
50 エポックに 1 回の繰り返しを設定するか、5 エポックに 10 回の繰り返しを設定するかで、どのような違いがあるかご存知ですか? 私はテストして、それが大きな違いを生むことを確認しましたが、具体的なことを推測することはできず、どの方法がより優れているかを判断することさえできません。 便宜上、低いエポック数を使用し、各データセットの繰り返しを調整して最大 2,000 ステップまたは 3,000 ステップを追加してきましたが、構成が逆のことを行っているのを見ると、そうする理由があるのかと疑問に思います。
SDXL ポニー ファースト トレーニング ガイド - v1.0-pony | 安定した拡散 LoRA | チビタイ50 エポックに 1 回の繰り返しを設定するか、5 エポックに 10 回の繰り返しを設定するかで、どのような違いがあるかご存知ですか?
私はテストして、それが大きな違いを生むことを確認しましたが、具体的なことを推測することはできず、どの方法がより優れているかを判断することさえできません。
便宜上、低いエポック数を使用し、各データセットの繰り返しを調整して最大 2,000 ステップまたは 3,000 ステップを追加してきましたが、構成が逆のことを行っているのを見ると、そうする理由があるのか​​と疑問に思います。 2 コメント
am7coffeelove のアバター am7コーヒーラブ の上 15日前 Prodigy は適応学習率を使用するため、1 回の繰り返しで 50 エポックなど、より大きな数のエポックを設定する方が、10 回の繰り返しで 5 つのエポックなど、複数の繰り返しで少ない数のエポックを設定するよりも有益です。 Prodigy の適応学習率メカニズムは、勾配に基づいて学習率を自動的に調整し、最適化プロセスが多数の反復にわたってより速く、より安定して収束することを可能にします。 したがって、Prodigy では、より少ないエポックを複数回繰り返すことに依存するのではなく、より多くのエポック数を設定し、トレーニング中にオプティマイザーに学習率の調整を効率的に処理させることが一般的に推奨されます。 これは、オプティマイザーが Prodigy の場合に当てはまります。 学習率が手動で設定される他のオプティマイザーの場合は、実績のある従来のエポック数と繰り返し数を使用する方がよいでしょう。
ウィーウィー 15日前
@am7coffeelove ありがとう、とても役立つ説明。
私はさらにテストを行ったところですが、実際、prodigy のハイ エポックに���り、特に複数の人やオブジェクトの配置や相互作用など、画像の構成の変更が必要な概念の学習が大幅に向上しました。 (ただし、データセットから悪い側面を学習するのも効果的になる可能性があります。データセットとキャプションが常に最も重要であることに変わりはありません。)
以前に prodigy を試したとき、vram 要件が 12gb に対して高すぎるように見えたので、Adam8bit を使い続けましたが、prodigy はプリセットで動作したため、使い始めました。 ランク32でvramが高すぎたのかもしれないと思います。 ただし、今のところランク 16 の天才が良い妥協点のように思えます。
また、試してみたい場合は、これらの設定 https://files.catbox.moe/syqtsg.png 私は多くのテストを行ってきましたが、一貫してより良い結果が得られ、今日試したいくつかの設定では、神童を使用するローラを改善するようです。 (lora タイプは locon です) ただし、私は主に珍しいコンセプトを行うので、それがキャラクターにとってより良い結果をもたらすかどうかは保証できません。
0 notes
nextaltair · 1 year ago
Quote
【トレーニングデータ】 画像枚数:20~40枚 これを超えると再現性が低下する可能性があります。 一貫した品質は量よりも重要です。 画像が同じイラストレーター、テレビ シリーズなど、一貫したアート スタイルのものであることが最善です。 ファンアートの場合は、できるだけ一貫したアート スタイルのイラストを収集するようにしてください。
SDXL ポニー ファースト トレーニング ガイド - v1.0-pony | 安定した拡散 LoRA | チビタイ
0 notes
nextaltair · 1 year ago
Quote
つまり、モデルは、意図した「これらのスコア タグが 1 つある」のではなく、すべてのスコア タグが特定の順序で含まれている場合に画像が美しく見えることを学習しました。
Score_9 とは何か、および Pony Diffusion での使用方法 | チビタイ
0 notes
nextaltair · 1 year ago
Quote
SDXL の色範囲が黄色に偏る考えられる理由 自然界には青や白のものは比較的少ないです。 これらの色は、快適な状況の空で最も目立ちます。 したがって、画像を通じて現実を知るモデルは、輝度 (チャンネル 0)、シアン/レッド (チャンネル 1)、およびライム/ミディアムパープル (チャンネル 2) で考えます。ここで、赤と緑が主であり、青が副です。 これが、SDXL 世代が黄色 (赤 + 緑) に偏っていることが多い理由です。
SDXL 潜在空間の説明
0 notes
nextaltair · 1 year ago
Photo
Tumblr media
(AIに絵を描いてもら - 二次元裏@ふたばから) >VHS画質問題 力業だがこのキャラはアップスケールしたあとトレスして顔アップから目だけ切り出して貼り付けてアニマジンLoRAにして水増しして 最終的にPonyLoRAにした
0 notes
nextaltair · 1 year ago
Photo
Tumblr media
(AIでエッチなマダツ - 二次元裏@ふたばから)
0 notes
nextaltair · 1 year ago
Photo
Tumblr media
(AIに絵を描いてもら - 二次元裏@ふたばから)
0 notes
nextaltair · 1 year ago
Photo
Tumblr media
(ドット絵(ゲーム等) - 二次元裏@ふたばから)
0 notes
nextaltair · 1 year ago
Photo
Tumblr media
(ゆっ!きゃわいいれい - 二次元裏@ふたばから)
1 note · View note
nextaltair · 2 years ago
Photo
Tumblr media
(AIに絵を描いてもら - 二次元裏@ふたばから)
1 note · View note
nextaltair · 2 years ago
Quote
>SDXLは食わず嫌いをしてたけど... >1.5用のLoraが読み込めないんでしたっけ? 基本的には使えない ただX-Adapterっていう1.5のLoRAをSDXLに適用しようとしてる人がいるので これがリリースされたら変わるかも https://showlab.github.io/X-Adapter/
AIに絵を描いてもら - 二次元裏@ふたば
1 note · View note
nextaltair · 2 years ago
Quote
>SDXLの学習に関してwikiに特に記載ないけど今でもパラメーターとか手探りでやってる状態なのかな? >とりあえずSD1.5で上手くいってたのをそのまま学習元モデルだけ変えても上手くいかなかったので >参考になるパラメーター群が欲しいところなんだけど 俺もまだよくわかってないけど テキストエンコーダーを使わない学習は画像サイズのベースを1024にすることを除けば差はなかった テキストエンコーダーを使う時はテキストエンコーダーの学習レートをUnetの1/10くらいまで落とした方が結果はよかった 正直俺ももっと参考になるデータが欲しいなと思ってる
AIに絵を描いてもら - 二次元裏@ふたば
0 notes