店小二日記

AI繪圖-Stable Diffusion 004- 文生圖 txt2img

在SD WebUi 文生圖的介面下,我們可以通過文字描述(提示詞-prompt)搭配不同採樣演算法,迭代步數,CFG值…等參數的設定,去控制圖像模型生成我們所想要的圖片內容。

整篇分5個區分段來介紹

 

VAE、主模型切換 & CLIP skip

預設的WebUi並不會顯示出VAE模型切換(SD VAE)和CLIP跳過層設定(Clip skip)的操作選項,我們需要先到”Settings”標籤頁裡進行介面設定。

在”Settings/User interface”中找到Quicksetting list欄,在欄位中輸入關鍵字自動就會出現可用選單供選擇,把sd_vae和CLIP_stop_at_last_layers加進來。

每次修改完Settings裡的內容後,記得都要”Apply settings”後再”Relaod UI”,修改的內容才會顯示出來。


 

VAE、主模型切換

從網站上下載的Checkpoint和VAE模型,分別放進各自的資料夾後,就可以在下拉選單中找到並切換使用。如果是在WebUi介面正開啟使用狀態下另再加入的模型,要先點擊選單旁的刷新鈕,才會將剛放進的模型讀取進來。

Checkpoint放置位址 : WebUi程式資料夾\models\Stable-diffusion
VAE 放置位址 : WebUi程式資料夾\models\VAE

而在這些放置模型的資料夾底下,我們可以按自己使用習慣再新增建立不同的資料夾來將模型進行分類放置,以方便未來當下載的模型愈來愈多,選單落落長時,也能快速找到所需的模型。(ex. ….\SD1.5\00 Anime)


 

CLIP skip

先看名稱有CLIP(Contrastive Language-Image Pre-Training),我們就可以知道,這裡在圖片生成過程中主要是介入到 “Prompt轉換給Stable Diffusion理解/參照”這段。一般使用時,都是默認的預設數值就好,如遇到模型在使用說明中有特別提到使用指定的clip skip數值會產出較理想結果時,再來使用即可。

從網上相關的原理說明來看(想深入了解原文解釋的可參考網址中Clip Skip這段說明→ 網址連結)。我的理解就是,文字資訊Prompt的內容是會被分層分類,一層層推進過濾,愈分愈細,最終Stable Diffusion就會以讀取到的分層分類後的資訊進行繪圖。(ex. 人類分成男性、女性→女性又再分成女孩、女人→女人又再細分下去,可能是依人種、髮色、穿著、動作…等不同特徵來分類。)

而Clip skip的數值範圍從1~12(層),如果我需要完整保留prompt所有細節描述精準的產出,那就不要跳過任何一層分類(這裡是數值1),如果我想讓Stable Diffusion在不同程度/內容細節上可以更自由發揮創意,那就把數值逐漸拉高(跳過更多分類層)測試看看。skip數值愈大,所生成的圖像也愈偏離提示詞內容,但同時Stable Diffusion也能較不受提示詞限制,在更廣的分類層下有更多的素材內容可以取用作圖。

下面測試了2個案例

案例一、提示詞是”a girl, black long hair, wearing sunglasses”。

Clip skip1~3之間,所有提示詞的內容都有呈現符合,一個女孩、黑色長髮,戴著太陽眼鏡。
Clip skip4~6之間,髮色開始跑掉不是指定的黑色。
Clip skip7之後太陽眼鏡都不見了,且有的髮色不是黑色,有的變成短髮。

 

案例二,提示詞只有”a cat”,當Clip skip的數值愈高,就開始愈來愈不像貓,神態長得開始往狗/或其它動物的方向去。

 

 

 正、反向提示詞輸入

正向提示詞(Prompt)就是我們需要畫面中出現的內容,但有時生成的圖片雖然都符合了我們所描述的同時,畫面中也可能會多出一些其他我們不想要的內容,這時就需要利用反向提示詞(Negative Prompt)去告訴Stable Diffusion,我不要什麼。

下面是提示詞的一些基本格式寫法和原則。

來測試一個漸變的案例 :
提示詞是 : [1cat:1dog:20],總步數(Steps)為40。很明顯20以前都是在生成貓,20以後開始加入/生成狗的外貌特徵。

 

 

預設提示詞應用/儲存

對於一些每次生成圖像時都會用到的提示詞,像是”best quality, masterpiece….等提高畫質”的prompts,我們可以把它儲存起來,這樣下次使用時就不用再重新從頭輸入一遍。

 

之後就可以在Styles的下拉選單中呼叫出來使用。生成圖像時,除了prompt框裡輸入的文字,Styles裡所選取的預設提示詞內容也會被讀取。

 

這個按鈕可以把選進Styles裡的提示詞全部還原展開放進Prompt輸入框裡。

 

之後如果想要刪除修改Styles裡儲存的提示詞集時,可以到WebUi程式資料夾下找到styles文字檔。用記事本或excel打開後就可以開始進行修改。

 


 

垃圾桶按鈕是清空Prompt欄位裡的內容。

箭頭按鈕有兩個作用,當Prompt欄位是空白時,會還原恢復上一張圖的prompt、各項參數等設定資訊。或是我們在Civitai網站上看到喜歡的圖片,想了解所有參數是如何設定的,只要把這張圖的設定資訊Copy下來,全部貼到Prompt欄後,按下箭頭按鈕就會自動幫你把下方參數設定都套用好。


 

 

最後這個”小紅書”按鈕,可以叫出embedding(Textual Inversion)、Lora等輔助模型的選單。

模型檔案放置位址 :
Embedding : WebUi程式資料夾\embeddings
Lora以及LyCORI: WebUi程式資料夾\models\Lora

在這些放置模型的資料夾底下,我們一樣也可以另建立新的資料夾來對模型進行分類排序。

 

透過案例來比對一下套用embedding、Lora以及LyCORIS模型的出圖效果。

案例一、”a girl in leather jacket”

當其它所有參數設定都不變動,只套上Emma Watson的embedding(Textual Inversion)。按下小紅書叫出模型選單,點選要使用的Embedding, 讓這個embedding的”觸發詞(Trigger Words)”顯示在Prmopt欄裡。最後生成出來穿皮衣的Emma Watson。

 

案例二、”a girl sitting on a chair”

一樣所有參數設定都不變動,再添加讓人物穿上特定風格服飾的Lora。<lora:lo_dress_classic_style3_v1:1>,套用上的Lora,在冒號後面的數字代表權重,預設是1,可自行調整影響的權重。

 

案例三、和案例一同樣”a girl in leather jacket”的設定,改套用Emma Watson的LyCORIS模型。
(PS. 自WebUi 1.5.0以後的版本,LyCORIS模型不需要再另外下載外掛就能直接使用,所有LyCORIS模型放置的位置和使用方法都和Lora一樣。)

 

 

出圖參數設置


 


 


 

勾選Extra,會展開另一個隨機種子選項。(這個Extra的Seed平時不太會用到)


 

Script(腳本)

 

 

 

出圖預覽區

 


~下方拍手按個讚(每人最多可按5次讚),鼓勵一下吧,您的鼓勵就是店小二持續發文的動力~ 感謝 : ) ~

Exit mobile version