[心得] 9070XT RCOm7 純Win環境AI跑圖心得後續-1
之前寫了兩篇文章
但SD.Netx更新實在太快...
目前直接幫你導入
ROCm/TheRock團隊架構的PyTorch安裝包
整個安裝方式
我又重新更新一次
目前9070XT在MI Open上有BUG
還在排隊等修復中
總之就是找不到最佳化算法
GPU核心一直瘋狂滿載
最終崩潰掉驅動
ComfyUI跟SD.Netx最新版本
都已經自動針對9070XT關閉MI Open
等於下面的參數自動幫你加上了
torch.backends.cudnn.enabled = False
所以目前不用在手動追加這個參數
我花了一點時間測試
如何在純Win11系統環境下
讓9070XT跑最新的ROCm7
提供的構築環境方式我覺得已經是最簡單的了
而且是純WIN環境下去跑
不用額外搞甚麼linux子系統
純WIN環境下目前能跑的是
Radeon RX 7000 系列
Radeon RX 9000 系列
Ryzen AI 300 與 AI Max 系列 APU(部分型號)
主要參考SD.Next網站上的說明
https://vladmandic.github.io/sdnext-docs/AMD-ROCm/
使用ROCm/TheRock團隊架構的PyTorch安裝包
安裝方式參考
https://github.com/ROCm/TheRock
ComfyUI架構ROCm7可以參考下面網址教學
https://xoghfwdske.feishu.cn/docx/J2TmdPNOpoXWwBxOU57cSUjJnRU
架構ROCm7 Stable Diffusion WebUI SD.Next 簡易流程
安裝AMD PyTorch on Windows 測試驅動
https://www.amd.com/en/resources/support-articles/release-notes/RN-AMDGPU-WINDOWS-PYTORCH-PREVIEW.html
安裝AMD HIP SDK 目前最新6.4.2
https://www.amd.com/zh-tw/developer/resources/rocm-hub/hip-sdk.html
Git安裝
https://github.com/git-for-windows/git/releases/download/v2.47.1.windows.1/Git-2.47.1-64-bit.exe
Python 3.12.10 安裝
https://www.python.org/ftp/python/3.12.10/python-3.12.10-amd64.exe
https://i.imgur.com/hr83AwA.png

把Python加入PATH 環境變數記得打勾
MSVC裝上X64版本
https://learn.microsoft.com/zh-tw/cpp/windows/latest-supported-vc-redist?view=msvc-170
接著開啟Windows PowerShell可以用腳本執行
桌面工作列上的視窗圖標按右鍵
選擇以系統管理員身分執行 PowerShell
https://i.imgur.com/yw6VzHz.png

輸入
Set-ExecutionPolicy RemoteSigned
讓PowerShell支援長路徑
輸入
New-ItemProperty -Path "HKLM:\SYSTEM\CurrentControlSet\Control\FileSystem"
-Name "LongPathsEnabled" -Value 1 -PropertyType DWORD -Force
完成後關閉PowerShell
前置作業到這邊告一段落
接著準備開始安裝 Stable Diffusion WebUI SD.Next
記得挑容量大一點的硬碟位置
AI大模型基本6G起跳
在準備要安裝的位置新增一個資料夾
我是取名為SD.Next
點進資料夾按右鍵 選擇在終端開啟
呼叫命令提示字元
https://i.imgur.com/JzO58wf.png

依序一段一段輸入
1. git clone https://github.com/vladmandic/sdnext
2. cd sdnext
3. git switch dev
4. git pull
關閉PowerShell
在sdnext根目錄下新增一個文字文件
檔名我是用webui-user
裡面文字內容如下
@echo off
set COMMANDLINE_ARGS=--use-rocm --autolaunch
call webui.bat
https://i.imgur.com/D1SPYcq.png

接著存檔把文字文件.txt的副檔名改成.bat即可
這個webui-user.bat以後就是執行檔
set COMMANDLINE_ARGS =
這裡可以直接填上想用CLI Arguments參數
https://vladmandic.github.io/sdnext-docs/CLI-Arguments/
不想每次自動打開瀏覽器
把--autolaunch移除就好
想要自己安裝
ROCm/TheRock團隊架構的PyTorch安裝包
從頭開始安裝指令如下
打開PowerShell 終端機輸入下面指令
1. git clone https://github.com/vladmandic/sdnext
2. cd sdnext
3. git switch dev
4. git pull
下面開始不一樣
5. pip install uv
安裝uv 套件安裝器
這個套件會加速套件安裝的速度至10倍~100倍
6. python -m venv venv
7. venv\Scripts\Activate
使用虛擬環境
8. uv pip install --index-url
https://rocm.nightlies.amd.com/v2-staging/gfx120X-all/ torch torchvision
torchaudio
針對9070XT後續要跟更新ROCm
或者從其他版本直接升級
1. venv\Scripts\Activate
2. uv pip install --upgrade --index-url
https://rocm.nightlies.amd.com/v2-staging/gfx120X-all/ torch torchvision
torchaudio
我重複安裝測試好幾次應該沒問題
有問題請自己DEBUG
有時候發生問題或是想要重新安裝ROCm時
可以直接把venv資料夾整個刪掉
重新做一個虛擬環境
只需要下面兩個指令
python -m venv venv
venv\Scripts\Activate
如果想要使用不同版本獨立的python去部屬
可以改成
uv venv venv --python 3.11 --seed
venv\Scripts\Activate
python版號可自由選擇 3.11、3.12、3.13
成功的人恭喜你
正式踏入修練AI煉金術的其中一員
主要模型會放在\sdnext\models\Stable-diffusion下面
建議一開始使用wai-nsfw-illustrious-sdxl動漫模型來測試
https://civitai.com/models/827184/wai-nsfw-illustrious-sdxl
動漫類提示詞我都抄這裡的
https://seesaawiki.jp/nai_ch/
提供一個動漫腳色查詢程式
https://github.com/mirabarukaso/character_select_stand_alone_app
也有提供提示詞的輔助
但不支援SD.Netx 直接用API調用
我是拿來當簡易辭典使用
詞庫是簡體中文
我自己把改文件成繁中
然後輸入關鍵字會自動跑出腳色
https://i.imgur.com/Z4WlyrP.png


輸入好後按生成
提示詞用滑鼠反白 Ctrl+C複製貼到SD.Netx即可
https://i.imgur.com/glchyEU.png

我不提供自行修改過的檔案
有興趣請自行研究= =
再來是追加針對9070XT後續調效優化
由於MI Open被強制關閉
9070XT猶如脫韁的野馬
在顯存控制上不受控制
有時候會爆顯存oom錯誤
發生破圖的時候
請馬上關掉PowerShell
不然高機率系統死當= =
由於SD.Netx已經內建許多功能
一些外掛套件裝上可能會出問題
網路上一些教學都可能已經過時
我建議使用SD.Netx內建功能就足夠
建議可以裝上sd-webui-prompt-all-in-one
但是用在SD.Netx上還是有點BUG
想裝的人自行去搜尋
我介面是改成標準介面
https://i.imgur.com/X5iYmBj.png

我的使用界面目前是這樣
https://i.imgur.com/n08CYCQ.png

上面教的webui-user.bat用記事本打開
追加一條打開aotriton的環境參數
set TORCH_ROCM_AOTRITON_ENABLE_EXPERIMENTAL=1
如下面這樣
@echo off
set COMMANDLINE_ARGS=--use-rocm --autolaunch
set TORCH_ROCM_AOTRITON_ENABLE_EXPERIMENTAL=1
call webui.bat
建議追加下面兩條參數
--experimental
允許使用不支援的libraries
--debug
出問題會跑比較詳細的資訊
可以貼到網路上去查詢問題
接著是設定方面
計算設置基本上用FB16或BF16
https://i.imgur.com/KcxOyQ6.png

我測試用起來BF16是快一些
但用FB16穩一點
下面那些注意力模式
目前A卡Rocm7 Windows下都不能用
除非你有自己有能在Win環境下
編譯Flash attention的能力
VAE設置 基本上就分塊減少GPU記憶體的開銷
https://i.imgur.com/hIbCXS6.png

瓦片大小選擇512或256
管道修改器
https://i.imgur.com/4M42IcU.png

HyperTile下
Hypertile UNet Enabled 打勾
這設定會影響精度
但我其實沒什麼感覺
能提高跑圖性能就好
模型量化可以減少GPU記憶體的開銷
https://i.imgur.com/RvSV8oU.png

這是裡面最重要的優化調整
內建的SDNQ: SD.Next Quantization基本上就很好用
我這邊是針對9070XT目前能用的設定調整
量化模式使用post
量化類型可以用:int8或float8_e4m3fn
要進一步節省GPU記憶體
可以選擇int4 但是精度會下降
基本上選擇模型、te、LLM去做量化
VAE基本上不用...打開也沒用...會報錯
9070XT量化用int8或float8_e4m3fn速度最快
目前FSR4模型標準版就是用float8去跑
附帶一題9070XT int8算力達779Tops
接近RTX4080 int8 780Tops
也是目前RDNA架構唯一支持float8(FP8)
上代RDNA3 7900XTX int8也只有122.83Tops
模型卸載的選擇會影響顯存釋放並影響效能
https://i.imgur.com/Y7Cfz36.png

最快當然是無,不自動對模型卸載動作
平衡 我用起來很無感我不是很推...對於現在的9070XT來說
模型 跑完流程自動卸載
最省顯存是選擇順序...但就是很慢
如果模型有經過進一步量化調整
可以選擇無處理跑看看
再來就是選擇模型
其他設定不懂就不要碰了
亂開會導致錯誤
到時候打不開只能重新跑一次安裝
調整後測試
生成一位天之罩杯(光),在中世紀旅館躺在床上
使用模型:waiNSFWIllustrious_v150
解析度1024X768 20步 引導尺度6 VAE類型選擇Tiny 高擴散打勾
https://i.imgur.com/RI5oamJ.png

20步算完3s 流程跑完3.85s
量化類型float8_e4m3fn
GPU 7790 MB 48% | RAM 23.15 GB 36%
想換換口味跑真人模型
我是推薦找一些Pony模型或SDXL、Illustrious XL
FLUX我是不推啦...雖然跑起來很真實
但實在消耗巨大...我還在死守AM4平台
基本上跑FLUX我系統記憶體64G直接吃滿
不好瑟瑟...還要找LoRA...
基本上跑真人細節增強器必開
自動修臉、修手、修眼睛之類的
會增加顯存的消耗
所以模型量化很重要
真人模型尺度沒有動漫模型那麼自由
提示詞AI不理解有時跑出一些奇奇怪怪的
多出手臂跟腳還是跑出好幾個頭
雖然習慣就好...但還是請做好心理準備
一開始接觸正常人出現恐怖谷效應很正常
我這邊改用beretMixReal_v100模型測試
解析度改成1280X960
https://i.imgur.com/JLefOsC.png

單純用提示詞效果結果還行
優化後提高解析度跑圖效率還是不錯的
https://i.imgur.com/fVvJQ3J.png

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 125.229.59.186 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1762715494.A.58F.html
推
11/10 04:34,
1小時前
, 1F
11/10 04:34, 1F
推
11/10 05:10,
34分鐘前
, 2F
11/10 05:10, 2F
PC_Shopping 近期熱門文章
PTT數位生活區 即時熱門文章