[心得] 9070XT RCOm7 純Win環境AI跑圖心得後續-1

看板PC_Shopping (個人電腦購買)作者 (TRF小兵)時間2小時前 (2025/11/10 03:11), 編輯推噓2(200)
留言2則, 2人參與, 34分鐘前最新討論串1/1
之前寫了兩篇文章 但SD.Netx更新實在太快... 目前直接幫你導入 ROCm/TheRock團隊架構的PyTorch安裝包 整個安裝方式 我又重新更新一次 目前9070XT在MI Open上有BUG 還在排隊等修復中 總之就是找不到最佳化算法 GPU核心一直瘋狂滿載 最終崩潰掉驅動 ComfyUI跟SD.Netx最新版本 都已經自動針對9070XT關閉MI Open 等於下面的參數自動幫你加上了 torch.backends.cudnn.enabled = False 所以目前不用在手動追加這個參數 我花了一點時間測試 如何在純Win11系統環境下 讓9070XT跑最新的ROCm7 提供的構築環境方式我覺得已經是最簡單的了 而且是純WIN環境下去跑 不用額外搞甚麼linux子系統 純WIN環境下目前能跑的是 Radeon RX 7000 系列 Radeon RX 9000 系列 Ryzen AI 300 與 AI Max 系列 APU(部分型號) 主要參考SD.Next網站上的說明 https://vladmandic.github.io/sdnext-docs/AMD-ROCm/ 使用ROCm/TheRock團隊架構的PyTorch安裝包 安裝方式參考 https://github.com/ROCm/TheRock ComfyUI架構ROCm7可以參考下面網址教學 https://xoghfwdske.feishu.cn/docx/J2TmdPNOpoXWwBxOU57cSUjJnRU 架構ROCm7 Stable Diffusion WebUI SD.Next 簡易流程 安裝AMD PyTorch on Windows 測試驅動 https://www.amd.com/en/resources/support-articles/release-notes/RN-AMDGPU-WINDOWS-PYTORCH-PREVIEW.html 安裝AMD HIP SDK 目前最新6.4.2 https://www.amd.com/zh-tw/developer/resources/rocm-hub/hip-sdk.html Git安裝 https://github.com/git-for-windows/git/releases/download/v2.47.1.windows.1/Git-2.47.1-64-bit.exe Python 3.12.10 安裝 https://www.python.org/ftp/python/3.12.10/python-3.12.10-amd64.exe https://i.imgur.com/hr83AwA.png
把Python加入PATH 環境變數記得打勾 MSVC裝上X64版本 https://learn.microsoft.com/zh-tw/cpp/windows/latest-supported-vc-redist?view=msvc-170 接著開啟Windows PowerShell可以用腳本執行 桌面工作列上的視窗圖標按右鍵 選擇以系統管理員身分執行 PowerShell https://i.imgur.com/yw6VzHz.png
輸入 Set-ExecutionPolicy RemoteSigned 讓PowerShell支援長路徑 輸入 New-ItemProperty -Path "HKLM:\SYSTEM\CurrentControlSet\Control\FileSystem" -Name "LongPathsEnabled" -Value 1 -PropertyType DWORD -Force 完成後關閉PowerShell 前置作業到這邊告一段落 接著準備開始安裝 Stable Diffusion WebUI SD.Next 記得挑容量大一點的硬碟位置 AI大模型基本6G起跳 在準備要安裝的位置新增一個資料夾 我是取名為SD.Next 點進資料夾按右鍵 選擇在終端開啟 呼叫命令提示字元 https://i.imgur.com/JzO58wf.png
依序一段一段輸入 1. git clone https://github.com/vladmandic/sdnext 2. cd sdnext 3. git switch dev 4. git pull 關閉PowerShell 在sdnext根目錄下新增一個文字文件 檔名我是用webui-user 裡面文字內容如下 @echo off set COMMANDLINE_ARGS=--use-rocm --autolaunch call webui.bat https://i.imgur.com/D1SPYcq.png
接著存檔把文字文件.txt的副檔名改成.bat即可 這個webui-user.bat以後就是執行檔 set COMMANDLINE_ARGS = 這裡可以直接填上想用CLI Arguments參數 https://vladmandic.github.io/sdnext-docs/CLI-Arguments/ 不想每次自動打開瀏覽器 把--autolaunch移除就好 想要自己安裝 ROCm/TheRock團隊架構的PyTorch安裝包 從頭開始安裝指令如下 打開PowerShell 終端機輸入下面指令 1. git clone https://github.com/vladmandic/sdnext 2. cd sdnext 3. git switch dev 4. git pull 下面開始不一樣 5. pip install uv 安裝uv 套件安裝器 這個套件會加速套件安裝的速度至10倍~100倍 6. python -m venv venv 7. venv\Scripts\Activate 使用虛擬環境 8. uv pip install --index-url https://rocm.nightlies.amd.com/v2-staging/gfx120X-all/ torch torchvision torchaudio 針對9070XT後續要跟更新ROCm 或者從其他版本直接升級 1. venv\Scripts\Activate 2. uv pip install --upgrade --index-url https://rocm.nightlies.amd.com/v2-staging/gfx120X-all/ torch torchvision torchaudio 我重複安裝測試好幾次應該沒問題 有問題請自己DEBUG 有時候發生問題或是想要重新安裝ROCm時 可以直接把venv資料夾整個刪掉 重新做一個虛擬環境 只需要下面兩個指令 python -m venv venv venv\Scripts\Activate 如果想要使用不同版本獨立的python去部屬 可以改成 uv venv venv --python 3.11 --seed venv\Scripts\Activate python版號可自由選擇 3.11、3.12、3.13 成功的人恭喜你 正式踏入修練AI煉金術的其中一員 主要模型會放在\sdnext\models\Stable-diffusion下面 建議一開始使用wai-nsfw-illustrious-sdxl動漫模型來測試 https://civitai.com/models/827184/wai-nsfw-illustrious-sdxl 動漫類提示詞我都抄這裡的 https://seesaawiki.jp/nai_ch/ 提供一個動漫腳色查詢程式 https://github.com/mirabarukaso/character_select_stand_alone_app 也有提供提示詞的輔助 但不支援SD.Netx 直接用API調用 我是拿來當簡易辭典使用 詞庫是簡體中文 我自己把改文件成繁中 然後輸入關鍵字會自動跑出腳色 https://i.imgur.com/Z4WlyrP.png
提示詞也是 https://i.imgur.com/WxQoXA1.png
輸入好後按生成 提示詞用滑鼠反白 Ctrl+C複製貼到SD.Netx即可 https://i.imgur.com/glchyEU.png
我不提供自行修改過的檔案 有興趣請自行研究= = 再來是追加針對9070XT後續調效優化 由於MI Open被強制關閉 9070XT猶如脫韁的野馬 在顯存控制上不受控制 有時候會爆顯存oom錯誤 發生破圖的時候 請馬上關掉PowerShell 不然高機率系統死當= = 由於SD.Netx已經內建許多功能 一些外掛套件裝上可能會出問題 網路上一些教學都可能已經過時 我建議使用SD.Netx內建功能就足夠 建議可以裝上sd-webui-prompt-all-in-one 但是用在SD.Netx上還是有點BUG 想裝的人自行去搜尋 我介面是改成標準介面 https://i.imgur.com/X5iYmBj.png
我的使用界面目前是這樣 https://i.imgur.com/n08CYCQ.png
上面教的webui-user.bat用記事本打開 追加一條打開aotriton的環境參數 set TORCH_ROCM_AOTRITON_ENABLE_EXPERIMENTAL=1 如下面這樣 @echo off set COMMANDLINE_ARGS=--use-rocm --autolaunch set TORCH_ROCM_AOTRITON_ENABLE_EXPERIMENTAL=1 call webui.bat 建議追加下面兩條參數 --experimental 允許使用不支援的libraries --debug 出問題會跑比較詳細的資訊 可以貼到網路上去查詢問題 接著是設定方面 計算設置基本上用FB16或BF16 https://i.imgur.com/KcxOyQ6.png
我測試用起來BF16是快一些 但用FB16穩一點 下面那些注意力模式 目前A卡Rocm7 Windows下都不能用 除非你有自己有能在Win環境下 編譯Flash attention的能力 VAE設置 基本上就分塊減少GPU記憶體的開銷 https://i.imgur.com/hIbCXS6.png
瓦片大小選擇512或256 管道修改器 https://i.imgur.com/4M42IcU.png
HyperTile下 Hypertile UNet Enabled 打勾 這設定會影響精度 但我其實沒什麼感覺 能提高跑圖性能就好 模型量化可以減少GPU記憶體的開銷 https://i.imgur.com/RvSV8oU.png
這是裡面最重要的優化調整 內建的SDNQ: SD.Next Quantization基本上就很好用 我這邊是針對9070XT目前能用的設定調整 量化模式使用post 量化類型可以用:int8或float8_e4m3fn 要進一步節省GPU記憶體 可以選擇int4 但是精度會下降 基本上選擇模型、te、LLM去做量化 VAE基本上不用...打開也沒用...會報錯 9070XT量化用int8或float8_e4m3fn速度最快 目前FSR4模型標準版就是用float8去跑 附帶一題9070XT int8算力達779Tops 接近RTX4080 int8 780Tops 也是目前RDNA架構唯一支持float8(FP8) 上代RDNA3 7900XTX int8也只有122.83Tops 模型卸載的選擇會影響顯存釋放並影響效能 https://i.imgur.com/Y7Cfz36.png
最快當然是無,不自動對模型卸載動作 平衡 我用起來很無感我不是很推...對於現在的9070XT來說 模型 跑完流程自動卸載 最省顯存是選擇順序...但就是很慢 如果模型有經過進一步量化調整 可以選擇無處理跑看看 再來就是選擇模型 其他設定不懂就不要碰了 亂開會導致錯誤 到時候打不開只能重新跑一次安裝 調整後測試 生成一位天之罩杯(光),在中世紀旅館躺在床上 使用模型:waiNSFWIllustrious_v150 解析度1024X768 20步 引導尺度6 VAE類型選擇Tiny 高擴散打勾 https://i.imgur.com/RI5oamJ.png
20步算完3s 流程跑完3.85s 量化類型float8_e4m3fn GPU 7790 MB 48% | RAM 23.15 GB 36% 想換換口味跑真人模型 我是推薦找一些Pony模型或SDXL、Illustrious XL FLUX我是不推啦...雖然跑起來很真實 但實在消耗巨大...我還在死守AM4平台 基本上跑FLUX我系統記憶體64G直接吃滿 不好瑟瑟...還要找LoRA... 基本上跑真人細節增強器必開 自動修臉、修手、修眼睛之類的 會增加顯存的消耗 所以模型量化很重要 真人模型尺度沒有動漫模型那麼自由 提示詞AI不理解有時跑出一些奇奇怪怪的 多出手臂跟腳還是跑出好幾個頭 雖然習慣就好...但還是請做好心理準備 一開始接觸正常人出現恐怖谷效應很正常 我這邊改用beretMixReal_v100模型測試 解析度改成1280X960 https://i.imgur.com/JLefOsC.png
單純用提示詞效果結果還行 優化後提高解析度跑圖效率還是不錯的 https://i.imgur.com/fVvJQ3J.png
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 125.229.59.186 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1762715494.A.58F.html

11/10 04:34, 1小時前 , 1F
11/10 04:34, 1F

11/10 05:10, 34分鐘前 , 2F
純推 不過Linux下的相容性還是比Win好多了
11/10 05:10, 2F
文章代碼(AID): #1f4ETcMF (PC_Shopping)
文章代碼(AID): #1f4ETcMF (PC_Shopping)