跳到主要內容

在 Live Debian System 中透過 Openweb-UI 結合 Stable Diffusion 產生圖片

 

一直想在 Live Debian System 中安裝 Stable Diffusion,以往在 Windows 中用 automatic 1111 很方便,但是新版的 Stable Diffusion 3.5 目前無法在 automatic 1111 上跑,且 Live Debian System 中測試 AI 的環境以往是用 anaconda ,也使得 Stable Diffusion 遲遲無法在 Linux 安裝,所以這次改用 ComfyUI,解決上述2個難題。

[ 先前準備 ] AI模型、運行環境先前準備資料。

ComfyUI 簡介

ComfyUI 是一個模組化、視覺化的 Stable Diffusion 前端工具,使用節點式的流程架構,讓使用者更直觀地設計影像生成流程。它支援最新的 Stable Diffusion 模型,包括 SDXL 與 SD3.5,對硬體要求較低,且安裝過程相對簡單,成為替代 automatic1111 的理想選擇。


如何在 Live Debian System 上安裝 ComfyUI:

  1. 將 ComfyUI 下載到家目錄

git clone https://github.com/comfyanonymous/ComfyUI.git
  1. 下載 Stable Diffusion 3.5 模型(使用中模型)及 Workflow example

    Hugging Face 網址:
    https://huggingface.co/stabilityai/stable-diffusion-3.5-medium/tree/main

    需註冊登入、同意條款才能下載。(
    下載 SD3.5M_example_workflow.jsonsd3.5_medium.safetensors)

    下載 Text Encoders 3 個後放到 Comfyui > models > clip :

    If you have less than 32 GB RAM (CPU RAM, not GPU VRAM), you can use t5xxl_fp8_e4m3fn.safetensors instead of t5xxl_fp16.safetensors.(小模型)


  1. 放置模型到指定目錄

mv stable-diffusion-3.5-medium.safetensors $HOME/ComfyUI/models/checkpoints/
  1. 安裝相依套件

cd $HOME/ComfyUI/
source /etc/profile
pip install --pre torch torchvision torchaudio
pip install -r requirements.txt
  1. 執行 ComfyUI(不要關閉終端機):

python main.py
  1. 開啟 ComfyUI 瀏覽器介面http://127.0.0.1:8188/ 將2. 下載之SD3.5M_example_workflow.json 拖到網頁中,即可建立 SD 3.5 工作環境。設定剛剛的 Text Encoder



  2. 開啟開發者模式(Dev Mode): 進入設定頁面勾選 Dev Mode


  3. 測試產圖並匯出設定

  • 使用圖形介面產出圖片

  • 匯出 Workflow 設定:Workflow -> Export(API),儲存在「下載」目錄下的 SD3.5M.json


使用 OpenwebUI 介接 ComfyUI

  1. 啟動 OpenwebUI(內建指令):

aichat

網址:http://localhost:8080/

  1. 進入管理員控制台設定圖片功能

  • 到「設定」>「圖片」

  • 啟用圖片生成(實驗性功能)

  • 選擇圖片生成引擎:ComfyUI

  • ComfyUI 基礎 URL:http://localhost:8188

  • ComfyUI 工作流程:上傳 SD3.5M.json

  • 工作流程節點:可直接參考 SD3.5M.json 中的配置填入(圖片大小先前設1024x1024比較精細,但有時會跳掉,不知是否顯卡不夠力,就調成512x512)

  • 預設模型名稱:sd3.5_medium.safetensors(與 SD3.5M.json 同步)


  1. 測試圖像生成功能: 進入對話框輸入:

請生成圖片:春天 藍天白雲下的阿爾卑斯山脈,有瀑布飛鳥

即可等待生成並顯示圖片結果。(非 SD 3.5 Model)



這樣,Live Debian System 中就能穩定整合 ComfyUI 與 OpenwebUI,建立本機 AI 圖像生成環境,無需仰賴雲端,實現快速、安全又便利的生成式 AI 體驗。

不過,雖然本次原本預計使用 Stable Diffusion 3.5 模型,但實際測試時出現無法產圖的錯誤,可能是一次跑 2 個 AI 模型顯卡記憶體不足還是怎樣,不過使用其他模型(例如 anything-v3、SD 1.5)則可以運作正常,若僅為基礎使用者測試或日常繪圖,ComfyUI 搭配 Live Debian System 仍然相當實用。



上面 3 張圖直接用 ComfyUI出圖,可以看到細節及精緻度提高許多,可是速度就是慢,如果需要精細一點的,可以利用其他 AI 工具生成 SD 提示詞,在資源不足的電腦上或許也能產出不錯的圖片。


留言

這個網誌中的熱門文章

Live Debian System 安裝使用 CodeFormer(使用Anaconda)XXX

目前人工智慧(AI)已有越來越多的應用,而CodeFormer是一種人工智慧數位臉部修復工具,一般可以在其官網上傳照片,它會修復後讓你下載,但傳過一次曠日費時,還好它是開源軟體,於是將其安裝到自己的電腦中,便可以批次處理,不過事涉大量運算,有獨顯速度會快些,沒有的就只能用CPU硬解。

Debian 13 原生 Python 安裝與使用 CodeFormer 修復臉部照片與影片教學

目前人工智慧(AI)已有越來越多的應用,而 CodeFormer 是一種人工智慧數位臉部修復工具,一般可以在其官網上傳照片( https://huggingface.co/spaces/sczhou/CodeFormer ),它會修復後讓你下載,但傳過一次曠日費時。還好它是開源軟體,於是將其安裝到自己的電腦中,便可以批次處理。不過事涉大量運算,有獨顯速度會快些,沒有的就只能用 CPU 硬解。如果原稿臉部夠大張(最好 512×512 像素以上),其還原程度相當不錯,有針對臉部一般修復、精細修復、上色、破碎還原等功能,個人覺得蠻自然傳神的。 因為自己筆電沒有太高檔 GPU,且 Debian 12 時使用 Anaconda3 來處理在 Debian 13 時卻失效,常常說空間不足、安裝 CUDA 相依性錯誤等問題,重灌系統好幾次,於是改變作法,打掉重做,用原生 Python 來執行。 在 Debian 13 中安裝 Nvidia GPU 驅動 若使用 Nvidia GTX 1060 等顯卡,想讓 CodeFormer 利用 GPU 加速運算,需要先安裝 Nvidia 官方驅動與 CUDA 開發環境。 注意!核心要使用 Debian 標準版核心以免編譯失敗。 1. 更新系統並安裝基礎工具 sudo apt update sudo apt upgrade sudo apt install linux-headers-amd64 python3.13-venv sudo apt install -y build-essential dkms 2. 安裝 Nvidia 官方驅動 sudo apt install nvidia-detect nvidia-driver firmware-misc-nonfree sudo reboot (如果失敗,編輯 /etc/apt/sources.list 在套件庫中加入 contrib non-free 如下: deb http://free.nchc.org.tw/debian/ trixie main non-free-firmware contrib non-free )  3. 驗證驅動安裝是否成功 nvidia-smi Debian 13 原生 Python 安裝與 CodeFor...

Live Debian System 中安裝使用 AI 對話模型 Gemma3 / Taide / DeepSeek-r1 / Qwen3

隨著 AI 的興起,熱門的 ChatGPT 應用充斥在生活中,一般都要上網才能使用,但如果自己有好一點的設備(尤其是獨立顯示卡),也可以安裝在自己的機器中,成為隨身的幫手。目前有一些對話式AI 開放讓人自己架設安裝甚至訓練,不過訓練需要的資源非常驚人暫不討論,以手上既有的設備,大概只能架設中、小型的模型使用。本文以 Live Debian System 為例,搭配 6G Nvidia 顯示卡,安裝 Google 的 Gemma3 以及台灣自行訓練的 Taide 還有最近討論度很高的 DeepSeek,實做如下: