跳到主要內容

在 Debian 13 使用本機 Python 安裝 Open-WebUI 與 Ollama AI 聊天模型指南

本人使用的開發主機搭載 NVIDIA 顯卡,GPU 記憶體只有 6GB,屬於中低容量等級。由於顯卡記憶體有限,無法負擔大型 AI 模型的運行,因此本文以較小容量且效能適中的 AI 模型為主,透過 Open-WebUI 與 Ollama 搭配,達成本地 AI 互動平台的實作。整體流程會包括利用 pyenv 管理合適的 Python 版本,安裝 Open-WebUI,並示範如何安裝與管理 Ollama 及多款符合 GPU 規格的聊天室模型。

一、本機 Python 版本管理:使用 Pyenv 安裝 Python 3.11

  1. 安裝編譯必須的依賴:
    sudo apt update
    sudo apt install -y build-essential curl libssl-dev libbz2-dev libreadline-dev libsqlite3-dev libffi-dev liblzma-dev zlib1g-dev libncurses5-dev libncursesw5-dev libgdbm-dev libdb5.3-dev uuid-dev
    
  2. 安裝 pyenv:
    curl https://pyenv.run | bash
    
  3. 設定 shell 環境(加入 ~/.bashrc~/.zshrc):
    export PATH="$HOME/.pyenv/bin:$PATH"
    eval "$(pyenv init --path)"
    eval "$(pyenv init -)"
    
  4. 重新整理 shell,並安裝 Python 3.11:
    source ~/.bashrc
    pyenv install 3.11.0
    pyenv global 3.11.0
    
  5. 確認 Python 版本:
    python --version
    

二、安裝並啟動 Open-WebUI

  1. 建立虛擬環境以隔離套件:
    python -m venv ~/openwebui-venv
    source ~/openwebui-venv/bin/activate
    mkdir tmp
    export TMPDIR=$HOME/tmp
  2. 升級 pip 以免安裝過程中遇到問題:
    pip install --upgrade pip
    
  3. 安裝 Open-WebUI:
    pip install open-webui
    
  4. 使用下方 bash 腳本啟動 Open-WebUI,監聽指定 IP 和埠號,且設定環境變數以確保找得到 Ollama 指令:
#!/bin/bash

# 設定 Open-WebUI 執行檔路徑,根據實際安裝位置調整
source $HOME/openwebui-venv/bin/activate

HOST="192.168.19.20"
PORT="8080"

echo "啟動 Open-WebUI,監聽 $HOST:$PORT ..."

open-webui serve --host "$HOST" --port "$PORT"
  1. 確定防火牆允許 8080 埠:
    sudo ufw allow 8080/tcp
    

現在局域網中其他設備即可透過 http://192.168.19.20:8080 存取 Open-WebUI。

三、安裝 Ollama 及 AI 聊天模型

Ollama 是一款在 Linux 上方便部署 AI 模型的工具,可以與 Open-WebUI 搭配使用,提升機器學習應用體驗。

安裝 Ollama

curl -fsSL https://ollama.com/install.sh | sh

執行後會自動依系統架構下載並安裝 Ollama。

安裝 AI 聊天模型

  • 安裝 Gemma3 模型:
    ollama pull gemma3
    
  • 安裝 Taide 模型:
    ollama pull Yu-Feng/Llama-3.1-TAIDE-LX-8B-Chat:Q4_K_M
    
  • 安裝 DeepSeek-r1 模型:
    ollama pull deepseek-r1
    
  • 安裝 qwen3 模型:
    ollama pull qwen3
    

安裝完成後,就可以透過 Ollama 管理並呼叫這些模型,實現本地 AI 聊天與推理。

四、總結

本文說明了在 Debian 13 上,利用 pyenv 管理 Python 3.11,安裝並啟動 Open-WebUI,以及如何搭配 Ollama 拉取並運行多款 AI 聊天模型的詳細步驟。由於本機 NVIDIA 顯卡只有 6GB 記憶體,因此選用較小模型以適配硬體條件。透過本地完整部署,打造出具彈性且可控的 AI 服務環境,適合技術愛好者與私有化應用場景。

歡迎讀者留言交流使用心得與問題!

留言

這個網誌中的熱門文章

Live Debian System 安裝使用 CodeFormer(使用Anaconda)XXX

目前人工智慧(AI)已有越來越多的應用,而CodeFormer是一種人工智慧數位臉部修復工具,一般可以在其官網上傳照片,它會修復後讓你下載,但傳過一次曠日費時,還好它是開源軟體,於是將其安裝到自己的電腦中,便可以批次處理,不過事涉大量運算,有獨顯速度會快些,沒有的就只能用CPU硬解。

Live Debian System 中安裝使用 AI 對話模型 Gemma3 / Taide / DeepSeek-r1 / Qwen3

隨著 AI 的興起,熱門的 ChatGPT 應用充斥在生活中,一般都要上網才能使用,但如果自己有好一點的設備(尤其是獨立顯示卡),也可以安裝在自己的機器中,成為隨身的幫手。目前有一些對話式AI 開放讓人自己架設安裝甚至訓練,不過訓練需要的資源非常驚人暫不討論,以手上既有的設備,大概只能架設中、小型的模型使用。本文以 Live Debian System 為例,搭配 6G Nvidia 顯示卡,安裝 Google 的 Gemma3 以及台灣自行訓練的 Taide 還有最近討論度很高的 DeepSeek,實做如下:

Debian 13 原生 Python 安裝與使用 CodeFormer 修復臉部照片與影片教學

目前人工智慧(AI)已有越來越多的應用,而 CodeFormer 是一種人工智慧數位臉部修復工具,一般可以在其官網上傳照片( https://huggingface.co/spaces/sczhou/CodeFormer ),它會修復後讓你下載,但傳過一次曠日費時。還好它是開源軟體,於是將其安裝到自己的電腦中,便可以批次處理。不過事涉大量運算,有獨顯速度會快些,沒有的就只能用 CPU 硬解。如果原稿臉部夠大張(最好 512×512 像素以上),其還原程度相當不錯,有針對臉部一般修復、精細修復、上色、破碎還原等功能,個人覺得蠻自然傳神的。 因為自己筆電沒有太高檔 GPU,且 Debian 12 時使用 Anaconda3 來處理在 Debian 13 時卻失效,常常說空間不足、安裝 CUDA 相依性錯誤等問題,重灌系統好幾次,於是改變作法,打掉重做,用原生 Python 來執行。 在 Debian 13 中安裝 Nvidia GPU 驅動 若使用 Nvidia GTX 1060 等顯卡,想讓 CodeFormer 利用 GPU 加速運算,需要先安裝 Nvidia 官方驅動與 CUDA 開發環境。 注意!核心要使用 Debian 標準版核心以免編譯失敗。 1. 更新系統並安裝基礎工具 sudo apt update sudo apt upgrade sudo apt install linux-headers-amd64 python3.13-venv sudo apt install -y build-essential dkms 2. 安裝 Nvidia 官方驅動 sudo apt install nvidia-detect nvidia-driver firmware-misc-nonfree sudo reboot (如果失敗,編輯 /etc/apt/sources.list 在套件庫中加入 contrib non-free 如下: deb http://free.nchc.org.tw/debian/ trixie main non-free-firmware contrib non-free )  3. 驗證驅動安裝是否成功 nvidia-smi Debian 13 原生 Python 安裝與 CodeFor...