跳到主要內容

在 Debian 13 使用本機 Python 安裝 Open-WebUI 與 Ollama AI 聊天模型指南

本人使用的開發主機搭載 NVIDIA 顯卡,GPU 記憶體只有 6GB,屬於中低容量等級。由於顯卡記憶體有限,無法負擔大型 AI 模型的運行,因此本文以較小容量且效能適中的 AI 模型為主,透過 Open-WebUI 與 Ollama 搭配,達成本地 AI 互動平台的實作。整體流程會包括利用 pyenv 管理合適的 Python 版本,安裝 Open-WebUI,並示範如何安裝與管理 Ollama 及多款符合 GPU 規格的聊天室模型。

一、本機 Python 版本管理:使用 Pyenv 安裝 Python 3.11

  1. 安裝編譯必須的依賴:
    sudo apt update
    sudo apt install -y build-essential curl libssl-dev libbz2-dev libreadline-dev libsqlite3-dev libffi-dev liblzma-dev zlib1g-dev libncurses5-dev libncursesw5-dev libgdbm-dev libdb5.3-dev uuid-dev
    
  2. 安裝 pyenv:
    curl https://pyenv.run | bash
    
  3. 設定 shell 環境(加入 ~/.bashrc~/.zshrc):
    export PATH="$HOME/.pyenv/bin:$PATH"
    eval "$(pyenv init --path)"
    eval "$(pyenv init -)"
    
  4. 重新整理 shell,並安裝 Python 3.11:
    source ~/.bashrc
    pyenv install 3.11.0
    pyenv global 3.11.0
    
  5. 確認 Python 版本:
    python --version
    

二、安裝並啟動 Open-WebUI

  1. 建立虛擬環境以隔離套件:
    python -m venv ~/openwebui-venv
    source ~/openwebui-venv/bin/activate
    mkdir tmp
    export TMPDIR=$HOME/tmp
  2. 升級 pip 以免安裝過程中遇到問題:
    pip install --upgrade pip
    
  3. 安裝 Open-WebUI:
    pip install open-webui
    
  4. 使用下方 bash 腳本啟動 Open-WebUI,監聽指定 IP 和埠號,且設定環境變數以確保找得到 Ollama 指令:
#!/bin/bash

# 設定 Open-WebUI 執行檔路徑,根據實際安裝位置調整
source $HOME/openwebui-venv/bin/activate

HOST="192.168.19.20"
PORT="8080"

echo "啟動 Open-WebUI,監聽 $HOST:$PORT ..."

open-webui serve --host "$HOST" --port "$PORT"
  1. 確定防火牆允許 8080 埠:
    sudo ufw allow 8080/tcp
    

現在局域網中其他設備即可透過 http://192.168.19.20:8080 存取 Open-WebUI。

三、安裝 Ollama 及 AI 聊天模型

Ollama 是一款在 Linux 上方便部署 AI 模型的工具,可以與 Open-WebUI 搭配使用,提升機器學習應用體驗。

安裝 Ollama

curl -fsSL https://ollama.com/install.sh | sh

執行後會自動依系統架構下載並安裝 Ollama。

安裝 AI 聊天模型

  • 安裝 Gemma3 模型:
    ollama pull gemma3
    
  • 安裝 Taide 模型:
    ollama pull Yu-Feng/Llama-3.1-TAIDE-LX-8B-Chat:Q4_K_M
    
  • 安裝 DeepSeek-r1 模型:
    ollama pull deepseek-r1
    
  • 安裝 qwen3 模型:
    ollama pull qwen3
    

安裝完成後,就可以透過 Ollama 管理並呼叫這些模型,實現本地 AI 聊天與推理。

四、總結

本文說明了在 Debian 13 上,利用 pyenv 管理 Python 3.11,安裝並啟動 Open-WebUI,以及如何搭配 Ollama 拉取並運行多款 AI 聊天模型的詳細步驟。由於本機 NVIDIA 顯卡只有 6GB 記憶體,因此選用較小模型以適配硬體條件。透過本地完整部署,打造出具彈性且可控的 AI 服務環境,適合技術愛好者與私有化應用場景。

歡迎讀者留言交流使用心得與問題!

留言

這個網誌中的熱門文章

Live Debian System 中安裝使用 AI 對話模型 Gemma3 / Taide / DeepSeek-r1 / Qwen3

隨著 AI 的興起,熱門的 ChatGPT 應用充斥在生活中,一般都要上網才能使用,但如果自己有好一點的設備(尤其是獨立顯示卡),也可以安裝在自己的機器中,成為隨身的幫手。目前有一些對話式AI 開放讓人自己架設安裝甚至訓練,不過訓練需要的資源非常驚人暫不討論,以手上既有的設備,大概只能架設中、小型的模型使用。本文以 Live Debian System 為例,搭配 6G Nvidia 顯示卡,安裝 Google 的 Gemma3 以及台灣自行訓練的 Taide 還有最近討論度很高的 DeepSeek,實做如下:

Live Debian System 安裝使用 CodeFormer(使用Anaconda)XXX

目前人工智慧(AI)已有越來越多的應用,而CodeFormer是一種人工智慧數位臉部修復工具,一般可以在其官網上傳照片,它會修復後讓你下載,但傳過一次曠日費時,還好它是開源軟體,於是將其安裝到自己的電腦中,便可以批次處理,不過事涉大量運算,有獨顯速度會快些,沒有的就只能用CPU硬解。

一個隨身碟搞定!數位家庭歷史

  在這個數位時代,我們的生活充滿了科技,從手中的智慧型手機到家中的電腦,無一不依賴軟體與硬體的協同運作。然而,這兩者的關係並非只是科技上的搭配,更能與我們自身的存在產生有趣的聯繫。 想像一下,我們的身體就如同電腦的硬體,擁有各種功能與構造,但如果沒有軟體來驅動,它們便無法發揮作用。同樣地,靈魂就像軟體,賦予我們思想、情感與目標,使我們不僅僅是一具空殼,而是能夠行動、學習與成長的存在。當靈魂與身體結合時,我們才能真正發揮潛能,影響世界。 這個概念與我在信仰中的理解不謀而合。身為耶穌基督後期聖徒教會的成員,我相信每個人都是天父的孩子,擁有屬於自己的天賦與使命。我們的靈魂與身體相結合,使我們能夠學習、成長,並運用我們的能力來服務他人。 這系列文章的目的,正是要探討如何運用科技來保存我們的數位歷史,同時強調自由軟體的重要性。然而,這不是一本教科書,而只是我 20 多年使用經驗的分享,內容難免有所謬誤,但希望能為讀者提供實用的參考。 現今,我們的回憶大多以數位形式存放——家庭照片、珍貴文件、重要影音資料等,然而,如果沒有適當的方法來管理與保存,這些珍貴的記錄可能會隨著時間流逝而遺失。 許多商業軟體的限制,加上不斷提升的硬體需求,使得許多仍然堪用的電腦因為無法升級作業系統而被淘汰,甚至送進回收場,造成極大的資源浪費。長期以來,商業軟體的壟斷使得 Linux 被邊緣化,再加上 Linux 的分支版本繁多,讓許多人無從選擇或學習。本系列文章的主軸是 Live Debian System,因為 Debian 以其穩定性、安全性著稱,且是許多發行版的基礎,因此成為最適合的選擇。我會選用市面上受歡迎的幾個 Linux 發行版,調整界面並選擇適合的軟體,特別是針對繁體中文初學者,提供最佳的入門方案。 Live Debian System 提供了一種靈活而強大的方式,讓我們能夠透過一個簡單的隨身碟,打造專屬的數位檔案管理系統,確保家庭歷史得以長存。這個系統無需安裝,不會影響現有的電腦環境,讓使用者能夠安心體驗 Linux 的強大功能。 透過這系列文章,我希望帶領讀者從基礎的電腦概念開始,逐步了解如何建構 Live Debian System,並運用它來保存與管理個人與家庭的重要數位記錄。無論你是技術新手,還是對 Linux 系統已有一定了解的使用者,都能從這系列文章中獲得實用的知識...