跳到主要內容

我的 Linux 發行版使用經驗

使用 Linux 已經很久了,從最早期的 Slackware 到後來的 RedhatLinux Mint DebianantiX 到後來的 MX Linux ,一直在尋找 Windows 的最佳替代方案,不過礙於大環境,始終無法如願,但追尋的過程中,也慢慢摸索出適合自己的 Linux 作業環境。

Linux 作業系統一直給人難以使用、需打一堆指令操作、沒有什麼軟體可用的印象,在 DistroWatch.com 上面有數百種 Linux 發行版,以後還是會有持續不斷的發行版誕生或死亡,各個發行版各有其特色及擁護者,讓初學者眼花撩亂、無所適從。

個人後期是使用以 Debian 為基礎的發行版,目前是將 MX Linux 做一些調整後打包,供家中電腦或介紹朋友使用,來看看這3台電腦的系統截圖:

個人電腦是台只有4G記憶體的文書機,其他2台筆電都是超過10年以上的老筆電,但跑起 MX 來還是老當益壯(最舊的那台系統只佔用310MB),真可說是老電腦的救星。

這個基於 MX Linux 重新包裝的版本,有正體中文、簡體中文跟英文3種界面,可以在登入時快速切換,也把一些常用的軟體預先安裝及升級,下載下來做成開機隨身碟後馬上就可以使用,也可以安裝在虛擬機中練習、使用,或是與 Windows 並存,甚至成為唯一的作業系統。

這個重新包裝發行版我給它個代號叫 Cherry ,是我改裝版本的第3代(前2代是Apple與Blueberry),以跟原版的 MX Linux 區別,日後將針對 Cherry 各項特色再做介紹,希望能對 Linux 使用者有所幫助。

留言

這個網誌中的熱門文章

Debian 13 原生 Python 安裝與使用 CodeFormer 修復臉部照片與影片教學

目前人工智慧(AI)已有越來越多的應用,而 CodeFormer 是一種人工智慧數位臉部修復工具,一般可以在其官網上傳照片( https://huggingface.co/spaces/sczhou/CodeFormer ),它會修復後讓你下載,但傳過一次曠日費時。還好它是開源軟體,於是將其安裝到自己的電腦中,便可以批次處理。不過事涉大量運算,有獨顯速度會快些,沒有的就只能用 CPU 硬解。如果原稿臉部夠大張(最好 512×512 像素以上),其還原程度相當不錯,有針對臉部一般修復、精細修復、上色、破碎還原等功能,個人覺得蠻自然傳神的。 因為自己筆電沒有太高檔 GPU,且 Debian 12 時使用 Anaconda3 來處理在 Debian 13 時卻失效,常常說空間不足、安裝 CUDA 相依性錯誤等問題,重灌系統好幾次,於是改變作法,打掉重做,用原生 Python 來執行。 在 Debian 13 中安裝 Nvidia GPU 驅動 若使用 Nvidia GTX 1060 等顯卡,想讓 CodeFormer 利用 GPU 加速運算,需要先安裝 Nvidia 官方驅動與 CUDA 開發環境。 注意!核心要使用 Debian 標準版核心以免編譯失敗。 1. 更新系統並安裝基礎工具 sudo apt update sudo apt upgrade sudo apt install linux-headers-amd64 python3.13-venv sudo apt install -y build-essential dkms 2. 安裝 Nvidia 官方驅動 sudo apt install nvidia-detect nvidia-driver firmware-misc-nonfree sudo reboot (如果失敗,編輯 /etc/apt/sources.list 在套件庫中加入 contrib non-free 如下: deb http://free.nchc.org.tw/debian/ trixie main non-free-firmware contrib non-free )  3. 驗證驅動安裝是否成功 nvidia-smi Debian 13 原生 Python 安裝與 CodeFor...

Live Debian System 安裝使用 CodeFormer(使用Anaconda)XXX

目前人工智慧(AI)已有越來越多的應用,而CodeFormer是一種人工智慧數位臉部修復工具,一般可以在其官網上傳照片,它會修復後讓你下載,但傳過一次曠日費時,還好它是開源軟體,於是將其安裝到自己的電腦中,便可以批次處理,不過事涉大量運算,有獨顯速度會快些,沒有的就只能用CPU硬解。

在 Debian 13 使用本機 Python 安裝 Open-WebUI 與 Ollama AI 聊天模型指南

本人使用的開發主機搭載 NVIDIA 顯卡,GPU 記憶體只有 6GB,屬於中低容量等級。由於顯卡記憶體有限,無法負擔大型 AI 模型的運行,因此本文以較小容量且效能適中的 AI 模型為主,透過 Open-WebUI 與 Ollama 搭配,達成本地 AI 互動平台的實作。整體流程會包括利用 pyenv 管理合適的 Python 版本,安裝 Open-WebUI,並示範如何安裝與管理 Ollama 及多款符合 GPU 規格的聊天室模型。 一、本機 Python 版本管理:使用 Pyenv 安裝 Python 3.11 安裝編譯必須的依賴: sudo apt update sudo apt install -y build-essential curl libssl-dev libbz2-dev libreadline-dev libsqlite3-dev libffi-dev liblzma-dev zlib1g-dev libncurses5-dev libncursesw5-dev libgdbm-dev libdb5.3-dev uuid-dev 安裝 pyenv: curl https://pyenv.run | bash 設定 shell 環境(加入 ~/.bashrc 或 ~/.zshrc ): export PATH="$HOME/.pyenv/bin:$PATH" eval "$(pyenv init --path)" eval "$(pyenv init -)" 重新整理 shell,並安裝 Python 3.11: source ~/.bashrc pyenv install 3.11.0 pyenv global 3.11.0 確認 Python 版本: python --version 二、安裝並啟動 Open-WebUI 建立虛擬環境以隔離套件: python -m venv ~/openwebui-venv source ~/openwebui-venv/bin/activate mkdir tmp export TMPDIR=$HOME/tmp 升級 pip 以免安裝過程中遇到問題: pip install --upgrade...