跳到主要內容

Live Debian System 安裝使用 CodeFormer

目前人工智慧(AI)已有越來越多的應用,而CodeFormer是一種人工智慧數位臉部修復工具,一般可以在其官網上傳照片,它會修復後讓你下載,但傳過一次曠日費時,還好它是開源軟體,於是將其安裝到自己的電腦中,便可以批次處理,不過事涉大量運算,有獨顯速度會快些,沒有的就只能用CPU硬解。

如果原稿臉部夠大張(最好512×512像素以上),其還原程度相當不錯,有針對臉部一般修復、精細修復、上色、破碎還原等,個人覺得蠻自然傳神的。它也可以針對影片做臉部修復,但更耗資源我就不試了,有興趣的可以將你的照片丟到網站上試試看。

CodeFormer專案:

https://github.com/sczhou/CodeFormer

  1. https://repo.anaconda.com/archive/ 下載 anaconda 2024.06-1 版 (挑選 Linux x86_64)**CodeFormer 建議 Python 3.8~3.11,太新的可能會出問題!!
  2. 安裝必要的軟體:
sudo apt-get install libgl1-mesa-glx libegl1-mesa libxrandr2 libxrandr2 libxss1 libxcursor1 libxcomposite1 libasound2 libxi6 libxtst6

3. 安裝Anaconda(使用者為emer

chmod +x Anaconda3-2020.11-Linux-x86_64.shbash ./Anaconda3-2020.11-Linux-x86_64.sh

[Enter] 觀看版權聲明,[空白鍵]翻頁,按[q]離開
Do you accept the license terms? [yes|no] -> [yes]
Anaconda3 will now be installed into this location:/home/emer/anaconda3 -> [Enter]
Do you wish to update your shell profile to automatically initialize conda? -> [no]

在 /etc/profile 新增 export PATH=/home/emer/anaconda3/bin:$PATH 到最後一行

sudo pluma /etc/profile

使環境變數生效及初始化、更新:

source /etc/profile
conda init
conda config --set auto_activate_base false
sudo $(which conda) update -n base -c defaults conda

安裝 PyTorch: https://pytorch.org/get-started/locally/ 如果有獨顯可以自行挑選,沒有獨顯只能用CPU運算就挑選如下圖,執行紅框內指令:

pip3 install torch torchvision torchaudio (獨顯) 
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu (CPU)

4. 安裝 CodeFormer

git clone https://github.com/sczhou/CodeFormer
cd CodeFormer
pip3 install -r requirements.txt
python basicsr/setup.py develop
python scripts/download_pretrained_models.py facelib
python scripts/download_pretrained_models.py CodeFormer

使用 CodeFormer:

將一個批次檔(ex: aiphoto)放置於 /usr/local/bin 內容如下:

cd $HOME/CodeFormer
source /etc/profile
python inference_codeformer.py -w 0.7 --face_upsample --bg_upsampler realesrgan --input_path $HOME/old
mv $HOME/CodeFormer/results/old_0.7/final_results/* $HOME/桌面
rm $HOME/old/*

在家目錄中開一個 old 目錄,將要優化的照片丟到裡面,然後執行 aiphoto 即可,完成後優化照片會移到桌面上。(使用內建指令 ai1photo, ai2photo, ai3photo 優化細節越來越高,完成後照片放置於 aiphoto 資料夾)

如果有 Nvidia 顯卡,運算速度將會加快許多,方法如下:(以使用 LDS1.x 為例),注意!核心要使用 Debian 標準版核心以免編譯失敗。

sudo apt update
sudo apt upgrade
sudo apt install nvidia-detect nvidia-driver firmware-misc-nonfree

作業系統會自動將 Nvidia 支援加入核心中,重新開機即可生效,再跑看看會發現速度加快非常多。

For cropped and aligned faces (512×512)

python inference_codeformer.py -w 0.5 --has_aligned --input_path [image folder]|[image path]

For whole image

Add ‘–bg_upsampler realesrgan’ to enhance the background regions with Real-ESRGAN

Add ‘–face_upsample’ to further upsample restorated face with Real-ESRGAN

python inference_codeformer.py -w 0.7 --input_path [image folder]|[image path]

For Windows/Mac users, please install ffmpeg first

conda install -c conda-forge ffmpeg

For video clips

Video path should end with ‘.mp4’|’.mov’|’.avi’

python inference_codeformer.py --bg_upsampler realesrgan --face_upsample -w 1.0 --input_path [video path]

For cropped and aligned faces (512×512)

Colorize black and white or faded photo

python inference_colorization.py --input_path [image folder]|[image path]

For cropped and aligned faces (512×512)

Inputs could be masked by white brush using an image editing app (e.g., Photoshop)

(check out the examples in inputs/masked_faces)

python inference_inpainting.py --input_path [image folder]|[image path]

留言

這個網誌中的熱門文章

Live Debian System 中安裝使用 AI 對話模型 Gemma3 / Taide / DeepSeek-r1 / Qwen3

隨著 AI 的興起,熱門的 ChatGPT 應用充斥在生活中,一般都要上網才能使用,但如果自己有好一點的設備(尤其是獨立顯示卡),也可以安裝在自己的機器中,成為隨身的幫手。目前有一些對話式AI 開放讓人自己架設安裝甚至訓練,不過訓練需要的資源非常驚人暫不討論,以手上既有的設備,大概只能架設中、小型的模型使用。本文以 Live Debian System 為例,搭配 6G Nvidia 顯示卡,安裝 Google 的 Gemma3 以及台灣自行訓練的 Taide 還有最近討論度很高的 DeepSeek,實做如下:

一個隨身碟搞定!數位家庭歷史

  在這個數位時代,我們的生活充滿了科技,從手中的智慧型手機到家中的電腦,無一不依賴軟體與硬體的協同運作。然而,這兩者的關係並非只是科技上的搭配,更能與我們自身的存在產生有趣的聯繫。 想像一下,我們的身體就如同電腦的硬體,擁有各種功能與構造,但如果沒有軟體來驅動,它們便無法發揮作用。同樣地,靈魂就像軟體,賦予我們思想、情感與目標,使我們不僅僅是一具空殼,而是能夠行動、學習與成長的存在。當靈魂與身體結合時,我們才能真正發揮潛能,影響世界。 這個概念與我在信仰中的理解不謀而合。身為耶穌基督後期聖徒教會的成員,我相信每個人都是天父的孩子,擁有屬於自己的天賦與使命。我們的靈魂與身體相結合,使我們能夠學習、成長,並運用我們的能力來服務他人。 這系列文章的目的,正是要探討如何運用科技來保存我們的數位歷史,同時強調自由軟體的重要性。然而,這不是一本教科書,而只是我 20 多年使用經驗的分享,內容難免有所謬誤,但希望能為讀者提供實用的參考。 現今,我們的回憶大多以數位形式存放——家庭照片、珍貴文件、重要影音資料等,然而,如果沒有適當的方法來管理與保存,這些珍貴的記錄可能會隨著時間流逝而遺失。 許多商業軟體的限制,加上不斷提升的硬體需求,使得許多仍然堪用的電腦因為無法升級作業系統而被淘汰,甚至送進回收場,造成極大的資源浪費。長期以來,商業軟體的壟斷使得 Linux 被邊緣化,再加上 Linux 的分支版本繁多,讓許多人無從選擇或學習。本系列文章的主軸是 Live Debian System,因為 Debian 以其穩定性、安全性著稱,且是許多發行版的基礎,因此成為最適合的選擇。我會選用市面上受歡迎的幾個 Linux 發行版,調整界面並選擇適合的軟體,特別是針對繁體中文初學者,提供最佳的入門方案。 Live Debian System 提供了一種靈活而強大的方式,讓我們能夠透過一個簡單的隨身碟,打造專屬的數位檔案管理系統,確保家庭歷史得以長存。這個系統無需安裝,不會影響現有的電腦環境,讓使用者能夠安心體驗 Linux 的強大功能。 透過這系列文章,我希望帶領讀者從基礎的電腦概念開始,逐步了解如何建構 Live Debian System,並運用它來保存與管理個人與家庭的重要數位記錄。無論你是技術新手,還是對 Linux 系統已有一定了解的使用者,都能從這系列文章中獲得實用的知識...

在 Live Debian System 中透過 Openweb-UI 結合 Stable Diffusion 產生圖片

  一直想在 Live Debian System 中安裝 Stable Diffusion,以往在 Windows 中用 automatic 1111 很方便,但是新版的 Stable Diffusion 3.5 目前無法在 automatic 1111 上跑,且 Live Debian System 中測試 AI 的環境以往是用 anaconda ,也使得 Stable Diffusion 遲遲無法在 Linux 安裝,所以這次改用 ComfyUI,解決上述2個難題。 [ 先前準備 ] AI模型、運行環境先前準備資料。 ComfyUI 簡介 ComfyUI 是一個模組化、視覺化的 Stable Diffusion 前端工具,使用節點式的流程架構,讓使用者更直觀地設計影像生成流程。它支援最新的 Stable Diffusion 模型,包括 SDXL 與 SD3.5,對硬體要求較低,且安裝過程相對簡單,成為替代 automatic1111 的理想選擇。 如何在 Live Debian System 上安裝 ComfyUI: 將 ComfyUI 下載到家目錄 : git clone https://github.com/comfyanonymous/ComfyUI.git 下載 Stable Diffusion 3.5 模型 (使用中模型)及 Workflow example Hugging Face 網址: https://huggingface.co/stabilityai/stable-diffusion-3.5-medium/tree/main 需註冊登入、同意條款才能下載。( 下載  SD3.5M_example_workflow.json 及 sd3.5_medium.safetensors ) 下載 Text Encoders 3 個後放到 Comfyui > models > clip : clip_l.safetensors clip_g.safetensors t5xxl_fp16.safetensors (大模型) If you have less than 32 GB RAM (CPU RAM, not GPU VRAM), you can use t5xxl_fp8_e4m3fn.safetens...