在上一篇文章 《我的生成式 AI 使用經驗分享》 中,我測試了 Qwen、Gemma、Deepseek 與 Taide。當時的結論是:雖然 Qwen 和 Gemma 很強,但總免不了需要「新同文堂」外掛來修正簡體用語;而本土的 Taide 雖然立意良好,但穩定性仍有待加強。 最近,台灣團隊 Twinkle AI 釋出了一款基於 Google Gemma 3 4B 架構微調的模型—— TwinkleAI/gemma-3-4B-T1-it 。它主打針對 台灣法律、政府公文、在地人文 進行深度優化 。身為一個重視資安與在地化體驗的 IT 人,當然要立刻在我的 Debian 環境上實測看看,它是否能成為我們期待已久的「台灣隊」解答。 💻 測試環境 延續之前的硬體配置,我依然是在中階 GPU (6GB VRAM) 的環境下進行測試。 OS: Debian 13 (Trixie) GPU: Nvidia GeForce GTX 1060 (6GB VRAM) 工具: Ollama + Open WebUI 模型: TwinkleAI/gemma-3-4B-T1-it 為什麼是 4B? 對於我們這種不想花大錢租雲端算力、又想在本地端跑 AI 的使用者來說, 4B (40億參數) 是一個非常甜蜜的點。它比 7B 更輕量,推理速度飛快,而且對 VRAM 的需求極低,舊顯卡也能跑得嚇嚇叫。 🚀 實測重點:它真的懂台灣嗎? 這次我針對之前幾個模型的痛點進行測試,看看 T1-4B 表現如何。 1. 台灣用語在地化測試 (修正「支語」?還差一點!) 以往使用國外模型,最頭痛的就是它滿口「視頻」、「質量」、「信息」。針對這一點,T1-4B 的表現如何? 測試 Prompt: 請比較「視頻」與「影片」、「質量」與「品質」這兩組詞彙的差異,並說明在台灣通常使用哪一個? T1-4B 回答摘要 (實測結果): 關於視頻 vs. 影片: 它正確...