🚀 Ubuntu 安裝 Ollama 完整教學:打造自己的本地 AI 伺服器
在 AI 爆發的時代,如果你想要:
-
在本機運行大型語言模型(LLM)
-
不依賴雲端 API
-
建立自己的 AI 內部服務
-
給 .NET / Python / Node.js 呼叫
那麼你一定要認識 —— Ollama
這篇文章將帶你從 0 開始,在 Ubuntu 上完成安裝、測試、API 使用與進階設定。
🧠 什麼是 Ollama?
Ollama 是一個可以在本機執行大型語言模型(LLM)的工具。
它的特點:
-
✅ 安裝簡單(一行指令)
-
✅ 自動下載模型
-
✅ 提供 REST API
-
✅ 支援 GPU 加速
-
✅ 可部署成內部 AI Server
你可以用它來執行:
-
Llama3
-
Mistral
-
Gemma
-
DeepSeek
簡單說,它讓你「在自己的電腦上跑 ChatGPT 等級模型」。
🖥️ 系統需求
建議環境:
-
Ubuntu 20.04 / 22.04 / 24.04
-
8GB RAM 以上(建議 16GB)
-
NVIDIA GPU(可選,效能更好)
查看 Ubuntu 版本:
lsb_release -a
🚀 Step 1:在 Ubuntu 安裝 Ollama
✅ 官方推薦安裝方式(一行指令)
打開 Terminal:
curl -fsSL https://ollama.com/install.sh | sh
安裝完成後確認:
ollama --version
如果看到版本號,就代表成功 🎉
🔁 如果 curl 方式失敗
你可以改用手動安裝:
wget https://ollama.com/download/ollama-linux-amd64.deb
sudo dpkg -i ollama-linux-amd64.deb
▶ Step 2:下載並執行第一個模型
執行:
ollama run llama3
它會:
-
自動下載模型(第一次會下載幾 GB)
-
啟動互動模式
成功畫面會看到:
>>> Send a message...
你就可以直接開始聊天了。
📦 常用指令整理
| 指令 | 功能 |
|---|---|
ollama list | 查看已下載模型 |
ollama pull mistral | 下載模型 |
ollama rm llama3 | 刪除模型 |
ollama serve | 啟動 API 服務 |
🌐 Step 3:啟動 API 模式(給程式呼叫)
如果你要讓 .NET / Python 呼叫 AI:
ollama serve
預設會啟動在:
http://localhost:11434
測試 API:
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Hello"
}'
成功就會回傳 JSON 結果。
💻 .NET 呼叫範例
如果你是 .NET 工程師,可以這樣寫:
using System.Net.Http;
using System.Text;
using System.Threading.Tasks;
var client = new HttpClient();
var json = """
{
"model": "llama3",
"prompt": "請介紹 .NET"
}
""";
var content = new StringContent(json, Encoding.UTF8, "application/json");
var response = await client.PostAsync(
"http://localhost:11434/api/generate",
content);
var result = await response.Content.ReadAsStringAsync();
Console.WriteLine(result);
這樣你就有自己的 AI Server 了。
⚡ GPU 加速設定(NVIDIA)
如果你有 NVIDIA 顯卡:
檢查是否安裝成功:
nvidia-smi
如果顯示顯卡資訊,Ollama 會自動使用 GPU。
不需要額外設定。
🔧 設定開機自動啟動(可選)
sudo systemctl enable ollama
sudo systemctl start ollama
查看狀態:
systemctl status ollama
🧯 常見問題
❓ Port 11434 被佔用?
sudo lsof -i :11434
找到 PID 並 kill。
❓ 記憶體不足?
可以使用小模型:
ollama run gemma:2b
❓ 指令找不到?
重新開 terminal 或:
export PATH=$PATH:/usr/local/bin
📌 推薦模型選擇
| 模型名稱 | 適合用途 | 模型特色 | 建議硬體需求 |
|---|---|---|---|
| llama3 | 通用聊天、知識問答 | 綜合能力強、對話自然、適合多用途應用 | 建議 16GB RAM 以上 |
| mistral | 快速推理、輕量部署 | 速度快、資源消耗較低 | 8GB RAM 以上可運行 |
| gemma:2b | 低記憶體環境、本機測試 | 模型小、下載快、適合舊電腦 | 8GB RAM 以下也可嘗試 |
| deepseek-coder | 程式開發、程式碼生成 | 對程式語言理解佳、適合工程師 | 建議 16GB RAM 以上 |
🎯 為什麼工程師應該學會 Ollama?
未來趨勢是:
-
公司內部部署 AI
-
不將資料送到雲端
-
AI 與企業系統整合
-
DevOps + AI Server 架構
Ollama 就是實現「本地 AI」最簡單的方式。
留言
張貼留言