🚀 Ubuntu 安裝 Ollama 完整教學:打造自己的本地 AI 伺服器

 在 AI 爆發的時代,如果你想要:

  • 在本機運行大型語言模型(LLM)

  • 不依賴雲端 API

  • 建立自己的 AI 內部服務

  • 給 .NET / Python / Node.js 呼叫

那麼你一定要認識 —— Ollama

這篇文章將帶你從 0 開始,在 Ubuntu 上完成安裝、測試、API 使用與進階設定。


🧠 什麼是 Ollama?

Ollama 是一個可以在本機執行大型語言模型(LLM)的工具。

它的特點:

  • ✅ 安裝簡單(一行指令)

  • ✅ 自動下載模型

  • ✅ 提供 REST API

  • ✅ 支援 GPU 加速

  • ✅ 可部署成內部 AI Server

你可以用它來執行:

  • Llama3

  • Mistral

  • Gemma

  • DeepSeek

簡單說,它讓你「在自己的電腦上跑 ChatGPT 等級模型」。


🖥️ 系統需求

建議環境:

  • Ubuntu 20.04 / 22.04 / 24.04

  • 8GB RAM 以上(建議 16GB)

  • NVIDIA GPU(可選,效能更好)

查看 Ubuntu 版本:

lsb_release -a

🚀 Step 1:在 Ubuntu 安裝 Ollama

✅ 官方推薦安裝方式(一行指令)

打開 Terminal:

curl -fsSL https://ollama.com/install.sh | sh

安裝完成後確認:

ollama --version

如果看到版本號,就代表成功 🎉


🔁 如果 curl 方式失敗

你可以改用手動安裝:

wget https://ollama.com/download/ollama-linux-amd64.deb
sudo dpkg -i ollama-linux-amd64.deb

▶ Step 2:下載並執行第一個模型

執行:

ollama run llama3

它會:

  1. 自動下載模型(第一次會下載幾 GB)

  2. 啟動互動模式

成功畫面會看到:

>>> Send a message...

你就可以直接開始聊天了。


📦 常用指令整理

指令功能
ollama list查看已下載模型
ollama pull mistral下載模型
ollama rm llama3刪除模型
ollama serve啟動 API 服務

🌐 Step 3:啟動 API 模式(給程式呼叫)

如果你要讓 .NET / Python 呼叫 AI:

ollama serve

預設會啟動在:

http://localhost:11434

測試 API:

curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Hello"
}'

成功就會回傳 JSON 結果。


💻 .NET 呼叫範例

如果你是 .NET 工程師,可以這樣寫:

using System.Net.Http;
using System.Text;
using System.Threading.Tasks;

var client = new HttpClient();

var json = """
{
"model": "llama3",
"prompt": "請介紹 .NET"
}
""";

var content = new StringContent(json, Encoding.UTF8, "application/json");

var response = await client.PostAsync(
"http://localhost:11434/api/generate",
content);

var result = await response.Content.ReadAsStringAsync();
Console.WriteLine(result);

這樣你就有自己的 AI Server 了。


⚡ GPU 加速設定(NVIDIA)

如果你有 NVIDIA 顯卡:

檢查是否安裝成功:

nvidia-smi

如果顯示顯卡資訊,Ollama 會自動使用 GPU。

不需要額外設定。


🔧 設定開機自動啟動(可選)

sudo systemctl enable ollama
sudo systemctl start ollama

查看狀態:

systemctl status ollama

🧯 常見問題

❓ Port 11434 被佔用?

sudo lsof -i :11434

找到 PID 並 kill。


❓ 記憶體不足?

可以使用小模型:

ollama run gemma:2b

❓ 指令找不到?

重新開 terminal 或:

export PATH=$PATH:/usr/local/bin

📌 推薦模型選擇

模型名稱 適合用途 模型特色 建議硬體需求
llama3 通用聊天、知識問答 綜合能力強、對話自然、適合多用途應用 建議 16GB RAM 以上
mistral 快速推理、輕量部署 速度快、資源消耗較低 8GB RAM 以上可運行
gemma:2b 低記憶體環境、本機測試 模型小、下載快、適合舊電腦 8GB RAM 以下也可嘗試
deepseek-coder 程式開發、程式碼生成 對程式語言理解佳、適合工程師 建議 16GB RAM 以上



🎯 為什麼工程師應該學會 Ollama?

未來趨勢是:

  • 公司內部部署 AI

  • 不將資料送到雲端

  • AI 與企業系統整合

  • DevOps + AI Server 架構

Ollama 就是實現「本地 AI」最簡單的方式。

留言

熱門文章