🚀 Ubuntu 安裝 Ollama 完整教學:打造自己的本地 AI 伺服器
在 AI 爆發的時代,如果你想要: 在本機運行大型語言模型(LLM) 不依賴雲端 API 建立自己的 AI 內部服務 給 .NET / Python / Node.js 呼叫 那麼你一定要認識 —— Ollama 這篇文章將帶你從 0 開始,在 Ubuntu 上完成安裝、測試、API 使用與進階設定。 🧠 什麼是 Ollama? Ollama 是一個可以在本機執行大型語言模型(LLM)的工具。 它的特點: ✅ 安裝簡單(一行指令) ✅ 自動下載模型 ✅ 提供 REST API ✅ 支援 GPU 加速 ✅ 可部署成內部 AI Server 你可以用它來執行: Llama3 Mistral Gemma DeepSeek 簡單說,它讓你「在自己的電腦上跑 ChatGPT 等級模型」。 🖥️ 系統需求 建議環境: Ubuntu 20.04 / 22.04 / 24.04 8GB RAM 以上(建議 16GB) NVIDIA GPU(可選,效能更好) 查看 Ubuntu 版本: lsb_release -a 🚀 Step 1:在 Ubuntu 安裝 Ollama ✅ 官方推薦安裝方式(一行指令) 打開 Terminal: curl -fsSL https://ollama.com/install.sh | sh 安裝完成後確認: ollama --version 如果看到版本號,就代表成功 🎉 🔁 如果 curl 方式失敗 你可以改用手動安裝: wget https://ollama.com/download/ollama-linux-amd64.deb sudo dpkg -i ollama-linux-amd64.deb ▶ Step 2:下載並執行第一個模型 執行: ollama run llama3 它會: 自動下載模型(第一次會下載幾 GB) 啟動互動模式 成功畫面會看到: >>> Send a message... 你就可以直接開始聊天了。 📦 常用指令整理 指令 功能 ollama list 查看已下載模型 olla...