重磅!Ollama發布UI界面,告別命令窗口!
Ollama 終于提供 UI 界面了,再也不用在命令窗口中使用了,如下圖所示:

什么是Ollama?
Ollama 是一個開源的大型語言模型服務工具。它的主要作用是幫助用戶快速在本地運行大模型,簡化了在 Docker 容器內部署和管理大語言模型(LLM)的過程。
PS:Ollama 就是大模型屆的“Docker”,使用它可以低成本使用大模型(無需調用費用),并且因為是本地部署的大模型,所以不會存在數據隱私問題。
優點分析
Ollama 優點如下:
- 易于使用:提供了簡單的 API 和類似 ChatGPT 的聊天界面,即使是沒有經驗的用戶也能輕松上手,無需開發即可直接與模型進行交互。
- 輕量級:代碼簡潔,運行時占用資源少,能夠在本地高效運行,不需要大量的計算資源。
- 可擴展:支持多種模型架構,并易于添加新模型或更新現有模型,還支持熱加載模型文件,無需重新啟動即可切換不同的模型,具有較高的靈活性。
- 預構建模型庫:包含一系列預先訓練好的大型語言模型,可用于各種任務,如文本生成、翻譯、問答等,方便在本地運行大型語言模型。
Ollama 官網:https://ollama.com/
下載并安裝Ollama
下載地址:https://ollama.com/

下載完成之后,雙擊安裝包,一直下一步安裝完成即可。
安裝大語言模型
支持大模型列表:https://ollama.com/search
安裝并運行 DeepSeek 大模型的命令如下:
ollama run deepseek
等待一段時間 DeepSeek 就安裝并啟動了。
Ollama調用
Ollama 調用也很簡單,通過以下三步就能實現:
- 添加本地大模型依賴
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-ollama</artifactId>
<version>1.0.0</version>
</dependency>- 配置本地大模型
spring:
ai:
ollama:
base-url: http://localhost:11434
chat:
model: deepseek-r1:1.5b- 編寫代碼進行調用
@Autowired
private OllamaChatModel ollamaChatModel;
@GetMapping("/chat")
public String simpleChat(String msg) {
return ollamaChatModel.call(msg);
}小結
Ollama 作為使用最簡單的本地大模型部署工具,因為使用比較簡單,所以行業使用率也很高,但你知道 Ollama 有哪些不足嗎?



























