通过 Ollama 在本地运行 AI 模型
Ollama 是一个轻量级平台,可以让你在本地机器上直接运行 deepseek-r1
和 gemma3
等开源 AI 模型。如果你更偏向于使用图形化界面,也可以在 Open WebUI 中管理 Ollama 模型,以添加更多功能并简化交互。
本文档将介绍如何在 Olares 上设置和使用 Ollama CLI。
开始之前
请确保满足以下条件:
- 当前登录账号为 Olares 管理员。
安装 Ollama
直接从应用市场安装 Ollama。
安装完成后,可以从启动台访问 Ollama 终端。
Ollama CLI
Ollama CLI 让你可以直接管理和使用 AI 模型。以下是主要命令及其用法:
下载模型
查看 Ollama 模型库
如果不确定下载哪个模型,可以在 Ollama Library 浏览可用模型。
使用以下命令下载模型:
bash
ollama pull [model]
运行模型
TIP
如果尚未下载指定的模型,ollama run 命令会在运行前自动下载该模型。
使用以下命令运行模型:
bash
ollama run [model]
运行命令后,直接在 CLI 中输入问题,模型会生成回答。
完成交互后,输入:
bash
/bye
这将退出会话并返回标准终端界面。
停止模型
要停止当前运行的模型,使用以下命令:
bash
ollama stop [model]
列出模型
要查看系统中已安装的所有模型,使用:
bash
ollama list
删除模型
如果需要删除模型,可以使用以下命令:
bash
ollama rm [model]
显示模型信息
要显示模型的详细信息,使用:
bash
ollama show [model]
列出运行中的模型
要查看所有当前运行的模型,使用:
bash
ollama ps