DeepSeek R1安装与使用
1、安装 Ollama
如果之前没有安装过 Ollama,先在 Ollama官网 下载对应系统的 Ollama 进行安装。
2、部署 DeepSeek R1 模型
选择需要下载的模型。这里我们选择 deepseek-r1
根据自己机器配置,选择不同参数的模型。这里我们选择7b。
-
xxxb表示的是多大的参数,即当前这个模型是用多大规模的参数来训练的,b表示十亿。
参数越大,模型的推理能力越强,对机器的配置要求也越高。
复制对应的命令,在终端执行
出现 success 和 Send a message 的提示就说明安装成功了,可以直接在这里提问。
3、终端使用
本地部署完成之后,就可以在未联网的情况下使用 DeepSeek R1 了。
输入问题后,终端会显示 DeepSeek 的思考过程<think>
标签,以及正文。
输入/bye
退出模型(默认情况下,模型会在内存中保留一段时间后才被关闭)
- 此时输入
ollama ps
命令会发现模型仍在内存中,过一段时间就没有了。
如果需要立即从内存中关闭模型,则使用ollama stop model_name
命令即可
4、集成 Chatbox
终端进行对话不够直观,我们可以到 Chatbox官网 安装 Chatbox(AI 客户端应用)
打开Chatbox,选择 使用自己的 API Key 或本地模型
选择 Chatbox AI
选择本地模型
现在就可以在 可视化界面 进行提问了
附录:Ollama 常用命令
# 显示当前 ollama 工具的版本信息。
ollama -v
ollama --version
# 列出本地所有可用的模型,可以在这里查看模型名称 model_name。
ollama list
ollama ls
# 查看特定模型的详细信息,例如模型名称、版本等。
ollama show model_name
# 运行一个已安装的模型,执行某些任务。(没有安装会先安装)
ollama run model_name
# 关闭一个运行的模型。
ollama stop model_name
# 删除一个已安装的模型。
ollama rm model_name
# 使用 Modelfile 来创建一个新模型。你需要提供一个包含模型信息的 Modelfile。
ollama create /path/to/Modelfile