下载
ollama官网进行下载
下载完后下一步下一步即可
安装完成后验证是否成功,打开命令行输入ollama,有该指令即安装成功
环境变量配置
-
配置模型下载位置
看自己电脑硬盘情况配置
-
打开所有ip接口访问权限
如果想要远程调用ollama接口,那就需要次配置,如果只是本地访问,忽略
ps: 如果已经打开了ollama,需要重启ollama才能生效!!!
安装大模型
回到官网,点击右上角的models
选择自己想要的模型,点进去
在命令行中执行对应的命令即可
安装完成后即可在命令行进行对话
安装图形化界面
在ollama的github的介绍上面,有多个已经适配了ollama的web可以选择
这里选open-webul为例,找到对应的github仓库,安装文档安装,这里选择docker安装
我配置的的映射端口是4000,如果按github上的脚本是3000
浏览器输入地址打开对应的网页
第一次进入要注册,首次注册的是管理员账号
然后就可以聊天了
api访问
ollama接口文档
如果是本地访问,直接调用11434端口即可
如果是外部访问,需要配置上面的第二条环境变量
然后就可以发请求玩了