当前各种大模型层出不穷,但想要在本地运行起来一个大模型还是有一定门槛的。 并且模型众多, 每个模型都有自己不同的配置和使用方法,使用非常不便。 Ollama就是一个非常好的工具, 可以让你方便在本地运行各种大模型。
1 安装
支持在mac, window和linux上的安装。安装非常便捷, 提供一键式安装。 具体参见:https://ollama.com/download/linux
2 使用
最常用的命令是:
ollama run model:tag
如ollama run llama2:13b 就可以运行llama2 13b的模型,第一次运行时会自动下载模型相关的文件, 可能比较耗时。 之后使用就不需要下载了, 直接会进入命令行对话模式。
另一个使用方式是通过serve的形式,
ollama会自动启动serve服务, 提供REST服务。 可以通过api进行访问。
如:
更多其他用法可以参考:https://github.com/ollama/ollama/tree/main