文章目录
- 前言
- 模型下载
前言
今天和同事聊天,聊到多模态大模型,感觉可以作为2025年的一个新的探索方向。希望和大家一起学习,一起进步。
今天也是尝试了我能想到的最基本最快速地本地部署多模态大模型的方式,那便是使用ollama。
ollama之前咱安装过,然后现在也是直接使用就好。
模型下载
我们点开ollama的官网,点击这个models
这时,我们会发现,ollama除了常用的大语言模型之外,还可以帮助我们部署视觉模型,嵌入模型以及工具模型。
这个工具模型是啥,我还真的不知道,我们今天先玩玩这个视觉模型
发现比较新的,就是这两个。
我的显存比较小,决定试试第二个。
命令行使用:
ollama run minicpm-v
开始下载了,耐心等待吧。