比较项目 | chatglm.cpp | vllm | Ollama | lmstudio |
---|---|---|---|---|
功能特点 | 通过C++优化性能,支持多平台运行 | 推理加速 | 简化易用、本地运行大模型 | 简化操作、本地运行大模型 |
操作系统要求 | 都可以,linux下运行更方便 | 都可以,linux下运行更方便 | 都可以,windows目前还是预览版 | 都可以 |
硬件要求 | GPU、CPU均可 | 需要GPU | CPU即可,GPU应该也可以 | GPU、CPU均可 |
编码支持 | 可自行修改代码 | 可自行修改代码 | 可命令行操作 | 纯界面操作 |
web运行 | 支持 | 支持 | 支持 | 无 |
运行速度 | 快,使用GPU更快 | 快,使用GPU更快 | 命令行运行快一些,webapi方式比较慢 | 速度还可以 |
docker支持 | 支持 | 支持 | 支持 | 无 |
易用性 | 比较复杂 | 比较复杂 | 比较简单 | 很简单 |
Github | 2.5k | 16.6k | 50.4k | |
适用人群 | 开发 | 开发 | 开发、非技术人员 | 开发、非技术人员 |
适用场景 | 开发 | 开发 | 验证模型效果 | 演示,测试 |