简介
MaxKB 是一个基于大语言模型 (LLM) 的智能知识库问答系统。它能够帮助企业高效地管理知识,并提供智能问答功能。想象一下,你有一个虚拟助手,可以回答各种关于公司内部知识的问题,无论是政策、流程,还是技术文档,MaxKB 都能快速准确地给出答案:比如公司内网如何访问、如何提交视觉设计需求等等。
核心优势
- 开箱即用:支持直接上传文档、自动爬取在线文档,支持文本自动拆分、向量化,智能问答交互体验好;
- 无缝嵌入:支持零编码快速嵌入到第三方业务系统;
- 多模型支持:支持对接主流的大模型,包括本地私有大模型(如Llama 2)、OpenAI、Azure OpenAI和百度千帆大模型等。
如何部署Ollama+MaxKB
本文将介绍如何基于Ollama+MaxKB快速搭建企业级知识库问答系统,这套方案具有以下优点:
- 安全性高:可以完全私有化地部署在企业内部
- 自带权限管理:可以分配多个账号,并对知识库和应用做权限管理,便于为企业内的不同角色分别权限
- 部署成本低:MaxKB用到的embedding模型和LLM模型也都是开源免费的
- 易用性高:除了服务启动以外,所有操作都通过网页交互完成,不懂编程的用户(如客服、运营)也可以快速上手使用。
Github地址:
https://github.com/1Panel-dev/MaxKB
环境要求
由于MaxKB当前仅支持Linux(Ubuntu或CentOS),所以本文介绍的也是在Linux服务器上通过Docker容器进行部署的方法。
除了上面截图中的环境要求外,建议docker的版本不低于20.10.8,否则可能无法启动Ollama服务。
Ollama的安装部署
首先拉取ollama的docker镜像:
docker pull ollama/ollama:0.1.32
然后启动ollama的服务,注意容器内ollama的服务是在11434端口,然后我们通过-p将ollma的服务映射到宿主机的11434端口:
docker run -d --network host -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:0.1.32
MaxKB的安装部署
同样先拉取maxkb的docker镜像:
docker pull 1panel/maxkb:v1.0.4
然后启动maxkb的服务:
docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb
接下来就可以通过浏览器访问maxkb的网页,ip即为maxkb和ollama提供服务的机器ip,端口为8080:
初次登录的用户名为admin,密码为MaxKB@123..密码包含省略号
下载大模型
依次点击系统设置->模型设置->Ollama->添加模型
模型名称填写自定义的名称即可
模型类型选择 大语言模型基础模型不能随意填写,只能使用ollma模型库中已有的模型类型:https://ollama.com/library,这里我们用的是qwen:1.8b
API域名填写前面ollama起服务的机器ip和端口(11434)
API Key随便填
点击‘添加’后模型开始下载,一般需要几分钟的时间才能下载完成:
创建知识库
点击知识库->创建知识库,填入知识库名称/描述/类型,然后点击上传文档:
创建应用
大模型和知识库创建成功后,就可以创建应用了。点击“应用->创建应用”,填入应用名称和应用描述,注意这里AI模型和关联知识库要选择前面两步创建的AI模型和知识库。
高性价比GPU算力:https://www.ucloud.cn/site/active/gpu.html?ytag=gpu_wenzhang_0618_shemei