LLamaWorker 是一个基于 LLamaSharp 项目开发的 HTTP API 服务器。它提供与 OpenAI 兼容的 API,使得开发者可以轻松地将大型语言模型(LLM)集成到自己的应用程序中。
1. 背景
在人工智能领域,大型语言模型(LLM)正在以其强大的自然语言处理能力改变游戏规则。随着技术的进步,越来越多的开发者希望将这些模型集成到自己的应用程序中。为了满足这一需求,我开发了 LLamaWorker,一个基于 LLamaSharp 项目的 ASP.NET Web API 服务。LLamaWorker 提供了与 OpenAI 兼容的 API,可以方便地接入其他应用程序,例如 Semantic Kernel 等相关框架或是禅道AI助手等需要接入AI服务的应用。
LLamaWorker 项目地址:https://github.com/sangyuxiaowu/LLamaWorker?wt.mc_id=DT-MVP-5005195
2. LLamaWorker 的特色
LLamaWorker 的设计初衷是为了使开发者能够轻松、高效地将大型语言模型集成到各种应用中。以下是它的一些核心特性:
- 兼容 OpenAI API:LLamaWorker 提供了与 OpenAI 类似的 API,使得从 OpenAI 平台迁移至使用自己托管的模型变得无缝且便捷。
- 多模型支持:无论您的需求是文本生成、对话系统还是文本嵌入,LLamaWorker 都能够支持配置和切换不同的模型,满足您的不同场景需求。
- 流式响应:对于大型响应内容,LLamaWorker 支持流式响应,极大提高了处理效率和用户体验。
- 嵌入支持:除了文本生成和处理,LLamaWorker 还提供了文本嵌入功能,支持开启模型的嵌入生成,同时也支持转发嵌入请求到其他模型服务。
- 对话模版:为了帮助开发者更快地实现应用,LLamaWorker 还提供了一些常见的对话模版。
- 自动释放: 支持自动释放已加载模型。
- API Key 认证: 支持 API Key 认证。
- Gradio UI Demo: 提供了一个基于 Gradio.NET 的 UI 演示。
3. 快速开始
LLamaWorker 主要面向 .NET 开发者,要开始使用 LLamaWorker,您只需要几个简单的步骤:
- 克隆仓库到本地
git clone https://github.com/sangyuxiaowu/LLamaWorker.git
- 进入项目目录
cd LLamaWorker
- 根据您的需求选择项目文件。项目提供了三个版本的项目文件:
LLamaWorker
:适用于 CPU 环境。LLamaWorker_Cuad11
:适用于搭载 CUDA 11 的 GPU 环境。LLamaWorker_Cuad12
:适用于搭载 CUDA 12 的 GPU 环境。
选择适合您环境的项目文件进行下一步。
- 安装依赖项
dotnet restore LLamaWorker\LLamaWorker.csproj
如果您使用的是 CUDA 版本,请替换项目文件名。
-
修改配置文件
appsettings.json
。默认配置已包含一些常见的开源模型配置,您只需按需修改模型文件路径(ModelPath
)即可。 -
启动服务器
dotnet run --project LLamaWorker\LLamaWorker.csproj
如果您使用的是 CUDA 版本,请替换项目文件名。
如果你以调试模式启动,即可在浏览器中打开 swagger 页面查看 API 文档。
4. 配件文件介绍
LLamaWorker 配置文件内容如下:
{
"AutoReleaseTime": 0,
"ApiKey":"",
"LLmModelSettings": [
],
"EmbedingForward": "http://127.0.0.1:5000/embeddings"
}
AutoReleaseTime
:自动释放时间,分钟。0 表示不自动释放。ApiKey
:API 密钥,默认为空,即不需要 API 密钥。LLmModelSettings
:模型配置。EmbedingForward
:嵌入转发地址。
在 LLamaWorker 项目的 appsettings.json
已经提供了一些常见的开源模型配置文件,您可以根据自己的需求选择合适的模型,以下是 Qwen2 的配置示例:
{
"Name": "qwen2_7b",
"Description": "通义千问 v2 7b instruct q5_k_m",
"Version": "2",
"WebSite": "https://github.com/QwenLM/Qwen2",
// 系统角色提示词,未指定时使用默认配置,可配置为空,则不自动添加
"SystemPrompt": "You are a helpful assistant",
// LLm ModelParams, LLamaSharp 的模型参数
"ModelParams": {
"ModelPath": "H:\\workspace\\gpt\\models\\qwen2-7b-instruct-q5_k_m.gguf",
"ContextSize": 32768,
"Seed": 1337,
"GpuLayerCount": 50,
"FlashAttention": true, // 是否启用闪存注意力,注意 qwen2 模型需要启用
"Embeddings": true // 是否启用嵌入
},
"AntiPrompts": [ "<|im_start|>", "<|im_end|>" ],
"WithTransform": { // 对话模版选择类
"HistoryTransform": "LLamaWorker.Transform.BaseHistoryTransform",
"OutputTransform": "LLamaWorker.Transform.BaseTextStreamTransform"
}
}
5. API 参考
LLamaWorker 除了提供OpenAI常用的chat
和completions
、embeddings
接口外,还提供了一些其他接口,例如:
/models/info
: 返回模型的基本信息/models/config
: 返回已配置的模型信息/models/{modelId}/switch
: 切换到指定模型
6. ChatUI
LLamaWorker 提供了一个基于 Gradio.NET 的 ChatUI 项目。通过这个项目你可以方便的与大模型进行交互测试。
在启用 LLamaWorker 项目后,你也可以通过运行以下命令尝试 Gradio UI 演示:
dotnet restore ChatUI\ChatUI.csproj
dotnet run --project ChatUI\ChatUI.csproj
然后打开浏览器访问 Gradio UI 演示。
6. 结语
LLamaWorker 项目的目标是为开发者社区提供一个高性能、易于使用的工具,以便更好地利用大型语言模型的能力。无论您是在构建聊天机器人、内容生成工具还是任何需要自然语言处理能力的应用,LLamaWorker 都能为您提供强大的支持。
我非常期待看到社区成员如何使用 LLamaWorker 来实现他们的创意和项目。如果您对 LLamaWorker 有任何反馈或建议,欢迎通过 GitHub Issues 或 Pull Requests 与我交流。让我们一起推动开源社区的发展,解锁更多的可能性!