使用 Ollama 和 Open WebUI 自托管 LLM 聊天机器人(无需 GPU)

cover_image
✨点击这里✨:🚀原文链接:(更好排版、视频播放、社群交流、最新AI开源项目、AI工具分享都在这个公众号!)

使用 Ollama 和 Open WebUI 自托管 LLM 聊天机器人(无需 GPU)

🌟 Open WebUI 是一个可扩展、功能丰富且用户友好的 自托管 WebUI ,旨在完全离线运行。 它支持各种 LLM 运行器,包括
Ollama 和 OpenAI 兼容 API。

Github:https://github.com/open-webui/open-webui/

Hello,大家好,我是Aitrainee,今天介绍 ** Open WebUI ** (以前称为 Ollama WebUI),以及
测试Ollama后端API 是否成功运行的两种方式(Postman)。

Open WebUI 的主要功能 ⭐

  • • 🚀 轻松设置 :使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)进行无缝安装,支持 :ollama:cuda 标签的镜像。

  • • 🤝 Ollama/OpenAI API 集成 :轻松集成兼容 OpenAI 的 API,以实现多功能对话和 Ollama 模型。自定义 OpenAI API URL 以链接到 LMStudio、GroqCloud、Mistral、OpenRouter 等

  • • 🧩 Pipelines,Open WebUI 插件支持 :使用 Pipelines 插件框架 将自定义逻辑和 Python 库无缝集成到 Open WebUI 中。启动您的 Pipelines 实例,将 OpenAI URL 设置为 Pipelines URL,并探索无限可能。 示例 包括 功能调用 、用户 访问限制 、使用 Langfuse 等工具的 使用监控 、使用 LibreTranslate 的 实时翻译 以支持多语言、 有害信息过滤 等等。

  • • 📱 响应式设计 :在台式电脑、笔记本电脑和移动设备上享受无缝体验。

  • • 📱 移动设备的渐进式 Web 应用 (PWA):通过我们的 PWA,在移动设备上享受本地应用般的体验,提供本地主机的离线访问和无缝用户界面。

  • • ✒️🔢 全面的 Markdown 和 LaTeX 支持 :通过综合的 Markdown 和 LaTeX 功能提升您的 LLM 体验,实现丰富的互动。

  • • 🛠️ 模型构建器 :通过 Web UI 轻松创建 Ollama 模型。创建和添加自定义角色/代理,定制聊天元素,并通过 Open WebUI 社区 集成轻松导入模型。

  • • 📚 本地 RAG 集成 :通过突破性的检索增强生成 (RAG) 支持,深入探索聊天互动的未来。此功能将文档互动无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中,或将文件添加到您的文档库中,在查询前通过 # 命令轻松访问它们。

  • • 🔍 RAG 的 Web 搜索 :使用 SearXNGGoogle PSEBrave Searchserpstackserper 等提供商进行 Web 搜索,并将结果直接注入您的聊天体验中。

  • • 🌐 Web 浏览功能 :使用 # 命令后跟 URL,将网站无缝集成到您的聊天体验中。此功能允许您将 Web 内容直接纳入对话中,增强互动的丰富性和深度。

  • • 🎨 图像生成集成 :通过使用 AUTOMATIC1111 API 或 ComfyUI(本地)和 OpenAI 的 DALL-E(外部)等选项,无缝集成图像生成功能,为您的聊天体验增添动态视觉内容。

  • • ⚙️ 多模型对话 :轻松与多个模型同时互动,利用它们的独特优势以获得最佳响应。通过并行利用多种模型来增强您的体验。

  • • 🔐 基于角色的访问控制 (RBAC):确保安全访问,只有授权人员才能访问您的 Ollama,管理员专享模型创建/拉取权限。

  • • 🌐🌍 多语言支持 :通过我们的国际化 (i18n) 支持,以您偏好的语言体验 Open WebUI。加入我们,扩展我们支持的语言!我们正在积极寻找贡献者!

  • • 🌟 持续更新 :我们致力于通过定期更新、修复和新功能不断改进 Open WebUI。

![](https://res.wx.qq.com/t/wx_fed/we-

emoji/res/v1.3.10/assets/Expression/Expression_96@2x.png) 跟着我快速开始

1. 安装完Docker(公众号菜单有一键环境配置脚本,LLM API开源项目也有)

2. 如果您的 计算机上有 Ollama, 运行以下指令

安装ollama: 全民AI时代:手把手教你用 Ollama & AnythingLLM搭建AI知识库,无需编程,跟着做就行!

(不安装ollama或者不使用docker的话,文章的后面会有所有的部署方式)

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

这里显示的是windows系统docker desktop的部署: 打开这个端口

来到前端页面就部署成功了,左上角选择模型(记得将欧拉玛后端启动)

▲ ollama后端启动

Ollama后端API测试

这个 open web
ui是相当于一个前端项目,它后端调用的是ollama开放的api,这里我们来测试一下ollama的后端api是否是成功的,以便支持你的api调用操作

方式一:终端curl( REST API)

Ollama 提供用于运行和管理模型的 REST API。

生成响应

curl http://localhost:11434/api/generate -d '{  
  "model": "llama3",  
  "prompt": "为什么天空是蓝色的?"  
}'

与模型聊天

curl http://localhost:11434/api/chat -d '{  
  "model": "llama3",  
  "messages": [  
    { "role": "user", "content": "为什么天空是蓝色的?" }  
  ]  
}'

REST API(Representational State Transfer Application Programming
Interface)是一种基于HTTP协议的应用程序接口,它遵循REST架构风格。

REST API 使得不同系统之间能够通过标准的HTTP请求(如GET、POST、PUT、DELETE等)进行通信和数据交换。

方式二: ** Postman测试 **

设置 Postman 请求

  1. 1. 打开 Postman : 确保你已经安装并打开了 Postman。

  2. 2. 创建新请求 :

* •  点击 "New" 按钮。 

* •  选择 "HTTP Request"。 
  1. 3. 设置请求方法和 URL :
* •  将请求方法设置为 ` POST ` 。 

* •  输入 URL ` http://localhost:11434/api/generate ` 。 
  1. 4. 设置请求头 : 在 “Headers” 选项卡中添加一个新键值对:
* •  ` Content-Type ` : ` application/json `
  1. 5. 设置请求体 :
* •  切换到 "Body" 选项卡。 

* •  选择 "raw"。 

* •  确保选择 "JSON" 格式。 

* •  在文本框中输入以下 JSON 数据: 
    
            {  
      "model": "gemma:7b",  
      "prompt": "Why is the sky blue?"  
    }
  1. 6. 发送请求 :
* •  点击 "Send" 按钮发送请求。 

* • 本地请求API:比如:http://  **localhost** :11434/api/generate,记得先安装  Postman Agent(你sent之后它会提示你安装的) 

* ![](https://img-blog.csdnimg.cn/img_convert/e105f3117225e456c82532d4e6e12750.jpeg)   

验证响应

  1. 1. 查看响应 :
* •  请求发送后,查看响应的状态码应该是 ` 200 OK ` ,表示请求成功。 

* •  响应体应该包含 JSON 数据,你会看到类似于你之前提供的逐步生成的响应。 
* ![](https://img-blog.csdnimg.cn/img_convert/eb0f516cb6cbedf1d98e42166ad1256b.png)   

*   
  1. 2. **检查done 字段 ** :
* •  在 Postman 的 "Tests" 选项卡中,你可以编写 JavaScript 测试代码来自动验证 ` done ` 字段的值。 

* •  以下是一个示例测试代码: 
    
            pm.test("Check if response is complete", function () {  
        var jsonData = pm.response.json();  
        pm.expect(jsonData.done).to.eql(true);  
    });
  1. 3. **持续发送请求直到donetrue ** :
* •  你可能需要多次发送请求来检查是否 ` done ` 字段变为 ` true ` 。 

* •  你可以在 Postman 中设置一个循环或手动重复发送请求来检查。 

*   

* ![](https://img-blog.csdnimg.cn/img_convert/e65dd8400af3b0c7864186048a1b76de.png)

下面提供官方的 文档介绍、相关资源、部署教程 等,进一步支撑你的行动,以提升本文的帮助力。

如何安装 🚀

使用默认配置安装

  • 如果 Ollama 在您的计算机上 ,请使用此命令:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    
  • 如果 Ollama 在另一台服务器上 ,请使用此命令:要连接到另一台服务器上的 Ollama,请将 OLLAMA_BASE_URL 更改为服务器的 URL:

    docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    
    docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
    
    • 要使用 Nvidia GPU 支持运行 Open WebUI ,请使用此命令:

仅使用 OpenAI API 安装

  • 如果您仅使用 OpenAI API ,请使用此命令:

    docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    

安装带有捆绑 Ollama 支持的 Open WebUI

此安装方法使用单个容器镜像将 Open WebUI 与 Ollama 捆绑在

一起,允许通过单个命令进行简化设置。根据您的硬件设置选择适当的命令:

  • 支持 GPU :通过运行以下命令利用 GPU 资源:

    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
    
  • 仅限 CPU :如果您不使用 GPU,请使用此命令:

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
    

两个命令都可以实现 Open WebUI 和 Ollama 的内置简化安装,确保您可以迅速启动和运行。

安装后,您可以访问 http://localhost:3000 的 Open WebUI。享受吧!😄

保持 Docker 安装最新

如果您想将本地 Docker 安装更新到最新版本,可以使用 Watchtower :

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

在命令的最后部分,如果容器名称不同,请将 open-webui 替换为您的容器名称。

知音难求,自我修炼亦艰

抓住前沿技术的机遇,与我们一起成为创新的超级个体

(把握AIGC时代的个人力量)

**
**

** 点这里 👇 关注我,记得标星哦~ **

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

预览时标签不可点

微信扫一扫
关注该公众号

轻触阅读原文

AI进修生



收藏

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/691971.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

OS复习笔记ch7-3

承接上文我们讲完了页式管理和段式管理,接下来让我们深入讲解一下快表和二级页表 快表 快表和计算机组成原理讲的Cache原理如出一辙。为了减少访存的次数,OS在访问页面的时候创建了快表(Translation Lookaside Buffer ,简称TLB&…

数字滤波器和模拟滤波器(一)

模拟滤波器和数字滤波器(一) 下面介绍模拟滤波器和数字滤波器的频率响应的异同,以及如何使用python地scipy.signal来绘制其频谱响应和冲激阶跃响应。在第二期将谈到如何设计模拟滤波器和数字滤波器。 在正文之间,应该介绍连续时…

【面向就业的Linux基础】从入门到熟练,探索Linux的秘密(一)

主要帮助大家面向工作过程中Linux系统常用的命令联系,采用极致的实用主义,帮助大家节省时间。 文章目录 前言 一、linux系统 二、linux系统基本命令 1.Linux系统的目录结构 2. 常用命令介绍 3.命令演示 4.作业练习 总结 前言 主要帮助大家面向工作过程中…

【Spring框架全系列】SpringBoot_3种配置文件_yml语法_多环境开发配置_配置文件分类(详细)

文章目录 1.三种配置文件2. yaml语法2.1 yaml语法规则2.2 yaml数组数据2.3 yaml数据读取 3. 多环境开发配置3.1 多环境启动配置3.2 多环境启动命令格式3.3 多环境开发控制 4. 配置文件分类 1.三种配置文件 问题导入 框架常见的配置文件有哪几种形式? 比如&#xf…

接口幂等性设计(5 大方案罗列)

结合案例、列举场景的接口幂等性设计方案。 方案 1. 状态机 业务场景,数据审核成功后进行短信通知,或者是订单状态变成已支付后,短信通知用户订单生成的详细信息,等等和状态有关的操作。 假设 status:0(待…

SSL/TLS和HTTPS

HTTPS就是用了TLS包装的Socket进行通信的HTTP 混合加密 被称为混合加密。具体过程如下: 使用非对称加密协商对称密钥: 在通信的开始阶段,通常由客户端和服务器使用非对称加密算法(如RSA)来协商一个对称密钥。通常情…

Linux日志服务rsyslog深度解析(下)

🐇明明跟你说过:个人主页 🏅个人专栏:《Linux :从菜鸟到飞鸟的逆袭》🏅 🔖行路有良友,便是天堂🔖 目录 一、rsyslog的核心功能 1、日志消息的收集 2、日志消息的传…

Diffusers代码学习: IP-Adapter

从操作的角度来看,IP-Adapter和图生图是很相似的,都是有一个原始的图片,加上提示词,生成目标图片。但它们的底层实现方式是完全不一样的,我们通过源码解读来看一下。以下是ip adapter的实现方式 # 以下代码为程序运行…

【启程Golang之旅】网络编程与反射

欢迎来到Golang的世界!在当今快节奏的软件开发领域,选择一种高效、简洁的编程语言至关重要。而在这方面,Golang(又称Go)无疑是一个备受瞩目的选择。在本文中,带领您探索Golang的世界,一步步地了…

[stm32]——uc/OS-III多任务程序

目录 一、获取uC/OS-III源码 二、移植源代码 (1)建立工程文件 (2)移植uC/OS-III源码 (3)添加工程组件和头文件路径 (4)添加头文件路径 三、修改代码 总结 一、获取uC/OS-III源码 …

jvm学习笔记(一) ----- JAVA 内存

JAVA 内存 一、程序计数器二、虚拟机栈三、本地方法栈四、堆五、非JAVA内存(堆外内存)1.元空间(Metaspace)2.直接内存 链接: jvm学习笔记(二) ----- 垃圾回收 链接: jvm学习笔记(三) ----- 垃圾回收器 一、程序计数器 虚拟机需要通过『程序计数器』记录指令执行到哪了。线程要…

高考填报志愿,怎么分析自己适合什么专业?

高考结束后,很多考生不知道自己的分数段适合什么学校,缺乏目标感,有些专业名称很大,听起来光鲜亮丽,但是是否适合自己,学什么课程,将来就业去向,这些都是需要细致了解的。 专业选择…

【Java】解决Java报错:StackOverflowError

文章目录 引言1. 错误详解2. 常见的出错场景2.1 无限递归2.2 递归深度过大2.3 方法调用层次过深 3. 解决方案3.1 优化递归算法3.2 尾递归优化3.3 增加调用栈大小3.4 检查递归终止条件 4. 预防措施4.1 使用迭代替代递归4.2 尾递归优化4.3 合理设计递归算法4.4 调整JVM参数4.5 定…

Python通过数据验证功能在Excel文件中创建下拉列表

Excel表格的灵活性和功能性深受各行各业人士的喜爱。在Excel表格中,下拉列表功能是提升数据录入效率与准确性的一个重要利器,能够为用户提供预设的选择项,限制输入范围,避免手动输入错误,还能够简化数据录入过程&#…

APP开发技术的变迁史

随着移动互联网的迅猛发展,APP(应用程序)已经成为人们日常生活中不可或缺的一部分。从最初的简单工具到如今的智能平台,APP开发技术在这十年间经历了翻天覆地的变化。本文将从多个维度探讨近十年来APP开发技术的变迁史&#xff0c…

数组中寻找符合条件元素的位置(np.argwhere,nonzero)

今天遇到一个问题,就是寻找符合条件的元素所在的位置,主要使用np.argwhere和nonzero函数 比如给我一个二维数组,我想知道其中元素大于15的位置 方法1 import numpy as np exnp.arange(30) enp.reshape(ex,[3,10]) print(e) print(e>15…

【C++】C++ 基于QT实现散列表学生管理系统(源码+数据+课程论文)【独一无二】

👉博__主👈:米码收割机 👉技__能👈:C/Python语言 👉公众号👈:测试开发自动化【获取源码商业合作】 👉荣__誉👈:阿里云博客专家博主、5…

造假高手——faker

在测试写好的代码时通常需要用到一些测试数据,大量的真实数据有时候很难获取,如果手动制造测试数据又过于繁重无聊,显得不够优雅,今天我们介绍的faker这个轮子可以完美的解决这个问题。faker是一个用于生成各种类型假数据的库&…

10. MySQL 用户

文章目录 【 1. 权限表 】1.1 user 权限表1.1.1 用户列1.1.2 权限列1.1.3 安全列1.1.4 资源控制列 1.2 db 表用户列权限列 1.3 tables_priv 表1.4 columns_priv 表1.5 procs_priv表 【 2. 用户管理 】2.1 创建用户 CREATE USER2.2 用户的登陆、退出登陆 MySQL退出 MySQL 2.3 重…

基于VS2022编译GDAL

下载GDAL源码;下载GDAL编译需要依赖的必须代码,proj,tiff,geotiff三个源码,proj需要依赖sqlite;使用cmake编译proj,tiff,geotiff;proj有版本号要求;使用cmake…