文章目录
-
- 概要
- 整体架构流程
- 技术细节
- **## 1.下载nginx [https://nginx.org/en/download.html](https://nginx.org/en/download.html),推荐Stable version稳定版**
- 2.下载完成解压文件,打开conf文件夹下的nginx.conf,贴上反向代理配置
- 3.然后点击解压文件夹下的nginx.exe,启动成功是如下页面,默认是本机ip地址80端口,80端口可以省略。
- 4.关闭ollama,右键菜单栏选择任务管理器,关闭这两个进程
- 5.查看ollama配置,电脑右击属性,高级系统设置,环境变量,用户变量中,如果是0.0.0.0(是指默认所有ip都可以访问)的修改为127.0.0.1
- 6.启动ollama,打开cmd
- 7.在需要访问大模型的机器上输入192.168.xx.xx2:8088即可访问
概要
3月3日,国家网络安全通报中心发布关于大模型工具Ollama存在安全风险的情况通报,内容如下:
据清华大学网络空间测绘联合研究中心分析,开源跨平台大模型工具Ollama默认配置存在未授权访问与模型窃取等安全隐患。鉴于目前DeepSeek等大模型的研究部署和应用非常广泛,多数用户使用Ollama私有化部署且未修改默认配置,存在数据泄露、算力盗取、服务中断等安全风险,极易引发网络和数据安全事件。
整体架构流程
解决流程就是配置ollama环境变量,使用nginx反向代理。
技术细节
## 1.下载nginx https://nginx.org/en/download.html,推荐Stable version稳定版
2.下载完成解压文件,打开conf文件夹下的nginx.conf,贴上反向代理配置
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_ty