Nginx进阶篇【四】

Nginx进阶篇【四】

  • 六、Nginx负载均衡
    • 6.1.负载均衡概述
    • 6.2.负载均衡的原理及处理流程
    • 6.3.负载均衡的作用
    • 6.4.负载均衡常用的处理方式
        • 6.4.1.方式一:用户手动选择
        • 6.4.2.方式二:DNS轮询方式
          • 6.4.2.1.DNS
          • 6.4.2.2.为某一个域名添加的IP地址,用2台服务器来做负载均衡
          • 6.4.2.3.验证:
          • 6.4.2.4.DNS负载均衡存在的缺点
        • 6.4.3.方式三:四/七层负载均衡
    • 6.5.Nginx七层负载均衡
      • 6.5.1.Nginx七层负载均衡的指令
          • upstream指令
          • server指令
      • 6.5.2.Nginx七层负载均衡的实现流程
        • 6.5.2.1.服务端设置
        • 6.5.2.2.负载均衡器设置
        • 6.5.2.3.访问测试--刷新
      • 6.5.3.负载均衡状态
          • downn【 down表示当前的serve暂时不参与负载】
          • backup
          • max_conns
          • max_fails和fail_timeout
      • 6.5.4.负载均衡策略
          • 轮询
          • weight轮询【默认为1,weight越大,负载的权重就越大】
          • ip_hash
          • least_conn
          • url_hash
          • fair
      • 6.5.5.添加第三方模块【`nginx-upstream-fair` 】实现的负载均衡
        • 6.5.5.1. 下载nginx-upstream-fair模块
        • 6.5.5.2. 将下载的文件上传到服务器并进行解压缩
        • 6.5.5.3. 重命名资源
        • 6.5.5.4. 使用./configure命令将资源添加到Nginx模块中
        • 6.5.5.5. 编译
        • 6.5.5.6. 更新Nginx
        • 6.5.5.7. 编译测试使用Nginx
      • 6.5.56.负载均衡案例
        • 6.5.6.1.案例一:对所有请求实现一般轮询规则的负载均衡
        • 6.5.6.2.案例二:对所有请求实现加权轮询规则的负载均衡
        • 6.5.6.3.案例三:对特定资源实现负载均衡
        • 6.5.6.4.案例四:对不同域名实现负载均衡
        • 6.5.6.5.案例五:实现带有URL重写的负载均衡
    • 6.6.Nginx四层负载均衡【 --with-stream 模块】
      • 6.6.1.添加 --with-stream 模块的支持
      • 6.6.2.Nginx四层负载均衡的指令
          • stream指令
          • upstream指令
    • 6.7.四层负载均衡的案例
      • 6.7.1.需求分析
      • 6.7.2.实现步骤
      • 6.7.3.准备Redis服务器,在一条服务器上准备三个Redis,端口分别是6379,6378
        • 6.7.3.1.下载redis的安装包,`redis-7.2.4.tar.gz`
        • 6.7.3.2.将安装包进行解压缩
        • 6.7.3.3.进入redis的安装包
        • 6.7.3.4.使用make和install进行编译和安装
        • 6.7.3.5.拷贝redis配置文件`redis.conf`到/usr/local/redis/redis01/bin目录中
        • 6.7.3.6.修改redis.conf配置文件
        • 6.7.3.7.将redis01复制一份为redis02
        • 6.7.3.8.将redis02文件文件夹中的redis.conf进行修改
        • 6.7.3.9.分别启动,即可获取两个Redis.并查看
        • 6.7.3.10.使用Nginx将请求分发到不同的Redis服务器上。
      • 6.7.4.准备Tomcat服务器.
        • 6.7.4.1.下载tomcat的安装包,`apache-tomcat-8.5.98.tar.gz`
        • 6.7.4.2.将安装包进行解压缩
        • 6.7.4.3.进入tomcat的bin目录
        • 6.7.4.4.测试
      • 6.7.5.nginx.conf配置
      • 6.7.6.访问测试
  • 七、Nginx缓存集成【ngx_http_proxy_module模块】
    • 7.1.缓存的概念
    • 7.2.Nginx的web缓存服务
    • 7.3.Nginx缓存设置的相关指令
      • proxy_cache_path
      • proxy_cache
      • proxy_cache_key
      • proxy_cache_valid
      • proxy_cache_min_uses
      • proxy_cache_methods
    • 7.4.Nginx缓存设置案例
      • 7.4.1.需求分析
      • 7.4.2.步骤实现
      • 7.4.3.应用服务器【131】的环境准备:启动tomcat并测试
      • 7.4.4.Nginx的环境准备【136服务器】完成Nginx反向代理配置
      • 7.4.5.缓存状态标记 ` $upstream_cache_status`
      • 7.4.6.添加Nginx缓存配置一
      • 7.4.7.添加Nginx缓存配置二
    • 7.5.Nginx缓存的清除
      • 7.5.1.方式一:删除对应的缓存目录
      • 7.5.2.方式二:使用第三方扩展模块 ngx_cache_purge
        • 7.5.2.1.下载ngx_cache_purge模块对应的资源包,并上传到服务器上。
        • 7.5.2.2.对资源文件进行解压缩
        • 7.5.2.3.修改文件夹名称,方便后期配置
        • 7.5.2.4.查询Nginx的配置参数
        • 7.5.2.5.进入Nginx的安装目录,使用./configure进行参数配置
        • 7.5.2.6.使用make进行编译
        • 7.5.2.7.将nginx安装目录的nginx二级制可执行文件备份
        • 7.5.2.8.将编译后的objs中的nginx拷贝到nginx的sbin目录下
        • 7.5.2.9.使用make进行升级
        • 7.5.2.10.在nginx配置文件中进行如下配置
        • 7.5.2.11.测试
    • 7.6.Nginx设置资源不缓存
      • 7.6.1.proxy_no_cache
      • 7.6.2.配置实例
      • 7.6.3.proxy_cache_bypass
      • 7.6.4.配置实例
      • 7.6.5.$cookie_nocache、\$arg_nocache、\$arg_comment
      • 7.6.6.案例演示下:
      • 7.6.7.案例实现--设置不缓存资源的配置方案
      • 7.6.8.nginx_balance_cache.conf
  • endl

六、Nginx负载均衡

6.1.负载均衡概述

早期的网站流量和业务功能都比较简单,单台服务器足以满足基本的需求,但是随着互联网的发展,业务流量越来越大并且业务逻辑也跟着越来越复杂,单台服务器的性能及单点故障问题就凸显出来了,因此需要多台服务器进行性能的水平扩展及避免单点故障出现。那么如何将不同用户的请求流量分发到不同的服务器上呢?

在这里插入图片描述

6.2.负载均衡的原理及处理流程

系统的扩展可以分为纵向扩展横向扩展

纵向扩展是从单机的角度出发,通过增加系统的硬件处理能力来提升服务器的处理能力

横向扩展是通过添加机器来满足大型网站服务的处理能力。

在这里插入图片描述

这里面涉及到两个重要的角色分别是"应用集群"和"负载均衡器"

应用集群:将同一应用部署到多台机器上,组成处理集群,接收负载均衡设备分发的请求,进行处理并返回响应的数据。

负载均衡器:将用户访问的请求根据对应的负载均衡算法,分发到集群中的一台服务器进行处理。

6.3.负载均衡的作用

  1. 解决服务器的高并发压力,提高应用程序的处理性能。

  2. 提供故障转移,实现高可用。

  3. 通过添加或减少服务器数量,增强网站的可扩展性。

  4. 在负载均衡器上进行过滤,可以提高系统的安全性

6.4.负载均衡常用的处理方式

6.4.1.方式一:用户手动选择

这种方式比较原始,只要实现的方式就是在网站主页上面提供不同线路、不同服务器链接方式,让用户来选择自己访问的具体服务器,来实现负载均衡。

在这里插入图片描述

6.4.2.方式二:DNS轮询方式
6.4.2.1.DNS
域名系统(服务)协议(DNS)是一种分布式网络目录服务,主要用于域名与 IP 地址的相互转换。

大多域名注册商都支持对同一个主机名添加多条A记录,这就是DNS轮询,DNS服务器将解析请求按照A记录的顺序,随机分配到不同的IP上,这样就能完成简单的负载均衡。DNS轮询的成本非常低,在一些不重要的服务器,被经常使用。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

6.4.2.2.为某一个域名添加的IP地址,用2台服务器来做负载均衡

在这里插入图片描述

6.4.2.3.验证:
ping www.自己的域名

ping www.baidu.com

清空本地的dns缓存

ipconfig/flushdns

在这里插入图片描述

6.4.2.4.DNS负载均衡存在的缺点

我们发现使用DNS来实现轮询,不需要投入过多的成本,虽然DNS轮询成本低廉,但是DNS负载均衡存在明显的缺点。

  1. 可靠性低

假设一个域名DNS轮询多台服务器,如果其中的一台服务器发生故障,那么所有的访问该服务器的请求将不会有所回应,即使你将该服务器的IP从DNS中去掉,但是由于各大宽带接入商将众多的DNS存放在缓存中,以节省访问时间,导致DNS不会实时更新。所以DNS轮流上一定程度上解决了负载均衡问题,但是却存在可靠性不高的缺点。

  1. 负载均衡不均衡

DNS负载均衡采用的是简单的轮询负载算法,不能区分服务器的差异,不能反映服务器的当前运行状态,不能做到为性能好的服务器多分配请求,另外本地计算机也会缓存已经解析的域名到IP地址的映射,这也会导致使用该DNS服务器的用户在一定时间内访问的是同一台Web服务器,从而引发Web服务器减的负载不均衡。

负载不均衡则会导致某几台服务器负荷很低,而另外几台服务器负荷确很高,处理请求的速度慢,配置高的服务器分配到的请求少,而配置低的服务器分配到的请求多。

6.4.3.方式三:四/七层负载均衡

OSI(open system interconnection),叫开放式系统互联模型,这个是由国际标准化组织ISO指定的一个不基于具体机型、操作系统或公司的网络体系结构。该模型将网络通信的工作分为七层。

在这里插入图片描述

  • 应用层:为应用程序提供网络服务。

  • 表示层:对数据进行格式化、编码、加密、压缩等操作。

  • 会话层:建立、维护、管理会话连接。

  • 传输层:建立、维护、管理端到端的连接,常见的有TCP/UDP。

  • 网络层:IP寻址路由选择

  • 数据链路层:控制网络层与物理层之间的通信。

  • 物理层:比特流传输。

所谓四层负载均衡指的是OSI七层模型中的传输层,主要是基于IP+PORT的负载均衡

实现四层负载均衡的方式:
硬件:F5 BIG-IP、Radware等
软件:LVS、NginxHayproxy

所谓的七层负载均衡指的是在应用层,主要是基于虚拟的URL或主机IP的负载均衡

实现七层负载均衡的方式:
软件:NginxHayproxy

四层和七层负载均衡的区别

四层负载均衡数据包是在底层就进行了分发,而七层负载均衡数据包则在最顶端进行分发,所以四层负载均衡的效率比七层负载均衡的要高。
四层负载均衡不识别域名,而七层负载均衡识别域名。

处理四层和七层负载以为其实还有二层、三层负载均衡,二层是在数据链路层基于mac地址来实现负载均衡,三层是在网络层一般采用虚拟IP地址的方式实现负载均衡。

实际环境采用的模式

四层负载(LVS)+七层负载(Nginx)

6.5.Nginx七层负载均衡

Nginx要实现七层负载均衡需要用到proxy_pass代理模块配置。Nginx默认安装支持这个模块,我们不需要再做任何处理。
Nginx的负载均衡是在Nginx的反向代理基础上把用户的请求根据指定的算法分发到一组【upstream虚拟服务池】。

6.5.1.Nginx七层负载均衡的指令

upstream指令

该指令是用来定义一组服务器,它们可以是监听不同端口的服务器,并且也可以是同时监听TCP和Unix socket的服务器。服务器可以指定不同的权重,默认为1。

语法upstream name {…}
默认值
位置http

在这里插入图片描述

server指令

该指令用来指定后端服务器的名称和一些参数,可以使用域名、IP、端口或者unix socket

语法server name [paramerters]
默认值
位置upstream

6.5.2.Nginx七层负载均衡的实现流程

在这里插入图片描述

在这里插入图片描述

6.5.2.1.服务端设置
server {
    listen   9001;
    server_name localhost;
    default_type text/html;
    location /{
    	return 200 '<h1>192.168.229.131:9001</h1>';
    }
}
server {
    listen   9002;
    server_name localhost;
    default_type text/html;
    location /{
    	return 200 '<h1>192.168.229.131:9002</h1>';
    }
}
server {
    listen   9003;
    server_name localhost;
    default_type text/html;
    location /{
    	return 200 '<h1>192.168.229.131:9003</h1>';
    }
}

在这里插入图片描述

6.5.2.2.负载均衡器设置
upstream backend{
	server 192.168.229.131:9091;
	server 192.168.229.131:9092;
	server 192.168.229.131:9093;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

在这里插入图片描述

6.5.2.3.访问测试–刷新
http://192.168.229.136:8083/

6.5.3.负载均衡状态

代理服务器在负责均衡调度中的状态有以下几个:

状态概述
down当前的server暂时不参与负载均衡
backup预留的备份服务器
max_fails允许请求失败的次数
fail_timeout经过max_fails失败后, 服务暂停时间
max_conns限制最大的接收连接数
downn【 down表示当前的serve暂时不参与负载】

down:将该服务器标记为永久不可用,那么该代理服务器将不参与负载均衡

upstream backend{
	server 192.168.229.131:9001 down;
	server 192.168.229.131:9002
	server 192.168.229.131:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

该状态一般会对需要停机维护的服务器进行设置。

curl http://192.168.229.136:8083

在这里插入图片描述

backup

backup:将该服务器标记为备份服务器,当主服务器不可用时,将用来传递请求。

upstream backend{
	server 192.168.229.131:9001 down;
	server 192.168.229.131:9002 backup;
	server 192.168.229.131:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

在这里插入图片描述

此时需要将9093端口的访问禁止掉来模拟下唯一能对外提供访问的服务宕机以后,backup的备份服务器就要开始对外提供服务,此时为了测试验证,我们需要使用防火墙来进行拦截。

介绍一个工具firewall-cmd,该工具是Linux提供的专门用来操作firewall的。

查询防火墙中指定的端口是否开放

firewall-cmd --query-port=9001/tcp

如何开放一个指定的端口

firewall-cmd --permanent --add-port=9002/tcp

批量添加开发端口

firewall-cmd --permanent --add-port=9001-9003/tcp

如何移除一个指定的端口

firewall-cmd --permanent --remove-port=9003/tcp

重新加载

firewall-cmd --reload

其中

​ --permanent表示设置为持久

​ --add-port表示添加指定端口

​ --remove-port表示移除指定端口

max_conns

max_conns=number:用来设置代理服务器同时活动链接的最大数量,默认为0,表示不限制,使用该配置可以根据后端服务器处理请求的并发量来进行设置,防止后端服务器被压垮。

max_fails和fail_timeout

max_fails=number:设置允许请求代理服务器失败的次数,默认为1。

fail_timeout=time:设置经过max_fails失败后,服务暂停的时间,默认是10秒。

upstream backend{
	server 192.168.229.136:9001 down;
	server 192.168.229.136:9002 backup;
	server 192.168.229.136:9003 max_fails=3 fail_timeout=15;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

6.5.4.负载均衡策略

除了采用默认的分配方式以外,我们还能采用什么样的负载算法

Nginx的upstream支持如下六种方式的分配算法,分别是:

算法名称说明
轮询默认方式
weight权重方式
ip_hash依据ip分配方式
least_conn依据最少连接方式
url_hash依据URL分配方式
fair依据响应时间方式
轮询

轮询是upstream模块负载均衡默认的策略。每个请求会按时间顺序逐个分配到不同的后端服务器。轮询不需要额外的配置。

upstream backend{
	server 192.168.229.131:9001 weight=1;
	server 192.168.229.131:9002;
	server 192.168.229.131:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
weight轮询【默认为1,weight越大,负载的权重就越大】

weight=number:用来设置服务器的权重,默认为1,权重数据越大,被分配到请求的几率越大;
该权重值,主要是针对实际工作环境中不同的后端服务器硬件配置进行调整的,所有此策略比较适合服务器的硬件配置差别比较大的情况。

upstream backend{
	server 192.168.229.131:9001 weight=10;
	server 192.168.229.131:9002 weight=5;
	server 192.168.229.131:9003 weight=3;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
ip_hash

当对后端的多台动态应用服务器做负载均衡时,ip_hash指令能够将某个客户端IP的请求通过哈希算法定位到同一台后端服务器上。
这样,当来自某一个IP的用户在后端Web服务器A上登录后,在访问该站点的其他URL,能保证其访问的还是后端web服务器A。

语法ip_hash;
默认值
位置upstream
upstream backend{
	ip_hash;
	server 192.168.229.131:9001;
	server 192.168.229.131:9002;
	server 192.168.229.131:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

缺点:ip_hash指令无法保证后端服务器的负载均衡,可能导致有些后端服务器接收到的请求多,有些后端服务器接收的请求少,而且设置后端服务器权重等方法将不起作用。

在这里插入图片描述

least_conn

最少连接,把请求转发给连接数较少的后端服务器。
轮询算法是把请求平均转发给各个后端,使它们的负载大致相同;但是,有些请求占用的时间很长,会导致其所在的后端负载较高。
这种情况下,least_conn这种方式就可以达到更好的负载均衡效果。

upstream backend{
	least_conn;
	server 192.168.229.131:9001;
	server 192.168.229.131:9002;
	server 192.168.229.131:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

least_conn负载均衡策略适合请求处理时间长短不一造成服务器过载的情况。

在这里插入图片描述

url_hash

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,要配合缓存命中来使用
同一个资源多次请求,可能会到达不同的服务器上,导致不必要的多次下载,缓存命中率不高,以及一些资源时间的浪费。
而使用url_hash,可以使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存了资源,再此收到请求,就可以从缓存中读取。

upstream backend{
	hash &request_uri;
	server 192.168.229.131:9001;
	server 192.168.229.131:9002;
	server 192.168.229.131:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

访问如下地址:

http://192.168.229.136:8083/a
http://192.168.229.136:8083/b
http://192.168.229.136:8083/c

在这里插入图片描述

fair

fair采用的不是内建负载均衡使用的轮换的均衡算法,而是可以根据页面大小、加载时间长短智能的进行负载均衡。如何使用第三方模块的fair负载均衡策略。

upstream backend{
	fair;
	server 192.168.229.131:9001;
	server 192.168.229.131:9002;
	server 192.168.229.131:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

6.5.5.添加第三方模块【nginx-upstream-fair 】实现的负载均衡

但是如何直接使用会报错,因为fair属于第三方模块实现的负载均衡。需要添加nginx-upstream-fair,如何添加对应的模块:

6.5.5.1. 下载nginx-upstream-fair模块
下载地址为:
	https://github.com/gnosek/nginx-upstream-fair

在这里插入图片描述

6.5.5.2. 将下载的文件上传到服务器并进行解压缩
mkdir -p /nginx/module

cd /nginx/module

unzip nginx-upstream-fair-master.zip
6.5.5.3. 重命名资源
mv nginx-upstream-fair-master fair

在这里插入图片描述

6.5.5.4. 使用./configure命令将资源添加到Nginx模块中
./configure --add-module=/nginx/module/fair
./configure --prefix=/usr/local/nginx \
--sbin-path=/usr/local/nginx/sbin/nginx \
--modules-path=/usr/local/nginx/modules \
--conf-path=/usr/local/nginx/conf/nginx.conf \
--error-log-path=/usr/local/nginx/logs/error.log \
--http-log-path=/usr/local/nginx/logs/access.log \
--pid-path=/usr/local/nginx/logs/nginx.pid \
--lock-path=/usr/local/nginx/logs/nginx.lock \
--with-http_gzip_static_module \
--with-http_ssl_module \
--add-module=/nginx/module/fair
6.5.5.5. 编译
make

在这里插入图片描述

编译可能会出现如下错误,ngx_http_upstream_srv_conf_t结构中缺少default_port

在这里插入图片描述

解决方案:

在Nginx的源码中 src/http/ngx_http_upstream.h,找到ngx_http_upstream_srv_conf_s,在模块中添加添加default_port属性

# 搜索
find / -name ngx_http_upstream.h
in_port_t	   default_port

在这里插入图片描述

在这里插入图片描述

然后再进行make.

6.5.5.6. 更新Nginx

​ 1 将sbin目录下的nginx进行备份

mv /usr/local/nginx/sbin/nginx /usr/local/nginx/sbin/nginxold

​ 2 将安装目录下的objs中的nginx拷贝到sbin目录

cd objs
cp nginx /usr/local/nginx/sbin

​ 3 更新Nginx

cd ../
make upgrade

在这里插入图片描述

6.5.5.7. 编译测试使用Nginx

在这里插入图片描述

6.5.56.负载均衡案例

6.5.6.1.案例一:对所有请求实现一般轮询规则的负载均衡
upstream backend{
	server 192.168.229.131:9001;
	server 192.168.229.131:9002;
	server 192.168.229.131:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
6.5.6.2.案例二:对所有请求实现加权轮询规则的负载均衡
upstream backend{
	server 192.168.229.131:9001 weight=7;
	server 192.168.229.131:9002 weight=5;
	server 192.168.229.131:9003 weight=3;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
6.5.6.3.案例三:对特定资源实现负载均衡
upstream videobackend{
	server 192.168.229.131:9001;
	server 192.168.229.131:9002;
}
upstream filebackend{
	server 192.168.229.131:9003;
	server 192.168.229.131:9004;
}
server {
	listen 8084;
	server_name localhost;
	location /video/ {
		proxy_pass http://videobackend;
	}
	location /file/ {
		proxy_pass http://filebackend;
	}
}
6.5.6.4.案例四:对不同域名实现负载均衡
upstream videobackend{
	server 192.168.229.131:9001;
	server 192.168.229.131:9002;
}
upstream filebackend{
	server 192.168.229.131:9003;
	server 192.168.229.131:9004;
}
server {
	listen	8085;
	server_name www.test.cn;
	location / {
		proxy_pass http://videobackend;
	}
}
server {
	listen	8086;
	server_name www.it.cn;
	location / {
		proxy_pass http://filebackend;
	}
}
6.5.6.5.案例五:实现带有URL重写的负载均衡
upstream backend{
	server 192.168.229.131:9001;
	server 192.168.229.131:9002;
	server 192.168.229.131:9003;
}
server {
	listen	80;
	server_name localhost;
	location /file/ {
		rewrite ^(/file/.*) /server/$1 last;
	}
	location / {
		proxy_pass http://backend;
	}
}

6.6.Nginx四层负载均衡【 --with-stream 模块】

Nginx在1.9之后,增加了一个stream模块,用来实现四层协议的转发、代理、负载均衡等。
stream模块的用法跟http的用法类似,允许我们配置一组TCP或者UDP等协议的监听,然后通过proxy_pass来转发我们的请求,通过upstream添加多个后端服务,实现负载均衡。

四层协议负载均衡的实现,一般都会用到LVS、HAProxy、F5等,要么很贵要么配置很麻烦,而Nginx的配置相对来说更简单,更能快速完成工作。

6.6.1.添加 --with-stream 模块的支持

Nginx默认是没有编译这个模块的,需要使用到stream模块,那么需要在编译的时候加上--with-stream

完成添加--with-stream的实现步骤:

》将原有/usr/local/nginx/sbin/nginx进行备份
》拷贝nginx之前的配置信息
》在nginx的安装源码进行配置指定对应模块  ./configure --with-stream
》通过make模板进行编译
》将objs下面的nginx移动到/usr/local/nginx/sbin下
》在源码目录下执行  make upgrade进行升级,这个可以实现不停机添加新模块的功能
./configure --prefix=/usr/local/nginx \
--sbin-path=/usr/local/nginx/sbin/nginx \
--modules-path=/usr/local/nginx/modules \
--conf-path=/usr/local/nginx/conf/nginx.conf \
--error-log-path=/usr/local/nginx/logs/error.log \
--http-log-path=/usr/local/nginx/logs/access.log \
--pid-path=/usr/local/nginx/logs/nginx.pid \
--lock-path=/usr/local/nginx/logs/nginx.lock \
--with-http_gzip_static_module \
--with-http_ssl_module \
--with-stream \
--add-module=/nginx/module/fair

6.6.2.Nginx四层负载均衡的指令

stream指令

该指令提供在其中指定流服务器指令的配置文件上下文。和http指令同级。

语法stream { … }
默认值
位置main
upstream指令

该指令和http的upstream指令是类似的。

6.7.四层负载均衡的案例

6.7.1.需求分析

在这里插入图片描述

6.7.2.实现步骤

6.7.3.准备Redis服务器,在一条服务器上准备三个Redis,端口分别是6379,6378

6.7.3.1.下载redis的安装包,redis-7.2.4.tar.gz

redis官网:https://redis.io/download/

# 安装wget工具
yum -y install wget

# 创建自己的redis文件夹
mkdir -p /redis/core

cd /redis/core

# 自己复制的链接地址
wget https://download.redis.io/releases/redis-7.2.4.tar.gz

在这里插入图片描述

6.7.3.2.将安装包进行解压缩
tar -zxf redis-4.0.14.tar.gz
6.7.3.3.进入redis的安装包
cd /redis/core/redis-7.2.4
6.7.3.4.使用make和install进行编译和安装
make PREFIX=/usr/local/redis/redis01 install
6.7.3.5.拷贝redis配置文件redis.conf到/usr/local/redis/redis01/bin目录中
cp redis.conf	/usr/local/redis/redis01/bin

在这里插入图片描述

6.7.3.6.修改redis.conf配置文件
port  6379      #redis的端口
protected-mode no #需要远程连接,设置为no,取消保护模式
#bind 127.0.0.1 ::1 # 允许redis远程连接,必须注释掉(注释或者改为bind 0.0.0.0) 
daemonize yes   #后台启动redis设置为yes,开启守护进程模式
appendonly yes  #开启redis数据持久化

6.7.3.7.将redis01复制一份为redis02
cd /usr/local/redis
cp -r redis01 redis02
6.7.3.8.将redis02文件文件夹中的redis.conf进行修改
port  6378      #redis的端口
daemonize yes   #后台启动redis
6.7.3.9.分别启动,即可获取两个Redis.并查看
ps -ef | grep redis

在这里插入图片描述

6.7.3.10.使用Nginx将请求分发到不同的Redis服务器上。
stream {

        upstream redisbackend {
                server 192.168.229.131:6379;
                server 192.168.229.131:6378;
        }
        server {
                listen 81;
                proxy_pass redisbackend;
        }
}

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

6.7.4.准备Tomcat服务器.

Tomcat官网:https://tomcat.apache.org/download-80.cgi

6.7.4.1.下载tomcat的安装包,apache-tomcat-8.5.98.tar.gz
# 安装wget工具
yum -y install wget

# 创建自己的tomact文件夹
mkdir -p /tomact/core

cd /tomact/core

# 自己复制的链接地址
wget https://dlcdn.apache.org/tomcat/tomcat-8/v8.5.98/bin/apache-tomcat-8.5.98.tar.gz

在这里插入图片描述
在这里插入图片描述

6.7.4.2.将安装包进行解压缩
tar -zxf apache-tomcat-8.5.98.tar.gz
6.7.4.3.进入tomcat的bin目录
cd apache-tomcat-8.5.98/bin

./startup.sh

tomcat官网:https://tomcat.apache.org/download-80.cgi

Linux下安装jdk、tomcat:https://blog.csdn.net/qq_45740503/article/details/135609079?spm=1001.2014.3001.5502

在这里插入图片描述
在这里插入图片描述

6.7.4.4.测试
ps -ef | grep tomcat

在这里插入图片描述
在这里插入图片描述

6.7.5.nginx.conf配置

stream {
        upstream redisbackend {
                server 192.168.229.131:6379;
                server 192.168.229.131:6378;
        }
        upstream tomcatbackend {
        		server 192.168.229.131:8080;
        }
        server {
                listen  81;
                proxy_pass redisbackend;
        }
        server {
        		listen	82;
        		proxy_pass tomcatbackend;
        }
}

6.7.6.访问测试

在这里插入图片描述

七、Nginx缓存集成【ngx_http_proxy_module模块】

ngx_http_proxy_module模块:https://nginx.org/en/docs/http/ngx_http_proxy_module.html

7.1.缓存的概念

缓存就是数据交换的缓冲区(称作:Cache),当用户要获取数据的时候,会先从缓存中去查询获取数据,如果缓存中有就会直接返回给用户,如果缓存中没有,则会发请求从服务器重新查询数据,将数据返回给用户的同时将数据放入缓存,下次用户就会直接从缓存中获取数据。

在这里插入图片描述

缓存其实在很多场景中都有用到,比如:

场景作用
操作系统磁盘缓存减少磁盘机械操作
数据库缓存减少文件系统的IO操作
应用程序缓存减少对数据库的查询
Web服务器缓存减少对应用服务器请求次数
浏览器缓存减少与后台的交互次数

缓存的优点

  • 减少数据传输,节省网络流量,加快响应速度,提升用户体验;

  • 减轻服务器压力;

  • 提供服务端的高可用性;

缓存的缺点

  • 数据的不一致

  • 增加成本

在这里插入图片描述

Nginx作为web服务器,Nginx作为Web缓存服务器,它介于客户端和应用服务器之间,当用户通过浏览器访问一个URL时,web缓存服务器会去应用服务器获取要展示给用户的内容,将内容缓存到自己的服务器上,当下一次请求到来时,如果访问的是同一个URL,web缓存服务器就会直接将之前缓存的内容返回给客户端,而不是向应用服务器再次发送请求。
web缓存降低了应用服务器、数据库的负载,减少了网络延迟,提高了用户访问的响应速度,增强了用户的体验。

7.2.Nginx的web缓存服务

Nginx是从0.7.48版开始提供缓存功能
Nginx是基于Proxy Store来实现的,其原理是把URL及相关组合当做Key,在使用MD5算法对Key进行哈希,得到硬盘上对应的哈希目录路径,从而将缓存内容保存在该目录中。
它可以支持任意URL连接,同时也支持404/301/302这样的非200状态码。
Nginx即可以支持对指定URL或者状态码设置过期时间,也可以使用purge命令来手动清除指定URL的缓存。

在这里插入图片描述

7.3.Nginx缓存设置的相关指令

Nginx的web缓存服务主要是使用ngx_http_proxy_module模块相关指令集来完成。

proxy_cache_path

该指定用于设置缓存文件的存放路径

语法proxy_cache_path path [levels=number]
keys_zone=zone_name:zone_size [inactive=time][max_size=size];
默认值
位置http

path:缓存路径地址,如:

/usr/local/proxy_cache

levels: 指定该缓存空间对应的目录,最多可以设置3层,每层取值为1|2如 :

levels=1:2   缓存空间有两层目录,第一次是1个字母,第二次是2个字母
举例说明:
MD5[key]通过MD5加密以后的值为 7f138a09169b250e9dcb378140907378
levels=1:2   最终的存储路径为/usr/local/proxy_cache/8/37
levels=2:1:2 最终的存储路径为/usr/local/proxy_cache/78/3/07
levels=2:2:2 最终的存储路径为??/usr/local/proxy_cache/78/73/90

keys_zone:用来为这个缓存区设置名称和指定大小,如:

keys_zone=MD5:200m  缓存区的名称是MD5,大小为200M,1M大概能存储8000个keys

inactive:指定缓存的数据多次时间未被访问就将被删除,如:

inactive=1d  缓存数据在1天内没有被访问就会被删除

max_size:设置最大缓存空间,如果缓存空间存满,默认会覆盖缓存时间最长的资源,如:

max_size=20g

配置实例:

user www;
worker_processes  2;

events {
     accept_mutex on; #设置Nginx网络连接序列化,防止多个进程对连接的争抢
     multi_accept on; #设置Nginx的worker进程是否可以同时接收多个网络请求
     worker_connections 1024; # 设置Nginx单个worker进程最大的连接数
     use epoll; #设置Nginx使用的事件驱动模型,使用epoll函数来优化Ngin
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    sendfile        on;
    tcp_nopush      on; # 主要是用来提升网络包的传输效率
    tcp_nodelay     on; # 提高网络包传输的实时性

    keepalive_timeout  65;

    proxy_cache_path /usr/local/nginx/proxy_cache levels=2:1 keys_zone=Test:200m inactive=1d max_size=20g;

    server {
        listen       80;
        server_name  localhost;

        location / {
            root   html;
            index  index.html index.htm;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

}

在这里插入图片描述
在这里插入图片描述

proxy_cache

该指令用来开启或关闭代理缓存,如果是开启则自定使用哪个缓存区来进行缓存。

语法proxy_cache zone_name|off;
默认值proxy_cache off;
位置http、server、location

zone_name:指定使用缓存区的名称

proxy_cache_key

该指令用来设置web缓存的key值Nginx会根据key值MD5哈希存缓存

语法proxy_cache_key key;
默认值proxy_cache_key $scheme$proxy_host$request_uri;
位置http、server、location

proxy_cache_valid

该指令用来对不同返回状态码的URL设置不同的缓存时间

语法proxy_cache_valid [code …] time;
默认值
位置http、server、location

如:

proxy_cache_valid 200 302 10m;
proxy_cache_valid 404 1m;200302的响应URL设置10分钟缓存,为404的响应URL设置1分钟缓存
proxy_cache_valid any 1m;
对所有响应状态码的URL都设置1分钟缓存

proxy_cache_min_uses

该指令用来设置资源被访问多少次后被缓存

语法proxy_cache_min_uses number;
默认值proxy_cache_min_uses 1;
位置http、server、location

proxy_cache_methods

该指令用户设置缓存哪些HTTP方法

语法proxy_cache_methods GET|HEAD|POST;
默认值proxy_cache_methods GET HEAD;
位置http、server、location

默认缓存HTTP的GET和HEAD方法,不缓存POST方法。

7.4.Nginx缓存设置案例

7.4.1.需求分析

在这里插入图片描述

7.4.2.步骤实现

7.4.3.应用服务器【131】的环境准备:启动tomcat并测试

(1)在192.168.229.131服务器上的tomcat的webapps下面添加一个js目录,并在js目录中添加一个jquery-3.7.1.js文件

(2)启动tomcat

(3)访问测试

jquery官网:https://jquery.com/download/

https://code.jquery.com/jquery-3.7.1.js

http://192.168.229.131:8080/js/jquery-3.7.1.js

在这里插入图片描述
在这里插入图片描述

7.4.4.Nginx的环境准备【136服务器】完成Nginx反向代理配置

http{
	upstream backend{
		server 192.168.229.131:8080;
	}
	server {
		listen       8080;
        server_name  localhost;
        location / {
        	proxy_pass http://backend/js/;
        }
	}
}

在这里插入图片描述
在这里插入图片描述

7.4.5.缓存状态标记 $upstream_cache_status

$upstream_cache_status包含以下几种状态:

MISS 未命中,请求被传送到后端
HIT 缓存命中
EXPIRED 缓存已经过期请求被传送到后端
UPDATING 正在更新缓存,将使用旧的应答
STALE 后端将得到过期的应答

7.4.6.添加Nginx缓存配置一

http{
	proxy_cache_path /usr/local/proxy_cache levels=2:1 keys_zone=Test:200m inactive=1d max_size=20g;
	upstream backend{
		server 192.168.229.131:8080;
	}
	server {
		listen       8080;
        server_name  localhost;
        location / {
        	proxy_cache Test;
            proxy_cache_key TestKey;
            proxy_cache_valid 200 5d;
            # 缓存状态标记
            add_header nginx-cache "$upstream_cache_status";
        	proxy_pass http://backend/js/;
        }
	}
}

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

7.4.7.添加Nginx缓存配置二

http{
	proxy_cache_path /usr/local/proxy_cache levels=2:1 keys_zone=Test:200m inactive=1d max_size=20g;
	upstream backend{
		server 192.168.229.131:8080;
	}
	server {
		listen       8080;
        server_name  localhost;
        location / {
        	proxy_cache Test;
            #proxy_cache_key TestKey;
            proxy_cache_key $scheme$proxy_host$request_uri;#请求的协议 请求的主机 请求的路径
            proxy_cache_min_uses 5;# 访问超过5次才缓存
            proxy_cache_valid 200 5d;
            proxy_cache_valid 404 30s;
            proxy_cache_valid any 1m;
            # 缓存状态标记
            add_header nginx-cache "$upstream_cache_status";
        	proxy_pass http://backend/js/;
        }
	}
}

在这里插入图片描述

7.5.Nginx缓存的清除

7.5.1.方式一:删除对应的缓存目录

rm -rf /usr/local/nginx/proxy_cache/......

7.5.2.方式二:使用第三方扩展模块 ngx_cache_purge

7.5.2.1.下载ngx_cache_purge模块对应的资源包,并上传到服务器上。
cd /nginx/module

wget http://labs.frickle.com/files/ngx_cache_purge-2.3.tar.gz

在这里插入图片描述

7.5.2.2.对资源文件进行解压缩
tar -zxf ngx_cache_purge-2.3.tar.gz
7.5.2.3.修改文件夹名称,方便后期配置
mv ngx_cache_purge-2.3 purge

在这里插入图片描述

7.5.2.4.查询Nginx的配置参数
nginx -V
7.5.2.5.进入Nginx的安装目录,使用./configure进行参数配置
./configure --add-module=/nginx/module/purge
./configure --prefix=/usr/local/nginx \
--sbin-path=/usr/local/nginx/sbin/nginx \
--modules-path=/usr/local/nginx/modules \
--conf-path=/usr/local/nginx/conf/nginx.conf \
--error-log-path=/usr/local/nginx/logs/error.log \
--http-log-path=/usr/local/nginx/logs/access.log \
--pid-path=/usr/local/nginx/logs/nginx.pid \
--lock-path=/usr/local/nginx/logs/nginx.lock \
--with-http_gzip_static_module \
--with-http_ssl_module \
--with-stream \
--add-module=/nginx/module/fair \
--add-module=/nginx/module/purge

在这里插入图片描述

7.5.2.6.使用make进行编译
make

在这里插入图片描述

7.5.2.7.将nginx安装目录的nginx二级制可执行文件备份
mv /usr/local/nginx/sbin/nginx /usr/local/nginx/sbin/nginxold
7.5.2.8.将编译后的objs中的nginx拷贝到nginx的sbin目录下
cp objs/nginx /usr/local/nginx/sbin
7.5.2.9.使用make进行升级
make upgrade

在这里插入图片描述

7.5.2.10.在nginx配置文件中进行如下配置
    proxy_cache_path /usr/local/nginx/proxy_cache levels=2:1 keys_zone=Test:200m inactive=1d max_size=20g;

    upstream backend {
        server 192.168.229.131:8080;
    }
    server {
        listen 8080;
        server_name localhost;
        location / {
                proxy_cache Test;
                proxy_cache_key TestKey;
                #proxy_cache_key $scheme$proxy_host$request_uri;#请求的协议 请求的主机 请求的路径
                proxy_cache_valid 200 5d;
                proxy_cache_valid 404 30s;
                proxy_cache_valid any 1m;
                proxy_cache_min_uses 1;# 访问超过1次才缓存 
                # 缓存状态标记
                add_header nginx-cache "$upstream_cache_status";

                proxy_pass http://backend/js/;
        }
        location ~ /purge(/.*) {
                proxy_cache_purge Test TestKey;
        }
    }

在这里插入图片描述

7.5.2.11.测试
http://192.168.229.136:8080/jquery-3.7.1.js

http://192.168.229.136:8080/purge/jquery-3.7.1.js

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

7.6.Nginx设置资源不缓存

思考一个问题就是不是所有的数据都适合进行缓存。
比如说对于一些经常发生变化的数据
如果进行缓存的话,就很容易出现用户访问到的数据不是服务器真实的数据。
所以对于这些资源我们在缓存的过程中就需要进行过滤,不进行缓存。

7.6.1.proxy_no_cache

该指令是用来定义不将数据进行缓存的条件。

语法proxy_no_cache string …;
默认值
位置http、server、location

7.6.2.配置实例

proxy_no_cache $cookie_nocache $arg_nocache $arg_comment;

7.6.3.proxy_cache_bypass

该指令是用来设置不从缓存中获取数据的条件。

语法proxy_cache_bypass string …;
默认值
位置http、server、location

https://nginx.org/en/docs/http/ngx_http_proxy_module.html#proxy_cache_bypass

7.6.4.配置实例

proxy_cache_bypass $cookie_nocache $arg_nocache $arg_comment;

上述两个指令都有一个指定的条件,这个条件可以是多个,并且多个条件中至少有一个不为空且不等于"0",则条件满足成立。
上面给的配置实例是从官方网站获取的,里面使用到了三个变量,分别是$cookie_nocache、$arg_nocache、$arg_comment
在这里插入图片描述

7.6.5.$cookie_nocache、$arg_nocache、$arg_comment

这三个参数分别代表的含义是:

$cookie_nocache
指的是当前请求的cookie中键的名称为nocache对应的值
$arg_nocache和$arg_comment
指的是当前请求的参数中属性名为nocache和comment对应的属性值

7.6.6.案例演示下:

log_format params $cookie_nocache | $arg_nocache | $arg_comment;
server{
	listen	8081;
	server_name localhost;
	location /{
		access_log logs/access_params.log params;
		add_header Set-Cookie 'nocache=999';
		root html;
		index index.html;
	}
}

在这里插入图片描述

7.6.7.案例实现–设置不缓存资源的配置方案

server{
	listen	8080;
	server_name localhost;
	location / {
		if ($request_uri ~ /.*\.js$){
           set $nocache 1;
        }
		proxy_no_cache $nocache $cookie_nocache $arg_nocache $arg_comment;
        proxy_cache_bypass $nocache $cookie_nocache $arg_nocache $arg_comment;
	}
}

在这里插入图片描述
在这里插入图片描述

7.6.8.nginx_balance_cache.conf

user www;
worker_processes  2;

events {
     accept_mutex on; #设置Nginx网络连接序列化,防止多个进程对连接的争抢
     multi_accept on; #设置Nginx的worker进程是否可以同时接收多个网络请求
     worker_connections 1024; # 设置Nginx单个worker进程最大的连接数
     use epoll; #设置Nginx使用的事件驱动模型,使用epoll函数来优化Ngin
}

http {
    include       mime.types;
    default_type  application/octet-stream;

    sendfile        on;
    tcp_nopush      on; # 主要是用来提升网络包的传输效率
    tcp_nodelay     on; # 提高网络包传输的实时性

    keepalive_timeout  65;


    proxy_cache_path /usr/local/nginx/proxy_cache levels=2:1 keys_zone=Test:200m inactive=1d max_size=20g;

    log_format main $scheme$proxy_host$request_uri;
    log_format params $cookie_nocache | $arg_nocache | $arg_comment;

    upstream backend {
        server 192.168.229.131:8080;
    }

    server {
        listen 8081;
        server_name localhost;
        location / {
                add_header Set-Cookie 'nocache=999';
                access_log logs/access_params.log params;
                root html;
                index index.html;
        }
    }

    server {
        listen 8080;
        server_name localhost;
        location / {
                access_log logs/key.log main;

                proxy_cache Test;
                #proxy_cache_key TestKey;
    }

    server {
        listen 8081;
        server_name localhost;
        location / {
                add_header Set-Cookie 'nocache=999';
                access_log logs/access_params.log params;
                root html;
                index index.html;
        }
    }
   
    server {
        listen 8080;
        server_name localhost;
        location / {
                access_log logs/key.log main;

                proxy_cache Test;
                #proxy_cache_key TestKey;
                proxy_cache_key $scheme$proxy_host$request_uri;#请求的协议 请求的主机 请求的路径
                proxy_cache_valid 200 5d;
                proxy_cache_valid 404 30s;
                proxy_cache_valid any 1m;
                proxy_cache_min_uses 1;# 访问超过1次才缓存

                if ($request_uri ~ /.*\.js$){
                        set $nocache 1;
                }
                proxy_no_cache $nocache $cookie_nocache $arg_nocache $arg_comment;
                proxy_cache_bypass $nocache $cookie_nocache $arg_nocache $arg_comment; 

                # 缓存状态标记
                add_header nginx-cache "$upstream_cache_status";

                proxy_pass http://backend/js/;
        }
        location ~ /purge(/.*) {
                access_log logs/key.log main;

                proxy_cache_purge Test $scheme$proxy_host$request_uri;
        }
    }

    server {
        listen       80;
        server_name  localhost;

        location / {
            root   html;
            index  index.html index.htm;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

}

endl

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/352429.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

ROS2学习笔记(0)开坑声明

0.前提 在做racecar的过程中发现已经有不少的开发者和公司开始从ros1转向ros2的怀抱了&#xff0c;刚好寒假在家&#xff0c;我就顺带试试看能不能学点ros2&#xff0c;刚好我有两辆车和主板可以双线开工&#xff08;是的&#xff0c;全是老师们赞助的&#xff0c;真的我哭死&…

Java面试题之序列化和反序列化

Java面试题之序列化和反序列化 文章目录 Java面试题之序列化和反序列化序列化和反序列化什么是序列化?什么是反序列化?如果有些字段不想进行序列化怎么办&#xff1f;常见序列化协议有哪些&#xff1f;为什么不推荐使用 JDK 自带的序列化&#xff1f; 文章来自Java Guide 用于…

Python初学者学习记录——python基础综合案例:数据可视化——地图可视化

一、基础地图使用 1、基础地图演示 2、基础地图演示——视觉映射器 from pyecharts.charts import Map from pyecharts.options import VisualMapOpts# 准备地图对象 map Map() # 准备数据 data [("北京市", 99),("上海市", 199),("湖南省", 2…

stable-diffusion-webui 汉化(中文界面)

大家好&#xff0c;我是水滴~~ 本文主要介绍 Stable Diffusion WebUI 是如何汉化的&#xff0c;文章详细的介绍汉化过程&#xff0c;并加上配图能够清晰的展示该过程。 Stable Diffusion WebUI 官方并没有出中文界面&#xff0c;需要通过安装插件来汉化&#xff0c;下面是详细…

MySQL-进阶-SQL优化

一、insert优化 插入大量数据 二、主键优化 1、数据组织方式 2、页分裂 3、页合并 4、逐渐设计原则 三、order by优化 四、group by优化 五、limit优化 六、count优化 七、update优化

3 JS类型 值和变量

计算机对value进行操作。 value有不同的类型。每种语言都有其自身的类型集合。编程语言的类型集是该编程语言的基本特性。 value需要保存一个变量中。 变量的工作机制是变成语言的另一个基本特性。 3.1概述和定义 JS类型分为&#xff1a; 原始类型和对象类型。 原始类型&am…

react实现滚动到顶部组件

新建ScrollToTop.js import React, { useState, useEffect } from react; import ./ScrollToTop.css;function ScrollToTop() {const [isVisible, setIsVisible] useState(true);// Show button when page is scorlled upto given distanceconst toggleVisibility () > {…

【K12】运用tk控件演示欧姆定律串联电阻小应用

上述代码是一个基于Python的图形用户界面&#xff08;GUI&#xff09;应用程序&#xff0c;用于演示欧姆定律。用户可以通过输入电阻值来计算电流&#xff0c;并在图形上显示结果。该程序使用了Tkinter库来创建GUI&#xff0c;matplotlib库来绘制图形&#xff0c;以及numpy库进…

docker 构建应用

docker 应用程序开发手册 开发 docker 镜像 Dockerfile 非常容易定义镜像内容由一系列指令和参数构成的脚本文件每一条指令构建一层一个 Dockerfile 文件包含了构建镜像的一套完整指令指令不区分大小写&#xff0c;但是一般建议都是大写从头到尾按顺序执行指令必须以 FROM 指…

大型语言模型 (LLM)全解读

一、大型语言模型&#xff08;Large Language Model&#xff09;定义 大型语言模型 是一种深度学习算法&#xff0c;可以执行各种自然语言处理 (NLP) 任务。 大型语言模型底层使用多个转换器模型&#xff0c; 底层转换器是一组神经网络。 大型语言模型是使用海量数据集进行训练…

P1042 [NOIP2003 普及组] 乒乓球 Java版最简单题解!

为什么说最简单&#xff0c;因为本人就是一个算法小白&#xff0c;只学过一点数据结构&#xff0c;打算备战蓝桥杯的&#xff0c;网上说备战蓝桥杯就去刷洛谷&#xff0c;早有听闻洛谷很难&#xff0c;今天一看算是真的被打醒了&#xff0c;对于小白是真的太难了。(;༎ຶД༎ຶ…

uni-app 微信小程序之红包雨活动

文章目录 1. 页面效果2. 页面样式代码 1. 页面效果 GIF录屏有点卡&#xff0c;实际比较丝滑 每0.5s掉落一个红包控制4s后自动移除红包点击红包消除红包&#xff08;或者自行1&#xff0c;或者弹窗需求&#xff09; 2. 页面样式代码 <!-- 红包雨活动 --> <template>…

拦截器的简单使用

拦截器的简单使用 拦截器的使用创建拦截器preHandle 目标方法执行前执行postHandle 目标方法执行后执行afterCompletion 视图渲染后执行 拦截器使用场景返回值注册拦截器运用拦截器 拦截器的使用 创建拦截器 首先,我们需要创建一个拦截器器的类,并且需要继承自HandlerIntercep…

Linux系统优化要义

这里不敢说 linux优化奥义&#xff0c;主要是本文比较浅显&#xff0c;适合普通开发相关人员去读 linux作为服务器系统的王者&#xff0c;以稳定性著称&#xff0c;但对于不同的“应用场景”&#xff0c;相关配置还需调整&#xff0c;才能保证业务稳定性。以下是相关总结 IO优…

快快销ShopMatrix 分销商城多端uniapp可编译5端-代理商收益管理:差价奖励和销售额统计

代理商收益管理是一种针对代理商的利润分配模式&#xff0c;主要通过差价奖励和销售额统计来实现。这种模式的核心思想是通过激励代理商的销售行为&#xff0c;提高代理商的积极性和销售效率&#xff0c;从而实现整个销售网络的增长。 差价奖励是代理商收益管理中的一种常见方…

兄弟DCP-7057黑白激光多功能一体机加粉后清零方法

硒鼓加粉机器上清零&#xff0c;方法如下&#xff1a; 打开安装硒鼓的前盖。按“清除”键&#xff0c;显示“更换硒鼓”。不用管提示&#xff0c;接着按“启用Start”&#xff0c;再按“”&#xff0c;屏幕上显示“01”。继续按“”&#xff0c;直到屏幕上显示“11”。按“OK”…

E5071C 是德科技网络分析仪

181/2461/8938产品概述&#xff1a; E5071C ENA 矢量网络分析仪&#xff0c;9 kHz 至 20 GHz&#xff0c;配有增强型 TDR 测量选件。 E5071C 是大规模无源元器件测试的理想解决方案。 它具有出色的测量性能&#xff0c;有助于提高测试吞吐量&#xff0c;尤其是与 E5092A 多端…

Discuz论坛搭建:Linux宝塔面板一键部署,固定地址畅享公网访问

&#x1f308;个人主页&#xff1a;聆风吟 &#x1f525;系列专栏&#xff1a;网络奇遇记、Cpolar杂谈 &#x1f516;少年有梦不应止于心动&#xff0c;更要付诸行动。 文章目录 &#x1f4cb;前言一. 安装基础环境二. 一键部署Discuz三. 安装cpolar工具四. 配置域名访问Discuz…

【小白教程】幻兽帕鲁服务器一键搭建 | 支持更新 | 自定义配置

幻兽帕鲁刚上线就百万在线人数&#xff0c;官方服务器的又经常不稳定&#xff0c;所以这里给大家带来最快捷的搭建教程&#xff0c;废话不多说直接开始。 步骤一&#xff1a;准备服务器 服务器建议 Linux 系统&#xff0c;资源占用低&#xff0c;而且一键脚本只需要一条命令&am…

架构篇27:如何设计计算高可用架构?

文章目录 主备主从集群小结计算高可用的主要设计目标是:当出现部分硬件损坏时,计算任务能够继续正常运行。因此计算高可用的本质是通过冗余来规避部分故障的风险,单台服务器是无论如何都达不到这个目标的。所以计算高可用的设计思想很简单:通过增加更多服务器来达到计算高可…