Nginx 性能优化技巧与实践(二)

五、性能优化之负载均衡篇

5.1 负载均衡算法介绍

Nginx 作为一款强大的 Web 服务器和反向代理服务器,其负载均衡功能是提升 Web 服务性能和可靠性的关键。Nginx 支持多种负载均衡算法,每种算法都有其独特的原理和特点,适用于不同的业务场景。

轮询(Round Robin)是 Nginx 的默认负载均衡算法,它就像一个有条不紊的调度员,按照顺序将请求依次分发到后端服务器。比如,假设有三个后端服务器 A、B、C,当有请求到来时,第一个请求会被分配到服务器 A,第二个请求分配到服务器 B,第三个请求分配到服务器 C,然后再循环回到服务器 A,依次类推。这种算法简单直接,易于实现,在后端服务器性能相近的情况下,能够均匀地分配负载,确保每个服务器都能得到充分利用。然而,它的局限性在于无法感知服务器的实际负载情况,如果某个服务器的性能突然下降或出现故障,轮询算法仍然会按照顺序将请求分配给它,可能导致部分请求响应缓慢或失败。

加权轮询(Weighted Round Robin)算法则是在轮询的基础上,考虑了服务器的性能差异。它为每个后端服务器分配一个权重值,权重越高,表示该服务器的处理能力越强,能够承担更多的请求。在实际分配请求时,Nginx 会根据权重比例将请求分配到不同的服务器上。例如,服务器 A 的权重为 3,服务器 B 的权重为 2,服务器 C 的权重为 1,那么在每 6 个请求中,服务器 A 可能会被分配到 3 个请求,服务器 B 被分配到 2 个请求,服务器 C 被分配到 1 个请求。这种算法适用于后端服务器配置和性能参差不齐的场景,能够更加合理地分配负载,提高整体系统的处理能力。

源地址哈希(IP Hash)算法依据客户端 IP 地址的哈希值来分配请求。它通过对客户端 IP 地址进行哈希计算,得到一个固定的哈希值,然后根据这个哈希值将请求分配到特定的后端服务器。这样一来,来自同一客户端的请求总是会被分配到同一台服务器上,这对于需要保持会话一致性的应用场景非常重要,比如用户登录系统后,后续的请求需要始终由同一台服务器处理,以确保用户的会话状态不丢失。然而,这种算法也存在一定的局限性,由于哈希值的计算与客户端 IP 地址紧密相关,如果客户端 IP 地址分布不均匀,可能会导致某些服务器负载过高,而其他服务器负载过低,出现负载不均衡的情况。

最小连接数(Least Connections)算法会将请求分配给当前连接数最少的后端服务器。它实时监控每个后端服务器的连接数,当有新的请求到来时,Nginx 会自动选择当前连接数最少的服务器来处理该请求。这种算法能够动态地感知服务器的负载情况,将请求分配到负载较轻的服务器上,从而保证系统的整体性能。在处理长连接的场景,如 WebSocket、数据库连接等,最小连接数算法能够有效地避免服务器因为连接数过多而导致性能下降,确保每个服务器都能高效地处理请求。

Fair 算法是一种相对智能的负载均衡算法,它需要安装第三方模块ngx_http_upstream_fair_module。该算法会根据后端服务器的响应时间来分配请求,响应时间短的服务器会被优先分配更多的请求。它的工作原理是通过实时监测后端服务器处理请求的响应时间,动态地调整请求的分配策略。对于那些对访问响应速度有较高要求的业务场景,如在线游戏、实时金融交易等,Fair 算法能够确保用户的请求能够快速得到响应,提升用户体验。然而,由于需要实时监测和计算响应时间,Fair 算法的实现相对复杂,对系统资源的消耗也相对较大。

url_hash 算法需要安装第三方模块ngx_http_upstream_hash_module,它根据请求 URL 的哈希值来分配请求。相同 URL 的请求会被分配到固定的服务器上,这在后端服务器为缓存服务器时非常有效。例如,对于一个图片资源网站,大量的图片请求可能会集中在某些特定的 URL 上,使用 url_hash 算法可以将这些相同 URL 的图片请求始终分配到同一台缓存服务器上,提高缓存命中率,减少后端服务器的压力,从而加快图片的加载速度,提升用户访问网站的体验。

5.2 选择合适的算法

在实际应用中,选择合适的负载均衡算法是优化 Nginx 性能的关键环节。不同的业务场景对负载均衡算法有不同的要求,需要根据具体情况进行综合考虑。

当后端服务器性能相近时,轮询算法是一个不错的选择。这种情况下,服务器的处理能力基本相同,轮询算法能够简单有效地将请求均匀地分配到各个服务器上,保证每个服务器都能充分发挥其性能,不会出现某个服务器负载过高或过低的情况。例如,对于一个小型的企业网站,后端服务器的配置和性能差异不大,使用轮询算法就可以满足基本的负载均衡需求,实现高效稳定的服务。

若后端服务器配置差异较大,加权轮询算法则更为合适。由于服务器的性能参差不齐,通过为不同性能的服务器分配不同的权重,可以使性能较强的服务器承担更多的请求,性能较弱的服务器承担较少的请求,从而实现资源的合理分配,提高整个系统的处理能力。比如,在一个电商平台中,部分服务器配置了高性能的 CPU 和大容量的内存,而部分服务器配置相对较低,此时使用加权轮询算法,为高性能服务器设置较高的权重,为低性能服务器设置较低的权重,能够确保系统在高并发情况下依然能够稳定运行,为用户提供快速的服务响应。

对于有会话保持需求的场景,如用户登录系统、购物车功能等,源地址哈希算法是首选。它能够保证来自同一客户端的请求始终被分配到同一台服务器上,确保用户的会话状态不丢失,提供连贯的用户体验。以在线购物为例,用户在浏览商品、添加商品到购物车、结算等一系列操作过程中,需要保持会话一致性,使用源地址哈希算法可以确保用户的所有请求都由同一台服务器处理,避免出现购物车数据丢失或订单处理错误等问题。

在处理长连接的场景,如 WebSocket 实时通信、数据库长连接等,最小连接数算法能够根据服务器的实时连接数动态分配请求,将请求分配到连接数最少的服务器上,避免服务器因为连接数过多而导致性能下降,保证系统的整体性能和稳定性。例如,在一个实时聊天应用中,大量用户同时保持 WebSocket 连接进行实时通信,使用最小连接数算法可以确保每个服务器都能高效地处理用户的连接请求,实现快速稳定的消息传输。

当对访问响应速度有一定要求时,Fair 算法能够根据后端服务器的响应时间来分配请求,优先将请求分配给响应时间短的服务器,从而提高整体的访问响应速度。在一些对实时性要求较高的业务场景,如在线游戏、视频直播等,使用 Fair 算法可以确保用户能够快速地获取游戏数据、观看视频直播,提升用户体验。

若后端服务器为缓存服务器,url_hash 算法可以根据请求 URL 的哈希值将相同 URL 的请求分配到固定的服务器上,提高缓存命中率,减少后端服务器的压力。例如,在一个内容分发网络(CDN)中,大量的静态资源请求(如图片、CSS、JavaScript 文件等)可以通过 url_hash 算法分配到特定的缓存服务器上,当用户再次请求相同的资源时,能够直接从缓存服务器中获取,大大加快了资源的加载速度。

5.3 负载均衡配置实例

下面通过一个简单的负载均衡配置示例,展示如何在 Nginx 中配置负载均衡,将请求分发到多个后端服务器。假设我们有三个后端服务器,分别为backend1.example.combackend2.example.combackend3.example.com,我们希望使用轮询算法将请求分发到这三个服务器上。

首先,在 Nginx 的配置文件中,通过upstream模块定义后端服务器组:

 

http {

upstream backend {

server backend1.example.com;

server backend2.example.com;

server backend3.example.com;

}

server {

listen 80;

server_name example.com;

location / {

proxy_pass http://backend;

proxy_set_header Host $host;

proxy_set_header X-Real-IP $remote_addr;

proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

proxy_set_header X-Forwarded-Proto $scheme;

}

}

}

在上述配置中:

  • upstream backend定义了一个名为backend的后端服务器组,其中包含了三个后端服务器backend1.example.combackend2.example.combackend3.example.com。由于没有指定负载均衡算法,Nginx 会默认使用轮询算法,按照顺序依次将请求分配到这三个服务器上。
  • server块定义了 Nginx 服务器的监听端口和域名,这里监听 80 端口,域名为example.com
  • location /表示对根路径的请求进行处理,proxy_pass http://backend将请求代理到backend服务器组,即按照负载均衡算法将请求分发到三个后端服务器中的一个。
  • 后面的proxy_set_header指令用于设置一些请求头信息,将客户端的真实 IP 地址、请求协议等信息传递给后端服务器,以便后端服务器能够正确处理请求并记录日志。

通过这样的配置,Nginx 就能够实现简单的负载均衡功能,将客户端的请求均匀地分发到多个后端服务器上,提高系统的性能和可靠性。在实际应用中,可以根据业务需求和服务器的实际情况,灵活调整负载均衡算法和相关配置参数,以达到最佳的性能优化效果。

六、性能优化之压缩篇

6.1 Gzip 压缩开启与配置

在 Nginx 的性能优化中,Gzip 压缩是一项重要的技术手段,它能够显著减少数据传输量,提高网站的加载速度,为用户带来更流畅的访问体验。

Gzip 压缩的原理基于数据的重复性。在许多类型的数据中,如文本文件、HTML 文件、CSS 文件和 JavaScript 文件等,存在大量的重复信息,像重复的单词、标签、样式声明等。Gzip 压缩通过使用 DEFLATE 算法,该算法结合了 LZ77 算法和哈夫曼编码。首先,LZ77 算法会在数据中查找重复出现的数据片段,并用指向先前出现位置的指针来表示这些片段,从而实现初步的压缩;接着,哈夫曼编码会对这些经过 LZ77 处理后的数据进行进一步编码,它为文件中的每个字符分配一个可变长度的代码字,频率更高的字符使用较短的代码字,频率较低的字符使用较长的代码字,以此来减少数据的整体大小,最终达到高效压缩数据的目的 。在 Web 传输中,当客户端请求资源时,服务器会将这些资源进行 Gzip 压缩,然后再发送给客户端,客户端接收到压缩后的数据后,会自动解压缩并使用其中的内容,这样大大减少了数据在网络传输中的时间,提高了传输效率。

在 Nginx 中开启 Gzip 压缩并进行配置是一个相对简单的过程。以下是一个基本的配置示例:

 

http {

gzip on;

gzip_types text/plain application/javascript application/x-javascript text/css application/xml text/javascript application/json;

gzip_comp_level 6;

gzip_min_length 1024;

gzip_buffers 4 16k;

gzip_http_version 1.1;

gzip_vary on;

gzip_disable "MSIE[1-6]\.";

}

在上述配置中:

  • gzip on;:这是开启 Gzip 压缩功能的关键指令,当设置为on时,Nginx 会对符合条件的响应数据进行 Gzip 压缩。
  • gzip_types:用于指定需要进行 Gzip 压缩的文件类型,这里列举了常见的文本类型、JavaScript 类型、CSS 类型、XML 类型和 JSON 类型等。只有当响应数据的 MIME 类型与这些指定类型匹配时,才会进行压缩。例如,对于一个包含大量 JavaScript 脚本的网页,当客户端请求该网页时,Nginx 会对其中的 JavaScript 文件进行 Gzip 压缩,从而减少传输的数据量。
  • gzip_comp_level:设置 Gzip 压缩级别,取值范围是 1 - 9 。数字越大,压缩比越高,即压缩后的文件越小,但同时压缩过程所消耗的 CPU 资源也越多,压缩时间也会更长;数字越小,压缩速度越快,但压缩比相对较低。这里设置为 6,是在压缩比和 CPU 消耗之间取得一个较为平衡的选择,既能有效减小数据传输量,又不会过度消耗服务器 CPU 资源。
  • gzip_min_length:表示只有当响应数据的大小大于这个值时,才会进行 Gzip 压缩。这里设置为 1024 字节(即 1KB),如果响应数据小于 1KB,Nginx 将不会对其进行压缩,因为对于过小的数据进行压缩,可能压缩后的文件大小并不会显著减小,反而会增加额外的压缩和解压缩开销。
  • gzip_buffers:用于设置压缩响应数据时所使用的缓冲区大小和数量。4 16k表示以 16KB 为单位,分配 4 个缓冲区,即总共 64KB 的缓冲区空间。这些缓冲区用于存储压缩过程中的临时数据,合理设置缓冲区大小可以提高压缩效率。
  • gzip_http_version:指定压缩响应所需要的最低 HTTP 请求版本,这里设置为 1.1 。这意味着只有当客户端的 HTTP 请求版本为 1.1 或更高时,才会对响应数据进行 Gzip 压缩。早期的 HTTP 1.0 版本可能对 Gzip 压缩的支持不够完善,通过设置这个参数可以确保兼容性。
  • gzip_vary on;:这个指令会在响应头中添加Vary: Accept-Encoding字段,它的作用是告诉缓存服务器(如 CDN),不同的客户端可能支持不同的编码方式(如是否支持 Gzip 压缩),缓存服务器应该根据客户端的Accept-Encoding头信息来存储不同版本的缓存内容,以便正确地为不同客户端提供服务。
  • gzip_disable "MSIE[1-6]\.";:用于禁止对特定浏览器进行 Gzip 压缩,这里使用正则表达式匹配 IE6 及以下版本的浏览器。因为这些早期的浏览器在处理 Gzip 压缩数据时可能存在兼容性问题,禁止对它们进行压缩可以避免出现乱码或其他错误。

6.2 压缩策略调整

在实际应用中,根据服务器的 CPU 能力、网络条件和资源类型来调整压缩策略是实现最佳性能和用户体验的关键。

服务器的 CPU 能力是调整压缩策略时需要重点考虑的因素之一。Gzip 压缩是一个 CPU 密集型的操作,压缩级别越高,对 CPU 的消耗就越大。如果服务器的 CPU 性能较弱,而设置了过高的压缩级别,可能会导致 CPU 负载过高,影响服务器的整体性能,甚至导致服务器响应缓慢或无法正常工作。在这种情况下,应该适当降低压缩级别,如将压缩级别设置为 3 或 4,以减少 CPU 的负担,确保服务器能够稳定运行。相反,如果服务器配备了高性能的 CPU,有足够的计算资源来处理压缩任务,那么可以适当提高压缩级别,如设置为 7 或 8,以获得更高的压缩比,进一步减少数据传输量,提高用户访问速度。

网络条件也是影响压缩策略的重要因素。在网络带宽充足的情况下,数据传输速度较快,此时可以适当降低压缩级别,因为即使不进行高度压缩,数据也能较快地传输到客户端。这样可以减少服务器的 CPU 消耗,将资源更多地用于其他业务处理。而在网络带宽有限的情况下,为了减少数据传输量,提高传输效率,就需要提高压缩级别,以尽可能地减小数据的大小。例如,对于一些移动网络用户,由于其网络带宽相对较低,信号稳定性也较差,提高压缩级别可以显著改善用户的访问体验,确保网页能够快速加载。

不同类型的资源对压缩的需求和效果也各不相同。对于文本类型的资源,如 HTML、CSS、JavaScript 和 JSON 等,它们通常具有较高的可压缩性,因为其中包含大量的重复字符和冗余信息,适合进行较高程度的压缩。可以将这些资源的压缩级别设置得相对较高,如 6 - 8 ,以有效减小文件大小,提高传输速度。而对于已经经过压缩的资源,如图片(JPEG、PNG 等)、视频(MP4、AVI 等)和音频(MP3、WAV 等)文件,再次进行 Gzip 压缩的效果往往不明显,甚至可能会因为压缩算法的特性,导致压缩后的文件大小反而增加。因此,对于这些资源,通常不建议进行 Gzip 压缩,可以通过其他方式,如选择合适的图片格式、优化视频编码等,来减少文件大小,提高传输效率。

通过综合考虑服务器的 CPU 能力、网络条件和资源类型,灵活调整 Gzip 压缩策略,能够在保证服务器性能稳定的前提下,为用户提供最佳的访问体验,实现高效、快速的 Web 服务。

七、性能优化之实战案例

7.1 案例背景

本次案例聚焦于一个大型电商网站,该网站拥有海量的商品种类和庞大的用户群体,涵盖了各类时尚服饰、电子产品、家居用品等。在日常运营中,网站已经积累了稳定的用户流量,但每逢重要促销活动,如 “双 11”“618” 等,网站的访问量会呈现爆发式增长,并发请求数在短时间内急剧攀升。在这些高并发场景下,网站的性能问题逐渐凸显。

7.2 优化前的状况

优化前,Nginx 采用默认的配置参数,工作进程数设置为 2,单个工作进程的最大连接数为 1024。在服务器资源使用方面,CPU 利用率在高并发时经常达到 90% 以上,内存使用率也接近 80%,磁盘 I/O 繁忙。业务系统的性能指标表现不佳,平均响应时间长达 5 秒以上,吞吐量仅为 5000 请求 / 秒,并发连接数只能维持在 2000 左右。在高并发时段,用户访问网站时页面加载缓慢,商品搜索、下单等操作响应迟钝,甚至出现页面无法加载、请求超时等情况,严重影响了用户体验和业务的正常开展。

7.3 优化措施实施

针对上述问题,采取了一系列 Nginx 性能优化措施。在配置参数调整方面,根据服务器的 8 核 CPU,将worker_processes设置为 8 ,充分利用 CPU 多核优势;将worker_connections增加到 10240,以提高并发连接处理能力;设置worker_cpu_affinity,将工作进程绑定到指定的 CPU 核心,减少 CPU 切换开销,即worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000; 。同时,将worker_rlimit_nofile设置为 65536,并在/etc/security/limits.conf文件中相应调整,确保系统层面的文件描述符限制满足需求。

在事件处理模型上,启用epoll模型,修改配置为events { use epoll; worker_connections 10240; } ,以提升事件处理效率。连接与超时设置方面,将keepalive_timeout设置为 60 秒,及时关闭空闲连接;启用tcp_nodelay,确保数据实时发送;将client_header_timeout和client_body_timeout均设置为 15 秒,send_timeout设置为 25 秒,防止无效请求占用资源。

缓存优化上,开启文件缓存,配置如下:

 

http {

open_file_cache max=10000 inactive=30s;

open_file_cache_valid 60s;

open_file_cache_min_uses 3;

open_file_cache_errors on;

}

代理缓存配置为:

 

http {

proxy_cache_path /data/nginx/cache levels=1:2 keys_zone=my_cache:20m max_size=20g inactive=120m use_temp_path=off;

server {

listen 80;

server_name example.com;

location / {

proxy_pass http://backend_server;

proxy_cache my_cache;

proxy_cache_key "$request_method$host$request_uri";

proxy_cache_valid 200 302 2h;

proxy_cache_valid 404 15m;

proxy_cache_bypass $cookie_no_cache $arg_no_cache $http_pragma $http_authorization;

proxy_no_cache $cookie_no_cache $arg_no_cache $http_pragma $http_authorization;

}

}

}

根据资源类型调整缓存策略,对于静态资源,如图片、CSS、JavaScript 文件,设置较长的缓存时间,如location ~* \.(jpg|jpeg|png|gif|ico|css|js)$ { expires 14d; } ;对于动态资源,根据业务需求进行部分缓存或调整缓存时间。

负载均衡方面,由于后端服务器性能存在差异,采用加权轮询算法,为性能较强的服务器分配较高的权重,配置如下:

 

http {

upstream backend {

server backend1.example.com weight=3;

server backend2.example.com weight=2;

server backend3.example.com weight=1;

}

server {

listen 80;

server_name example.com;

location / {

proxy_pass http://backend;

proxy_set_header Host $host;

proxy_set_header X-Real-IP $remote_addr;

proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

proxy_set_header X-Forwarded-Proto $scheme;

}

}

}

压缩优化上,开启 Gzip 压缩,配置如下:

 

http {

gzip on;

gzip_types text/plain application/javascript application/x-javascript text/css application/xml text/javascript application/json;

gzip_comp_level 6;

gzip_min_length 1024;

gzip_buffers 4 16k;

gzip_http_version 1.1;

gzip_vary on;

gzip_disable "MSIE[1-6]\.";

}

根据服务器 CPU 能力和网络条件,对于文本类型资源保持较高的压缩级别,对于已压缩资源不进行重复压缩。

7.4 优化后的效果

优化后,服务器资源使用情况得到显著改善。CPU 利用率在高并发时稳定在 60% 左右,内存使用率降低到 60% 以下,磁盘 I/O 负载明显减轻。业务系统性能指标大幅提升,平均响应时间缩短至 1 秒以内,吞吐量提升到 15000 请求 / 秒以上,并发连接数提高到 8000 以上。用户访问网站时,页面加载迅速,商品搜索、下单等操作响应流畅,有效提升了用户体验,保障了业务在高并发场景下的稳定运行,促进了业务的增长和发展。

八、总结与展望

通过对 Nginx 性能优化的多方面探索,我们深入了解了其在 Web 服务中的关键作用以及优化的重要性。从配置参数的精细调整,如合理设置 Worker 进程相关参数、选择高效的事件处理模型和优化连接与超时设置,到缓存策略的巧妙运用,包括开启文件缓存、配置代理缓存和根据资源类型调整缓存策略,再到负载均衡算法的精准选择和配置,以及 Gzip 压缩的有效实施,每一个环节都对 Nginx 的性能提升起着至关重要的作用。

在实际应用中,没有一种通用的优化方案适用于所有场景。不同的业务场景,如电商网站、社交平台、新闻资讯网站等,具有各自独特的业务特点和性能需求。电商网站在促销活动期间对并发处理能力和响应速度要求极高,需要重点优化负载均衡和缓存策略;社交平台则更注重用户会话的保持和实时通信的稳定性,源地址哈希算法和长连接处理的优化就显得尤为重要。因此,我们必须根据具体的业务场景进行针对性的优化,深入分析业务的流量特点、数据更新频率、用户行为等因素,制定出最适合的优化策略,才能充分发挥 Nginx 的性能优势,为用户提供高效、稳定的服务。

展望未来,随着互联网技术的飞速发展,Web 服务面临的挑战也将不断升级。用户对服务的响应速度和稳定性要求越来越高,业务的复杂性和数据量也在持续增长。Nginx 作为 Web 服务的核心组件,其性能优化也将不断演进。未来,Nginx 可能会在以下几个方面取得突破和发展:在算法优化方面,不断研发更智能、高效的负载均衡算法和缓存算法,以适应日益复杂的业务场景和海量的数据处理需求;在功能扩展上,与新兴技术如容器编排工具(如 Kubernetes)、服务网格(如 Istio)等深度融合,为云原生应用提供更强大的支持;在性能监测和自动化优化方面,借助人工智能和机器学习技术,实现对 Nginx 性能的实时监测和自动优化,及时发现并解决性能瓶颈问题,进一步提升服务的可靠性和稳定性。我们需要持续关注 Nginx 的发展动态,不断学习和探索新的优化技术和方法,以应对未来 Web 服务领域的各种挑战。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/958309.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【计算机网络】- 应用层HTTP协议

目录 初识HTTP 什么是HTTP 版本 HTTPS 模型 HTTP抓包工具 为什么使用 抓包工具的下载 下载后的重要操作 Fiddler的使用 HTTP请求与响应的基本格式 HTTP请求基本格式​编辑 HTTP响应基本格式 协议格式总结❗️❗️❗️​编辑 HTTP 详解 认识 URL URL基本格式 …

记一次IDOR 和访问控制缺失漏洞挖掘

视频教程在我主页简介和专栏里 测试 IDOR(不安全的直接对象引用) 漏洞时,我会使用一系列工具,确保不会遗漏任何问题。以下是我的测试方法: 设置 Firefox 和 Pwnfox: 1、我使用 Firefox 浏览器&#xff0c…

GS论文阅读--Hard Gaussian Splatting

前言 本文也是对高斯点云的分布进行优化的,看! 文章目录 前言1.背景介绍2.关键内容2.1 位置梯度驱动HGS2.2 渲染误差引导HGS 3.文章贡献 1.背景介绍 在训练过程中,它严重依赖于视图空间位置梯度的平均幅度来增长高斯以减少渲染损失。然而&…

JS基础-操作数组(7)

一.增删改查 1.改 重新赋值 2.增 arr.puch() 末尾追加 arr.unshift() 开头追加 a)案例:数组筛选 3.删除 arr.pop() 删除最后一个元素 arr.shift() 删除第一个元素 splice() 删除指定元素

C++otlv4连接sql serveer使用记录(注意点)

C使用otlv4在做插入时,有一些设计的坑需要注意 插入数据: 当要给表中插入单个字符时,数据库表设计使用varchar(1)是合理的,但是otlv4一直报错char。 后续查很久才知道,otlv4所写的绑定的字符数组的长度应该实际数组…

Chapter 6.5-Adding a classification head

Chapter 6 -Fine-tuning for classification 6.5-Adding a classification head 为进行分类微调,须修改预训练的大语言模型(LLM)。我们将原本把隐藏表征映射到含50,257个词的词表的输出层,替换为一个更小、仅映射到 “0&#xff…

洛谷题目 P1006 [NOIP2008 提高组] 传纸条 题解 (本题较难)

题目传送门: P1006 [NOIP2008 提高组] 传纸条 - 洛谷 | 计算机科学教育新生态 (luogu.com.cn) 前言: 本题来源于2008年NOIp 提高组竞赛题目:传纸条,本题涉及到动态DP、图论里的费用流知识点,学过图论的都应该对这道题…

智能电动汽车 --- 人工智能(AI)入门

我是穿拖鞋的汉子,魔都中坚持长期主义的汽车电子工程师。 老规矩,分享一段喜欢的文字,避免自己成为高知识低文化的工程师: 简单,单纯,喜欢独处,独来独往,不易合同频过着接地气的生活…

VUE之路由Props、replace、编程式路由导航、重定向

目录 1、路由_props的配置 2、路由_replaces属性 3、编程式路由导航 4、路由重定向 1、路由_props的配置 1)第一种写法,将路由收到的所有params参数作为props传给路由组件 只能适用于params参数 // 创建一个路由器,并暴露出去// 第一步…

VS C++ 配置OPENCV环境

VS C 配置OPENCV环境 1.下载opencv2.安装环境3.opencv环境4.VS配置opencv环境5.EXE执行文件路径的环境lib和dll需要根据是debug还是release环境来区分使用哪个 6.Windows环境 1.下载opencv 链接: link 2.安装环境 双击运行即可 3.opencv环境 include文件路径:opencv\build\…

【Redis】持久化机制

目录 前言: RDB 触发RDB持久化方法有俩种: 1.手动触发 2.自动触发 RDB文件的优缺点: AOF: AOF工作机制:​编辑 ​编辑重写机制: 前言: Redis是一个内存数据库,将数据存储在内存中&…

蓝桥杯lesson3---string的使用

🌈个人主页:羽晨同学 💫个人格言:“成为自己未来的主人~” string的概念 string字符串是一种更加高级的封装,string字符串中包含了大量的方法,这些方法使得字符串的操作变得更加简单,string的使用&…

Arduino D1 通过 Wi-Fi 控制 LED

Arduino D1 通过 Wi-Fi 控制 LED 硬件连接 将 LED 的正极(长脚)连接到 Arduino D1 的 D1 引脚。将 LED 的负极(短脚)通过一个电阻(例如 220 欧姆)连接到 Arduino D1 的 GND 引脚。 安装必要的库 在 Ard…

大模型 / 智能体在智能运维领域的应用总结与发展趋势概述

智能体 智能运维 ? 回顾大模型的发展 大模型的发展在过去两年间呈现出爆炸式的增长,成为推动人工智能领域快速进步的关键力量。 2023年3月:百度发布了其知识增强的大语言模型产品“文心一言”,这标志着国内AI大模型产业竞争的…

Unity中在UI上画线

在UI中画一条曲线 我封装了一个组件,可以实现基本的画线需求. 效果 按住鼠标左键随手一画. 用起来也很简单,将组件挂到空物体上就行了,红色的背景是Panel. 你可以将该组件理解为一个Image,只不过形状更灵活一些罢了,所以它要放在下面的层级(不然可能会被挡住). 代码 可以…

【自然语言处理(NLP)】介绍、发展史

文章目录 介绍发展史1. 规则驱动时期(20世纪50年代-80年代)技术特点标志性成果 2. 统计方法兴起(1990年代-2000年代)技术特点标志性成果 3. 神经网络复兴(2010年代初至今)技术特点标志性成果 4. 集成与应用…

【书籍连载】《软件测试架构实践与精准测试》| 川模型的价值

各位软件领域的精英们,今天小编邀请你继续深入学习《软件测试架构实践与精准测试》。 《软件测试架构实践与精准测试》是作者李龙(安畅检测首席技术专家)基于软件测试“川模型”的著作。本书结合作者首次提出的软件测试新的模型“川模型”测试…

RPC是什么?和HTTP区别?

RPC 是什么?HTTP 是什么? 作为一个程序员,假设我们需要从A电脑的进程发送一段数据到B电脑的进程,我们一般会在代码中使用 Socket 进行编程。 此时,可选性一般就是 TCP 和 UDP 二选一,由于 TCP 可靠、UDP…

08.七种排序算法实现(C语言)

目录 一.排序的基本概念 1.1 排序的概念 1.2 常见的排序算法 二.常见排序算法的实现 2.1 插入排序(直接) 1.基本思想 2.直接插入排序的特性 3.代码实现 2.2 希尔排序 1.基本思想 2.希尔插入排序的特性 3.代码实现 2.3 选择排序 1.基本思想 2…

Jmeter使用Request URL请求接口

简介 在Jmeter调试接口时,有时不清楚后端服务接口的具体路径,可以使用Request URL和cookie来实现接口请求。以下内容以使用cookie鉴权的接口举例。 步骤 ① 登录网站后获取具体的Request URL和cookie信息 通过浏览器获取到Request URL和cookie&#…