【Linux网络】传输层协议UDP与TCP

W...Y的主页 😊

代码仓库分享 💕 


目录

传输层

再谈端口号

​编辑 端口号范围划分

认识知名端口号(Well-Know Port Number) 

netstat

pidof

UDP协议

UDP协议端格式

UDP的特点

面向数据报

UDP的缓冲区

UDP使用注意事项

基于UDP的应用层协议

TCP协议

TCP协议段格式

确认应答(ACK)机制 

超时重传机制

连接管理机制 

四次挥手中理解 CLOSE_WAIT 状态 

四次挥手中理解TIME_WAIT 状态

流量控制 

滑动窗口

拥塞控制

延迟应答

捎带应答 

面向字节流

粘包问题

TCP 异常情况 

TCP 小结

基于 TCP 应用层协议

TCP/UDP 对比


传输层

负责数据能够从发送端传输接收端。

再谈端口号

端口号(Port)标识了一个主机上进行通信的不同的应用程序; 在TCP/IP协议中, 用 "源IP", "源端口号", "目的IP", "目的端口号", "协议号" 这样一个五元组来标识一个通信(可以通过netstat -n查看);

 端口号范围划分

0 - 1023: 知名端口号, HTTP, FTP, SSH等这些广为使用的应用层协议, 他们的端口号都是固定的.
1024 - 65535: 操作系统动态分配的端口号. 客户端程序的端口号, 就是由操作系统从这个范围分配的.

认识知名端口号(Well-Know Port Number) 

有些服务器是非常常用的, 为了使用方便, 人们约定一些常用的服务器, 都是用以下这些固定的端口号:

ssh服务器, 使用22端口
ftp服务器, 使用21端口
telnet服务器, 使用23端口
http服务器, 使用80端口
https服务器, 使用443 

执行下面的命令, 可以看到知名端口号:cat /etc/services 

我们自己写一个程序使用端口号时, 要避开这些知名端口号.

两个问题
1. 一个进程是否可以bind多个端口号?
2. 一个端口号是否可以被多个进程bind? 

一个进程可以绑定多个端口号,因为IP和端口可以确定唯一一个主机的唯一进程,而多个端口可以将多个请求统一进程,我们完全可以创建tcp和udp两个不同的套接字来针对同一个进程。
而端口号是确定唯一进程的,所以不能被多个进程绑定!!!

netstat

etstat是一个用来查看网络状态的重要工具.
语法:netstat [选项]
功能:查看网络状态
常用选项:
n 拒绝显示别名,能显示数字的全部转化成数字
l 仅列出有在 Listen (监听) 的服務状态
p 显示建立相关链接的程序名
t (tcp)仅显示tcp相关选项
u (udp)仅显示udp相关选项
a (all)显示所有选项,默认不显示LISTEN相关 

pidof

在查看服务器的进程id时非常方便.
语法:pidof [进程名]
功能:通过进程名, 查看进程id 

UDP协议

UDP协议端格式

16位UDP长度, 表示整个数据报(UDP首部+UDP数据)的最大长度;
如果校验和出错, 就会直接丢弃;

而我们的协议就是通信双方可以看懂得结构体字段,所以UDP协议的报头也是一个结构体。我们学习一个协议就是要知道其协议如何将报头和数据分离,然后将数据进行向上交付。

16位UDP长度包含了整个UDP协议的长度,而报头是固定8字节,所以剩下的就是整个数据的长度。 而交付就是通过报头的目的端口号来向上交付!

UDP的特点

UDP传输的过程类似于寄信.
无连接: 知道对端的IP和端口号就直接进行传输, 不需要建立连接;
不可靠: 没有确认机制, 没有重传机制; 如果因为网络故障该段无法发到对方, UDP协议层也不会给应用层返回任何错误信息;
面向数据报: 不能够灵活的控制读写数据的次数和数量;

这些都是UDP的一种特性而不是缺点!

面向数据报

应用层交给UDP多长的报文, UDP原样发送, 既不会拆分, 也不会合并;

用UDP传输100个字节的数据:
如果发送端调用一次sendto, 发送100个字节, 那么接收端也必须调用对应的一次recvfrom, 接收100个字节; 而不能循环调用10次recvfrom, 每次接收10个字节; 

UDP的缓冲区

UDP没有真正意义上的 发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作;
UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致; 如果缓冲区满了, 再到达的UDP数据就会被丢弃; 

UDP的socket既能读, 也能写, 这个概念叫做全双工。

UDP使用注意事项

我们注意到, UDP协议首部中有一个16位的最大长度. 也就是说一个UDP能传输的数据最大长度是64K(包含UDP首部).
然而64K在当今的互联网环境下, 是一个非常小的数字.
如果我们需要传输的数据超过64K, 就需要在应用层手动的分包, 多次发送, 并在接收端手动拼装; 

基于UDP的应用层协议

NFS: 网络文件系统
TFTP: 简单文件传输协议
DHCP: 动态主机配置协议
BOOTP: 启动协议(用于无盘设备启动)
DNS: 域名解析协议
当然, 也包括你自己写UDP程序时自定义的应用层协议; 

TCP协议

TCP全称为 "传输控制协议(Transmission Control Protocol"). 人如其名, 要对数据的传输进行一个详细的控制;

TCP协议段格式

源/目的端口号: 表示数据是从哪个进程来, 到哪个进程去;
32位序号/32位确认号: 后面详细讲;
4位TCP报头长度: 表示该TCP头部有多少个32位bit(有多少个4字节); 所以TCP头部最大长度是15 * 4 = 60
6位标志位:
URG: 紧急指针是否有效
ACK: 确认号是否有效
PSH: 提示接收端应用程序立刻从TCP缓冲区把数据读走
RST: 对方要求重新建立连接; 我们把携带RST标识的称为复位报文段
SYN: 请求建立连接; 我们把携带SYN标识的称为同步报文段
FIN: 通知对方, 本端要关闭了, 我们称携带FIN标识的为结束报文段
16位校验和: 发送端填充, CRC校验. 接收端校验不通过, 则认为数据有问题. 此处的检验和不光包含TCP首部, 也
包含TCP数据部分.
16位紧急指针: 标识哪部分数据是紧急数据;
40字节头部选项: 暂时忽略;
16位窗口大小: 后面再说

这里我们先笼统的解释上述报头的概念,在TCP协议报头中,有些属性是可以通过报头体现出来的,但是有些报头是体现不出来的,这里我们可以先往后进行,最终会理解报头中所有属性的全部含义。

但是在这里我们先插入一个题外话——如何理解内核中的封装和解包???

这个问题是我们在学习每一种协议时就要面对的话题,但是在操作系统中,我们时如何进行分装和解包呢?在我们收到一个http请求时,其对应的下层一定还有许多未处理的报文,他们可能在传输层的缓冲区中,甚至还在网络层或链路层。所有OS中一定有大量未处理的报文!

而OS一定会对这些报文进行管理——先描述,再组织。所以操作系统就会对这些报文进行存储,存储就会产生对应的struct sk_buffer结构体来对应进行描述。 而我们所谓的分装和解包实质就是在指针的移动,通过协议的报头长度来进行封装和解包!!!

这里TCP在分用时候非常好理解,因为协议报头中提供了目的端口,我们可以很容易的向上交付,而封装(解包)这里报头中有一个关键字段(4位TCP首部长度),而4位能表示的范围是[0,15],但是这里0~15连最基本的标准长度20字节都表示不了,所以这里的首部长度是有单位的,基本单位是4个字节。

确认应答(ACK)机制 

TCP是保证可靠性的,那这个可靠性是靠什么来保证呢?就是ACK机制,当客户端往服务端发送消息,服务端就会基于客户端应答,这样就可以保证客户端到服务端的可靠性,而反过来服务端向客户端发送消息,客户端对服务端发送的消息进行应答也可以保证服务端到客户端消息的可靠性。

发送数据和发送应答都是OS自动完成的,不需要应用层插收。

 这就是确认应答机制,但是这样的方式进行传输数据效率太低,所以真正的通信方式是多条请求一起发送,多条应答进行回复。

而我们TCP报头上的32位序号与32位确认序号就起到了作用。当数据进行发送时就会有序号,而确认应答就是用确认序号,而确认应答的确认序号是用来应答其(序号-1)的消息的,当序号为100,确认序号为101,说明101之前的数据已经全部收到,下次发送时要从101开始发送。

但是我们不能保证确认应答是否会丢失或按需到达,所以OS就会根据序号按需到达,这就是tcp的按序到达机制。

 当发送序号为100,应答时序号为101就可以,那使用一个32位序号就可以进行通信,为什么还要确认序号呢?举个例子,两个人(张三与李四)在进行对话,张三问李四你吃了吗?李四回答吃了,你吃了吗?

这个例子说明了当应答时可能还有数据的传输,也就是应答与传输一起通过一个tcp通信就可以完成,这就是捎带应答。所以tcp的报头需要序号和确认序号两个属性,这样就可以满足这种情况,也可以提高通信效率!

TCP将每个字节的数据都进行了编号. 即为序列号.而我们的TCP支持全双工并且有对应的接收缓冲区与发送缓冲区,所以我们这个缓冲区就可以看作一个char类型的数组,这样每个数组对应的下标就类比成成字节编号,TCP就是这样面向字节流。  

序号存在的意义:按序到达,应答和确认应答。
确认序号&&序号:同时向对方发送数据的同时也同时应答

超时重传机制

主机A发送数据给B之后, 可能因为网络拥堵等原因, 数据无法到达主机B;
如果主机A在一个特定时间间隔内没有收到B发来的确认应答, 就会进行重发;

但是, 主机A未收到B发来的确认应答, 也可能是因为ACK丢失了;

因此主机B会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.
这时候我们可以利用前面提到的序列号, 就可以很容易做到去重的效果.

还有一种情况是网络阻塞导致传输数据时间过长超过了重传时间,这时数据就会重新发送。但是这样会收到两份一样的数据吗?不会,因为每一段数据都有其对应的序号,而序号不仅可以作为字节流进行传输,而且还可以进行去重。这样也保证了TCP的可靠性!!!

那么, 如果超时的时间如何确定?

最理想的情况下, 找到一个最小的时间, 保证 "确认应答一定能在这个时间内返回".
但是这个时间的长短, 随着网络环境的不同, 是有差异的.
如果超时时间设的太长, 会影响整体的重传效率;
如果超时时间设的太短, 有可能会频繁发送重复的包;

TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间.

Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时时间都是500ms的整数倍.
如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传.
如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增.
累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接. 

连接管理机制 

在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接 上述就是TCP连接管理的机制,TCP建立连接需要进行三次握手与四次挥手,三次握手必须有一方进行主动,而四次挥手时客户端与服务端的地位是平等的,所以是四次挥手。

而网络传输都是有延迟的,所以我们的隐形条件就是时间,所以画出的线都是斜线。当TCP客户端想要与服务端建立连接时会发出SYN报头,就是将协议报头中的SYN标志位制成1,这时客户端连接状态设置成为SYN_SENT,当服务端接收请求并返回SYN+ACK时服务端连接状态成为SYN_RCVD,当客户端将最后一段ACK发送给服务端时客户端就默认TCP连接已经建立好了,但是服务端是在接收到ACK后才真正是TCP连接建立好。

而accept函数是不参与三次握手的,只是在TCP成功连接成功后进行返回即可。

这里就有一个问题,客户端给服务端发送最后一段ACK时客户端已经默认TCP连接成功,但是服务端可能没有收到最后一段ACK,所以连接没有建立好。因为最后一段的ACK没有确认应答机制,所以不能保证可靠性。但是客户端并不知道,并给客户端发送DATA,这时服务端就会给客户端发送RST标志位为1的报文进行重写连接,这样客户端就知道刚才连接的失败了,并重新发起三次握手。

那为什么要进行三次握手,而不是一次、两次握手或四次握手呢???

首先1次或2次握手这个设定就是有很严重的bug,如果有人恶意来恶搞我们的服务端,只发送请求来占用服务端的资源,就会导致连接过多而瘫痪,这就是所谓的SYN洪水攻击,因为服务器不需要应答或只需要回应就可以建立连接对攻击方的损失小,而服务端需要对这些连接进行管理所以需要的存储空间就多。而三次握手就可以有效避免一些问题,安全程度也相对来说更高,这是客观原因。

而最主要的是三次握手可以在最少握手次数的前提下保证双方网络是健康的,并且双方都有一次收发的动作确认客户端与服务端是全双工的。还确保了双方TCP是健康且愿意进行通信的。1次握手就不说了,两次握手无法保证双方都是全双工的,虽然服务端也进行了一次收发,但是没有收到ACK答复,所以不能保证通信健康。

而三次握手其实可以将中间服务端的ACK+SYN进行拆开,因为我们是知道捎带应答的,如果拆开来看本质上是四次握手,与四次挥手是对应的。

上述就是为什么要进行三次握手的原因!!!

而四次挥手与三次握手的原理是一样的,如果能理解三次握手那四次挥手也是可以理解。之所以是四次挥手而不是三次挥手是因为客户端与服务端的关闭fd时是不一定同步的,当一方关闭fd时只是这一方不需要再发送数据了,但不一定不能读数据。相当于全双工变成了只读或只写,而另一方在没关闭fd时依旧保存全双工。

如果正好客户端与服务端同时关闭fd(只是概率非常低),也可以进行捎带应答。四次挥手也可以变成三次挥手!!!所以三次握手与四次挥手的思想是一样的。

服务端:
[CLOSED -> LISTEN] 服务器端调用 listen 后进入 LISTEN 状态, 等待客户端连接;
[LISTEN -> SYN_RCVD] 一旦监听到连接请求(同步报文段), 就将该连接放入内核等待队列中, 并向客户端发送 SYN 确认报文.
[SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文, 就进入ESTABLISHED 状态, 可以进行读写数据了.
[ESTABLISHED -> CLOSE_WAIT] 当客户端主动关闭连接(调用 close), 服务器会收到结束报文段, 服务器返回确认报文段并进入 CLOSE_WAIT;
[CLOSE_WAIT -> LAST_ACK] 进入 CLOSE_WAIT 后说明服务器准备关闭连接(需要处理完之前的数据); 当服务器真正调用 close 关闭连接时, 会向客户端发送FIN, 此时服务器进入 LAST_ACK 状态, 等待最后一个 ACK 到来(这个 ACK 是客户端确认收到了 FIN)
[LAST_ACK -> CLOSED] 服务器收到了对 FIN 的 ACK, 彻底关闭连接.

客户端:
[CLOSED -> SYN_SENT] 客户端调用 connect, 发送同步报文段;
[SYN_SENT -> ESTABLISHED] connect 调用成功, 则进入 ESTABLISHED 状态, 开始读写数据;
[ESTABLISHED -> FIN_WAIT_1] 客户端主动调用 close 时, 向服务器发送结束报文段, 同时进入 FIN_WAIT_1;
[FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认, 则进入 FIN_WAIT_2, 开始等待服务器的结束报文段;
[FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段, 进入TIME_WAIT, 并发出 LAST_ACK;
[TIME_WAIT -> CLOSED] 客户端要等待一个 2MSL(Max Segment Life, 报文最大生存时间)的时间, 才会进入 CLOSED 状态.

下图是 TCP 状态转换的一个汇总:

四次挥手中理解 CLOSE_WAIT 状态 

之前在写TCP连接的代码时无论是客户端还是服务端都有close操作,如果我们将客户端的close代码屏蔽掉,我们编译运行服务器. 启动客户端链接, 查看 TCP 状态, 客户端服务器都为
ESTABLELISHED 状态, 没有问题.

然后我们关闭客户端程序, 观察 TCP 状态

tcp 0 0 0.0.0.0:9090 0.0.0.0:*
LISTEN 5038/./dict_server
tcp 0 0 127.0.0.1:49958 127.0.0.1:9090
FIN_WAIT2 -
tcp 0 0 127.0.0.1:9090 127.0.0.1:49958
CLOSE_WAIT 5038/./dict_server

 此时服务器进入了 CLOSE_WAIT 状态, 结合我们四次挥手的流程图, 可以认为四次挥
手没有正确完成.

对于服务器上出现大量的 CLOSE_WAIT 状态, 原因就是服务器没有正确的关闭socket, 导致四次挥手没有正确完成. 这是一个 BUG. 只需要加上对应的 close 即可解决问题.

四次挥手中理解TIME_WAIT 状态

主动进行挥手的一方会进入TIME_WAIT状态。

 现在做一个测试,首先启动 server,然后启动 client,然后用 Ctrl-C 使 server 终止,这时马
上再运行 server, 结果是:

这是因为,虽然 server 的应用程序终止了,但 TCP 协议层的连接并没有完全断开,因此不
能再次监听同样的 server 端口. 我们用 netstat 命令查看一下:TCP 协议规定,主动关闭连接的一方要处于 TIME_ WAIT 状态,等待两个MSL(maximum segment lifetime)的时间后才能回到 CLOSED 状态.
我们使用 Ctrl-C 终止了 server, 所以 server 是主动关闭连接的一方, 在TIME_WAIT 期间仍然不能再次监听同样的 server 端口;
MSL 在 RFC1122 中规定为两分钟,但是各操作系统的实现不同, 在 Centos7 上默认配置的值是 60s;
可以通过 cat /proc/sys/net/ipv4/tcp_fin_timeout 查看 msl 的值;

MSL 是 TCP 报文的最大生存时间, 因此 TIME_WAIT 持续存在 2MSL 的话就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到来自上一个进程的迟到的数据, 但是这种数据很可能是错误的);同时也是在理论上保证最后一个报文可靠到达(假设最后一个 ACK 丢失, 那么服务器会再重发一个 FIN. 这时虽然客户端的进程不在了, 但是 TCP 连接还在, 仍然可以重发 LAST_ACK);

在 server 的 TCP 连接没有完全断开之前不允许重新监听, 某些情况下可能是不合理的服务器需要处理非常大量的客户端的连接(每个连接的生存时间可能很短, 但是
每秒都有很大数量的客户端来请求).这个时候如果由服务器端主动关闭连接(比如某些客户端不活跃, 就需要被服务器端主动清理掉), 就会产生大量 TIME_WAIT 连接.由于我们的请求量很大, 就可能导致 TIME_WAIT 的连接数很多, 每个连接都会占用一个通信五元组(源 ip, 源端口, 目的 ip, 目的端口, 协议). 其中服务器的 ip 和端口和协议是固定的. 如果新来的客户端连接的 ip 和端口号和 TIME_WAIT 占用的链接重复了, 就会出现问题.

使用 setsockopt()设置 socket 描述符的 选项 SO_REUSEADDR 为 1, 表示允许创建端口号相同但 IP 地址不同的多个 socket 描述符

流量控制 

接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送, 就会造成丢包, 继而引起丢包重传等等一系列连锁反应.因此 TCP 支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(Flow Control);

接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 "窗口大小" 字段, 通过 ACK 端通知发送端;
窗口大小字段越大, 说明网络的吞吐量越高;
接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通
知给发送端;
发送端接受到这个窗口之后, 就会减慢自己的发送速度;
如果接收端缓冲区满了, 就会将窗口置为 0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端. 

同时如果客户端的窗口探测时间还未到这时服务端窗口大小变大,这时服务端会主动向客户端发送窗口更新通知告知客户端可以继续发送数据。

那如果服务端一直不进行数据读导致窗口大小一直为0客户端一直不能发送数据,客户端会发送PSH为1的标志位报头督促服务端读数据,但是这只是一种督促服务端也可以不接受。这种机制不一定只在这里使用,在任何情况下都可以使用PSH标志位,这样就可以尽快调用read函数进行读取缓冲区中的数据。不一定是在read条件满足多少字节后再读取!

接收端如何把窗口大小告诉发送端呢? 回忆我们的 TCP 首部中, 有一个 16 位窗口字段,就是存放了窗口大小信息;
那么问题来了, 16 位数字最大表示 65535, 那么 TCP 窗口最大就是 65535 字节么?
实际上, TCP 首部 40 字节选项中还包含了一个窗口扩大因子 M, 实际窗口大小是 窗口字段的值左移 M 位; 

滑动窗口

刚才我们讨论了确认应答策略, 对每一个发送的数据段, 都要给一个 ACK 确认应答. 收到 ACK 后再发送下一个数据段. 这样做有一个比较大的缺点, 就是性能较差. 尤其是数据往返的时间较长的时候.

既然这样一发一收的方式性能较低, 那么我们一次发送多条数据, 就可以大大的提高性能(其实是将多个段的等待时间重叠在一起了). 

这样做证明在多条数据是可以不需要等待任何ACK应答就可以直接发送,窗口大小指的是无需等待确认应答而可以继续发送数据的最大值。而这就要和客户端的发送缓冲区与服务端的接收缓冲区是有关联的,当接收缓冲区有大量空间时,服务端会通过ACK来传递16位窗口大小,这时我们的窗口就可以大一点来发送更多的数据,反之也是一样的。

操作系统内核为了维护这个滑动窗口, 需要开辟发送缓冲区 来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉; 而在前面我们说过TCP是面向字节流的,所以缓冲区我们可以看作一个数组,数组下面都是有下标的,而我们的滑动窗口其实就是两个int整形来控制的指针,当滑动窗口变大其实就是两个整数的差值变大,反之相同。既然我们的流量控制可以为0,那么滑动窗口大小也可以为0这些都是相关联的。

而我们的超时重传机制如何保存数据,就是让滑动窗口不动即可!

那么如果出现了丢包, 如何进行重传? 这里分两种情况讨论.

情况一: 数据包已经抵达, ACK 被丢了. 

 这种情况下, 部分 ACK 丢了并不要紧, 因为可以通过后续的 ACK 进行确认;允许少量ACK丢失。

情况二: 数据包就直接丢了.

 当某一段报文段丢失之后, 发送端会一直收到 1001 这样的 ACK, 就像是在提醒发送端 "我想要的是 1001" 一样;
如果发送端主机连续三次收到了同样一个 "1001" 这样的应答, 就会将对应的数据 1001 - 2000 重新发送;
这个时候接收端收到了 1001 之后, 再次返回的 ACK 就是 7001 了(因为 2001 -7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中;
这种机制被称为 "高速重发控制"(也叫 "快重传").

 而数据包丢失分为三种情况,最左侧丢失,中间丢失与最右侧丢失。我们在说这三种情况前先温习一些确认序号的概念:确认序号前的报文全部收到。拿这份图为例:

当最左侧的报文丢失后,即使后面的报文全部收到,但是所返回的ACK中的确认序号全是1001,当有三条或以上就会触发快重传,如果没有还有超时重传进行兜底。而中间/后面数据包的丢失全都可以转换到最左侧数据包丢失,只要滑动窗口向右移就可以转换成最左端问题。

拥塞控制

虽然 TCP 有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题.
因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据, 是很有可能引起雪上加霜的.
TCP 引入 慢启动 机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据; 

此处引入一个概念称为拥塞窗口,而拥塞窗口是因为有网络的约束而出现的,所以我们的滑动窗口大小的决定不仅仅是接收缓冲区剩余量大小一个所决定的,还要考虑拥塞窗口的大小。所以滑动窗口的大小 = min(接收缓冲区剩余大小, 拥塞窗口的大小) 。

发送开始的时候, 定义拥塞窗口大小为 1;
每次收到一个 ACK 应答, 拥塞窗口加 1;
每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口

像上面这样的拥塞窗口增长速度, 是指数级别的. "慢启动" 只是指初使时慢, 但是增长速度非常快。

为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
此处引入一个叫做慢启动的阈值
当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长 

当 TCP 开始启动的时候, 慢启动阈值等于窗口最大值;
在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回 1;少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;当 TCP 通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;拥塞控制, 归根结底是 TCP 协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案.
TCP 拥塞控制这样的过程, 就好像 热恋的感觉

延迟应答

如果接收数据的主机立刻返回 ACK 应答, 这时候返回的窗口可能比较小.

假设接收端缓冲区为 1M. 一次收到了 500K 的数据; 如果立刻应答, 返回的窗口就是 500K;
但实际上可能处理端处理的速度很快, 10ms 之内就把 500K 数据从缓冲区消费掉了;
在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
如果接收端稍微等一会再应答, 比如等待 200ms 再应答, 那么这个时候返回的窗口大小就是 1M;

一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率;
那么所有的包都可以延迟应答么? 肯定也不是; 
数量限制: 每隔 N 个包就应答一次;
时间限制: 超过最大延迟时间就应答一次;

具体的数量和超时时间, 依操作系统不同也有差异; 一般 N 取 2, 超时时间取 200ms;

捎带应答 

在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 "一发一收"的. 意味着客户端给服务器说了 "How are you", 服务器也会给客户端回一个 "Fine,
thank you";
那么这个时候 ACK 就可以搭顺风车, 和服务器回应的 "Fine, thank you" 一起回给客户端 

面向字节流

创建一个 TCP 的 socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区; 

调用 write 时, 数据会先写入发送缓冲区中;
如果发送的字节数太长, 会被拆分成多个 TCP 的数据包发出;
如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
然后应用程序可以调用 read 从接收缓冲区拿数据;
另一方面, TCP 的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做全双工。

由于缓冲区的存在, TCP 程序的读和写不需要一一匹配, 例如:

写 100 个字节数据时, 可以调用一次 write 写 100 个字节, 也可以调用 100 次
write, 每次写一个字节;
读 100 个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次
read 100 个字节, 也可以一次 read 一个字节, 重复 100 次;

粘包问题

• 首先要明确, 粘包问题中的 "包" , 是指的应用层的数据包.
• 在 TCP 的协议头中, 没有如同 UDP 一样的 "报文长度" 这样的字段, 但是有一个序号这样的字段.
• 站在传输层的角度, TCP 是一个一个报文过来的. 按照序号排好序放在缓冲区
中.
• 站在应用层的角度, 看到的只是一串连续的字节数据.
• 那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包.那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界.
• 对于定长的包, 保证每次都按固定大小读取即可; 例如上面的 Request 结构, 是固定大小的, 那么就从缓冲区从头开始按 sizeof(Request)依次读取即可;
• 对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置;
• 对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔符不和正文冲突即可);
思考: 对于 UDP 协议来说, 是否也存在 "粘包问题" 呢?
• 对于 UDP, 如果还没有上层交付数据, UDP 的报文长度仍然在. 同时, UDP 是一个一个把数据交付给应用层. 就有很明确的数据边界.
• 站在应用层的站在应用层的角度, 使用 UDP 的时候, 要么收到完整的 UDP 报文, 要么不收. 不会出现"半个"的情况. 

TCP 异常情况 

进程终止: 进程终止会释放文件描述符, 仍然可以发送 FIN. 和正常关闭没有什么区别.
机器重启: 和进程终止的情况相同.
机器掉电/网线断开: 接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行 reset. 即使没有写入操作, TCP 自己也内置了一个保活定时器, 会定期询问对方是否还在. 如果对方不在, 也会把连接释放.另外, 应用层的某些协议, 也有一些这样的检测机制. 例如 HTTP 长连接中, 也会定期检测对方的状态. 例如 QQ, 在 QQ 断线之后, 也会定期尝试重新连接.

TCP 小结

为什么 TCP 这么复杂? 因为要保证可靠性, 同时又尽可能的提高性能.

可靠性: 

校验和
序列号(按序到达)
确认应答
超时重发
连接管理
流量控制
拥塞控制

提高性能:

• 滑动窗口
• 快速重传
• 延迟应答
• 捎带应答 

其他:
• 定时器(超时重传定时器, 保活定时器, TIME_WAIT 定时器等) 

基于 TCP 应用层协议

• HTTP
• HTTPS
• SSH
• Telnet
• FTP
• SMTP
当然, 也包括你自己写 TCP 程序时自定义的应用层协议; 

TCP/UDP 对比

我们说了 TCP 是可靠连接, 那么是不是 TCP 一定就优于 UDP 呢? TCP 和 UDP 之间的优点和缺点, 不能简单, 绝对的进行比较。

• TCP 用于可靠传输的情况, 应用于文件传输, 重要状态更新等场景;
• UDP 用于对高速传输和实时性要求较高的通信领域, 例如, 早期的 QQ, 视频传
输等. 另外 UDP 可以用于广播;

归根结底, TCP 和 UDP 都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/902503.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

开源实时数仓的构建

设计计思路 基本思路 开源数据平台的设计思路是通过 Flink SQL Batch、StartRocks SQL 、StartRocks物化视图 的能力实现一个离线任务的开发;使用 DolphinScheduler 进行离线工作流编排和调度;通过 Flink CDC 和 Flink SQL 实现流处理能力,进…

Redis+Lua限流的四种算法

1. 固定窗口(Fixed Window) 原理: 固定窗口算法将时间划分为固定的时间段(窗口),比如 1 秒、1 分钟等。在每个时间段内,允许最多一定数量的请求。如果请求超出配额,则拒绝。 优点…

软工毕设开题建议

文章目录 🚩 1 前言1.1 选题注意事项1.1.1 难度怎么把控?1.1.2 题目名称怎么取? 1.2 开题选题推荐1.2.1 起因1.2.2 核心- 如何避坑(重中之重)1.2.3 怎么办呢? 🚩2 选题概览🚩 3 项目概览题目1 : 深度学习社…

文档解析与向量化技术加速 RAG 应用落地

在不久前举办的 AICon 全球人工智能开发与应用大会上,合合信息智能创新事业部研发总监,复旦博士常扬从 RAG 应用落地时常见问题与需求(文档解析、检索精度)出发,分享了针对性的高精度、高泛化性、多版面多元素识别支持…

Linux系统下串口AT指令控制EC20连接华为云物联网平台

一、前言 在当今万物互联的时代背景下,物联网技术的快速发展极大地推动了智能化社会的构建。作为其中的关键一环,设备与云端平台之间的通信变得尤为重要。本文介绍如何在Linux操作系统环境下,利用串口通信来实现EC20模块与华为云物联网平台的…

Word中Normal.dotm样式模板文件

Normal.dotm文档 首先将自己电脑中C:\Users\自己电脑用户名\AppData\Roaming\Microsoft\Templates路径下的Normal.dotm文件做备份,在下载本文中的Normal.dotm文件,进行替换,重新打开word即可使用。 字体样式如下(可自行修改&#…

基于opencv答题卡识别判卷

项目源码获取方式见文章末尾! 回复暗号:13,免费获取600多个深度学习项目资料,快来加入社群一起学习吧。 **《------往期经典推荐------》**项目名称 1.【基于DDPG算法的股票量化交易】 2.【卫星图像道路检测DeepLabV3Plus模型】 3…

蓝桥杯 单片机 DS1302和DS18B20

DS1302 时钟 时钟试题 常作为实验室考核内容 控制三个引脚 P17 时钟 P23输入 P13复位 其他已经配置好 寄存器原理 定位地址 0x80地址 固定格式 0x57 5*107*1 57 小时写入格式 不同 首位区分 A上午 P下午 0为24小时制 1为12小时制 写入8小时 0x87 //1000 7 十二小时制 7…

H5的Canvas绘图——使用fabricjs绘制一个可多选的随机9宫格

📢欢迎点赞 :👍 收藏 ⭐留言 📝 如有错误敬请指正,赐人玫瑰,手留余香!📢本文作者:由webmote 原创📢作者格言:新的征程,最近一直被测试…

Django+Vue全栈开发旅游网项目首页

一、前端项目搭建 1、使用脚手架工具搭建项目 2、准备静态资源(图片资源) 将准备好的静态资源拖至public目录下 3、调整生产项目结构 公共的样式 公共js 首页拆解步骤 ①分析页面结构 标题、轮播图、本周推荐、精选景点、底部导航 ②新建页面组…

VAE中的“变分”什么

写在前面 VAE(Variational Autoencoder),中文译为变分自编码器。其中AE(Autoencoder)很好理解。那“变分”指的是什么呢?—其实是“变分推断”。变分推断主要用在VAE的损失函数中,那变分推断是什么&#x…

第十二部分 Java Stream、File

第十二部分 Java Stream、File 12.1 Java Stream流 12.1.1体验Stream流 案例需求 按照下面的要求完成集合的创建和遍历 创建一个集合,存储多个字符串元素把集合中所有以"张"开头的元素存储到一个新的集合把"张"开头的集合中的长度为3的元素存…

OpenTelemetry 实际应用

介绍 OpenTelemetry“动手”指南适用于想要开始使用 OpenTelemetry 的人。 如果您是 OpenTelemetry 的新手,那么我建议您从OpenTelemetry 启动和运行帖子开始,我在其中详细介绍了 OpenTelemetry。 OpenTelemetry开始改变可观察性格局,它提供…

开挖 Domain - 前奏

WPF App 主机配置 Microsot.Extension.Hosting 一键启动(配置文件、依赖注入,日志) // App.xaml.cs 中定义 IHost private readonly IHost _host Host.CreateDefaultBuilder().ConfigureAppConfiguration(c > {_ c.SetBasePath(Envi…

JVM(HotSpot):GC之G1垃圾回收器

文章目录 一、简介二、工作原理三、Young Collection 跨代引用四、大对象问题 一、简介 1、适用场景 同时注重吞吐量(Throughput)和低延迟(Low latency),默认的暂停目标是 200 ms超大堆内存,会将堆划分为…

CentOS 7 上安装 MySQL 8.0 教程

🌟 你好 欢迎来到我的技术小宇宙!🌌 这里不仅是我记录技术点滴的后花园,也是我分享学习心得和项目经验的乐园。📚 无论你是技术小白还是资深大牛,这里总有一些内容能触动你的好奇心。🔍 &#x…

C#使用log4net结合sqlite数据库记录日志

0 前言 为什么要把日志存到数据库里? 因为结构化的数据库存储的日志信息,可以写专门的软件读取历史日志信息,通过各种条件筛选,可操作性极大增强,有这方面需求的开发人员可以考虑。 为什么选择SQLite? …

node和npm

背景(js) 1、为什么js能操作DOM和BOM? 原因:每个浏览器都内置了DOM、BOM这样的API函数 2、浏览器中的js运行环境? v8引擎:负责解析和执行js代码 内置API:由运行环境提供的特殊接口,只能在所…

Java面向对象编程高阶(一)

Java面向对象编程高阶(一) 一、关键字static1、static修饰属性2、静态变量与实例变量的对比3、static修饰方法4、什么时候将属性声明为静态的?5、什么时候将属性声明为静态的?6、代码演示 一、关键字static static用来修饰的结构…