【超详细】TCP协议

TCP(Transmission Control Protocol 传输控制协议)

  • 传输层协议
  • 有连接
  • 可靠传输
  • 面向字节流

为什么TCP是传输控制协议呢?

我们以前所看到的write接口,都是把用户级缓冲区的数据拷贝到发送缓冲区中,然后数据就由TCP自主决定了,所以TCP是传输控制协议,控制了数据的传输

b00fd71ed7e74765bf3e174bd5c8dd9c.png

那么TCP是如何控制数据的传输的呢? 

TCP协议段格式 

9ff86912727b450583b9c88db8b11051.pngTCP协议由标准报头,选项和有效载荷构成,我们把选项忽略掉,不讲

接下来我们讲报头里的4位首部长度,16位窗口大小,32位序号,32位确认序号,6位标志位,16位紧急指针,其他我们不讲,因为不怎么重要

4位首部长度

4位首部长度表示的是报头和选项的总长度

报头和有效载荷如何分离,交付给上层?

固定长度报头+自描述字段,TCP的报头是固定长度20字节,报头里有个4位首部长度的自描述字段

4位首部长度,在计算的时候,基本单位是4字节

[0000,1111] ==> [0,15] ==> [0,60] 字节,所以4位首部长度,表示的大小是60字节,表示的是报头和选项的总长度,报头是定长的,所以选项长度是40字节,可以通过算出4位首部长度,再减去报头固定长度20字节,就可以知道当前报文选项的长度。正是有4位首部长度,就可以把报头和有效载荷分离

16位窗口大小

客户端和服务器基于tcp协议进行通信的时候互发消息的时候,发送的可是完整的tcp报文哦,即一定携带完整的tcp报头!不然报头里各种字段来保证TCP的可靠性就没用了

发送缓冲区和接收缓冲区是有大小的,当满了,就不能再填数据了。当客户端一直向服务器发送消息,但是服务器还来不及处理接收缓冲区里的数据,就会导致服务器的接收缓冲区被打满了,这时客户端还一直发,就会导致数据丢包的问题,这时我们就要进行流量控制(详细后面讲),让客户端发慢一点 

TCP提供了确认应答机制(详细后面讲),客户端发送一条信息,服务器就发送一个确认应答,服务器发回应答的时候,16位窗口大小填的就是自己接受缓冲区中剩余空间的大小,来告诉客户端

16位窗口大小填写的是自己的接受缓冲区中剩余空间的大小,发送信息给对方时,也把自己接收缓冲区的剩余空间告诉了对方,对于发送方来讲,发送速度由对方的接受缓冲区中剩余空间的大小决定的

32位序号和32位确认序号

假如客户端向服务器发送很多很多的请求数据,是很乱的,服务器也会乱序处理,发回各种确认应答,也会乱序的发回响应,这时就会导致请求和应答不搭边,请求和响应不搭边,好比你需要请求一个照片的,服务器却给你一个视频的响应

乱序就是不可靠的一种,所以TCP报头提供了32位序号来保证顺序性

序号是什么?

TCP将每个字节的数据都进行了编号(本质就是数组下标),序号就是发送数据块中最后一个字节的下标

e3e8ac1ccf0f4610b63421eff254733c.png

确认序号是什么?

确认序号,填充的是,收到报文的序号+1

确认序号的意义:表示确认序号之前的数据我已经全部收到了!!!下一次发送,请从确认序号指定的数字开始发送!

客户端向服务器发送序号2000的报文, 服务器发回确认应答,告诉客户端消息收到了,这个确认应答报头填充了确认序号2001,下一次发送就从2001发送

6位标志位

TCP在通信的时候,建立连接,正常通信,断开连接,都要发送TCP报文,TCP收到的报文是各种各样的,不同的类型,决定了接收方要做不同动作,接收方如何知道报文的类型是什么呢?6位标志位来区分不同TCP报文的类型

  • ACK: 确认序号是否有效
  • SYN: 请求建立连接; 我们把携带SYN标识的称为同步报文段
  • FIN: 通知对方, 本端要关闭了,我们把携带FIN标识的称为结束报文段
  • PSH: 提示接收端应用程序立刻从TCP缓冲区把数据读走
  • RST: 对方要求重新建立连接; 我们把携带RST标识的称为复位报文段
  • URG: 紧急指针是否有效

1.ACK: 确认序号是否有效,数据类型是确认应答

1说明这个是确认应答报文,确认序号有效,0相反

2.SYN: 请求建立连接,数据类型是请求建立连接报文

TCP通信是需要建立连接的,所以要发送报文告诉对方,请求建立连接。SYN是1,建立连接,0相反

3.FIN: 通知对方, 本端要关闭了,数据类型是断开连接报文

TCP不通信,就要断开连接告诉对方,我要断开连接了。FIN是1,断开连接,0相反

4.PSH: 提示接收端应用程序立刻从TCP缓冲区把数据读走

假如接收方的上层一直不把数据取走,那么接收方的接收缓冲区就会被打满,这样子发送方就不能发送了,被阻塞了,所以发送方就发送PSH,提示接收端应用程序立刻从TCP缓冲区把数据读走

5.RST: 对方要求重新建立连接

TCP虽然保证可靠性,但是也会建立连接失败,失败了就要重新建立连接。通信双方在建立连接时是需要三次握手(详细后面讲),有可能客户端建立好了连接,而服务器认为没有,这是服务器就会发送RST报文,要求重新建立连接。不管是客户端还是服务器,都要对连接进行管理,怎么管理,先描述再组织,所以维护连接是有成本的

6.URG: 紧急指针是否有效

我们知道发送的数据是有序号的,是要排队的,假如很紧急,想插队怎么办?那么数据就要变成紧急数据,优先发出

当URG位为1时,TCP头部节点的紧急指针位会记录一个偏移量,指向紧急数据的最后一位(也可以是紧急数据的下一位,两者都是标准),在读取到紧急指针所指向的位置之前,TCP的接受进程都处于紧急状态,当读取到紧急数据后一位时,回复到正常状态。

从上面的特性可以看到,TCP无法告诉紧急数据从哪里开始,只能告诉紧急数据从哪里结束,URG位为1的TCP报文并不是带外数据。看看一段百度上的解释:

传输层协议使用带外数据来发送一些重要的数据,如果通信一方有重要的数据需要通知对方时,协议能够将这些数据快速地发送到对方。为了发送这些数据,协议一般不使用与普通数据相同的通道,而是使用另外的通道。但是TCP协议没有真正意义上的带外数据。为了发送重要协议,TCP提供了一种称为紧急模式的机制。TCP协议在数据段中设置URG位,表示进入紧急模式。接收方可以对紧急模式采取特殊的处理。

发送端进入紧急模式,TCP协议栈会为每个套接字维护一个发送端紧急模式标志和一个发送端紧急指针,当发送端TCP协议栈得知有紧急数据要发送时(即某个进程调用了send(MSG_OOB)函数),将发送端紧急模式置为1,同时将紧急指针的值记录在发送端紧急指针处,随后进入紧急状态,含有未发送字节到紧急字节之间数据的报文都会将URG位置为1,设置紧急指针的值,进入紧急模式后,无论数据字节是否发出,URG紧急通知都会发送(数据流会因为TCP流量控制而停止,紧急通知总是无障碍的发送到对端TCP),但紧急数据因为滑动窗口满而不随同发送。当含有紧急字节的报文发送并确认接收后,发送端会解除紧急状态。

68aac88cbc8641c2ad51e65f3cb9266d.png

确认应答机制

客户端和服务器在互发消息的时候,怎么知道对方收没收到呢?

TCP提供了确认应答机制,客户端发送一条信息,服务器就发送一个确认应答,告诉客户端消息收到了,确认应答一般是没有数据的,只有报头。你们会不会在想,服务器怎么知道我发送的应答客户端收没收到呢?客户端要不要发送应答呢?应答丢包了怎么办呢?每发一条消息就要应答,显然这样子的话是无穷无尽的。我们可以这样理解: 

  • 我收到了应答,确认我最近发送的消息对方收到了
  • 没有应答的数据(可能应答丢包了),我们无法保证可靠性,最新的一条消息,是没有应答的,所以我们无法保证发出去的消息是100%可靠的!
  • 这个世界上,不存在100%可靠的网络协议的,某些时候局部上是可靠的
  • 应答可以和数据一起发,捎带应答(后面详细讲)

2240c4af869b427398ac1e71b099ce7a.png

客户端也有可能发送很多数据然后收到很多应答的 

ec82aac8f451475fbc8505cde30b38e4.png

超时重传机制 

1.数据丢包

79bdcc8552ee442e863f4299ce40056d.png

  • 主机A发送数据给B之后, 可能因为网络拥堵等原因, 数据无法到达主机B;
  • 如果主机A在一个特定时间间隔内没有收到B发来的确认应答, 就会进行重发; 

2.应答丢包

但是, 主机A未收到B发来的确认应答, 也可能是因为ACK丢失了

22cbf7e0f05545779ddd56227d2bc935.png

  • 主机A发送数据给B之后, 数据到达主机B;
  • 但是如果主机A在一个特定时间间隔内没有收到B发来的确认应答, 就会进行重发; 

因此主机B会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.就可以很容易做到去重的效果. 这时候我们可以利用前面提到的序号 

那么, 如果超时的时间如何确定?

  • 最理想的情况下, 找到一个最小的时间, 保证 "确认应答一定能在这个时间内返回"
  • 但是这个时间的长短, 随着网络环境的不同, 是有差异的
  • 如果超时时间设的太长, 会影响整体的重传效率
  • 如果超时时间设的太短, 有可能会频繁发送重复的包

TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间

  • Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时时间都是500ms的整数倍
  • 如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传
  • 如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增
  • 累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接

连接管理机制

在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接0175455577c04e34a6efe531b2f59592.png

服务端状态转化:

  1. [CLOSED -> LISTEN] :服务器端调用listen后进入LISTEN状态, 等待客户端连接;
  2. [LISTEN -> SYN_RCVD]:一旦监听到连接请求(同步报文段), 进行三次握手建立连接
  3. [SYN_RCVD ->  ESTABLISHED]:客户端向服务器发送SYN,请求建立连接,第一次握手。然后服务器发回SYN+ACK 的报文,它确认应答并且也请求连接,第二次握手。最后客户端向服务器发送ACK,第三次握手。服务端一旦收到客户端的确认报文, 就进入ESTABLISHED状态, 可以进行读写数据了
  4. [ESTABLISHED -> CLOSE_WAIT]:当客户端主动关闭连接(调用close), 服务器会收到FIN,第一次挥手。 服务器返回确认报文段并进入CLOSE_WAIT,第二次挥手
  5. [CLOSE_WAIT -> LAST_ACK]:进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据); 当服务器真正调用close关闭连接时, 会向客户端发送FIN, 第三次挥手,此时服务器进入LAST_ACK状态, 等待最后一个ACK到来(这个ACK是客户端确认收到了FIN)
  6. [LAST_ACK -> CLOSED]:服务器收到了对FIN的ACK, 第四次挥手,彻底关闭连接

客户端状态转化:

  1. [CLOSED -> SYN_SENT]:客户端调用connect, 进行三次握手
  2. [SYN_SENT -> ESTABLISHED]:connect调用成功,第二次握手之后,则进入ESTABLISHED状态, 开始读写数据
  3. [ESTABLISHED -> FIN_WAIT_1]:客户端主动调用close时, 向服务器发送FIN, 同时进入FIN_WAIT_1
  4. [FIN_WAIT_1 -> FIN_WAIT_2]:客户端收到服务器对FIN的确认, 则进入FIN_WAIT_2, 开始等待服务器的FIN
  5. [FIN_WAIT_2 -> TIME_WAIT]:客户端收到服务器发来的FIN, 进入TIME_WAIT, 并发出LAST_ACK
  6. [TIME_WAIT -> CLOSED]:客户端要等待一个2MSL(Max Segment Life, 报文最大生存时间)的时间, 才会进入CLOSED状态

三次握手:对于客户端,第二次握手就建立好了连接,对于服务器第三次握手才建立好连接

为什么建立连接要有三次握手?

1.确保双方通信能力正常

TCP协议是一种面向连接的、可靠的传输层协议。在建立连接之前,双方需要确认彼此的通信能力是否正常。通过三次握手过程,客户端和服务器可以相互确认对方的发送和接收能力。 

2.奇数次握手,可以确保一般情况,建立连接失败的成本是嫁接在客户端的,保证服务器的稳定性

假如只有一次握手,那么客户端发送SYN,不需要应答了,就可以建立连接了,假如客户端一直发SYN,这样就会导致有大量的SYN,称为SYN洪水,服务器就要一直建立连接,并且是很多没有用的连接。假如只有两次握手,客户端发送SYN建立连接,这时服务器就建立好了连接,服务器返回ACK,假如ACK丢了,客户端认为连接没有建立好,所以又重新发送SYN建立连接,就会导致服务器建立了很多没有用的连接,我们知道连接的建立和释放是要时间的,维护连接是要成本的,两次握手就会把连接成本嫁接到服务器。三次握手,客户端在接收到SYN的应答ACK后就建立好了连接,此时在发送ACK给服务器,假如ACK丢了,服务器认为连接没有建立好(连接建立不一致问题,也是建立连接失败),建立连接失败的成本就嫁接到了客户端

为什么断开连接要有四次挥手?

  1. TCP是一种全双工协议,意味着数据可以在两个方向上同时传输。因此,当一方希望关闭连接时,不仅需要关闭自己到对方的发送通道,还需要关闭自己接收对方数据的通道。同时,对方也需要进行类似的关闭操作。这就导致了断开连接时需要四次挥手。
  2. 确保数据可靠传输:通过四次挥手过程中的ACK报文段,每一方都确认收到了对方的FIN报文段,确保了数据被可靠传输。在关闭连接之前,必须保证已经发送的数据被对方接收,同时也要允许对方发送的数据被本端接收。
  3. 释放资源:四次挥手过程还负责适当地释放在建立连接时分配的资源,如端口号、内存缓冲区等。

listen的第二个参数

大家对套接字编程应该很熟悉了,这里就不在写代码了,可以参考我的这篇文章

Socket 编程
对于服务器, listen 的第二个参数设置为 2, 并且不调用 accept,也不进行通信,客户端也是建立连接,不通信(大家可以自己写代码来测试下面所说的)

此时启动 3 个客户端同时连接服务器, 用 netstat 查看服务器状态, 一切正常

但是启动第四个客户端时, 发现服务器对于第四个连接的状态存在问题了,客户端状态正常, 但是服务器端出现了 SYN_RECV 状态, 而不是 ESTABLISHED 状态

这是因为, Linux内核协议栈为一个tcp连接管理使用两个队列:

  1. 半连接队列(用来保存处于SYN_SENT和SYN_RECV状态的请求),服务器是不会长时间维护半连接队列的
  2. 全连接队列(accpetd队列)(用来保存处于established状态,但是应用层没有调用accept取走的请求)

我们发现服务器并没有调accept,就建立好了连接,说明连接建立成功和上层有没有accept没有关系,三次握手是双方操作系统自动完成的!建立好的连接就被放到了全连接队列里,上层再调用accept就是取走全连接队列里的请求

而全连接队列的长度会受到 listen 第二个参数的影响,全连接队列满了的时候, 就无法继续让当前连接的状态进入 established 状态了,这个队列的长度通过上述实验可知, 是 listen 的第二个参数 + 1

为什么全连接队列不能太长?

防止太多连接占用太多资源,降低内存占用

假如服务器很忙,来不及处理连接,此时连接队列很长,就要花费很多资源来建立和管理连接,服务器也很忙,连接队列那么长,也来不及处理

全连接队列为什么不能没有?

1.连接管理的需要,提供应用程序访问接口

全连接队列存储了已经完成三次握手但尚未被应用程序通过accept函数取走的连接,应用程序可以从全连接队列中获取连接,并进行数据的传输和处理。这确保了应用程序能够及时处理客户端发送的数据,同时也能够向客户端发送响应数据

2.管理连接资源

全连接队列有助于服务器管理连接资源,确保连接的正常建立和稳定传输。通过维护一个全连接队列,服务器可以更有效地分配和释放连接资源,避免资源浪费和连接冲突

3.防止连接丢失

当服务器的并发连接请求超过其处理能力时,全连接队列可以暂存已经建立但尚未被应用程序处理的连接。这避免了连接请求被丢失或拒绝的情况,提高了服务器的稳定性和可靠性。

4.应对网络攻击

在网络环境中,服务器可能会面临各种网络攻击,如SYN攻击。SYN攻击是一种常见的网络攻击方式,攻击者通过向服务器发送大量的TCP SYN包但不回复第三次握手的ACK包,来占用服务器的半连接队列资源。如果服务器没有全连接队列来暂存已经建立但尚未被处理的连接,那么这些连接可能会因为无法及时得到处理而被丢弃或拒绝。而全连接队列的存在可以在一定程度上缓解这种压力,为服务器提供更多的时间和空间来处理这些连接请求

TIME_WAIT状态

现在做一个测试(代码都在前面的文章里),首先启动server,然后启动client,然后用Ctrl-C使server终止,这时马上再运行server, 结果是:

bfd8dc4125bf4dd0b20ca78c9f979fcf.png

这是因为,虽然server的应用程序终止了,但TCP协议层的连接并没有完全断开,因此不能再次监听同样的server端口.我们用netstat命令查看一下: 

0a0b1df3772a4d96a0dd78c844359ace.png

  • TCP协议规定,主动关闭连接的一方,在四次挥手完成之后会进入TIME_ WAIT状态,等待两个MSL(maximum segment lifetime)的时间后才能回到CLOSED状态
  • 我们使用Ctrl-C终止了server, 所以server是主动关闭连接的一方,连接并没有完全断开,IP/port正在被使用,在TIME_WAIT期间仍然不能再次监听同样的server端口
  • MSL在RFC1122中规定为两分钟,但是各操作系统的实现不同, 在Centos7上默认配置的值是60s
  • 可以通过 cat /proc/sys/net/ipv4/tcp_fin_timeout 查看msl的值

faa4da4b9c754999b6dc7e7abec80698.png

注意:主动关闭连接的一方,在四次挥手完成之后会进入TIME_ WAIT状态,上面连接管理机制的图中,是客户端主动断开连接,所以客户端会进入TIME_ WAIT状态

 

为什么是TIME_WAIT的时间是2MSL?

为什么要有TIME_WAIT -> CLOSED的时间?

  1. 让通信双方的历史数据得以消散
  2. 让我们断开连接四次挥手,具有较好的容错性

MSL是TCP报文的最大生存时间(不是最大传送时间), 因此TIME_WAIT持续存在2MSL的话,就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到来自上一个进程的迟到的数据, 但是这种数据很可能是错误的);同时也是在理论上保证最后一个报文可靠到达(假设最后一个ACK丢失, 那么服务器会再重发一个FIN. 这时虽然客户端的进程不在了, 但是TCP连接还在, 仍然可以重发LAST_ACK)

解决TIME_WAIT状态引起的bind失败的方法

在server的TCP连接没有完全断开之前不允许重新监听, 某些情况下可能是不合理的。服务器需要处理非常大量的客户端的连接(每个连接的生存时间可能很短, 但是每秒都有很大数量的客户端来请求).这个时候如果由服务器端主动关闭连接(比如某些客户端不活跃, 就需要被服务器端主动清理掉), 就会产生大量TIME_WAIT连接。由于我们的请求量很大, 就可能导致TIME_WAIT的连接数很多, 每个连接都会占用一个通信五元组(源ip,源端口,目的ip, 目的端口, 协议). 其中服务器的ip和端口和协议是固定的.。连接没有被彻底断开ip和端口正在被使用,如果新来的客户端连接的ip和端口号和TIME_WAIT占用的链接重复了, 就会出现问题

使用setsockopt()设置socket描述符的 选项SO_REUSEADDR为1, 表示允许创建端口号相同但IP地址不同的多个socket描述符21c2eff3ae664c239aae8fcbe2f13e99.png

流量控制 

接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送,就会造成丢包, 继而引起丢包重传等等一系列连锁反应.因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(Flow Control)

  • 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 "窗口大小" 字段, 通过ACK端通知发送端,窗口大小字段越大, 说明网络的吞吐量越高
  • 接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端,发送端接受到这个窗口之后, 就会减慢自己的发送速度
  • 如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端

09d80e03c53b4d6d95e0c1df88aeec43.png

接收端如何把窗口大小告诉发送端呢? 回忆我们的TCP首部中, 有一个16位窗口字段, 就是存放了窗口大小信息。那么问题来了, 16位数字最大表示65535, 那么TCP窗口最大就是65535字节么?实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是 窗口字段的值左移 M 位

延迟应答

延迟应答优化了流量控制,延迟应答允许接收方在等待ACK期间处理更多的数据,从而有可能通告一个更大的接收窗口给发送方。这样,发送方就可以发送更多的数据,进一步提高传输效率

  • 如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小
  • 假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K
  • 但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了
  • 在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来
  • 如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M

那么所有的包都可以延迟应答么? 肯定也不是

  • 数量限制: 每隔N个包就应答一次
  • 时间限制: 超过最大延迟时间就应答一次

具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms

捎带应答

在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 "一发一收" 的. 意味着客户端给服务器说了 "How are you", 服务器也会给客户端回一个 "Fine, thank you"。那么这个时候ACK就可以搭顺风车, 和服务器回应的 "Fine, thank you" 一起回给客户端,应答和数据一起发送就是捎带应答

84bce1157afa42a49916df6136914fe0.png

滑动窗口

原理

前面我们讨论了确认应答机制, 对每一个发送的数据段, 都要给一个ACK确认应答. 收到ACK后再发送下一个数据段.这样做有一个比较大的缺点, 就是性能较差. 尤其是数据往返的时间较长的时候dcf804cccd0c4a9b801e1db7e0f48c0a.png

既然这样一发一收的方式性能较低, 那么我们一次发送多条数据, 就可以大大的提高性能(其实是将多个段的等待时间重叠在一起了)

221f3cfaf16d4df8bec91ca9b1588e0c.png

滑动窗口大小就是窗口大小指的是无需等待确认应答而可以继续发送数据的最大值,上图窗口大小就是4000个字节(四个段),发送前四个段的时候, 不需要等待任何ACK, 直接发送,收到第一个ACK后, 滑动窗口向后移动, 继续发送第五个段的数据,依次类推。操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答,只有确认应答过的数据, 才能从缓冲区删掉。窗口越大, 则网络的吞吐率就越高

发送缓冲区分为三部分,左边部分是已发送已应答的数据,中间部分是准备发送和已发送未应答的数据(已发送未应答的数据就是超时重传的数据),这部分就是滑动窗口,右边部分是未发送的数据

滑动窗口的大小 = min(应答报文的窗口大小,拥塞窗口的大小,有效数据的数量),对方的接受缓冲区的剩余空间的大小即应答报文的窗口大小,拥塞窗口详细后面讲

ef82e71f2db3489d80a61506b926188e.png

 那么如果出现了丢包, 如何进行重传? 这里分两种情况讨论

情况一: 数据包已经抵达, ACK被丢了

53868af0e6374fda92a3c81392e40fb0.png我们对应确认序号的定义,确认序号之前的数据,我们全部收到了,那么就允许少量的ACK丢失。所以部分ACK丢了并不要紧, 因为可以通过后续的ACK进行确认。确认序号保证了滑动窗口,线性的连续的向后更新,不会出现跳跃的情况

情况二: 数据包就直接丢了

84d77403f9b9448a8291a71a202aa00f.png

当某一段报文段(也就是1001~2000的报文)丢失之后, 虽然2000后面的数据主机B都已经收到,但是由于确认序号的定义(确认序号之前的数据,我们全部收到了),所以发送端会一直收到确认序号是1001这样的ACK, 不会发送确认序号是7001的ACK。 如果发送端主机连续三次收到了同样一个 "1001" 这样的应答, 就会将对应的数据 1001 - 2000 重新发送 。这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中 。这种机制被称为 "高速重发控制"(也叫 "快重传")

重要问题

为什么要有快重传和超时重传两种机制?

  1. 超时重传机制能够确保数据的可靠传输,但也存在一定的局限性,例如对于网络拥堵和突发丢包等情况响应不够灵敏,可能导致大量重传延迟,影响传输效率。
  2. 快速重传则通过检测冗余ACKs来加速数据段的重传,提高了传输效率,特别是在网络拥堵和突发丢包等情况下表现更为出色。
  3. 超时重传和快速重传在TCP协议中相辅相成,二者结合使得TCP能够灵活应对网络中的各种不确定因素,维持数据流的连贯性和高效性

滑动窗口如何移动的?向左移动?向右移动?移动的时候,大小会变化吗?怎么变化?会为0吗?

滑动窗口是不能向左移动的,只能向右移动。大小是动态变化的,看应答报文的窗口大小和拥塞窗口的大小来变化,可以变大,可以变小,还可以不变,当对方接收缓冲区满的时候,可以变为0

如何理解滑动窗口区域的划分?

通过指针/下标来划分

int start = 根据确认序号,设置。确认序号
int end = 确认序号+min(应答报文的窗口大小,拥塞窗口的大小,有效数据的数量)

滑动窗口,会在发送缓冲区中越界吗?

TCP采用环状算法(如模运算)来管理发送缓冲区,确保滑动窗口在移动时不会越界。具体来说,发送缓冲区被划分为多个区域,包括待发送区域、已发送未确认区域等。滑动窗口的左边界和右边界会根据接收方的确认和发送方的发送情况来动态调整,但始终保持在发送缓冲区的有效范围内

拥塞控制

虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题,因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的.TCP引入慢启动机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据d6ab728ce4944729b73cd9146a0d0a6c.png

  • 此处引入一个概念程为拥塞窗口
  • 发送开始的时候, 定义拥塞窗口大小为1
  • 每次收到一个ACK应答, 拥塞窗口加1
  • 每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口(滑动窗口的大小)

像上面这样的拥塞窗口增长速度, 是指数级别的. "慢启动" 只是指初使时慢, 但是增长速度非常快

为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍。此处引入一个叫做慢启动的阈值。当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长

9b7e43ae75f540fc98fb3141cbb242e4.png

  • 当TCP开始启动的时候, 慢启动阈值等于窗口最大值
  • 在每次网络拥塞的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1

少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞。当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降。拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案

多主机面对网络拥塞的“共识”

1.共同遵守TCP协议

  • 所有遵守TCP协议的主机在面对网络拥塞时都会采取相似的措施来减少发送速率。
  • 这种共同的遵守行为形成了一种“共识”,有助于缓解网络拥塞

2.动态调整发送速率

  • TCP协议通过动态调整发送方的发送速率来适应网络状况的变化。
  • 当网络出现拥塞时,发送方会主动减少发送速率;当网络状况改善时,发送方会逐步增加发送速率。

3.协同工作

  • TCP协议中的拥塞控制算法是协同工作的。
  • 例如,在快速重传和快速恢复阶段,发送方会根据接收方的反馈来快速调整发送速率。
  • 这种协同工作有助于更快地恢复网络状况,减少因网络拥塞而导致的性能下降。

面向字节流

创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区

  • 调用write时, 数据会先写入发送缓冲区中
  • 如果发送的字节数太长, 会被拆分成多个TCP的数据包发出
  • 如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去
  • 接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区
  • 然后应用程序可以调用read从接收缓冲区拿数据
  • 另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工

由于缓冲区的存在, TCP程序的读和写不需要一一匹配, 例如:

  • 写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节
  • 读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次

不关心上层协议,不关心上层报文格式,TCP只有字节的概念,从缓冲区里读或者写字节,就好像字节在流动,所以TCP是面向字节流

粘报问题

在TCP的协议头中, 没有如同UDP一样的 "报文长度" 这样的字段, 但是有一个序号这样的字段,站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中,站在应用层的角度, 看到的只是一串连续的字节数据.那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包

粘报问题相对于用户层的概念,解决粘报:订协议!!

那么如何避免粘报问题呢? 归根结底就是一句话,在应用层通过协议,明确报文和报文之间的边界

  1. 定长报文。保证每次都按固定大小读取即可
  2. 给定报文总长度的字段。对于变长的报文, 可以在报头的位置, 约定一个报总长度的字段, 从而就知道了报的结束位置
  3. 使用特殊字符。对于变长的报文, 还可以在报和报之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔符不和正文冲突即可)
  4. 使用自描述字段+定长报头
  5. 使用自描述字段+特殊字符

对于UDP协议来说, 是否也存在 "粘报问题" 呢?

  1. 对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是面向数据报的,UDP是一个一个把数据交付给应用层. 就有很明确的数据边界
  2. 站在应用层的站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半个"的情况

TCP异常情况

进程异常终止: 进程异常终止会释放文件描述符, 仍然可以发送FIN。和正常关闭没有什么区别

机器重启: 也是要先杀掉所以进程,和进程终止的情况相同 

机器掉电/网线断开: 发送端机器掉电/网线断开,直接断开了,是没有机会发送任何报文了,无法进行四次挥手。接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行reset. 即使没有写入操作,TCP自己也内置了一个保活定时器,会定期询问对方是否还在. 如果对方不在, 也会把连接释放
另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ断线之后, 也会定期尝试重新连接

用UDP实现可靠传输(经典面试题)

参考TCP的可靠性机制, 在应用层实现类似的逻辑;
例如:

  • 引入序列号, 保证数据顺序
  • 引入确认应答, 确保对端收到了数据;
  • 引入超时重传, 如果隔一段时间没有应答, 就重发数据;
  • ......

TCP/UDP对比

我们说了TCP是可靠连接, 那么是不是TCP一定就优于UDP呢? TCP和UDP之间的优点和缺点, 不能简单绝对的进行比较

TCP(Transmission Control Protocol 传输控制协议)

  • 传输层协议
  • 有连接
  • 可靠传输
  • 面向字节流

UDP(User Datagram Protocol 用户数据报协议)

  • 传输层协议
  • 无连接
  • 不可靠传输
  • 面向数据报

对于应用场景

  • TCP:由于其可靠性和面向连接的特点,TCP适用于需要确保数据完整性和顺序性的应用场景,如文件传输、网页浏览、电子邮件传输、远程登录、数据库管理系统等。
  • UDP:由于其快速和实时性高的特点,UDP适用于对实时性要求高但数据可靠性要求不高的应用场景,如在线游戏、实时视频传输、DNS查询、实时传感器数据等。

归根结底, TCP和UDP都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定

基于TCP应用层协议

  • HTTP
  • HTTPS
  • SSH
  • Telnet
  • FTP
  • SMTP

当然, 也包括你自己写TCP程序时自定义的应用层协议

TCP总结

可靠性:

  • 校验和
  • 序列号(按序到达)
  • 确认应答
  • 超时重发
  • 连接管理
  • 流量控制
  • 拥塞控制

提高性能:

  • 滑动窗口
  • 快速重传
  • 延迟应答
  • 捎带应答

其他:
定时器(超时重传定时器, 保活定时器, TIME_WAIT定时器等)

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/892805.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

番茄工作法计时器:高效时间管理利器

《番茄工作法计时器:高效时间管理利器》 在快节奏的现代生活中,高效管理时间成为每个人的迫切需求。今天,我们为你推荐一款强大的番茄工作法计时器。 这款计时器设计简洁,操作便捷,仅有两个按钮 —— 工作 25 分钟和休…

【未公开0day】RaidenMAILD CVE-2024-32399 路径穿越漏洞【附poc下载】

免责声明:本文仅用于技术学习和讨论。请勿使用本文所提供的内容及相关技术从事非法活动,若利用本文提供的内容或工具造成任何直接或间接的后果及损失,均由使用者本人负责,所产生的一切不良后果均与文章作者及本账号无关。 fofa语…

【C++】创建TCP服务端

实现了一个基本的 TCP 服务器&#xff0c;可以接受多个客户端连接&#xff0c;然后持续接收客户端发送的信息&#xff0c; 最后将接收到的信息再发送回客户端 。 源码 头文件&#xff08;TCPServerTest.h&#xff09; #include <iostream> #include <winsock2.h&g…

Idea序列图插件-SequenceDiagram Core

&#x1f496;简介 SequenceDiagram Core 是一个 IntelliJ IDEA 插件&#xff0c;它允许开发者直接在 IDE中创建和编辑序列图&#xff08;Sequence Diagrams&#xff09;。序列图是 UML&#xff08;统一建模语言&#xff09;中的一种图表类型&#xff0c;用于描述对象之间如何…

【Java 22 | 10】 深入解析Java 22 :Vector API 增强特性

Java 22 对 Vector API 进行了重要增强&#xff0c;旨在提供更高效的矢量操作能力&#xff0c;以支持性能关键的应用程序。Vector API 允许开发者利用硬件的 SIMD&#xff08;单指令多数据&#xff09;特性&#xff0c;从而在处理数组和集合等数据时显著提高性能。 1. 基础介绍…

谷歌-BERT-第一步:模型下载

1 需求 需求1&#xff1a;基于transformers库实现自动从Hugging Face下载模型 需求2&#xff1a;基于huggingface-hub库实现自动从Hugging Face下载模型 需求3&#xff1a;手动从Hugging Face下载模型 2 接口 3.1 需求1 示例一&#xff1a;下载到默认目录 from transform…

微带传输线 - 本征模 - Alpha 衰减常数与S21插损_CST软件案例

关于Beta之前的文章解释了很多&#xff0c;这期说说Alpha。α 是衰减常数&#xff08;attenuation constant&#xff09;&#xff0c;表示波损耗&#xff0c;和S21插损相关&#xff0c;但这几个量很多人还是搞不清楚。 首先&#xff0c;S21和插损Insertion Loss严格上讲是不一…

Spring Boot与JavaWeb协同:在线考试系统的实现“

1系统概述 1.1 研究背景 随着计算机技术的发展以及计算机网络的逐渐普及&#xff0c;互联网成为人们查找信息的重要场所&#xff0c;二十一世纪是信息的时代&#xff0c;所以信息的管理显得特别重要。因此&#xff0c;使用计算机来管理基于JavaWeb技术的在线考试系统设计与实现…

请求参数中字符串的+变成了空格

前端请求 后端接收到的结果 在URL中&#xff0c;某些字符&#xff08;包括空格、、&、? 等&#xff09;需要被编码。具体而言&#xff0c;在URL中&#xff0c;空格通常被编码为 或 %20。因此&#xff0c;如果你在请求参数中使用 &#xff0c;它会被解释为一个空格。 如果…

【C++贪心】2086. 喂食仓鼠的最小食物桶数|1622

本文涉及知识点 C贪心 LeetCode2086. 喂食仓鼠的最小食物桶数 给你一个下标从 0 开始的字符串 hamsters &#xff0c;其中 hamsters[i] 要么是&#xff1a; ‘H’ 表示有一个仓鼠在下标 i &#xff0c;或者’.’ 表示下标 i 是空的。 你将要在空的位置上添加一定数量的食物桶…

QUIC(Quick UDP Internet Connections)与 RTMP(Real Time Messaging Protocol)

QUIC&#xff08;Quick UDP Internet Connections&#xff09;和 RTMP&#xff08;Real Time Messaging Protocol&#xff09;是两种不同的网络传输协议&#xff0c;它们在一些方面有不同的特点和应用场景。 QUIC 协议 特点 基于 UDP&#xff1a;QUIC 建立在 UDP 之上&#xff…

unity静态批处理

unity静态批处理 静态批处理要求和兼容性渲染管线兼容性 使用静态批处理在构建时进行静态批处理在构建时执行静态批处理的步骤&#xff1a; 在运行时进行静态批处理性能影响 静态批处理 静态批处理是一种绘制调用批处理方法&#xff0c;它将不移动的网格组合在一起&#xff0c…

合并与变形

目录 合并 准备数据 append关键字 concat关键字 merge关键字 join关键字 变形 df.T行列转置 透视表 合并 很多情况下需要将多个df合并为一个新的df df1.append(df2) 纵向合并数据集 pd.concat([df1, df2, ...]) 横向或纵向合并数据集&#xff0c;df1和df2可以没有任何…

企业微信开放平台注册流程

目录 网址 注册步骤 准备工作 填写信息 微信认证 填写发票 支付费用 完成注册 网址 微信开放平台&#xff1a; https://open.weixin.qq.com/ 注册步骤 准备工作 企业版&#xff1a; 没有注册过微信其他平台&#xff08;如&#xff1a;微信小程序&#xff0c;微信公众…

澳鹏干货 | 大语言模型的上下文窗口 (Context Windows)

大语言模型&#xff08;LLMs&#xff09;极大地提升了人工智能在理解和生成文本方面的能力。其中一个影响其效用的重要方面是“上下文窗口”&#xff08;Context Windows&#xff09;—— 这个概念直接影响着模型接收和生成语言的有效性。 本期澳鹏干货将深入探讨上下文窗口对…

【MySQL】增删改查-进阶(一)

目录 &#x1f334;数据库约束 &#x1f6a9;约束类型 &#x1f6a9;NOT NULL &#x1f6a9;UNIQUE &#x1f6a9;DEFAULT &#x1f6a9;PRIMARY KEY &#x1f6a9;FOREIGN KEY &#x1f6a9;CHECK &#x1f384;表的设计 &#x1f6a9;一对一 &#x1f6a9;一对多 …

JavaWeb合集07-MyBatis

七、MyBatis MyBatis是一款优秀的持久层&#xff08;dao&#xff09;框架&#xff0c;用于简化JDBC的开发。 MyBatis本是Apache的一个开源项目iBatis, 2010年这个项目由apache迁移到了google code,并且改名为MyBatis。2013年11月迁移到Github。 官网&#xff1a;https://mybati…

人工智能学习框架的探索与应用

✅作者简介&#xff1a;2022年博客新星 第八。热爱国学的Java后端开发者&#xff0c;修心和技术同步精进。 &#x1f34e;个人主页&#xff1a;Java Fans的博客 &#x1f34a;个人信条&#xff1a;不迁怒&#xff0c;不贰过。小知识&#xff0c;大智慧。 &#x1f49e;当前专栏…

Spark:DataFrame介绍及使用

1. DataFrame详解 DataFrame是基于RDD进行封装的结构化数据类型&#xff0c;增加了schema元数据&#xff0c;最终DataFrame类型在计算时&#xff0c;还是转为rdd计算。DataFrame的结构化数据有Row&#xff08;行数据&#xff09;和schema元数据构成。 Row 类型 表示一行数据 …

中文情感分析课程设计

中文情感分析 中文情感分析的实质是文本分类问题&#xff0c;本项目分别采用CNN和BI-LSTM两种模型解决文本分类任务&#xff0c;并用于情感分析&#xff0c;达到不错的效果。 两种模型在小数据集上训练&#xff0c;在验证集的准确率、号回率及F1因子均接近90% 项目设计的目标…