目录
一.再谈端口概念
二.UDP协议
1.UDP协议格式
2.UDP的特点
3.面向数据报
4.UDP的缓冲区
5.UDP使用注意事项
6.UDP协议在内核中的表现形式
7.基于UDP的应用层协议
三.TCP协议
1.TCP协议格式
2.TCP确认应答机制
3.超时重传机制
4.TCP报文六位标志位
5.滑动窗口
6.流量控制
7.拥塞控制
8.延迟应答
9.捎带应答
10.面向字节流
11.粘包问题
12.连接管理机制
13.listen 的第二个参数
14.TCP异常情况
15.TCP小结
16.基于TCP应用层协议
四.TCP/UDP对比
一.再谈端口概念
端口号(Port)标识了一个主机上进行通信的不同的应用程序;
在TCP/IP协议中, 用 "源IP", "源端口号", "目的IP", "目的端口号", "协议号" 这样一个五元组来标识一个通信(可以通过netstat -n查看);
netstat 常用选项:
- n 拒绝显示别名,能显示数字的全部转化成数字
- l 仅列出有在 Listen (监听) 的服务状态
- p 显示建立相关链接的程序名
- t (tcp)仅显示tcp相关选项
- u (udp)仅显示udp相关选项
- a (all)显示所有选项,默认不显示LISTEN相关
pidof:在查看服务器的进程id时非常方便。
- 语法:pidof [进程名]
- 功能:通过进程名, 查看进程id
二.UDP协议
1.UDP协议格式
16位UDP长度: 表示整个数据报(UDP首部+UDP数据)的最大长度;
16位检验和:如果校验和出错, 就会直接丢弃;
UDP协议如何做到报头和有效载荷分离:
- udp协议有着定长的报头。
- 定长读取报头就能够,得到16位报文的长度即,报头和有效载荷的长度。
- 16位报文长度减去定长报头8字节,得到有效载荷长度。
UDP协议如何做到向上交付:
- 只要读取到了报头,也就知道了目的端口,目的端口就是我们此次向上交付的应用层进程。
2.UDP的特点
UDP传输的过程类似于寄信.
- 无连接: 知道对端的IP和端口号就直接进行传输, 不需要建立连接;
- 不可靠: 没有确认机制, 没有重传机制; 如果因为网络故障该段无法发到对方, UDP协议层也不会给应用层返回任何错误信息;
- 面向数据报: 不能够灵活的控制读写数据的次数和数量;
3.面向数据报
应用层交给UDP多长的报文, UDP原样发送, 既不会拆分, 也不会合并;
用UDP传输100个字节的数据:
- 如果发送端调用一次sendto, 发送100个字节, 那么接收端也必须调用对应的一次recvfrom, 接收100个字节; 而不能循环调用10次recvfrom, 每次接收10个字节;
4.UDP的缓冲区
- UDP没有真正意义上的 发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作;
- UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致; 如果缓冲区满了, 再到达的UDP数据就会被丢弃,这也是UDP表现出的相对于TCP的不可靠性。
- UDP的socket既能读, 也能写, 这个概念叫做 全双工。
5.UDP使用注意事项
- 我们注意到, UDP协议首部中有一个16位的最大长度. 也就是说一个UDP能传输的数据最大长度是64K(包含UDP首部).
- 然而64K在当今的互联网环境下, 是一个非常小的数字.
- 如果我们需要传输的数据超过64K, 就需要在应用层手动的分包, 多次发送, 并在接收端手动拼装;
6.UDP协议在内核中的表现形式
Linux内核是由C语言写的,传输层和网络层又隶属于操作系统,那么传输层的协议也是用C语言写的。既然是使用C语言写的那么想UDP这种格式的结构,我们很容易就可以使用,结构体,或者位段来实现。有一个疑惑,无法确定有效载荷的大小,那么又该问怎么定义出结构呢?C99语法支持柔性数组。
struct Udp
{
uint16_t src_port;
uint16_t dst_port;
uint16_t udp_len;
uint16_t check;
char date[];//柔性数组。
};
7.基于UDP的应用层协议
- NFS: 网络文件系统
- TFTP: 简单文件传输协议
- DHCP: 动态主机配置协议
- BOOTP: 启动协议(用于无盘设备启动)
- DNS: 域名解析协议
- 也包括你自己写UDP程序时自定义的应用层协议;
三.TCP协议
TCP全称为 "传输控制协议(Transmission Control Protocol"). 人如其名, 要对数据的传输进行一个详细的控制;
当上层应用层服务将需要发送的数据,使用send和write发送到"网络"的时候,实际上对于应用层,他认为只要自己调用了send和write就已经将数发送出去了,实际上并不是这样,数据还需要经过传输层的协议才能发送。对于应用层,他对传输层到底是怎么发送的,是什么时候发送的数据,表示不知道,不清楚,不关心。而怎么发送,什么时候发送,如何确保传输的数据的可靠性,这就是传输层的TCP该做的事情。
1.TCP协议格式
1. 源/目的端口号: 表示数据是从哪个进程来, 到哪个进程去;
2. 32位序号/32位确认号: 后面详细讲;
3. 4位TCP报头长度: 表示该TCP头部有多少个32位bit(有多少个4字节); 所以TCP头部最大长度是15 * 4 = 60
4. 6位标志位:
- URG: 紧急指针是否有效
- ACK: 确认号是否有效
- PSH: 提示接收端应用程序立刻从TCP缓冲区把数据读走
- RST: 对方要求重新建立连接; 我们把携带RST标识的称为复位报文段
- SYN: 请求建立连接; 我们把携带SYN标识的称为同步报文段
- FIN: 通知对方, 本端要关闭了, 我们称携带FIN标识的为结束报文段
5. 16位窗口大小: 后面再说。
6. 16位校验和: 发送端填充, CRC校验. 接收端校验不通过, 则认为数据有问题. 此处的检验和不光包含TCP首部, 也包含TCP数据部分.
7. 16位紧急指针: 标识哪部分数据是紧急数据;
8. 40字节头部选项: 暂时忽略;
TCP协议如何做到报头和有效载荷分离:
首先读取到四位首部长度冷len,报头长度就是len*4字节,报文去除报头数据,剩下的就是有效载荷。
说明:在没有选项长度的情况下,四位报头的长度就是20字节,自然四位首部长度填写的二进制字段就是1001。
TCP如何做到向上交付:
当我们读取到了报头,自然也就知道了目的端口,目的端口就是我们此次向上交付的应用层进程。
2.TCP确认应答机制
可靠性:
我们一提到TCP首先就能想到可靠性,那么到底哪些是可靠性哪些不是可靠性?
不可靠性:丢失数据(丢包),传输太快了,传输太慢了,乱序,重复等,都是不可靠性。
与之相对的自然也就是可靠性。
确认应答:解决丢包的问题
TCP为保证可靠性,我们向对端主机发送数报文的时候,我们怎么得知对端主机有没有收到我们的报文呢?非常简单,对端只要给你一句回应,我们也就知道了,对方收到了我们发送的报文数据。
但是这样的每次都是一个发一个应答这样的串行的过程,效率难免会有些低,所以在实际中,发报文和应答并不是穿行的,而是并发的。
序号和确认序号的作用:
那么如果有一条数据报文,没有得到回应,而且我们接收端收到的报文顺序也不一定就是发送端发送的顺序,那么怎么确定是哪一条数据报文丢失呢?
在我们的数据,没有发送到对端主机的时候,我们的数据都会存储在TCP的缓冲区里面,那么TCP的缓冲区是什么样子的呢?
实际上TCP的发送缓冲区就是一个char数组,又因为数组天然带有下标,所以TCP对缓冲区的每一个字节都是有编号的。而这个编号其实就是TCP协议报头里的序号。当我们每次发送的数据,都是有序号的,那么接收端只要按序号进行排序和去重,首先可以做到接收端保证数据的有序性,也能够轻松的知道了哪些报文没有收到。
对于接收端,我们收到了一个报文得到了序号,我们就可以给发送端应答一个带有确认信号的应答报文,该应答报文的确认序号就是上一个报文的序号下一个位置,代表下一次你可以从该位置继续发送。
确认序号的机制的意思是告知发送端,下一次的发送位置,换一句话讲,也就是告诉发送方,从当当前确认号X之前的报文我都是收到的。
3.超时重传机制
如果我们发送一个数据报文,但是并没有收到应答,此时我们应该立马给对方补发一个报文吗?不应该,首先我们要知道如果我们没有收到应答,一般会有两种情况:
- 对方收到了数据报文,但是发送给发送方的应答丢失了。
- 对方确确实实没有收到报文,所以自然也就不会发出应答。
如果是情况一:虽然我们没有收到当前报文数据的应答报文,但是过了一会我们收到了,下一个报文的应答报文,由于应答报文的机制,我们收到下一个报文的应答,也就代表这当前所有报文对方都是收到的。
如果是情况一,主机B会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.这时候我们可以利用前面提到的序列号, 就可以很容易做到去重的效果.
如果是情况二:我们我们并不知到发送的报文确实丢失了,我们还在期望第一种情况的发生,但是过了一会仍没有收到确认应答,那么此时我们真的需要给出一个补发报文。但是总归到底,我们都是不能直接补发报文的。面对情况二这种等待一段时间之后,仍没有应答报文我们再补发的场景,就是超时重传机制。
那么, 如果超时的时间如何确定?
- 最理想的情况下, 找到一个最小的时间, 保证 "确认应答一定能在这个时间内返回".
- 但是这个时间的长短, 随着网络环境的不同, 是有差异的.
- 如果超时时间设的太长, 会影响整体的重传效率;
- 如果超时时间设的太短, 有可能会频繁发送重复的包;
TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间。
- Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时时间都是500ms的整数倍.
- 如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传.
- 如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增.
- 累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接.
4.TCP报文六位标志位
1.ACK
说明:确认好是否有效,也就是说明当前报文确认好如果有效,那么当前报文一定是一个应答报文。
2.RST
说明:对方要求重新建立连接,例如当客户端因为网络抖动,导致连接断开,但是服务器并不知道,这就导致了双方再连接建立上有不一致的地方。客户端就可以发送一个带有SRT的报文,请求重新建立连接。
3.URG
说明:紧急指针是否有效,紧急指针是一个16位整形数据,如果紧急指针生效,这次的报文是可以不需要在接收缓冲区中等待,可以直接插队被上层应用拿到,而且此次的有效载荷中还携带者1字节的紧急数据,16位的紧急指针,就标识了紧急数据在有效载荷中的起始位置。
4.SYN
说明:TCP是面向连接的,那么就会有报文时请求发起TCP连接的,发起连接的报文就会携带SYN标志位。
5.FIN
说明:当双方通信结束,断开连接时,需要有报文提出断开连接的请求。就会携带FIN标志位。
6.PSH
如果通信双方,有一方觉得对方的接收缓冲区,剩余空间不是很充足,可以催促对方的应用层,抓紧把数据从缓冲区读走。这种报文就会携带PSH标志位。
5.滑动窗口
刚才我们讨论了确认应答策略, 对每一个发送的数据段, 都要给一个ACK确认应答. 收到ACK后再发送下一个数据段,这样做有一个比较大的缺点, 就是性能较差. 尤其是数据往返的时间较长的时候.
既然这样一发一收的方式性能较低, 那么我们一次发送多条数据, 就可以大大的提高性能(其实是将多个段的等待时间重叠在一起了).
滑动窗口在哪里?是什么?
今天我们知道了,TCP的传输控制的主要是针对要发送的数据报文,因为数据报文在TCP发送缓冲区中,那么滑动窗口就在TCP发送缓冲区中。滑动窗口就是两个指针。
滑动窗口可以变大吗?可以变小吗?可以为0吗?
可以变大,也可以变小,根据对方的接受能力,仅仅改变两个指针的位置,即可。
可以为0,即发送端不发送数据。
滑动窗口可以一直滑动吗?怎么滑动?
滑动窗口天然的将整个缓冲区划分为三个部分,滑动窗口前是,已经接受到应答的数据报文,滑动窗口后,是还没有发送的报文。滑动窗口中是不需要等待任何ACK, 直接发送的数据报文,或者是已经发送还没有收到应答的数据报文。
当窗口中的已经发送的报文的应答被接受,那就可以直接直接将Win_begin向右边移动。
而且滑动窗口左端的报文已经被对对方接受,所以对于发送缓冲区来说就是空闲的,可以发送缓冲区设计成环状的,滑动窗口也不会出现越界的情况。
华东窗口的大小怎么更新?依据是什么?
滑动窗口的大小决定了此次发送的数据报文量的大小,TCP不仅仅保证数据不会漏掉,即使漏掉了,也能让我及时的知道。还要保证我们每次发的数据量对方有能力接受,如果对方的接受能力弱,我们就少发一点,对方接受能力强,我们就多发一点。所以我们需要知道对方的接收缓冲区还有多大,这就要用到TCP报文格式中的16位窗口大小了。
16为窗口大小:用于通告给对方自己的接受能力。
所以我们的滑动窗口的大小就应该是对方的窗口大小,即:
- Win_begin = 确认序列化。
- Win_end = Win_begin + Win_size.
如果滑动窗口中数据报文有丢失怎么半?
如果有数据丢失那丢失的数据必然在窗口的第一位。因为收到应答的报文将会被移除窗口,所以当出现报文丢失,直接重发第一个报文就可以了。
说明:
窗口大小指的是无需等待确认应答而可以继续发送数据的最大值. 上图的窗口大小就是4000个字节(四个段).发送前四个段的时候, 不需要等待任何ACK, 直接发送;
收到第一个ACK后, 滑动窗口向后移动, 继续发送后面的段的数据; 依次类推;
操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉;窗口越大, 则网络的吞吐率就越高;
快重传:
- 当某一段报文段丢失之后, 发送端会一直收到 1001 这样的ACK, 就像是在提醒发送端 "我想要的是 1001"一样;
- 如果发送端主机连续三次收到了同样一个 "1001" 这样的应答, 就会将对应的数据 1001 - 2000 重新发送;
- 这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中;
这种机制被称为 "高速重发控制"(也叫 "快重传").
6.流量控制
接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送,就会造成丢包, 继而引起丢包重传等等一系列连锁反应.
因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(Flow Control);
- 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 "窗口大小" 字段, 通过ACK端通知发送端;
- 窗口大小字段越大, 说明网络的吞吐量越高;
- 接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
- 发送端接受到这个窗口之后, 就会减慢自己的发送速度,即减小滑动窗口。
- 如果接收端缓冲区满了, 就会将窗口置为0,发送端的滑动窗口大小为0,这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端。
接收端如何把窗口大小告诉发送端呢? 回忆我们的TCP首部中, 有一个16位窗口字段, 就是存放了窗口大小信息;那么问题来了, 16位数字最大表示65535, 那么TCP窗口最大就是65535字节么?
实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是 窗口字段的值左移 M 位;
7.拥塞控制
虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题.
因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的.
这里是不是太瞧得起我了,我能够发的那几千个数据报文,对于整个网络来说不是九牛一毛吗,怎么会很大可能加重网络的拥塞呢?
我们要有一个共识,互联网中的主机可不止你一台,每一时刻都会有大量的主机向网络中发送数报文,而且大家都是用的是TCP协议。所以当网络出现拥塞时,只要TCP能够制止主机减缓发送,那么也就使得整个网络上的主机都减少了发送给数据。网络的压力就会慢慢恢复。
TCP引入 慢启动 机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据;
- 此处引入一个概念称为拥塞窗口
- 发送开始的时候, 定义拥塞窗口大小为1;
- 每次收到一个ACK应答, 拥塞窗口加1;
- 每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际的滑动窗口,因为此时影响我们发送的因素不仅仅是,对方的接受能力了,还加上当前网络的拥塞程度。两者取较小值,作为滑动窗口的大小。保证网络拥塞不加重,对方能接受。
像上面这样的拥塞窗口增长速度, 是指数级别的. "慢启动" 只是指初使时慢, 但是增长速度非常快.
- 为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
- 此处引入一个叫做慢启动的阈值
- 当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长
- 当TCP开始启动的时候, 慢启动阈值等于窗口最大值;
- 在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1
少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;
当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;
拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案.
TCP拥塞控制这样的过程, 就好像 热恋的感觉
8.延迟应答
如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小.
- 假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;
- 但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;
- 在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
- 如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M;
一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率:
- 那么所有的包都可以延迟应答么? 肯定也不是;
- 数量限制: 每隔N个包就应答一次;
- 时间限制: 超过最大延迟时间就应答一次;
具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms;
9.捎带应答
在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 "一发一收" 的. 意味着客户端给服务器说了 "How are you", 服务器也会给客户端回一个 "Fine, thank you";
那么这个时候ACK就可以搭顺风车, 和服务器回应的 "Fine, thank you" 一起回给客户端。
简单来说:就是此次的应答不仅仅是一个应答,还携带了一些其他信息,这就叫捎带应答。
10.面向字节流
创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;
- 调用write时, 数据会先写入发送缓冲区中;
- 如果发送的字节数太长, 会被拆分成多个TCP的数据包发出;
- 如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
- 接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
- 然后应用程序可以调用read从接收缓冲区拿数据;
- 另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工;
由于缓冲区的存在, TCP程序的读和写不需要一一匹配, 例如:
- 写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节;
- 读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次;
- 就如同水流一般,可以一次多取,也可以多次少取,所以叫面向字节流。
11.粘包问题
- 首先要明确, 粘包问题中的 "包" , 是指的应用层的数据包.
- 在TCP的协议头中, 没有如同UDP一样的 "报文长度" 这样的字段, 但是有一个序号这样的字段.
- 站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中.
- 站在应用层的角度, 看到的只是一串连续的字节数据.
- 那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包.
那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界.
- 对于定长的包, 保证每次都按固定大小读取即可; 例如某一个Request结构,是固定大小的, 那么就从缓冲区从头开始按sizeof(Request)依次读取即可;
- 对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置,就像我们自己写的网络版本计算器。
- 对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔符不和正文冲突即可);
对于UDP协议来说, 是否也存在 "粘包问题" 呢?
- 不存在,UDP面向数据报的,对于数据报的接受是原子的,要么接收到了一个完整的,要么没有接收到,对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用层. 就有很明确的数据边界.
- 站在应用层的站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半个"的情况.
12.连接管理机制
在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接。
服务端状态转化:
- [CLOSED -> LISTEN] 服务器端调用listen后进入LISTEN状态, 等待客户端连接。
- [LISTEN -> SYN_RCVD] 一旦监听到连接请求(同步报文段), 就将该连接放入内核等待队列中, 并向客户端发送SYN确认报文。
- [SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文, 就进入ESTABLISHED状态, 可以进行读写数据了。
- [ESTABLISHED -> CLOSE_WAIT] 当客户端主动关闭连接(调用close), 服务器会收到结束报文段, 服务器返回确认报文段并进入CLOSE_WAIT。
- [CLOSE_WAIT -> LAST_ACK] 进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据); 当服务器真正调用close关闭连接时, 会向客户端发送FIN, 此时服务器进入LAST_ACK状态, 等待最后一个ACK到来(这个ACK是客户端确认收到了FIN)。
- [LAST_ACK -> CLOSED] 服务器收到了对FIN的ACK, 彻底关闭连接。
客户端状态转化:
- [CLOSED -> SYN_SENT] 客户端调用connect, 发送同步报文段。
- [SYN_SENT -> ESTABLISHED] connect调用成功, 则进入ESTABLISHED状态, 开始读写数据。
- [ESTABLISHED -> FIN_WAIT_1] 客户端主动调用close时, 向服务器发送结束报文段, 同时进入FIN_WAIT_1。
- [FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认, 则进入FIN_WAIT_2, 开始等待服务器的结束报文段。
- [FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段, 进入TIME_WAIT, 并发出LAST_ACK。
- [TIME_WAIT -> CLOSED] 客户端要等待一个2MSL(Max Segment Life, 报文最大生存时间)的时间, 才会进入CLOSED状态。
什么是连接?
在OS内部必然会同时存在大量的连接,操作系统肯定需要对这些连接做管理,那么就会有这些链接数据结构,和管理结构。struct link{……};需要占有内存和CPU资源。
为什么在建立连接时,会是三次握手,2次,4次,5次,行不行?
我们注意就不难发现,如果是两次握手建立连接,那么仅仅需要客户端发起一次SYN,服务端就会建立连接,这样就会导致,服务端使用很低的成本就建立服务端的来连接,连接的的创建也是需要CPU和内存资源的,如果一台机器,发送大量的SYN给服务器,那么很快就会使服务器承载压力过大,这就是SYN洪水攻击。偶数次的连接次数都会有些这样的问题,奇数次,最小成本的建立连接就是三次握手。
第二次握手就是一次捎带应答。
断开连接时的几种状态:
1.TIME_WAIT
我们从图中可以看出,主动断开连接的一方,会进入一个TIME_WAIT状态。
TCP协议规定,主动关闭连接的一方要处于TIME_ WAIT状态,等待两个MSL(maximum segment lifetime)的时间后才能回到CLOSED状态.
MSL在RFC1122中规定为两分钟,但是各操作系统的实现不同, 在Centos7上默认配置的值是60s;
可以通过 cat /proc/sys/net/ipv4/tcp_fin_timeout 查看msl的值。
这个内核文件可以修改,必须是root用户,但是修改以后没有效果。
测试:
启动服务,Ctrl C断开,再次启动:
我们查看当前8081端口的连接,发现服务仍在使用8081端口。,这也就是使得我们绑定失败的原因。
为什么是TIME_WAIT的时间是2MSL?
- MSL是TCP报文的最大生存时间, 因此TIME_WAIT持续存在2MSL的话
- 就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到来自上一个进程的迟到的数据, 但是这种数据很可能是错误的);
- 同时也是在理论上保证最后一个报文可靠到达(假设最后一个ACK丢失, 那么服务器会再重发一个FIN. 这时虽然客户端的进程不在了, 但是TCP连接还在, 仍然可以重发LAST_ACK);
解决TIME_WAIT状态引起的bind失败的方法:
在server的TCP连接没有完全断开之前不允许重新监听, 某些情况下可能是不合理的:
- 服务器需要处理非常大量的客户端的连接(每个连接的生存时间可能很短, 但是每秒都有很大数量的客户端来请求).
- 这个时候如果由服务器端主动关闭连接(比如某些客户端不活跃, 就需要被服务器端主动清理掉), 就会产生大量TIME_WAIT连接.
- 由于我们的请求量很大, 就可能导致TIME_WAIT的连接数很多, 每个连接都会占用一个通信五元组( 源ip,源端口, 目的ip, 目的端口, 协议). 其中服务器的ip和端口和协议是固定的. 如果新来的客户端连接的ip和端口号和TIME_WAIT占用的链接重复了, 就会出现问题.
使用setsockopt()设置socket描述符的 选项SO_REUSEADDR为1, 表示允许创建端口号相同但IP地址不同的多个socket描述符。
void Bind()
{
// 设置无需等待TIME_WAIT状态
int opt = 1;
setsockopt(_listensock, SOL_SOCKET, SO_REUSEADDR, &opt, sizeof(opt));
struct sockaddr_in host;
host.sin_family = AF_INET;
host.sin_port = htons(_port);
host.sin_addr.s_addr = INADDR_ANY; // #define INADDR_ANY 0x00000000
socklen_t hostlen = sizeof(host);
int n = bind(_listensock, (struct sockaddr *)&host, hostlen);
if (n == -1)
{
Logmessage(Fatal, "bind err ,error code %d,%s", errno, strerror(errno));
exit(BING_ERR);
}
}
2.CLOSE_WAIT状态
当对方主机首先close自己的 fd ,发起FIN请求之后,另一端接收到FIN之后,就会也会进入CLOSE_WAIT状态,关闭通信文件描述符之后发送ACK,进入LAST_ACK状态。但是连接的文件描述符的关闭是程序员自己控制,如果我们不关闭文件描述符呢:
断开客户端连接:
此时服务器进入了 CLOSE_WAIT 状态, 结合我们四次挥手的流程图, 可以认为四次挥手没有正确完成.
小结: 对于服务器上出现大量的 CLOSE_WAIT 状态, 原因就是服务器没有正确的关闭 socket, 导致四次挥手没有正确完成. 这是一个 BUG. 只需要加上对应的 close 即可解决问题.
13.listen 的第二个参数
const static int backlog = 1;
int n = listen(_listensock, backlog);
使服务器只监听,但是不accept,接受连接,但是不把链接拿到上层:
使用telnet连接:
此时启动 2 个客户端同时连接服务器, 用 netstat 查看服务器状态, 一切正常.
但是启动第三个客户端时, 发现服务器对于第三个连接的状态存在问题了。
客户端状态正常, 但是服务器端出现了 SYN_RECV 状态, 而不是 ESTABLISHED 状态
这是因为, Linux内核协议栈为一个tcp连接管理使用两个队列:
- 1. 半链接队列(用来保存处于SYN_SENT和SYN_RECV状态的请求)
- 2. 全连接队列(accpetd队列)(用来保存处于established状态,但是应用层没有调用accept取走的请求)
而全连接队列的长度会受到 listen 第二个参数的影响.
全连接队列满了的时候, 就无法继续让当前连接的状态进入 established 状态了.
这个队列的长度通过上述实验可知, 是 listen 的第二个参数 + 1.
注意:listen的第二个参数+1,不是服务器的最大处理链接数,而是暂存没有向上拿给应用层的最大链接数。
14.TCP异常情况
- 进程终止: 进程终止会释放文件描述符, 仍然可以发送FIN. 和正常关闭没有什么区别.
- 机器重启: 和进程终止的情况相同.
- 机器掉电/网线断开: 接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行reset. 即使没有写入操作, TCP自己也内置了一个保活定时器, 会定期询问对方是否还在. 如果对方不在, 也会把连接释放.
- 另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中,也会定期检测对方的状态. 例如QQ, 在QQ断线之后, 也会定期尝试重新连接.
15.TCP小结
为什么TCP这么复杂? 因为要保证可靠性, 同时又尽可能的提高性能.
可靠性:
- 校验和
- 序列号(按序到达)
- 确认应答
- 超时重发
- 连接管理
- 流量控制
- 拥塞控制
提高性能:
- 滑动窗口
- 快速重传
- 延迟应答
- 捎带应答
其他:
定时器(超时重传定时器, 保活定时器, TIME_WAIT定时器等)
16.基于TCP应用层协议
- HTTP
- HTTPS
- SSH
- Telnet
- FTP
- SMTP
当然, 也包括你自己写TCP程序时自定义的应用层协议;
四.TCP/UDP对比
我们说了TCP是可靠连接, 那么是不是TCP一定就优于UDP呢? TCP和UDP之间的优点和缺点, 不能简单, 绝对的进行比较:
- TCP用于可靠传输的情况, 应用于文件传输, 重要状态更新等场景;
- UDP用于对高速传输和实时性要求较高的通信领域, 例如, 早期的QQ, 视频传输等. 另外UDP可以用于广播;
归根结底, TCP和UDP都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定。
用UDP实现可靠传输(经典面试题)
参考TCP的可靠性机制, 在应用层实现类似的逻辑;
例如:
- 引入序列号, 保证数据顺序;
- 引入确认应答, 确保对端收到了数据;
- 引入超时重传, 如果隔一段时间没有应答, 就重发数据;
- ......