muduo 网络库源码解析和使用

1. base 模块

1.1 API

1.1.1 eventfd
int eventfd(unsigned int initval, int flags);

(1)类似信号量;其内部保存了一个 uint64_t 计数器 count,使用 initval 初始化;

(2)read

没有设置 EFD_SEMAPHORE 并且 count 不为 0,返回 count 值,并将 count 设为 0;
如果 count 值为 0,阻塞直到其非 0; 设置 EFD_NONBLOCK 后,返回 EAGAIN

(3)write 调用整数相加,count 最大值为 (64位最大值 - 1),如果超过该值会阻塞;

(4)IO 复用事件

可读:计数器大于 0
可写:不会阻塞的情况下,至少还能加 1;

(5)主要作用:用来替换只作为发出事件信号的 pipe

参考网址:https://www.man7.org/linux/man-pages/man2/eventfd.2.html

1.1.2 timerfd

参考网址:https://www.man7.org/linux/man-pages/man2/timerfd_create.2.html
(1)timerfd_create

创建定时器对象

(2)timerfd_settime

启动 / 停止定时器( new_value.it_value 设为非 0 或 0,该值是相对值,相对调用时的当前时间)

struct itimerspec
{
 	struct timespec it_interval;
	struct timespec it_value;
};

it_interval 设为 0,只触发一次;非 0 会重复触发;

(3)交互

可读:上次调用 timerfd_settime() 启动后,触发一次或多次

调用 read 时,返回 uint64_t 整数,表明触发次数;

1.2 其他类

1.2.1 ThreadPool
ThreadPool

任务队列:生产者消费者模型

(1) setMaxQueueSize 设置队列的最大大小

(2) start 创建并启动 numThreads 个线程,都放入了 threads_ 中,线程函数为 runInThread

(3) run 是向任务队列中添加任务;

(4) runInThread 不断调用 take 函数,从任务队列中取出任务并执行;(如果有 threadInitCallback_,需要先执行该初始化函数)
1.2.2 CountDownLatch
CountDownLatch 
倒计时,需要显式初始化指明最开始的计数值;内部封装了一个条件变量和一个锁(只有自己使用),当计数减为 0 时,会等待;

(1) countDown 函数;计数减1,若减为 0,则唤醒所有阻塞线程;

(2) wait 函数;等待 当前计数变为 0;(若为 0,则返回);
1.2.3 Thread
Thread

template< class R, class... Args > 
class function<R(Args...)>;
R 为返回值类型,Args 为可变参数

(1) start; 内部调用了 pthread_create 创建线程,使用初始计数为 1 的 CountDownLatch 来确保获取到 tid 后再返回

(2) join; 内部调用了 pthread_join

(3) ~Thread; 不会等待线程结束,如果没有调用 join 函数,就会调用 pthread_detach;

(1)pthread_creategettid 区别

pthread_create 返回的是 pthread_t 类型,是一个进程中各个线程之间的标识号,对于这个进程内是唯一的,而不同进程中,每个线程返回线程 ID 的可能是一样的。glibc 的 Pthreads 只保证同一进程内,同一时刻的各个线程 id 不同,不能保证同一进程先后多个线程具有不同 id;

在 Linux 下,建议使用gettid 的返回值作为线程 id;其类型是 pid_t,保证任何时刻都是全局唯一的,0 是非法值;
gettid 获取的 线程ID 和 PID 是有关系的,因为在linux中线程其实也是一个进程(clone)。在一个进程中,主线程的线程ID 和进程 PID 是一样的,gettid是不可移植的。

(2)为了效率,使用 thread local 缓存了线程 tid

// 内部调用 gettid() ,并缓存了线程 tid;
CurrentThread::tid()		

调用 fork 如何保证子进程不会看到这个缓存结果?

使用 pthread_atfork 注册回调函数 child 清空缓存,重新调用 tid()

1.2.4 Condition

对条件变量进行了封装;MutexLockholder_ 中记录了当前持有锁的线程 TID;

(1)Condition 构造时,MutexLock 已经构造完毕,当该线程阻塞在该条件变量时,其他线程获取到锁时,需要改变 holder_ 值;

直观想法是,在调用 pthread_cond_wait 前后重新对 holder_ 进行赋值,这里采用了 UnassignGuard 的思想,构造时,将 holder_ 赋值为 0,析构时,赋值为当前线程 TID;

1.2.5 ThreadLocal

(1)内部创建了 pthread_key_t 类型变量;

1.2.6 FixedBuffer

内部为 固定大小的字符数组 char data_[SIZE]

向 Buffer 中写数据时调用 memcpy

cur_ 指向当前待写入的位置;

全初始化为 0,内部调用 memset

1.2.7 AsyncLogging

使用 unique_ptr 指向缓存块 Buffer

双缓存方案,前端和后端分别使用两块缓存;

(1)构造时

初始化一个后台线程,申请两块内存,buffers_ 数组大小设置为 16;

(2)start

启动后台线程,这里 CountDownLatch 的作用是确保线程函数执行后,再退出 (确保在线程中 running_ 一定为 Ture ,确保不发生重排序? );

(3)append

buffers_ 为当前写满的缓存块数组;

前端调用,向缓存区写入 Log,写满缓存后,唤醒后台线程清理缓存;

currentBuffer_ 写满后会替换为 nextBuffer_,若其也写满则申请新的缓存块;

(4)threadFunc

持有两个空的缓存块,newBuffer1newBuffer2,局部变量数组 buffersToWrite

后端线程调用(若当前 buffers_ 为空,则阻塞;每隔一段时间醒来或可有前端提前唤醒);

currentBuffer_ 放入 buffers_,使用 newBuffer1替换 currentBuffer_ ,交换 buffersToWritebuffers_,若 nextBuffer_ 为空,使用 newBuffer2 替换;

buffersToWrite 中缓存块写入日志文件,对 newBuffer1newBuffer2 重新赋值,清空其他缓存块;

2. net 模块

2.1 时间相关类

2.1.1 Timestamp

内部使用 int64_t 表示,以 微秒 为单位

(1)now() 静态方法,返回 Timestamp(调用时的当前时间构造)

内部调用 gettimeofday(&tv, NULL);

会计算从1970年1月1号00:00(UTC)到当前的时间跨度

struct timeval
{
  __time_t tv_sec;		/* Seconds.  */
  __suseconds_t tv_usec;	/* Microseconds.  */
};

time() 返回的 time_t ,是以秒为单位的;

(2)toFormattedString

gmtime_r 将 time_t 转换为年月日时分秒的形式;

2.1.2 Timer

时间事件,包含 到期时间、时间回调函数、时间间隔 interval_、是否可重复触发、sequence_(使用静态原子整数生成序列号)

(1)run 调用时间回调函数

(2)restart( now ) 将到期时间改为 now + interval_

2.1.3 TimerId

包含一个指向 Timer 的指针和一个 sequence_

2.1.4 TimerQueue

内部使用 set 作为 TimerList timers_,按到期时间 Timestamp 排序各时间事件

(1)构造函数

创建 timerfd 并使用 timerfd 设置 Channel,设置其读回调函数为 handleRead

(2)handleRead

  • 1.获取所有过期的时间事件,从 activeTimers_ 中删除这些事件;

  • 2.清空 cancelingTimers_,调用每个事件对应的回调函数

  • 3.调用 reset 函数

(3)insert

将 Timer 根据到期时间插入到 timers_activeTimers_ 中;

其返回值标志,新加入的 Timer 是否是第一个元素(即到期时间最早的)

(4)reset

将可重复触发并且不在 cancelingTimers_ 中的时间事件调用 restart,重新插入到 timers_activeTimers_ 中;
否则就进行删除

如果当前 timers_ 不为空,获取下次到期时间,如果该时间有效,使用该时间调用 resetTimerfd 设置下次定时器到期时间;

(5)resetTimerfd 设置时钟下次到期时间,最小为 100 微妙

(6)addTimer

新构造一个 Timer(动态创建)

(7)addTimerInLoop

对时间事件调用 insert

(8)cancelInLoop

若其在 activeTimers_ 中,则将其从中删除,并释放;
否则,若 callingExpiredTimers_ 为 True,将其加入到 cancelingTimers_ 中;(只有在 handleRead中的第 2 步才有可能发生)

2.2 Channel

封装了 一个 fd 对应的事件及回调函数;(只属于一个 EventLoop)

events_ 表示 fd 上的注册事件
revents_ 接收到的事件(触发的事件)
封装了一些 readCallback_ 回调函数;
index_ 表明是否添加到了 Poller 中(-1 为未添加,1 为已添加,2 为已删除)

(1)handleEvent 根据 revents_ 调用相应的回调函数

(2)disenableXXX/enableXXX 方法都会调用 update() 注册读 / 写事件

设置 addedToLoop_ 为 Ture
调用 EventLoop 的 updateChannel 函数

调用该方法时,必定是 loop 线程;

在 EventLoop 构造时,注册 timefd、wakefd 可读
客户端 Connector::connecting 中,注册 sockfd 可写
服务端 Acceptor::listen(),注册 listenfd 可读
回调函数中调用

在这里插入图片描述

2.3 Poller

IO 复用基类(纯虚基类)

channels_ 为哈希表,key 为 fd,val 为 channel

(1)poll

内部调用 epoll_wait
如果有就绪的事件,调用 fillActiveChannels

(2)fillActiveChannels

设置触发 channel 的 revents_
将当前触发的 channel,加入到 activeChannels_

(3)updateChannel

根据 channel 的 index_ 调用 epoll_ctl
如果 index_ 为 -1,需要添加到 channels_

(4)removeChannel

channels_ 中删除 channel;

2.4 事件循环类

2.4.1 EventLoop

在这里插入图片描述

记录下创建 EventLoop 的线程 threadId_

(1)loop

循环执行下面语句:

  1. 清空 activeChannels_
  2. 调用 poll
  3. 调用 activeChannels_ 中的每个 channel 的handleEvent
  4. 调用 doPendingFunctors

(2)doPendingFunctors

callingPendingFunctors_ 设为 Ture
使用 swap 技巧减少了临界区;
调用 pendingFunctors_ 中的每个函数;
callingPendingFunctors_ 设为 False

(3)runInLoop

如果调用线程是 threadId_,直接运行函数;否则,调用 queueInLoop

(4)queueInLoop

将 回调函数 加入到 pendingFunctors_ 中(此步有锁保护)
如果调用线程不是 threadId_ ,调用 wakeup

(5)wakeup

eventfd_ 加 1

(6)updateChannel

断言调用线程为 threadId_
调用 poller 的 updateChannel

(7)添加定时器事件的流程如下图所示(在非 IO 线程中)
在这里插入图片描述

等定时器到期后,会从 poll 中返回,紧接着下一步调用 TimerQueue::handleRead(),然后调用定时器任务的回调函数;

(8)quit

设置 quit_ = true(上图中 loop 的循环条件为该变量)
如果当前不是事件循环的线程,则调用 wakeup() 唤醒事件循环

2.4.2 EventLoopThread

创建额外的一个线程专门执行 loop,并把 EventLoop 对象返回给用户;

2.4.3 EventLoopThreadPool

setThreadNum 设置线程数量

(1)start

创建并启动 numThreads_ 个 EventLoopThread;

2.5 TCP 服务端相关类

2.5.1 InetAddress

封装了 IPv4 或 IPv6 的 ip 地址和端口号;
内部数据为一个 union,为 sockaddr_insockaddr_in6

strchr() 用于查找字符串中的一个字符,并返回该字符在字符串中第一次出现的位置

(1)resolve(只能解析 IPv4)

调用 gethostbyname_r 解析主机名为 IP 地址,需要为其提供缓存供其内部查找过程使用;

链接: link

2.5.2 Socket

封装 socket fd;及 socket 选项(保活机制等)

listen 等函数的返回值检查工作

析构时关闭 fd(RAII,该类是 fd 的所有者,fd 的创建由 SocketsOps 封装的系统调用完成)

2.5.3 Buffer

vector<char> buffer_,读/写索引;类似循环数组,但这里是通过拷贝的方式实现的;

默认大小为 1024 + 8;

预留区(初始为 8 byte) | 读区 | 写区

(1)append
ensureWritableBytes 判断当前可写的空间是否大于 len

拷贝数据到写区,并 writerIndex_ += len

网络序和主机序互换通过 __bswap_ 函数完成

(2)makeSpace

当前可用空间是否大于 len,若是,则将读区的数据拷贝到数组最前面;

否则,调用 resize

(3)prepend

向预留区写入数据,并向前调整 readerIndex_ -= len

(4)retrieveAsStringreadInt32

读取完当前全部字节时,会调用 retrieveAll 将读/写索引设置为初始状态

(5)readFd

直接从 fd 读取数据到 Buffer 中,内部调用了 readv 函数

内部使用了额外的栈缓存char extrabuf[65536];,超出 Buffer 的数据会暂时存储在该缓存中,之后调用 makeSpace 扩容后再进行拷贝;

(6)shrink 使用 swap 技巧减少 Buffer 数组的空间占用;

2.5.4 TcpConnection

保存两个端点的地址
新建 Channel,并设置了 connectfd 的各个回调函数
输入 和 输出 Buffer

highWaterMark_ 高水位标志

(1)sendInLoop

如果当前写缓存中没有数据且没有注册写事件,则直接发送数据;
否则,会将数据向拷贝到 outputBuffer_ 中,如果没有注册写事件会进行注册;(channel_->enableWriting()

(2)handleRead

调用 Buffer 的 readFd 将数据保存到 inputBuffer_
如果读取到了数据,调用 messageCallback_业务逻辑
如果 n == 0,调用 handleClose()

(3)handleWrite

如果将 outputBuffer_ 的数据全部发送完毕,就会删除写事件;
调用 writeCompleteCallback_业务逻辑

(4)connectEstablished

  1. 状态从 kConnecting 改为 kConnected
  2. channel_ 绑定自身的智能指针,并注册读事件\
  3. 调用 connectionCallback_业务逻辑

(5)startRead() / stopRead

调用 runInLoop 注册或删除读事件

(6)send

当前状态为 kConnected 时,通过runInLoopsendInLoop 添加到事件循环的中;
否则,什么也不做;(即关闭写端后再调用 send 是无效的)

(7)handleClose

删除所有注册事件
调用 connectionCallback_
调用 closeCallback_业务逻辑

(8)shutdown(只是关闭写端)

设置状态为 kDisconnecting
如果当前注册了写事件,则什么也不做(即等待数据发送完毕,在写回调中会处理这种情况)
否则,调用 shutdown 系统调用关闭写端

(9)什么时候关闭读端?如何关闭?

注意:Socket 析构时会调用 close 系统调用,因此其析构时会关闭读写端(即整个连接);

TcpConnection 构造时,会有 socket_(new Socket(sockfd)),因此 TcpConnection 析构时会关闭整个连接;

std::unique_ptr<Socket> socket_

被动关闭时,相当于直接调用了 close 系统调用;

2.5.5 Acceptor

封装 listenfd 作用(非阻塞)

(1)listen() 向 IO 复用注册读事件

必须设置 newConnectionCallback_,否则收到连接就会关闭;

(2)当 accept 出现错误 EMFILE 时(本进程的文件描述符达到上限,无法为新连接创建 socket 文件描述符,因为新连接还在等待处理,epoll_wait 会立即返回,造成忙等待)

构造时创建了一个额外的空闲文件描述符 idleFd_

关闭 idleFd_ ,再调用 accept ,再关闭 idleFd_,最后重新打开一个额外的空闲文件描述符(在多线程中不保证正确,猜想是如果不加临界保护,关闭 idleFd_,其他线程可能正好调用 accept ,此时并未出错,但当前线程又陷入困境)

2.5.6 TcpServer

创建 EventLoopThreadPool
设置 acceptor_ 的回调函数 newConnection
维护各个连接的哈希表,key 为IP、Port、连接号组成的 string,val 为 conn 指针;

(1)newConnection

从线程池轮次获得 EventLoop (如果未设置线程池数量会返回 baseloop );
新建 TcpConnection,设置其一系列回调函数;(创建 TcpConnection 时会新建 Channel)
在对应事件循环 ioLoop 中调用 TcpConnection 的 connectEstablished 方法,注册读事件;

(2)start

调用线程池的 start
loop_ 中调用 acceptor_listen() 函数

(3)setThreadNum

设置线程池中线程的数量,如果不设置将只有一个线程,即一个事件循环;

(4)此处逻辑暗示了:主线程负责 listenfd ,每个子线程轮次负责 connfd

具体读写处理由 loop 中就绪事件的回调函数完成(业务逻辑由 Connect 等类中的回调函数完成,可以看作是在读写回调函数中又调用了业务逻辑函数)

注册修改事件大多都会放到 pendingFunctors_

(5)可以在一个 loop 上运行多个服务端,即监听多个 listenfd;

2.6 客户端

在这里插入图片描述

2.6.1 Connector

(1)start / startInLoop

在 loop 中调用 connect() 函数

(2) connect()

创建 sockfd,调用 connect 函数
如果立即建立或正在建立过程中,调用 connecting(注册写事件)

handleWrite 中如果出错或是服务端、客户端都位于同一主机,调用 retry
否则,成功建立连接,调用 newConnectionCallback_,即 TcpClient 中的 newConnection

(3)retry

关闭 sockfd
调用 runAfter 设置定时器事件(到期后的回调函数是 startInLoop

2.6.2 TcpClient

新建 Connector
设置 Connector 的 connectionCallback_

(1)newConnection

新建 TcpConnection,设置其一系列回调函数;
调用 connectEstablished 注册读事件(注意回调、事件都是由 TcpConnection 管理)

(2)connect()

调用 Connector 的start

(3)disconnect()

调用连接的 connection_->shutdown();(有锁保护)

3. 使用教程

(1)IO 复用其实是复用线程,而非 IO 连接;

(2)每千兆比特每秒的吞吐量配一个 event loop;

3.1 本质

1.连接的建立
2.连接的断开
3.消息到达
3.5 消息发送完毕(将数据写入操作系统缓冲区)

在 TcpConnection 中的四个回调函数分别对应这几个事件;

3.2 muduo 线程模型

在这里插入图片描述
上图为 muduo 库的默认线程模型,适合小规模的计算;

如果有大量计算任务,可以再加一个线程池,如下所示:
在这里插入图片描述

3.3 非阻塞 IO 为什么必须使用应用缓存?

(1)接收时,数据可能没有一次性收全,已经收到的数据累积到 Buffer 中;

(2)发送数据时,只发送了一部分就填满了操作系统发送缓冲区,阻塞时间取决于对方接收数据的速率,剩余数据应该复制到应用缓冲区中;

3.4 IO 复用为何最好不要搭配阻塞 IO?

以下假设在 Berkeley 的实现中;

假设 listenfd 为阻塞 IO,以 accpet 为例,select 返回 listenfd 可读后,可能并不会马上调用 accpet这也是维护一个已完成连接队列的原因),当客户在这期间中止该连接时(收到客户的 RST)这个已完成的连接被服务器 TCP 驱除出队列,如果此时队列中没有其他已完成的连接时,之后调用 accpet 时会一直阻塞,直到其他某个客户建立一个连接为止;

3.5 chat 高性能程序设计

(1)利用了 ThreadLocalSingleton

即每个事件循环都有自身线程的一个连接队列;这样在每个事件循环的内部分发时,由于是单线程就不需要加锁;

只需在 Server 端遍历各个 loop 时加锁即可;此步的速度比较快,因为只需于在事件循环中注册函数即可,不用进行等待;

(2)在设计并发的 Hub 程序时,也可以参考上述思路

每个事件循环都维护自己的 std::map<string, Topic>

(3)multiplexer

在没有连接到后台服务器时,接收到的连接都放弃掉

3.6

(1)Channel 中回调函数如何被调用?
在这里插入图片描述

(2)在实现 TimerQueue 中,不能直接使用 Timestamp 为 Key,可能有多个 Timer 到期时间相同,解决办法是:使用 multiset 或者 设法区分 Key;

muduo 中使用 std::pair<Timestamp, Timer*> 作为 Key

(3)既然使用 wakeupfd 是为了唤醒事件循环去执行用户回调,那么 doPendingFunctors 为什么不直接放到 EventLoop::handleRead 中?

  1. 假设已经执行过 EventLoop::handleRead ,此时处理其他就绪事件回调函数,此时如果调用 queueInLoop ,由于当前处于 IO 线程且callingPendingFunctors_ = false,是无法调用 wakeup 的,即用户回调不能被及时处理;(要么必须得保证调用中不涉及 queueInLoop,需要约束用户,要么设法调用 wakeup
  2. 若把 doPendingFunctors 直接放到 EventLoop::handleRead ,那么想执行用户回调,必须先执行 wakeup 函数;需要执行三个系统调用,write-poll-read,如果把 doPendingFunctors 放到外面,那么这些就绪事件回调函数都可以直接使用这个 doPendingFunctors,节省系统调用;
    例如,removeConnectionInLoop 中就直接调用了 queueInLoop

3.6 为何在 removeConnectionInLoop 中调用了 queueInLoop 方法?

(1)这主要是为了延长 TcpConnection 声明周期,使用 queueInLoop 方法后,其生命期会延长到 doPendingFunctors 函数执行完毕;

若不使用 queueInLoop 而使用 runInLoop 时,在 removeConnectionInLoop 执行完毕后,引用计数就会降为 0,将会析构 TcpConnection ,从而析构 Channel,这会导致无法返回到 Channel::handleEvent 中;(如果直接使用 runInLoop ,在程序中的表现是,析构 Channel 会出错)

需要注意的是,调用方式为 closeCallback_(shared_from_this()); ,即使是引用传递但由于是右值,在函数执行完后就会析构;

(2)上述这种做法对 s06 的实现是必须的,但在 muduo 实现中,Channel 使用了弱引用,在调用前会升级成 shared_ptr,这就保证了在从 handleEvent 返回前,Channel 不会被析构,把这部分代码添加到 s06 中 TcpConnection 可以正常析构,那么在 muduo 实现中是否还有必要使用 queueInLoop 呢?

if (tied_)
{
  guard = tie_.lock();
  if (guard)
  {
    handleEventWithGuard(receiveTime);
  }
}
// 在建立连接时,用细线绑定
void TcpConnection::connectEstablished()
{
	...
	channel_->tie(shared_from_this());
	...
}

在采用线程池的事件循环中,muduo 中处理被动关闭时的流程可能如下所示:
在这里插入图片描述
这里的 queueInLoop() 替换为 runInLoop 效果是相同的;对单线程事件循环而言,如果进行替换,会在 EventLoop 中执行完 connectDestroyed 后才返回到 TcpServer 处,逻辑上感觉没什么问题;
可能有问题的地方在于,在就绪事件回调函数中,删除了这个就绪事件,是否会造成迭代器失效等问题,muduo 中采用了复制的方式将就绪事件都保存到了 currentActiveChannel_;在源代码中修改运行部分测试程序后,暂未发现什么问题;

参考

《Linux 多线程服务端编程》

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/336110.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

ACM:每日学习 状压dp

状压dp&#xff1a; 状压dp是对一般dp的改进&#xff1a; //对于判断多种物品的取法&#xff0c;开多维数组比较麻烦&#xff0c;也不好开&#xff0c;使用二进制来表示物品的取与否。 //使用二进制的话&#xff0c;位运算就更能省时间了&#xff0c;而且更会节省空空间&…

02-编程猜谜游戏

本章通过演示如何在实际程序中使用 Rust&#xff0c;你将了解 let 、 match 、方法、关联函数、外部crate等基础知识。 本章将实现一个经典的初学者编程问题&#xff1a;猜谜游戏。 工作原理如下&#xff1a;程序将随机生成一个介于 1 和 100 之间的整数。然后&#xff0c;程序…

【算法实验】实验六

实验6-1 硬币找钱问题—贪心 问题描述&#xff1a; 设有6 种不同面值的硬币&#xff0c;各硬币的面值分别为5 分&#xff0c;1 角&#xff0c;2 角&#xff0c;5 角&#xff0c;1 元&#xff0c;2 元。现要用这些面值的硬币来购物和找钱。购物时可以使用的各种面值的硬币个数存…

CHS_01.2.2.1+调度的概念、层次

CHS_01.2.2.1调度的概念、层次 调度的概念、层次知识总览调度的基本概念调度的三个层次——高级调度![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/6957fdec179841f69a0508914145da36.png)调度的三个层次——低级调度调度的三个层次——中级调度补充知识&#xff…

Wheeltec小车的开发实录(1)

sudo mount -t nfs 192.168.58.101:/home/wheeltec/wheeltec_robot /mnt 报错 mount: /mnt: bad option; for several filesystems (e.g. nfs, cifs) you might need a /sbin/mount.<type> helper program. 解决办法 主机和从机都要安装 nfs-utils 安装nfs-utils su…

Android Termux技能大揭秘:安装MySQL并实现公网远程连接

&#x1f308;个人主页&#xff1a;聆风吟 &#x1f525;系列专栏&#xff1a;网络奇遇记、Cpolar杂谈 &#x1f516;少年有梦不应止于心动&#xff0c;更要付诸行动。 文章目录 &#x1f4cb;前言一. 安装MariaDB二. 安装cpolar内网穿透工具三. 创建安全隧道映射mysql四. 公网…

25计算机考研408专业课复习计划

点击蓝字&#xff0c;关注我们 今天要分享的是25计算机考研408专业课复习计划。 以下内容供大家参考&#xff0c;大家要根据自己的复习情况进行适当调整。 统考与自命题 统考科目是指计算机学科专业基础综合&#xff08;408&#xff09;&#xff0c;满分150分&#xff0c;试…

tomcat原理模拟和tomcat优化

1、tomcat实现原理 servlet 没有主方法main&#xff0c;依赖tomcat才能运行&#xff0c;因为tomcat 有主方法main&#xff0c;由java编写 servlet中doGet和doPost方法属于非静态方法&#xff0c;只能依托new对象存在&#xff0c;tomcat无法new出来对象&#xff0c;因此tomcat…

NLP论文阅读记录 - 2021 | WOS 使用预训练的序列到序列模型进行土耳其语抽象文本摘要

文章目录 前言0、论文摘要一、Introduction1.1目标问题1.2相关的尝试1.3本文贡献 二.相关工作2.1 预训练的序列到序列模型2.2 抽象文本摘要 三.本文方法3.1 总结为两阶段学习3.1.1 基础系统 3.2 重构文本摘要 四 实验效果4.1数据集4.2 对比模型4.3实施细节4.4评估指标4.5 实验结…

一文读懂JavaScript DOM节点操作(JavaScript DOM节点操作详解)

一、什么是节点 二、节点类型 1、元素节点 2、属性节点 3、文本节点 4、节点类型、名字、值表格 三、通过文档对象方法获取节点 1、通过id属性获取节点 2、通过标签名字获取节点 3、通过类名获取节点 4、通过name属性获取节点 四、通过层级关系获取节点 1、子节点 …

【Flink-CDC】Flink CDC 介绍和原理概述

【Flink-CDC】Flink CDC 介绍和原理概述 1&#xff09;基于查询的 CDC 和基于日志的 CDC2&#xff09;Flink CDC3&#xff09;Flink CDC原理简述4&#xff09;基于 Flink SQL CDC 的数据同步方案实践4.1.案例 1 : Flink SQL CDC JDBC Connector4.2.案例 2 : CDC Streaming ETL…

从 Context 看 Go 设计模式:接口、封装和并发控制

文章目录 Context 的基本结构Context 的实现和传递机制为什么 Context 不直接传递指针案例&#xff1a;DataStore结论 在 Go 语言中&#xff0c; context 包是并发编程的核心&#xff0c;用于传递取消信号和请求范围的值。但其传值机制&#xff0c;特别是为什么不通过指针传递…

【大数据分析与挖掘技术】概述

目录 一、数据挖掘简介 &#xff08;一&#xff09;数据挖掘对象 &#xff08;二&#xff09;数据挖掘流程 &#xff08;三&#xff09;数据挖掘的分析方法 &#xff08;四&#xff09;经典算法 二、Mahout &#xff08;一&#xff09;Mahout简介 &#xff08;二&#…

CVE-2023-46226 Apache iotdb远程代码执行漏洞

项目介绍 Apache IoTDB 是针对时间序列数据收集、存储与分析一体化的数据管理引擎。它具有体量轻、性能高、易使用的特点&#xff0c;完美对接 Hadoop 与 Spark 生态&#xff0c;适用于工业物联网应用中海量时间序列数据高速写入和复杂分析查询的需求。 项目地址 https://io…

【INTEL(ALTERA)】F-tile 参考时钟和系统 PLL 时钟英特尔® FPGA IP无法锁定在特定频率?

说明 由于在英特尔 Quartus Prime Pro Edition 软件 22.2 及更早版本中存在一个问题&#xff0c;您可能会观察到 F-tile 参考时钟和系统 PLL 时钟英特尔 FPGA IP无法锁定&#xff1a; 999.9 MHz&#xff0c;参考时钟频率设置为 323.2 MHz。506.88 MHz&#xff0c;参考时钟频率…

Windows系统使用手册

点击前往查看&#x1f517;我的博客文章目录 Windows系统使用手册 文章目录 Windows系统使用手册Windows10解决大小核调度问题Windows系统安装软件Windows系统Typora快捷键Windows系统压缩包方式安装redisWindows安装dockerWindows系统的docker设置阿里源Windows系统下使用doc…

Ubuntu系统pycharm以及annaconda的安装配置笔记以及问题集锦(更新中)

Ubuntu 22.04系统pycharm以及annaconda的安装配置笔记以及问题集锦 pycharm安装 安装完之后桌面上并没有生成图标 后面每次启动pycharm都要到它的安装路径下的bin文件夹下&#xff0c; cd Downloads/pycharm-2018.1.4/bin然后使用sh命令启动脚本程序来打开pycharm sh pycha…

01 MyBatisPlus快速入门

1. MyBatis-Plus快速入门 版本 3.5.31并非另起炉灶 , 而是MyBatis的增强 , 使用之前依然要导入MyBatis的依赖 , 且之前MyBatis的所有功能依然可以使用.局限性是仅限于单表操作, 对于多表仍需要手写 项目结构&#xff1a; 先导入依赖&#xff0c;比之前多了一个mybatis-plus…

动态规划汇总

作者推荐 视频算法专题 简介 动态规划&#xff08;Dynamic Programming&#xff0c;DP&#xff09;是运筹学的一个分支&#xff0c;是求解决策过程最优化的过程。每次决策依赖于当前状态&#xff0c;又随即引起状态的转移。一个决策序列就是在变化的状态中产生出来的&#x…

《WebKit 技术内幕》之五(2): HTML解释器和DOM 模型

2.HTML 解释器 2.1 解释过程 HTML 解释器的工作就是将网络或者本地磁盘获取的 HTML 网页和资源从字节流解释成 DOM 树结构。 这一过程中&#xff0c;WebKit 内部对网页内容在各个阶段的结构表示。 WebKit 中这一过程如下&#xff1a;首先是字节流&#xff0c;经过解码之…