【Linux】TCP应用与相关API守护进程

需要云服务器等云产品来学习Linux的同学可以移步/–>腾讯云<–/官网,轻量型云服务器低至112元/年,优惠多多。(联系我有折扣哦)

文章目录

  • 1. 相关使用接口
  • 2. 代码实现
    • 2.1 日志组件
    • 2.2 Server端
    • 2.3 Client端
    • 2.3 bug解决
  • 3. 守护进程
    • 3.1 守护进程是什么
    • 3.2 守护进程相关的使用
    • 3.3 守护进程化的实现原理

1. 相关使用接口

tcp协议和udp协议的接口基本相似。使用逻辑也是:1. 创建对应的socket文件套接字对象; 2. bind自己的网络信息;3. 进行相关通信

只是由于tcp协议的相关特性,所以tcp通信方式有一些不同点。

1. 对于服务端

在创建对应socket文件套接字对象并bind完成后需要设置sockfd为监听状态,使用listen系统调用。

头文件:
	#include <sys/types.h>
	#include <sys/socket.h>
函数原型:
	int listen(int sockfd, int backlog);
参数解释:
	sockfd:要设置的文件套接字对象
	backlog:最多允许这么多个客户端处于连接等待状态, 如果接收到更多的连接请求就忽略, 这里设置不会太大(一般是5), 
函数描述:
	将sockfd文件套接对象设置为监听状态
返回值:
	调用成功返回0,失败返回-1同时设置错误码

在设置sockfd为监听状态之后,在底层进行”三次握手“之后,服务端需要调用accept接受客户端的连接。

头文件:
	#include <sys/types.h>
	#include <sys/socket.h>
函数原型:
	int accept(int sockfd, struct sockaddr *addr, socklen_t *addrlen);
参数解释:
	sockfd:要设置的文件套接字对象(这里传的是监听的sockfd)
	addr:接受的连接对应的相关网络属性
	addrlen:addr对应的对象的大小
函数描述:
	服务端调用accept接受客户端的连接。如果服务器调用accept()时还没有客户端的连接请求,就阻塞等待直到有客户端连接上来
返回值:
	调用成功返回一个新的文件套接字,用于进行本次的客户端和服务端通信,调用失败返回-1同时设置错误码

2. 对于客户端

同样在初始化的时候需要创建socket文件套接字,同样的不需要程序员显示bind。也不需要listen和accept。接下来需要做的事情就是发送连接请求,使用connect系统调用

头文件:
	#include <sys/types.h>
	#include <sys/socket.h>
函数原型:
	int connect(int sockfd, const struct sockaddr *addr, socklen_t addrlen);
参数解释:
	sockfd:发送链接请求的文件套接字对象
	addr:连接对应的相关网络属性
	addrlen:addr对应的对象的大小
函数描述:
	客户端使用sockfd向指定服务器的指定端口发起TCP链接请求
返回值:
	调用成功返回0,调用失败返回-1同时设置错误码

2. 代码实现

2.1 日志组件

一般来说,服务器在运行的时候,不会在当前shell输出相关的运行结果,而是在日志中输出,所以,这里我们现在封装一个日志的小组件

1. 组件需求

  1. 使用logMessage函数可以将相关日志信息写入预设的文件中(在当前目录创建对应文件)
  2. 每条日志信息都会有相关的日志等级,不同等级在不同文件中
  3. 日志内容支持format和可变参数

2. 代码实现

#include <unistd.h>
#include <iostream>
#include <cstdio>
#include <ctime>
#include <cstdarg>

// 这里是日志等级对应的宏
#define DEBUG (1 << 0)
#define NORMAL (1 << 1)
#define WARNING (1 << 2)
#define ERROR (1 << 3)
#define FATAL (1 << 4)

#define NUM 1024 // 日志行缓冲区大小
#define LOG_NORMAL "log.txt" // 日志存放的文件名
#define LOG_ERR    "err.txt"

const char *logLevel(int level) // 把日志等级转变为对应的字符串
{
    switch (level)
    {
    case DEBUG:
        return "DEBUG";
    case NORMAL:
        return "NORMAL";
    case WARNING:
        return "WARNING";
    case ERROR:
        return "ERROR";
    case FATAL:
        return "FATAL";
    default:
        return "UNKNOW";
    }
}
//[日志等级][时间][pid]日志内容
void logMessage(int level, const char *format, ...) // 核心调用
{
    char logprefix[NUM]; // 存放日志相关信息
    time_t now_ = time(nullptr);
    struct tm *now = localtime(&now_);
    snprintf(logprefix, sizeof(logprefix), "[%s][%d年%d月%d日%d时%d分%d秒][pid:%d]",
             logLevel(level), now->tm_year + 1900, now->tm_mon + 1, now->tm_mday, now->tm_hour, now->tm_min, now->tm_sec, getpid());

    char logcontent[NUM];
    va_list arg; // 声明一个变量arg指向可变参数列表的对象
    va_start(arg, format); // 使用va_start宏来初始化arg,将它指向可变参数列表的起始位置。
    // format是可变参数列表中的最后一个固定参数,用于确定可变参数列表从何处开始
    vsnprintf(logcontent, sizeof(logcontent), format, arg); // 将可变参数列表中的数据格式化为字符串,并将结果存储到logcontent中

    FILE *log =  fopen(LOG_NORMAL, "a");
    FILE *err = fopen(LOG_ERR, "a");
    if(log != nullptr && err != nullptr)
    {
        FILE *curr = nullptr;
        if(level == DEBUG || level == NORMAL || level == WARNING) curr = log;
        if(level == ERROR || level == FATAL) curr = err;
        if(curr) fprintf(curr, "%s%s\n", logprefix, logcontent);

        fclose(log);
        fclose(err);
    }
}

2.2 Server端

/* tcpServer.hpp */
#pragma once

#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>

#include <string>

#include "log.hpp"

namespace Server
{
    enum
    {
        USAGE_ERR = 1,
        SOCKET_ERR,
        BIND_ERR,
        LISTEN_ERR
    };

    static const uint16_t gport = 8080;
    static const int gbacklog = 5;

    void serviceIO(int sock) // 服务端调用
    {
        char buffer[1024];
        while (true)
        {
            ssize_t n = read(sock, buffer, sizeof(buffer) - 1);
            if (n > 0)
            {
                // 目前我们把读到的数据当成字符串, 截止目前
                buffer[n] = 0;
                std::cout << "recv message: " << buffer << std::endl;

                std::string outbuffer = buffer;
                outbuffer += " server[echo]";

                write(sock, outbuffer.c_str(), outbuffer.size()); // 这里再把结果写进sock中,意为返回给客户端
            }
            else if (n == 0)
            {
                // 代表client退出
                logMessage(NORMAL, "client quit, me too!");
                break;
            }
        }
        close(sock);
    }

    class tcpServer
    {
    public:
        tcpServer(uint16_t &port) : _port(port)
        {
        }
        void initServer()
        {
            // 1. 创建socket文件套接字对象
            _listensock = socket(AF_INET, SOCK_STREAM, 0);
            if (_listensock == -1)
            {
                logMessage(FATAL, "create socket error");
                exit(SOCKET_ERR);
            }
            logMessage(NORMAL, "create socket success:%d", _listensock);
            // 2.bind自己的网络信息
            sockaddr_in local;
            local.sin_family = AF_INET;
            local.sin_port = htons(_port);
            local.sin_addr.s_addr = INADDR_ANY;
            int n = bind(_listensock, (struct sockaddr *)&local, sizeof local);
            if (n == -1)
            {
                logMessage(FATAL, "bind socket error");
                exit(BIND_ERR);
            }
            logMessage(NORMAL, "bind socket success");
            // 3. 设置socket为监听状态
            if (listen(_listensock, gbacklog) != 0) // listen 函数
            {
                logMessage(FATAL, "listen socket error");
                exit(LISTEN_ERR);
            }
            logMessage(NORMAL, "listen socket success");
        }
        void start()
        {
            while (true)
            {
                struct sockaddr_in peer;
                socklen_t len = sizeof peer;
                int sock = accept(_listensock, (struct sockaddr *)&peer, &len);
                if (sock < 0)
                {
                    logMessage(ERROR, "accept error, next");
                    continue;
                }

                serviceIO(sock); // 使用

                close(sock); // 使用之后要关闭,否则会造成文件描述符泄露
            }
        }
        ~tcpServer() {}

    private:
        uint16_t _port;
        int _listensock;
    };

} // namespace Server

/* tcpServer.cc */
#include <iostream>
#include <memory>

#include "tcpServer.hpp"

using namespace Server;

static void Usage(const char *proc)
{
    std::cout << "\n\tUsage:" << proc << " local_port\n";
}

int main(int argc, char *argv[])
{
    if(argc != 2)
    {
        Usage(argv[0]);
        exit(USAGE_ERR);
    }
    uint16_t port = atoi(argv[1]);
    std::unique_ptr<tcpServer> tsvr(new tcpServer(port));
    tsvr->initServer();
    tsvr->start();
    return 0;
}

2.3 Client端

/* tcpClient.hpp */
#pragma once
#include <sys/types.h>
#include <sys/socket.h>
#include <arpa/inet.h>
#include <netinet/in.h>

#include <string>

#include "log.hpp"

namespace Client
{
    class tcpClient
    {
    public:
        tcpClient(uint16_t &port, std::string &IP) : _serverPort(port), _serverIP(IP), _sockfd(-1) {}

        void initClient()
        {
            // 1. 创建socket
            _sockfd = socket(AF_INET, SOCK_STREAM, 0);
            if(_sockfd == -1)
            {
                std::cerr << "create socket error" << std::endl;
                exit(2);
            }

        }

        void run()
        {
            struct sockaddr_in server;
            server.sin_family = AF_INET;
            server.sin_port = htons(_serverPort);
            server.sin_addr.s_addr = inet_addr(_serverIP.c_str());

            if(connect(_sockfd, (struct sockaddr*)&server, sizeof server) != 0)
            {
                // 链接失败
                std::cerr << "socket connect error" << std::endl;
            }
            else
            {
                std::string msg;
                while(true)
                {
                    std::cout << "Please Enter# ";
                    std::getline(std::cin, msg);
                    write(_sockfd, msg.c_str(), msg.size());

                    char buffer[NUM];
                    int n = read(_sockfd, buffer, sizeof(buffer) - 1); // 按照字符串的形式读取
                    if(n > 0)
                    {
                        // 目前先把读到的数据当作字符串处理
                        buffer[n] = 0;
                        std::cout << "Server 回显# " << buffer << std::endl;
                    }
                    else
                    {
                        break;
                    }
                }
            }
        }

        ~tcpClient()
        {
            if(_sockfd >= 0) close(_sockfd); // 使用完关闭,防止文件描述符泄露(当然这里也可以不写,当进程结束之后一切资源都将被回收)
        }

    private:
        uint16_t _serverPort;
        std::string _serverIP;
        int _sockfd;
    };

} // namespace Client
/* tcpClient.cc */
#include <memory>
#include <string>

#include "tcpClient.hpp"
using namespace Client;

static void Usage(const char *proc)
{
    std::cout << "\n\tUsage:" << proc << " server_ip server_port\n";
}

int main(int argc, char* argv[])
{
    if(argc != 3)
    {
        Usage(argv[0]);
        exit(1);
    }
    std::string IP = argv[1];
    uint16_t port = atoi(argv[2]);
    std::unique_ptr<tcpClient> tclt(new tcpClient(port, IP));
    tclt->initClient();
    tclt->run();

    return 0;
}

image-20240226002443205

2.3 bug解决

这里会出现一个问题:在此时如果再有另一个客户端进行通信,就会出现其他客户端被阻塞的问题

image-20240226002542298

这是因为我们在服务端的serviceIO中的执行没有结束,而且由于实现的是死循环,所以也不可能结束,这就造成了服务端一直在阻塞的情况。那么如何解决呢?

1. 实现多进程版本

多进程的实现思想就是:每次收到新请求的时候,都创建一个子进程,让子进程来执行对应任务,父进程继续监听,但是由于创建的子进程需要被父进程等待回收,否则就会出现僵尸进程。那么这里的解决方案就是:让子进程再创建一个子进程,最终让孙子进程来执行本次请求对应的任务,父进程直接exit,爷爷进程等待父进程结束后继续监听。此时孙子进程就变成了孤儿进程,由OS直接接收管理。

这里需要更改的就只有tcpServer.hpp文件中的start函数,这里附上更改后的代码

void start()
{
    while (true)
    {
        struct sockaddr_in peer;
        socklen_t len = sizeof peer;
        int sock = accept(_listensock, (struct sockaddr *)&peer, &len);
        if (sock < 0)
        {
            logMessage(ERROR, "accept error, next");
            continue;
        }
        pid_t id = fork();
        if (id == 0)
        {
            close(_listensock); // 子进程不会使用监听socket,但是创建子进程的时候写时拷贝会拷贝,这里先关掉
            // 子进程再创建子进程
            if (fork() > 0)
                exit(0); // 父进程退出
            // 走到当前位置的就是子进程
            serviceIO(sock); // 使用
            close(sock); // 关闭对应的通信socket(这里也可以不关闭,因为此进程在下个语句就会退出)
            exit(0); // 孙子进程退出
        }
        // 走到这里的是监听进程(爷爷进程)
        pid_t n = waitpid(id, nullptr, 0);
        if(n > 0)
        {
            logMessage(NORMAL, "wait success pid:%d", n);
        }
        close(sock); // 使用之后要关闭,否则会造成文件描述符泄露
    }
}

image-20240226082008918

现在再测试,服务器就能够同时处理多个客户端的请求。

2. 实现多线程版本

但是,我们知道OS在创建线程的时候,需要的成本是非常高的,但是线程就非常轻量级,所以使用线程来处理服务器请求是更加合理的,所以这里实现一下多线程的版本

void start()
{
    while (true)
    {
        struct sockaddr_in peer;
        socklen_t len = sizeof peer;
        int sock = accept(_listensock, (struct sockaddr *)&peer, &len);
        if (sock < 0)
        {
            logMessage(ERROR, "accept error, next");
            continue;
        }
        // version 3:多线程版本
        pthread_t tid;
        pthread_create(&tid, nullptr, routine, new ThreadData(this, sock)); // 创建新线程,让新线程调用routine然后去执行serviceIO
    }
}        
static void *routine(void *arg)
{
    // 由于不能让主线程等待新线程执行完毕,所以这里进行线程分离
    pthread_detach(pthread_self());
    ThreadData* args = static_cast<ThreadData*>(arg);
    serviceIO(args->_sock);
    close(args->_sock); // 使用完之后回收sock
    delete args; // 回收空间
    return nullptr;
}

image-20240226083955051

3. 实现线程池版本

当然,上述的两种实现方式是具有一些优化空间的,因为每次在创建子进程/新线程的时候都会有消耗,这样会降低效率,而且当突然出现很多长时间的请求的时候,服务器就会同时接收到很多请求,会一直创建子进程/新线程,可能会导致服务器崩溃,所以可以使用我们之前写过的一个小组件线程池来改写

void start()
{
    ThreadPool<Task>::getInstance()->run(); // 初始化线程池,让他跑起来
    logMessage(NORMAL, "init thread pool success");

    while (true)
    {
        struct sockaddr_in peer;
        socklen_t len = sizeof peer;
        int sock = accept(_listensock, (struct sockaddr *)&peer, &len);
        if (sock < 0)
        {
            logMessage(ERROR, "accept error, next");
            continue;
        }
        // version 4:线程池版本
        ThreadPool<Task>::getInstance()->push(Task(sock, serviceIO));
    }
}
/* 小组件 */
// Task.hpp
#pragma once

#include <string>
#include <iostream>
#include <functional>


class Task
{
public:
    using func_t = std::function<void(int)>;

public:
    Task() {}
    Task(int sock, func_t func)
        : _sock(sock), _callback(func)
    {
    }
    void operator()()
    {
        _callback(_sock);
    }

private:
    int _sock;
    func_t _callback;
};
// Thread.hpp
#pragma once

#include <iostream>
#include <string>
#include <functional>
#include <pthread.h>
#include <cassert>

class Thread
{
public:
    using func_t = std::function<void *(void *)>; // 定义func_t类型
    static int number;                            // 线程编号,按照一次运行时的调用次数计数
public:
    Thread()
    {
        char *buffer = new char[64];
        name_ = "thread-" + std::to_string(++number);
    }
    static void *start_routine(void *args)
    {
        Thread *_this = static_cast<Thread *>(args);
        void *ret = _this->run(_this->args_);
        return ret;
    }
    void *run(void *arg)
    {
        return func_(arg);
    }
    void start(func_t func, void *args)
    {
        func_ = func;
        args_ = args;
        int n = pthread_create(&tid_, nullptr, start_routine, this);
        assert(n == 0);
        (void)n;
    }
    void join()
    {
        int n = pthread_join(tid_, nullptr);
        assert(n == 0);
        (void)n;
    }
    std::string GetTaskName()
    {
        return name_;
    }
    ~Thread() {}

private:
    std::string name_; // 线程名
    pthread_t tid_;    // 线程id
    func_t func_;      // 线程调用的函数
    void *args_;       // 线程调用函数的参数
};
int Thread::number = 0;
// ThreadPool.hpp
#pragma once
#include "LockGuard.hpp"
#include "Thread.hpp"
#include <vector>
#include <queue>
#include <string>
#include <iostream>
#include <mutex>

const int gnum = 5; // 线程池中默认的线程个数

template <class T>
class ThreadPool; // 线程池类的声明

/* 线程数据类,保存线程对应的内容包括线程池对象的指针和线程名 */
template <class T>
class ThreadData
{
public:
    ThreadData(ThreadPool<T> *tp, const std::string &n) : threadpool(tp), name(n){};

public:
    ThreadPool<T> *threadpool;
    std::string name;
};

/* 线程池类的实现 */
template <class T>
class ThreadPool
{
public:
    static void *handleTask(void *args) // 线程需要执行的回调函数
    {
        ThreadData<T> *td = static_cast<ThreadData<T> *>(args);
        while (true)
        {
            T t; // 构建任务对象
            {
                LockGuard lockGuard(td->threadpool->mutex()); // 上锁
                while (td->threadpool->isQueueEmpty())
                {
                    // 如果任务队列为空,线程挂起,等待队列中被填充任务
                    td->threadpool->threadWait();
                }
                t = td->threadpool->pop(); // 如果队列中有任务,就拿出任务
            }
            // 任务在锁外执行
            t();
        }
        delete td;
        return nullptr;
    }

public: // 给handleTask调用的外部接口
    pthread_mutex_t *mutex() { return &_mutex; }
    bool isQueueEmpty() { return _task_queue.empty(); }
    void threadWait() { pthread_cond_wait(&_cond, &_mutex); }
    T pop() // 获取线程池中任务队列里需要执行的下一个任务
    {
        T t = _task_queue.front();
        _task_queue.pop();
        return t;
    }

public:                               // 需要暴露给外部的接口

    void run() // 为所有线程对象创建真正的执行流,并执行对应的回调函数
    {
        for (const auto &thread : _threads)
        {
            ThreadData<T> *td = new ThreadData<T>(this, thread->GetTaskName()); // 构造handleTask的参数对象
            thread->start(handleTask, td);                                      // 调用该线程的start函数,创建新线程执行指定的handleTask任务
            // std::cout << thread->GetTaskName() << " start..." << std::endl;
        }
    }
    void push(const T &in) // 将指定任务push到队列中
    {
        // 加锁
        LockGuard lockGuard(&_mutex); // 自动加锁,在当前代码段结束之后调用LockGuard的析构函数解锁
        _task_queue.push(in);
        pthread_cond_signal(&_cond); // 发送信号表示此时task_queue中有值,让消费者可以使用
    }
    ~ThreadPool() // 析构函数,销毁互斥量和条件变量,delete所有thread对象指针,自动调用thread对象的析构函数
    {
        pthread_mutex_destroy(&_mutex);
        pthread_cond_destroy(&_cond);
        for (auto &thread : _threads)
        {
            delete thread;
        }
    }

    static ThreadPool<T> *getInstance()
    {
        if(nullptr == tp)
        {
            std::lock_guard<std::mutex> lck(_singletonlock);
            if(nullptr == tp)
            {
                tp = new ThreadPool<T> ();
            }
        }
        return tp;
    }
private: // 单例模式需要私有化的接口
    ThreadPool(const int &num = gnum) // 构造函数,初始化互斥量和条件变量,构建指定个数的Thread对象
    {
        pthread_mutex_init(&_mutex, nullptr);
        pthread_cond_init(&_cond, nullptr);
        for (int i = 0; i < num; ++i)
        {
            _threads.push_back(new Thread());
        }
    }
    //delete拷贝构造和析构函数
    ThreadPool(const ThreadPool<T> &) = delete;
    ThreadPool<T> *operator=(const ThreadPool<T> &) = delete;

private:
    std::vector<Thread *> _threads; // 保存所有线程对象的指针
    std::queue<T> _task_queue;      // 需要被分配的任务队列
    pthread_mutex_t _mutex;         // 任务队列需要被互斥的访问
    pthread_cond_t _cond;           // 生产任务和消费任务之间需要进行同步

    static ThreadPool<T> *tp; // 静态成员,存放ThreadPool指针
    static std::mutex _singletonlock; // 创建线程安全的单例对象要加的锁
};
template<class T>
ThreadPool<T> *ThreadPool<T>::tp = nullptr;
template<class T>
std::mutex ThreadPool<T>::_singletonlock;

image-20240226085928431

3. 守护进程

3.1 守护进程是什么

在我们之前实现的代码中,所有的Server端在运行的时候都会占用前台的Shell,当这个Shell退出之后,对应的进程也就会退出

image-20240226091312689

但是我们知道:在实际的应用环境中,是不会出现这种情况的,这是因为在实际部署服务的时候,会将对应的服务守护进程化,所谓的守护进程化就是让对应的进程不受当前会话的影响

守护进程的理解

我们是使用远程命令行工具来连接我们的云服务器的,这个工具在Windows下会使用Xshell,macOS下使用自带的终端或者iTerm,或者会使用VScode远程连接带有的shell…

在我们登录成功之后,OS在内部会创建一个会话,在此会话内部创建一个前台进程bash进行命令行解释,此时我们就可以想bash中输入命令,OS帮我们执行。

在一个会话(session)中,同一时间只能有一个前台进程但是可以有任意个后台进程的存在

当这个会话结束之后,会话内所有的进程都将会退出,这也就是为什么我们的服务不能长久的在服务器中运行

3.2 守护进程相关的使用

1. &jobs

&可以让一个命令在后台运行

jobs可以查看当前会话的所有作业(现在可以理解成进程)

image-20240226092835820

  • 作业前面的[]内部的数字就是作业号

为什么这个服务运行起来后还能够输入命令?

这是因为这个服务变成后台作业了,一个会话在同一时刻有且只有一个前台进程

  • 通过PGID可以确定同一个进程组
  • 通过SID可以确定同一个会话

image-20240226093227728

  • fg+作业号:把对应作业放在前台
  • CTRL+z:暂停作业(一个任务在前台如果暂停了会立马放在后台)
  • bg+作业号:启动作业

image-20240226093745860

2. daemon

OS提供了一个守护进程化的接口,但是我们不建议使用,因为这个接口会产生一些未定义行为,所以我们自己封装一个小组件用于守护进程化。

image-20240226094239043

3.3 守护进程化的实现原理

守护进程化的实现原理就是:让这个进程自己成为一个会话组,独立出来就可以不受当前会话的影响

头文件:
	#include <unistd.h>
函数原型:
	pid_t setsid();
函数解释:
	对于一个非会话组组长的进程,使其成为一个新的会话组,并且调用进程成为组长
返回值:
	如果调用成功,返回一个新的SID(SID就是当前会话组的组长的pid);调用失败返回-1同时设置错误码

守护进程化组件的实现

// daemon.hpp
#pragma once

#include <unistd.h>
#include <signal.h>
#include <cstdlib>
#include <cassert>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>

#define DEV "/dev/null" // 这个路径是一个“黑洞”,写入的所有数据都会被“吃掉”,不会被读取

void deamonSelf(const char *curPath = nullptr) // 可选参数,如果传入非空,就更改“当前路径”
{
    // 1. 让调用进程忽略掉所有异常信号
    signal(SIGPIPE, SIG_IGN);
    // 2. 让当前进程成为非组长进程
    if (fork() > 0)
        exit(0); // 创建子进程,然后将父进程退出确保调用setsid的进程是非组长进程

    // 3. 调用setsid创建新的会话组
    pid_t n = setsid();
    assert(n != -1);

    // 4. 守护进程是脱离终端的,需要关闭或者重定向以前进程默认打开的文件,这里我们采用重定向的方法更安全
    int fd = open(DEV, O_RDWR);
    if(fd > 0)
    {
        dup2(fd, 0);
        dup2(fd, 1);
        dup2(fd, 2);
        close(fd);
    }
    else
    {
        close(0);
        close(1);
        close(2);
    }
    // 5. 可选:是否更改当前路径
    if (curPath != nullptr)
        chdir(curPath);
}
#include <iostream>
#include <memory>

#include "tcpServer.hpp"
#include "daemon.hpp"

using namespace Server;

static void Usage(const char *proc)
{
    std::cout << "\n\tUsage:" << proc << " local_port\n";
}

int main(int argc, char *argv[])
{
    if(argc != 2)
    {
        Usage(argv[0]);
        exit(USAGE_ERR);
    }
    uint16_t port = atoi(argv[1]);
    std::unique_ptr<tcpServer> tsvr(new tcpServer(port));
    tsvr->initServer();
    deamonSelf(); // 当前进程守护进程化
    tsvr->start();
    return 0;
}

image-20240226100859218


本节完…

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/413555.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

深度神经网络中的计算和内存带宽

深度神经网络中的计算和内存带宽 文章目录 深度神经网络中的计算和内存带宽来源原理介绍分析1&#xff1a;线性层分析2&#xff1a;卷积层分析3&#xff1a;循环层总结 来源 相关知识来源于这里。 原理介绍 Memory bandwidth and data re-use in deep neural network computat…

Aigtek前置微小信号放大器在传感器检测中的应用有哪些

传感器是将物理量转换为电信号的装置&#xff0c;其精度和灵敏度直接影响到检测系统的性能。而传感器的输出信号通常都非常微弱&#xff0c;需要进行放大处理才能得到可靠的测量结果。前置微小信号放大器&#xff0c;作为一种重要的传感器检测元件&#xff0c;在传感器检测中发…

Linux环境搭建Jenkins(详细图文)

目录 简介Jenkins 特点 一、环境准备 1.jdk环境准备 2.maven环境准备 3.git环境准备 二、安装部署Jenkins&#xff08;采用war包方式&#xff09; 1.下载Jenkins ​2.启动war包 1&#xff09;将下载好的Jenkins的war包上传到服务器上 2&#xff09;编辑启动脚本,方便…

Coze开源软件Windows客户端-coze_desk

字节的coze相信大家都已经有所关注了&#xff0c;最近看到很多公众号在推。笔者也在使用&#xff0c;体验很不错。 这个是官网&#xff1a;https://www.coze.com/。 官网版 应用的样子 三栏式布局&#xff0c;用起来还是可以的。 不过这个是在浏览器端&#xff0c;有时候不小…

Jmeter接口性能测试工具

1、mac上安装 Apache JMeter - Download Apache JMeter 打开文件夹中/bin目录&#xff0c;sh jmeter 即可打开。 2、配置测试计划 3、添加测试Thread group 一个group用来控制Jmeter并发时产生线程的数量&#xff0c;在它的下一级菜单下只有一个组件&#xff08;线程组&…

基于springboot的4S店车辆管理系统源码和论文

随着信息技术和网络技术的飞速发展&#xff0c;人类已进入全新信息化时代&#xff0c;传统管理技术已无法高效&#xff0c;便捷地管理信息。为了迎合时代需求&#xff0c;优化管理效率&#xff0c;各种各样的管理系统应运而生&#xff0c;各行各业相继进入信息管理时代&#xf…

图片转PDF

选择图片右键——打开方式 ——照片、画图、截图工具 其他的选择性尝试 点击打印 在刚刚保存的路径哪里即可得到刚刚保存的PDF版的图片

树莓派使用git clone时报错failed: The TLS connection was non-properly terminated.

fatal: unable to access https://github.com/jacksonliam/mjpg-streamer.git/: gnutls_handshake() failed: The TLS connection was non-properly terminated. 原因&#xff1a;权限不足 解决办法&#xff1a;sudo git clone 加对应网址。 sudo git clone https://github.co…

ESP32之使用I2S实现录音功能 (INMP411,MAX4466介绍)- 基于Arduino

esp32是买的某宝模块 #设备采集音频代码 # 连接端口:SD->G21 WS->G22 SCK->G23 L/R-> 低电频from machine import I2S,SPI from machine import Pinimport os,utime import network import socketdef createWavHeader(sampleRate, bitsPerSample, num_channels,…

STM32通用定时器输入捕获

通用定时器输入捕获部分框图介绍 通用定时器输入捕获脉宽测量原理 要测量脉宽的高电平的时间&#xff1a;t2-t1&#xff08;脉宽下降沿时间点-脉宽上升沿时间点&#xff09; 假设&#xff1a;递增计数模式 ARR&#xff1a;自动重装载寄存器的值 CCRx1&#xff1a;t1时间点CCRx…

后台管理系统: 权限管理

权限管理 角色:一家企业而言&#xff1a;BOSS、运维、销售、程序员 权限:超级管理员&#xff08;BOSS&#xff09;&#xff0c;是有权利操作整个项目的所有的模块 test&#xff08;新媒体&#xff09;&#xff0c;只能首页、商品管理者一部分菜单数据 admin&#xff1a;…

微信小程序的医院体检预约管理系统springboot+uniapp+python

本系统设计的目的是建立一个简化信息管理工作、便于操作的体检导引平台。共有以下四个模块&#xff1a; uni-app框架&#xff1a;使用Vue.js开发跨平台应用的前端框架&#xff0c;编写一套代码&#xff0c;可编译到Android、小程序等平台。 语言&#xff1a;pythonjavanode.js…

OpenCV 16 - Qt使用opencv视觉库

1 下载好opencv视觉库 不知道怎么下载和编译opencv视觉库的可以直接使用这个 : opencvcv_3.4.2_qt 2 解压opencv包 3 打开opencv的安装目录 4.打开x86/bin 复制里面所有的dll文件&#xff0c;黏贴到C/windows/syswow64里面 5 新建Qt项目 6 修改pro文件:添加对应的头文件和库文件…

实验室储样瓶耐强酸强碱PFA材质试剂瓶适用新材料半导体

PFA&#xff0c;全名可溶性聚四氟乙烯&#xff0c;试剂瓶又叫取样瓶、样品瓶、广口瓶、储样瓶等。主要用于痕量分析、同位素分析等实验室&#xff0c;广泛应用于新兴的半导体、新材料、多晶硅、硅材、微电子等行业。 规格参考&#xff1a;30ml、60ml、100ml、125ml、250ml、30…

Ant for Blazor做单个表的增删查改

Ant for Blazor做单个表的增删查改 2024年02月27日花了一天时间弄出来了&#xff0c;基本弄好了&#xff0c;vs2022blazor servernet8,引用的AntDesign版本是0.17.4 代码里的model和repository是用自己牛腩代码生成器生成的东西&#xff0c;sqlsugar的&#xff0c;记得在prog…

【第二十五课】动态规划:01背包问题(acwing-2 / 思路 / c++代码 (二维数组))

目录 前言 acwing-2 01背包问题 思路 思路误区(可跳) 代码 嗯&#xff0c;&#xff0c;在网上搜了一下蓝桥杯动态规划好像出题比较多&#xff0c;也没有任何其他建议&#xff0c;现在进度可能比较慢&#xff0c;所以就想着先学动态规划再看数论吧&#xff0c;不知道对不…

【STM32备忘录】【STM32WB系列的BLE低功耗蓝牙】一、测试广播配置搜不到信号的注意事项

文章目录 一、预备知识&#xff1a;二、准备工具&#xff1a;三、FUS和无线协议栈更新流程四、广播例程测试五、DEBUG输出调试 一、预备知识&#xff1a; WB系列是双核单片机&#xff0c;用户写M4&#xff0c;无线协议栈使用M0新买到手的单片机&#xff0c;需要自己刷入使用的…

栈的概念及应用

目录 一. 概念 二. 栈的使用 三. 栈的模拟实现 四. 栈的应用 1. 改变元素的序列 2. 将递归转化为循环 3. 括号匹配 链接 4. 逆波兰表达式求值 链接 5. 出栈入栈次序匹配 链接 6. 最小栈 链接 一. 概念 栈 &#xff1a;一种特殊的线性表&#xff0c;其 只允许在固定的…

书生·浦语大模型图文对话Demo搭建

前言 本节我们先来搭建几个Demo来感受一下书生浦语大模型 InternLM-Chat-7B 智能对话 Demo 我们将使用 InternStudio 中的 A100(1/4) 机器和 InternLM-Chat-7B 模型部署一个智能对话 Demo 环境准备 在 InternStudio 平台中选择 A100(1/4) 的配置&#xff0c;如下图所示镜像…

使用Docker部署Nacos集群和Nginx高可用负载(9节点集群部署)

文章目录 &#x1f50a;博主介绍&#x1f964;本文内容部署Nacos集群Nginx高可用负载 &#x1f4e2;文章总结&#x1f4e5;博主目标 &#x1f50a;博主介绍 &#x1f31f;我是廖志伟&#xff0c;一名Java开发工程师、Java领域优质创作者、CSDN博客专家、51CTO专家博主、阿里云专…