40分钟学 Go 语言高并发:【实战课程】工作池(Worker Pool)实现

工作池(Worker Pool)实战实现

一、知识要点概述

模块核心功能实现难点重要程度
池化设计管理协程生命周期并发安全、资源控制⭐⭐⭐⭐⭐
动态扩缩容根据负载调整池大小平滑扩缩、性能优化⭐⭐⭐⭐
任务分发合理分配任务到worker负载均衡、任务优先级⭐⭐⭐⭐⭐
状态监控监控池的运行状态指标收集、可观测性⭐⭐⭐⭐

让我们先创建一个完整的工作池实现:

package main

import (
    "context"
    "fmt"
    "log"
    "sync"
    "sync/atomic"
    "time"
)

// Task 表示一个任务
type Task struct {
    ID       int
    Priority int           // 任务优先级
    Handler  func() error  // 任务处理函数
    Done     chan error   // 任务完成通知通道
}

// WorkerPool 表示一个工作池
type WorkerPool struct {
    maxWorkers     int32           // 最大worker数量
    minWorkers     int32           // 最小worker数量
    currentWorkers int32           // 当前worker数量
    taskQueue      chan *Task      // 任务队列
    stopCh         chan struct{}   // 停止信号
    workerWg       sync.WaitGroup  // worker等待组
    metrics        *Metrics        // 指标收集
    ctx            context.Context // 上下文
    cancel         context.CancelFunc // 取消函数
}

// Metrics 用于收集指标
type Metrics struct {
    totalTasks      int64         // 总任务数
    completedTasks  int64         // 完成任务数
    failedTasks     int64         // 失败任务数
    processingTasks int32         // 正在处理的任务数
    queueLength     int32         // 队列长度
}

// NewWorkerPool 创建新的工作池
func NewWorkerPool(minWorkers, maxWorkers int, queueSize int) *WorkerPool {
    ctx, cancel := context.WithCancel(context.Background())
    wp := &WorkerPool{
        maxWorkers:     int32(maxWorkers),
        minWorkers:     int32(minWorkers),
        currentWorkers: 0,
        taskQueue:      make(chan *Task, queueSize),
        stopCh:         make(chan struct{}),
        metrics: &Metrics{
            totalTasks:      0,
            completedTasks:  0,
            failedTasks:     0,
            processingTasks: 0,
            queueLength:     0,
        },
        ctx:    ctx,
        cancel: cancel,
    }

    // 启动最小数量的worker
    for i := 0; i < minWorkers; i++ {
        wp.addWorker()
    }

    // 启动自动扩缩容
    go wp.autoScale()
    
    // 启动指标收集
    go wp.collectMetrics()

    return wp
}

// addWorker 添加一个worker
func (wp *WorkerPool) addWorker() {
    atomic.AddInt32(&wp.currentWorkers, 1)
    wp.workerWg.Add(1)

    go func() {
        defer wp.workerWg.Done()
        defer atomic.AddInt32(&wp.currentWorkers, -1)

        for {
            select {
            case task := <-wp.taskQueue:
                if task == nil {
                    return
                }
                
                // 更新指标
                atomic.AddInt32(&wp.metrics.processingTasks, 1)
                
                // 执行任务
                err := task.Handler()
                
                // 更新指标
                atomic.AddInt32(&wp.metrics.processingTasks, -1)
                if err != nil {
                    atomic.AddInt64(&wp.metrics.failedTasks, 1)
                } else {
                    atomic.AddInt64(&wp.metrics.completedTasks, 1)
                }
                
                // 通知任务完成
                if task.Done != nil {
                    task.Done <- err
                    close(task.Done)
                }

            case <-wp.ctx.Done():
                return
            }
        }
    }()
}

// Submit 提交任务
func (wp *WorkerPool) Submit(task *Task) error {
    select {
    case <-wp.ctx.Done():
        return fmt.Errorf("worker pool is stopped")
    case wp.taskQueue <- task:
        atomic.AddInt64(&wp.metrics.totalTasks, 1)
        atomic.AddInt32(&wp.metrics.queueLength, 1)
        return nil
    }
}

// Stop 停止工作池
func (wp *WorkerPool) Stop() {
    wp.cancel()
    close(wp.taskQueue)
    wp.workerWg.Wait()
}

// autoScale 自动扩缩容
func (wp *WorkerPool) autoScale() {
    ticker := time.NewTicker(time.Second)
    defer ticker.Stop()

    for {
        select {
        case <-ticker.C:
            queueLen := atomic.LoadInt32(&wp.metrics.queueLength)
            currentWorkers := atomic.LoadInt32(&wp.currentWorkers)
            processingTasks := atomic.LoadInt32(&wp.metrics.processingTasks)

            // 根据队列长度和处理中的任务数决定是否需要扩容或缩容
            if queueLen > 0 && currentWorkers < wp.maxWorkers && 
               float64(processingTasks)/float64(currentWorkers) > 0.8 {
                // 扩容
                wp.addWorker()
            } else if queueLen == 0 && currentWorkers > wp.minWorkers && 
                     float64(processingTasks)/float64(currentWorkers) < 0.2 {
                // 缩容
                atomic.AddInt32(&wp.currentWorkers, -1)
            }

        case <-wp.ctx.Done():
            return
        }
    }
}

// collectMetrics 收集指标
func (wp *WorkerPool) collectMetrics() {
    ticker := time.NewTicker(5 * time.Second)
    defer ticker.Stop()

    for {
        select {
        case <-ticker.C:
            log.Printf("Worker Pool Metrics:\n"+
                "Total Tasks: %d\n"+
                "Completed Tasks: %d\n"+
                "Failed Tasks: %d\n"+
                "Processing Tasks: %d\n"+
                "Queue Length: %d\n"+
                "Current Workers: %d\n",
                atomic.LoadInt64(&wp.metrics.totalTasks),
                atomic.LoadInt64(&wp.metrics.completedTasks),
                atomic.LoadInt64(&wp.metrics.failedTasks),
                atomic.LoadInt32(&wp.metrics.processingTasks),
                atomic.LoadInt32(&wp.metrics.queueLength),
                atomic.LoadInt32(&wp.currentWorkers))

        case <-wp.ctx.Done():
            return
        }
    }
}

func main() {
    // 创建工作池
    pool := NewWorkerPool(2, 10, 100)

    // 模拟提交任务
    for i := 0; i < 20; i++ {
        taskID := i
        task := &Task{
            ID: taskID,
            Handler: func() error {
                // 模拟任务处理
                time.Sleep(time.Second)
                log.Printf("Task %d completed\n", taskID)
                return nil
            },
            Done: make(chan error, 1),
        }

        if err := pool.Submit(task); err != nil {
            log.Printf("Failed to submit task %d: %v\n", taskID, err)
            continue
        }

        // 异步等待任务完成
        go func() {
            if err := <-task.Done; err != nil {
                log.Printf("Task %d failed: %v\n", taskID, err)
            }
        }()
    }

    // 运行一段时间后停止
    time.Sleep(10 * time.Second)
    pool.Stop()
}

让我们看一下工作池的工作流程图:
在这里插入图片描述

二、核心功能详解

1. 池化设计

工作池的核心设计包括以下几个方面:

  1. Worker生命周期管理

    • 创建:通过addWorker方法动态创建
    • 销毁:通过context取消信号控制
    • 状态维护:使用atomic保证并发安全
  2. 任务队列管理

    • 使用带缓冲channel作为任务队列
    • 支持任务优先级
    • 处理队列满/空的情况
  3. 并发安全

    • 使用atomic操作保证计数器安全
    • 使用WaitGroup管理worker数量
    • 使用context控制生命周期

2. 动态扩缩容

扩缩容策略包括:

  1. 扩容条件
if queueLen > 0 && currentWorkers < wp.maxWorkers && 
   float64(processingTasks)/float64(currentWorkers) > 0.8 {
    wp.addWorker()
}
  1. 缩容条件
if queueLen == 0 && currentWorkers > wp.minWorkers && 
   float64(processingTasks)/float64(currentWorkers) < 0.2 {
    atomic.AddInt32(&wp.currentWorkers, -1)
}
  1. 平滑处理
  • 通过定时器控制扩缩容频率
  • 保持最小worker数量
  • 限制最大worker数量

3. 任务分发

任务分发机制包括:

  1. 任务提交
func (wp *WorkerPool) Submit(task *Task) error {
    select {
    case <-wp.ctx.Done():
        return fmt.Errorf("worker pool is stopped")
    case wp.taskQueue <- task:
        atomic.AddInt64(&wp.metrics.totalTasks, 1)
        return nil
    }
}
  1. 任务处理
  • worker从队列获取任务
  • 执行任务处理函数
  • 通知任务完成状态
  1. 负载均衡
  • 任务自动分配给空闲worker
  • 支持任务优先级
  • 避免单个worker过载

4. 状态监控

监控功能包括:

  1. 指标收集
  • 总任务数
  • 完成任务数
  • 失败任务数
  • 处理中任务数
  • 队列长度
  • 当前worker数量
  1. 指标报告
log.Printf("Worker Pool Metrics:\n"+
    "Total Tasks: %d\n"+
    "Completed Tasks: %d\n"+
    "Failed Tasks: %d\n"+
    "Processing Tasks: %d\n"+
    "Queue Length: %d\n"+
    "Current Workers: %d\n",
    ...
  1. 性能监控
  • worker使用率
  • 任务处理延迟
  • 队列等待时间

三、使用建议

  1. 配置选择
  • minWorkers:根据基础负载设置
  • maxWorkers:考虑系统资源上限
  • queueSize:权衡内存使用和任务积压
  1. 错误处理
  • 实现任务重试机制
  • 记录错误日志
  • 设置任务超时
  1. 性能优化
  • 适当的队列大小
  • 合理的扩缩容阈值
  • 避免任务处理时间过长
  1. 监控告警
  • 设置关键指标告警
  • 监控worker数量变化
  • 关注任务处理延迟

四、实战示例

Worker Pool 使用示例的代码:

package main

import (
    "fmt"
    "log"
    "math/rand"
    "time"
)

// 模拟HTTP请求处理任务
type HTTPRequest struct {
    path     string
    duration time.Duration
}

// 模拟HTTP请求处理器
func simulateHTTPHandler(req HTTPRequest) error {
    time.Sleep(req.duration)
    if rand.Float32() < 0.1 { // 10%的失败率
        return fmt.Errorf("failed to process request: %s", req.path)
    }
    return nil
}

func main() {
    // 创建工作池
    pool := NewWorkerPool(5, 20, 1000)

    // 创建一些模拟的HTTP请求
    paths := []string{
        "/api/users",
        "/api/products",
        "/api/orders",
        "/api/payments",
        "/api/inventory",
    }

    // 启动请求生成器
    go func() {
        for i := 0; i < 100; i++ {
            // 随机选择一个路径
            path := paths[rand.Intn(len(paths))]
            
            // 创建请求任务
            req := HTTPRequest{
                path:     path,
                duration: time.Duration(100+rand.Intn(900)) * time.Millisecond,
            }

            // 创建任务
            task := &Task{
                ID:       i,
                Priority: rand.Intn(3), // 0-2的优先级
                Handler: func() error {
                    return simulateHTTPHandler(req)
                },
                Done: make(chan error, 1),
            }

            // 提交任务
            if err := pool.Submit(task); err != nil {
                log.Printf("Failed to submit request %s: %v\n", path, err)
                continue
            }

            // 处理任务结果
            go func(taskID int, taskPath string) {
                if err := <-task.Done; err != nil {
                    log.Printf("Request failed [%d] %s: %v\n", taskID, taskPath, err)
                } else {
                    log.Printf("Request completed [%d] %s\n", taskID, taskPath)
                }
            }(task.ID, req.path)

            // 模拟请求间隔
            time.Sleep(time.Duration(50+rand.Intn(150)) * time.Millisecond)
        }
    }()

    // 运行30秒后停止
    time.Sleep(30 * time.Second)
    pool.Stop()
}

// 扩展WorkerPool增加请求的优先级处理
type PriorityWorkerPool struct {
    *WorkerPool
    highPriorityQueue    chan *Task
    mediumPriorityQueue  chan *Task
    lowPriorityQueue     chan *Task
}

func NewPriorityWorkerPool(minWorkers, maxWorkers, queueSize int) *PriorityWorkerPool {
    return &PriorityWorkerPool{
        WorkerPool:          NewWorkerPool(minWorkers, maxWorkers, queueSize),
        highPriorityQueue:   make(chan *Task, queueSize),
        mediumPriorityQueue: make(chan *Task, queueSize),
        lowPriorityQueue:    make(chan *Task, queueSize),
    }
}

func (pwp *PriorityWorkerPool) Submit(task *Task) error {
    // 根据优先级分发到不同队列
    switch task.Priority {
    case 2: // 高优先级
        select {
        case pwp.highPriorityQueue <- task:
            return nil
        default:
            return fmt.Errorf("high priority queue is full")
        }
    case 1: // 中优先级
        select {
        case pwp.mediumPriorityQueue <- task:
            return nil
        default:
            return fmt.Errorf("medium priority queue is full")
        }
    default: // 低优先级
        select {
        case pwp.lowPriorityQueue <- task:
            return nil
        default:
            return fmt.Errorf("low priority queue is full")
        }
    }
}

// 监控任务处理延迟
type TaskLatencyMonitor struct {
    totalLatency    time.Duration
    processedTasks  int64
    mu             sync.Mutex
}

func (m *TaskLatencyMonitor) recordLatency(start time.Time) {
    m.mu.Lock()
    defer m.mu.Unlock()
    
    m.totalLatency += time.Since(start)
    m.processedTasks++
}

func (m *TaskLatencyMonitor) getAverageLatency() time.Duration {
    m.mu.Lock()
    defer m.mu.Unlock()
    
    if m.processedTasks == 0 {
        return 0
    }
    return m.totalLatency / time.Duration(m.processedTasks)
}

五、进阶功能实现

1. 任务优先级队列

为了处理不同优先级的任务,我们可以实现一个优先级队列:

package main

import (
    "container/heap"
    "sync"
)

// PriorityQueue 实现优先级队列
type PriorityQueue struct {
    sync.RWMutex
    items []*Task
}

func (pq *PriorityQueue) Len() int {
    pq.RLock()
    defer pq.RUnlock()
    return len(pq.items)
}

func (pq *PriorityQueue) Less(i, j int) bool {
    pq.RLock()
    defer pq.RUnlock()
    return pq.items[i].Priority > pq.items[j].Priority
}

func (pq *PriorityQueue) Swap(i, j int) {
    pq.Lock()
    defer pq.Unlock()
    pq.items[i], pq.items[j] = pq.items[j], pq.items[i]
}

func (pq *PriorityQueue) Push(x interface{}) {
    pq.Lock()
    defer pq.Unlock()
    pq.items = append(pq.items, x.(*Task))
}

func (pq *PriorityQueue) Pop() interface{} {
    pq.Lock()
    defer pq.Unlock()
    old := pq.items
    n := len(old)
    item := old[n-1]
    pq.items = old[0 : n-1]
    return item
}

// 添加任务到优先级队列
func (pq *PriorityQueue) Add(task *Task) {
    heap.Push(pq, task)
}

// 获取最高优先级的任务
func (pq *PriorityQueue) Get() *Task {
    if pq.Len() == 0 {
        return nil
    }
    return heap.Pop(pq).(*Task)
}

2. 性能监控与报告

增加一个性能监控模块:

package main

import (
    "fmt"
    "sync/atomic"
    "time"
)

type PerformanceMonitor struct {
    startTime        time.Time
    totalTasks       int64
    completedTasks   int64
    failedTasks      int64
    totalLatency     int64  // 纳秒
    maxLatency       int64  // 纳秒
    minLatency       int64  // 纳秒
}

func NewPerformanceMonitor() *PerformanceMonitor {
    return &PerformanceMonitor{
        startTime:  time.Now(),
        minLatency: int64(^uint64(0) >> 1), // 最大int64值
    }
}

func (pm *PerformanceMonitor) RecordTaskCompletion(latency time.Duration) {
    atomic.AddInt64(&pm.completedTasks, 1)
    latencyNs := int64(latency)
    atomic.AddInt64(&pm.totalLatency, latencyNs)
    
    // 更新最大延迟
    for {
        old := atomic.LoadInt64(&pm.maxLatency)
        if latencyNs <= old || atomic.CompareAndSwapInt64(&pm.maxLatency, old, latencyNs) {
            break
        }
    }
    
    // 更新最小延迟
    for {
        old := atomic.LoadInt64(&pm.minLatency)
        if latencyNs >= old || atomic.CompareAndSwapInt64(&pm.minLatency, old, latencyNs) {
            break
        }
    }
}

func (pm *PerformanceMonitor) RecordTaskFailure() {
    atomic.AddInt64(&pm.failedTasks, 1)
}

func (pm *PerformanceMonitor) GetReport() string {
    completed := atomic.LoadInt64(&pm.completedTasks)
    failed := atomic.LoadInt64(&pm.failedTasks)
    total := completed + failed
    
    if total == 0 {
        return "No tasks processed yet"
    }
    
    avgLatency := time.Duration(atomic.LoadInt64(&pm.totalLatency) / completed)
    maxLatency := time.Duration(atomic.LoadInt64(&pm.maxLatency))
    minLatency := time.Duration(atomic.LoadInt64(&pm.minLatency))
    
    return fmt.Sprintf(
        "Performance Report:\n"+
            "Total Runtime: %v\n"+
            "Total Tasks: %d\n"+
            "Completed Tasks: %d\n"+
            "Failed Tasks: %d\n"+
            "Success Rate: %.2f%%\n"+
            "Average Latency: %v\n"+
            "Max Latency: %v\n"+
            "Min Latency: %v\n"+
            "Throughput: %.2f tasks/second",
        time.Since(pm.startTime),
        total,
        completed,
        failed,
        float64(completed)/float64(total)*100,
        avgLatency,
        maxLatency,
        minLatency,
        float64(total)/time.Since(pm.startTime).Seconds(),
    )
}

3. 重要优化建议

  1. 任务批处理

    • 合并小任务减少开销
    • 实现批量提交接口
    • 优化内存分配
  2. 负载均衡

    • 实现工作窃取算法
    • 动态调整任务分配
    • 避免饥饿问题
  3. 资源管理

    • 实现优雅关闭
    • 处理panic情况
    • 释放资源
  4. 监控告警

    • 设置健康检查
    • 实现自动恢复
    • 记录详细日志

六、总结

工作池的实现需要考虑以下关键点:

  1. 基础架构

    • 合理的接口设计
    • 良好的扩展性
    • 完善的错误处理
  2. 性能优化

    • 减少锁竞争
    • 优化内存使用
    • 提高并发效率
  3. 可靠性

    • 处理边界情况
    • 实现容错机制
    • 保证数据一致性
  4. 可维护性

    • 清晰的代码结构
    • 完善的文档
    • 便于测试和调试

怎么样今天的内容还满意吗?再次感谢观众老爷的观看,关注GZH:凡人的AI工具箱,回复666,送您价值199的AI大礼包。最后,祝您早日实现财务自由,还请给个赞,谢谢!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/925486.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Could not locate device support files.

报错信息&#xff1a;Failure Reason: The device may be running a version of iOS (13.6.1 17G80) that is not supported by this version of Xcode.[missing string: 869a8e318f07f3e2f42e11d435502286094f76de] 问题&#xff1a;xcode15升级到xcode16之后&#xff0c;13.…

Ubantu系统docker运行成功拉取失败【成功解决】

解决docker运行成功拉取失败 失败报错 skysky-Legion-Y7000-IRX9:~$ docker run hello-world docker: permission denied while trying to connect to the Docker daemon socket at unix:///var/run/docker.sock: Head “http://%2Fvar%2Frun%2Fdocker.sock/_ping”: dial uni…

git rebase-优雅合并与修改提交

文章目录 简介rebase用于合并使用rebase修改提交cherry-pick 简介 在Git核心概念图例与最常用内容操作(reset、diff、restore、stash、reflog、cherry-pick)中我们已经介绍了git的最常用实用的命令。 在上面说的那篇文章中&#xff0c;我们只是简单提了一下rebase。 是因为r…

TongRDS分布式内存数据缓存中间件

命令 优势 支持高达10亿级的数据缓冲&#xff0c;内存优化管理&#xff0c;避免GC性能劣化。 高并发系统设计&#xff0c;可充分利用多CPU资源实现并行处理。 数据采用key-value多索引方式存储&#xff0c;字段类型和长度可配置。 支持多台服务并行运行&#xff0c;服务之间可互…

【大数据学习 | Spark调优篇】Spark之内存调优

1. 内存的花费 1&#xff09;每个Java对象&#xff0c;都有一个对象头&#xff0c;会占用16个字节&#xff0c;主要是包括了一些对象的元信息&#xff0c;比如指向它的类的指针。如果一个对象本身很小&#xff0c;比如就包括了一个int类型的field&#xff0c;那么它的对象头实…

pageoffice最新版本浏览器点击没反应解决办法

一、问题现象 最新版本的谷歌、火狐浏览器&#xff0c;调用pageoffice时&#xff0c;点击后没反应&#xff08;旧的谷歌浏览器不受影响&#xff09;。 二、产生原因 服务器返回pageOffice的客户端唤起链接格式为&#xff1a; PageOffice://|http://192.168.1.120:8080/xxx …

知行合一:实践中的技术分享与学习

随着科技的不断发展&#xff0c;技术的更新迭代也在不断加速。在这个信息化、数字化的时代&#xff0c;技术人员之间的交流与合作显得尤为重要。为了帮助广大技术爱好者、从业者和专家们相互学习、分享经验、解决技术难题&#xff0c;涵盖了数据库、容器化技术、运维、研发、网…

使用经典的Java,还是拥抱新兴的Rust?

在当代互联网时代的企业级开发中&#xff0c;技术栈的选择往往牵动着每个团队的神经。随着Rust语言的崛起&#xff0c;许多开发团队开始重新思考&#xff1a;是继续坚持使用经典的Java&#xff0c;还是拥抱新兴的Rust&#xff1f;这个问题背后&#xff0c;折射出的是对技术演进…

【Qt】图片绘制不清晰的问题

背景 实现一个图片浏览器&#xff0c;可以支持放大/缩小查看图片。主要组件如下&#xff1a; // canvaswidget.h #ifndef CANVASWIDGET_H #define CANVASWIDGET_H#include <QWidget>class CanvasWidget : public QWidget {Q_OBJECT public:explicit CanvasWidget(QImag…

vscode 怎么下载 vsix 文件?

参考&#xff1a;https://marketplace.visualstudio.com/items?itemNameMarsCode.marscode-extension 更好的办法&#xff1a;直接去相关插件的 github repo 下载老版本 https://github.com/VSCodeVim/Vim/releases?page5 或者&#xff0c;去 open-vsx.org 下载老版本 点击这…

学习笔记043——HashMap源码学习1

文章目录 1、HashMap2、Hashtable3、TreeMap4、HashMap 底层结构4.1、什么是红黑树&#xff1f; 1、HashMap HashMap key 是不能重复的&#xff0c;value 可以重复 底层结构 key-value 进行存储&#xff0c;key-value 存入到 Set 中&#xff0c;再将 Set 装载到 HashMap pack…

火语言RPA流程组件介绍--键盘按键

&#x1f6a9;【组件功能】&#xff1a;模拟键盘按键 配置预览 配置说明 按键 点击后,在弹出的软键盘上选择需要的按键 执行后等待时间(ms) 默认值300,执行该组件后等待300毫秒后执行下一个组件. 输入输出 输入类型 万能对象类型(System.Object)输出类型 万能对象类型…

电子应用设计方案-30:智能扫地机器人系统方案设计

智能扫地机器人系统方案设计 一、引言 随着人们生活节奏的加快和对生活品质的追求&#xff0c;智能家居产品越来越受到消费者的青睐。智能扫地机器人作为一种能够自动清扫地面的智能设备&#xff0c;为人们节省了大量的时间和精力。本方案旨在设计一款功能强大、智能化程度高、…

从简单的自动化脚本到复杂的智能助手:Agent技术的实践与应用

现代软件开发中&#xff0c;Agent技术正在悄然改变着我们构建应用程序的方式。一个Agent就像是一个能独立完成特定任务的智能助手&#xff0c;它可以感知环境、作出决策并采取行动。让我们通过实际案例&#xff0c;深入了解如何运用Agent技术来构建智能系统。 想象你正在开发一…

Ubuntu Server 22.04.5 从零到一:详尽安装部署指南

文章目录 Ubuntu Server 22.04.5 从零到一&#xff1a;详尽安装部署指南一、部署环境二、安装系统2.1 安装2.1.1 选择安装方式2.1.2 选择语言2.1.3 选择不更新2.1.4 选择键盘标准2.1.5 选择安装版本2.1.6 设置网卡2.1.7 配置代理2.1.8 设置镜像源2.1.9 选择装系统的硬盘2.1.10 …

定时/延时任务-ScheduledThreadPoolExecutor的使用

文章目录 1. 概要2. 固定速率和固定延时2.1 固定速率2.2 固定延时 3. API 解释3.1 schedule3.2 固定延时 - scheduleWithFixedDelay3.2 固定速率 - scheduleWithFixedDelay 4. 小结 1. 概要 前三篇文章的地址&#xff1a; 定时/延时任务-自己实现一个简单的定时器定时/延时任…

Linux操作系统学习---初识环境变量

目录 ​编辑 环境变量的概念&#xff1a; 小插曲&#xff1a;main函数的第一、二个参数 获取环境变量信息&#xff1a; 1.main函数的第三个参数 2.查看单个环境变量 3.c语言库函数getenv() 和环境变量相关的操作指令&#xff1a; 1.export---导出环境变量&#xff1a; 2.unse…

husky,commit规范,生成CHANGELOG.md,npm发版

项目git提交工程化&#xff08;钩子&#xff0c;提交信息commit message&#xff09;&#xff0c;npm修改版本&#xff0c;需要涉及到的包&#xff1a; husky&#xff0c;允许在git钩子中执行不同的脚步&#xff0c;如commitlint&#xff0c;eslint&#xff0c;prettier&#…

基于Python的飞机大战复现

✨✨ 欢迎大家来访Srlua的博文&#xff08;づ&#xffe3;3&#xffe3;&#xff09;づ╭❤&#xff5e;✨✨ &#x1f31f;&#x1f31f; 欢迎各位亲爱的读者&#xff0c;感谢你们抽出宝贵的时间来阅读我的文章。 我是Srlua小谢&#xff0c;在这里我会分享我的知识和经验。&am…

【趣味】斗破苍穹修炼文字游戏HTML,CSS,JS

目录 图片展示 游戏功能 扩展功能 完整代码 实现一个简单的斗破苍穹修炼文字游戏&#xff0c;你可以使用HTML、CSS和JavaScript结合来构建游戏的界面和逻辑。以下是一个简化版的游戏框架示例&#xff0c;其中包含玩家修炼的过程、增加修炼进度和显示经验值的基本功能。 图片…