【强化学习实践】Gym+倒立单摆+创建自己的环境

一、Gym

Gym是OpenAI开发的一个强化学习算法测试环境集合包。Gym提供了多种标准的环境,包括经典的游戏(如Atari游戏)、机器人模拟任务以及其他各种类型的问题,供开发者测试和训练强化学习智能体。在Gym环境中,开发者可以轻松定义和切换不同的环境,以便研究和比较不同强化学习算法在不同问题上的表现。

二、倒立单摆

滑动平均数组是一种通过计算数据序列中连续子序列(窗口)的平均值来生成的数组。它通常用于平滑时间序列数据或信号,以减少随机波动和噪声的影响,从而更容易观察和分析数据的长期趋势或周期性模式。

在滑动平均数组的计算过程中,随着窗口在数据序列上滑动,每个窗口内的数据点都会被赋予一个平均值。这个平均值是窗口内所有数据点值的总和除以窗口大小。例如,如果数据序列是
[2, 4, 6, 8, 10, 12, 14, 16],窗口大小为3,那么滑动平均数组的计算过程如下:

  1. 第一个窗口包含 [2, 4, 6],其平均值为 (2 + 4 + 6) / 3 = 4
  2. 第二个窗口包含 [4, 6, 8],其平均值为 (4 + 6 + 8) / 3 = 6
  3. 第三个窗口包含 [6, 8, 10],其平均值为 (6 + 8 + 10) / 3 = 8
  4. 以此类推,直到覆盖整个数据序列。

最终得到的滑动平均数组将是 [4, 6, 8, 10, 12, 14, 16]。这个新数组展示了原始数据序列的平滑版本,其中每个元素都是相应窗口内数据点的平均值。

滑动平均数组的长度通常比原始数据序列短,因为它排除了边界上无法完全填充窗口的部分。此外,滑动平均数组可以帮助识别数据中的模式,例如趋势、周期性和异常值,因此在数据分析和信号处理中非常有用。

Q:滑动平均数组为什么展示了原始数据的平滑趋势呢?
主要是因为它通过计算数据点的局部平均值来减少随机波动和短期噪声的影响。以下是滑动平均数组实现数据平滑的几个关键原因:

  1. 局部平均:滑动平均通过对数据序列中连续的子序列(即窗口)求平均值,使得每个数据点的值受到其邻近点的影响。这种局部平均减少了单个异常值或极端波动对整体趋势的影响。

  2. 噪声减少:在时间序列数据中,常常包含一些随机的、无关紧要的波动,这些波动可能会掩盖数据的真实趋势。滑动平均通过平滑这些波动,使得重要的趋势和模式更加明显。

  3. 趋势增强:滑动平均强化了数据中的长期趋势。由于短期波动被平滑掉,因此长期趋势或周期性模式更容易被观察到。

  4. 边缘效应处理:在计算滑动平均时,通常会对数据序列的边缘进行特殊处理,比如通过补零或其他方法来确保窗口在数据的开始和结束位置也能被正确计算。这样可以避免由于边缘数据点不足而导致的计算偏差。

  5. 数据可视化:滑动平均数组通常用于数据可视化,它可以帮助我们更清晰地看到数据随时间的变化趋势,尤其是在面对复杂或嘈杂的数据时。

总的来说,滑动平均数组通过对原始数据进行局部平均处理,减少了数据的波动,使得数据的主要趋势和模式更加突出,从而帮助我们更好地理解和分析数据。

# 导入所需的库和模块
import random #生成伪随机数 伪随机数是通过确定性的算法计算得到的,这些算法基于一个或多个初始值(种子)。
import gym
import numpy as np #支持大量的维度数组和矩阵运算
from tqdm import tqdm #用于在命令行中显示进度条,非常适合在循环中使用,以提供用户友好的进度反馈。
import torch #一个开源的机器学习库,基于Torch,用于计算机视觉和自然语言处理等应用。
import torch.nn.functional as F  #这是PyTorch中的一个模块,包含了一系列用于构建神经网络的函数,如激活函数、池化函数等。
import torch.nn as nn #这是PyTorch中的一个模块,提供了构建神经网络所需的类和方法,如层、损失函数和优化器。
from torch.optim import Adam #从PyTorch库中的optim模块导入Adam优化器类
# Adam是一种自适应学习率的优化算法,它结合了动量(Momentum)和RMSprop两种优化算法的优点。
# Adam优化器会根据参数的梯度和历史信息,动态调整每个参数的学习率,这使得它在许多深度学习任务中非常有效,尤其是在处理大规模数据集和复杂模型时。
import argparse #这是Python的标准库之一,用于编写用户友好的命令行接口,解析命令行参数和选项。
from collections import deque # 这是Python的标准库之一,提供了一个双端队列数据结构,可以从两端快速添加和删除元素,非常适合实现队列和栈。
import matplotlib.pyplot as plt #这是matplotlib库的一部分,提供了一个类似于MATLAB的绘图系统,用于创建和展示图表。
from matplotlib.animation import FuncAnimation #用于创建动画

# 定义经验回放池类
class ReplayBuffer:
    # 初始化方法,设置缓冲区的最大容量
    def __init__(self, capacity):
        self.buffer = deque(maxlen=capacity)

    # 添加经验到回放池的方法
    def add(self, state, action, reward, next_state, done):
    # 这个方法的作用是将一条新的经验和数据添加到经验回放池中。
    # state(当前状态)、action(采取的动作)、reward(获得的奖励)、next_state(下一个状态)和done(是否结束的标志),
        self.buffer.append((state, action, reward, next_state, done))

    # 从回放池中采样指定数量的经验的方法
    # batch_size表示希望从回放池抽取的经验数量
    def sample(self, batch_size):
        # 随机抽取不重复的batch_size个经验,放到trans这个元组内
        transitions = random.sample(self.buffer, batch_size)
        state, action, reward, next_state, done = zip(*transitions)
        # 这行代码使用zip函数和解包操作*将transitions列表中的每个经验元组拆分成单独的序列。
        # zip函数将相同位置的元素从不同的序列或可迭代对象中聚集在一起,形成一个元组的迭代器。
        return np.array(state), action, reward, np.array(next_state), done
        # 返回一个包含五个元素的元组,其中包含了转换后的数据。
        # np.array(state)和np.array(next_state)将状态和下一个状态的列表转换为NumPy数组,NumPy数组在进行科学计算和深度学习操作时更加高效。
        # 而action和done是直接从经验元组中提取的列表。
        # 这些数据将被用于后续的神经网络训练,其中状态和下一个状态作为输入,动作作为输出,奖励用于评估动作的好坏,done标志用于确定是否需要更新Q值。

    # 返回回放池中经验数量的方法
    def __len__(self):
        return len(self.buffer)

# 定义滑动平均函数
# 滑动平均是一种常用的数据平滑技术,可以减少短期波动的影响,更清晰地展示数据的长期趋势。
def moving_average(a, window_size):
    cumulative_sum = np.cumsum(np.insert(a, 0, 0)) # 数组a的开头插入0,为了处理窗口开始的数据
    middle = (cumulative_sum[window_size:] - cumulative_sum[:-window_size]) / window_size
    # middle 是中间窗口的平均值
    r = np.arange(1, window_size - 1, 2)
    #奇数索引,步长是2 r这个数组将用于计算窗口开始和结束部分的累积和的权重。
    begin = np.cumsum(a[:window_size - 1])[::2] / r # 偶数索引
    # 分别求奇数和偶数索引的累积和是为了处理滑动窗口边缘的情况。
    end = (np.cumsum(a[:-window_size:-1])[::2] / r)[::-1]
    return np.concatenate((begin, middle, end))

# 定义参数配置函数
def define_args():
    #  define_args 函数使得用户可以通过命令行灵活地设置 DQN 算法的参数,而不需要修改代码本身。
    parser = argparse.ArgumentParser(description='DQN parametes settings')
    # 设置命令行参数
    parser.add_argument('--batch_size', type=int, default=64, help='batch size') # 样本批次大小
    parser.add_argument('--lr', type=float, default=2e-3, help='Learning rate for the net.') # 学习率,控制权重更新的步长
    parser.add_argument('--num_episodes', type=int, default=500, help='the num of train epochs') # 训练周期数
    parser.add_argument('--seed', type=int, default=0, help='Random seed.') # 随机种子用于确保实验的可重复性
    # 通过设置相同的随机种子,可以在不同的运行中获得相同的随机数序列。
    parser.add_argument('--gamma', type=float, default=0.98, help='the discount rate') # 折扣因子,权衡即时奖励和未来奖励
    # 较高的折扣因子意味着未来奖励被赋予更大的权重,而较低的折扣因子则更注重即时奖励。
    parser.add_argument('--epsilon', type=float, default=0.01, help='the epsilon rate') # greed策略的ε
    # 较小的ε值意味着智能体更倾向于利用,而较大的ε值则鼓励探索(随机。
    parser.add_argument('--target_update', type=int, default=10, help='the frequency of the target net') # 目标网络更新频率
    # 目标网络更新频率决定了多久更新一次用于计算目标Q值的网络。定期更新目标网络有助于稳定学习过程。
    parser.add_argument('--buffer_size', type=int, default=10000, help='the size of the buffer')
    parser.add_argument('--minimal_size', type=int, default=500, help='the minimal size of the learning') # 最小学习尺寸
    # 最小学习尺寸指定了经验回放池中必须存储的最小经验数量,只有达到这个数量后,智能体才能开始从经验中学习。
    parser.add_argument('--display_frequency', type=int, default=100, help='The frequency of displaying the cartpole image during training') # 显示频率
    # 显示频率决定了在训练过程中多久显示一次环境的图像。这有助于观察智能体的行为和学习进度。
    parser.add_argument('--env_name', type=str, default="CartPole-v0", help='the name of the environment') # 环境名称
    # 环境名称指定了智能体将要交互的环境。在这个例子中,使用的是OpenAI Gym提供的CartPole环境。
    # 解析命令行参数
    args = parser.parse_args()
    return args

# 定义Q网络的神经网络结构
class Qnet(nn.Module): # 实现深度Q网络(DQN)算法中的 Q 函数。
    # 初始化方法,设置网络层
    def __init__(self, state_dim, hidden_dim, action_dim):
    # state_dim:状态空间的维度,即每个状态向量的元素数量。
    # hidden_dim:隐藏层的大小,即隐藏层中的神经元数量。
    # action_dim:动作空间的维度,即可供智能体选择的动作数量。

        super(Qnet, self).__init__()
    # 这行代码调用了父类nn.Module的构造函数,这是初始化继承自nn.Module的类的必要步骤。
    # 这样做可以确保Qnet类正确地继承了所有必要的属性和方法。
        self.layer = nn.Sequential(
        # 使用nn.Sequential容器创建了一个顺序模型,它将按顺序包含两个全连接层(nn.Linear)和一个激活函数(nn.ReLU)。
            nn.Linear(state_dim, hidden_dim),
            # 第一个全连接层。nn.Linear(state_dim, hidden_dim) 创建了一个线性层,它将状态向量(s)映射到隐藏层。
            # state_dim 是输入特征的数量,hidden_dim 是输出特征的数量(即隐藏层的大小)。
            nn.ReLU(),
            # 激活函数:nn.ReLU()是一个非线性激活函数,用于增加网络的表达能力。
            # ReLU函数计算方式为max(0, x),它将所有负值置为0,而保持正值不变。
            # 这种非线性变换有助于网络学习复杂的模式。
            nn.Linear(hidden_dim, action_dim)
            # 第二个全连接层:
            # 第二个 nn.Linear 层将隐藏层的输出映射到动作空间。
            # 这个层的输入特征数量是 hidden_dim,输出特征数量是 action_dim。每个输出对应于一个可能的动作的Q值。
        )

    # 前向传播方法
    def forward(self, s):
        s = self.layer(s)
        return s
        # 经过网络处理后的输出数据。
        # 在 DQN 算法中,这个输出通常是一个 Q 值向量,表示在给定状态下采取每个可能动作的预期效用。

# 定义DQN算法的主要类
class DQN:
    # 初始化方法,设置算法的参数和网络
    def __init__(self, args):
        self.args = args #将传入的参数 args 保存为类的成员变量,以便在类的其他方法中使用。
        self.hidden_dim = 128 # 隐藏层大小
        self.batch_size = args.batch_size # 从 args 中获取批次大小,并保存为类的成员变量。
        self.lr = args.lr
        self.gamma = args.gamma
        self.epsilon = args.epsilon
        self.target_update = args.target_update
        self.display_frequency = args.display_frequency
        self.num_episodes = args.num_episodes
        self.minimal_size = args.minimal_size
        self.count = 0  # 计数器,记录训练步数

        self.env = gym.make(args.env_name)# 创建一个 OpenAI Gym 环境实例,并保存为类的成员变量。
        self.env.seed(args.seed) #为环境设置随机种子,以确保实验的可重复性。
        torch.manual_seed(args.seed) #为 PyTorch 设置随机种子,以确保实验的可重复性。

        self.replay_buffer = ReplayBuffer(args.buffer_size) #创建一个经验回放池实例,并保存为类的成员变量。
        self.state_dim = self.env.observation_space.shape[0] #获取环境观测空间的维度,并保存为类的成员变量。
        self.action_dim = self.env.action_space.n # 获取环境动作空间的大小,并保存为类的成员变量。

        self.q_net = Qnet(self.state_dim, self.hidden_dim, self.action_dim) # 创建一个 Q 网络实例,并保存为类的成员变量。
        self.target_q_net = Qnet(self.state_dim, self.hidden_dim, self.action_dim) # 创建一个目标 Q 网络实例,并保存为类的成员变量。


        self.optimizer = Adam(self.q_net.parameters(), lr=self.lr)# 创建一个 Adam 优化器实例,并将其与 Q 网络的参数关联。
        self.device = torch.device("cuda" if torch.cuda.is_available() else "cpu")#根据是否有可用的 CUDA 设备,设置网络和优化器运行的设备。
    # 选择动作的方法,实现epsilon-greedy策略
    def select_action(self, state):#定义了一个方法,用于根据当前状态选择动作。
        if np.random.random() < self.epsilon:# 如果随机数小于 epsilon 值,执行探索动作。
            action = np.random.randint(self.action_dim)
        else:
            state = torch.tensor([state], dtype=torch.float32).to(self.device)
            # 将当前状态转换为PyTorch张量,并移动到指定的设备。
            action = self.q_net(state).argmax().item()
        return action

    # 更新网络权重的方法 使用采样的数据更新 Q 网络。
    def update(self, transition):
        #transition,这个参数是一个包含一批经验的元组或列表,其中包括状态、动作、奖励、下一个状态和完成标志。
        states, actions, rewards, next_states, dones = transition # 解包操作将 transition 中的数据分别赋值
        states = torch.tensor(states, dtype=torch.float32).to(self.device)
        actions = torch.tensor(actions, dtype=torch.long).to(self.device)
        rewards = torch.tensor(rewards, dtype=torch.float32).to(self.device)
        next_states = torch.tensor(next_states, dtype=torch.float32).to(self.device)
        dones = torch.tensor(dones, dtype=torch.float32).to(self.device)

        q_values = self.q_net(states).gather(1, actions.unsqueeze(1)).squeeze(1)
        # 通过 Q 网络对当前状态 states 进行前向传播,计算每个状态的所有可能动作的 Q 值。
        # 然后使用 gather 方法根据 actions 选择对应的 Q 值。actions.unsqueeze(1) 是为了增加动作张量的维度,使其可以被 gather 方法正确处理。
        # squeeze(1) 是为了移除结果张量中不必要的单一维度。

        max_next_q_values = self.target_q_net(next_states).max(1)[0].detach()
        # 使用目标 Q 网络对下一个状态 next_states 进行前向传播,并找到每个状态的最大 Q 值。max(1) 是沿着指定维度(这里是维度 1)寻找最大值的操作。
        # [0] 是获取最大值的索引,detach() 是为了在计算梯度时不计算这部分的梯度,因为目标 Q 值不应该直接影响 Q 网络的更新。

        q_targets = rewards + self.gamma * max_next_q_values * (1 - dones)
        # 根据奖励 rewards、折扣因子 self.gamma 和下一个状态的最大 Q 值 max_next_q_values 计算目标 Q 值 q_targets。
        # 如果 dones 为真(表示回合结束),则不计算未来奖励的折现值。

        loss = F.mse_loss(q_values, q_targets)
        # 使用均方误差损失函数 F.mse_loss 计算预测的 Q 值 q_values 和目标 Q 值 q_targets 之间的损失。

        self.optimizer.zero_grad()
        # 清除优化器中的梯度信息,这是在执行反向传播和参数更新之前的一个必要步骤。


        loss.backward()
        # 执行损失函数的反向传播,计算 Q 网络参数的梯度。

        self.optimizer.step()
        #根据计算出的梯度更新 Q 网络的参数。这一步是优化过程的核心,它使用之前定义的优化算法(如 Adam)来调整网络权重。

    # 根据经验回放池更新策略的方法
    # 在经验回放池中的样本数量达到一定的最小大小时,从池中采样一批样本,并使用这些样本来更新Q网络的策略。
    def update_policy(self):
        if len(self.replay_buffer) > self.minimal_size:
            #self.minimal_size 是一个预先设定的阈值。
            transitions = self.replay_buffer.sample(self.batch_size)
            # 这行代码调用经验回放池的 sample 方法来随机采样 self.batch_size 个样本。
            self.update(transitions)
            # 这行代码调用 DQN 类的 update 方法,并将采样出的经验 transitions 作为参数传递给它。
            # update 方法将使用这些经验来计算损失,并通过反向传播和优化器来更新 Q 网络的参数。

    # 运行训练的方法
    def run(self):
        return_list = [] # 初始化一个空列表 return_list,用于存储每个训练回合的累积回报。
        for episode in tqdm(range(self.num_episodes), desc='Training'):
            # 使用 tqdm 库创建一个进度条,并通过它遍历指定数量的训练回合 self.num_episodes。
            # desc='Training' 参数设置进度条的描述为 "Training"。

            episode_return = 0 # 为当前回合初始化累积回报 episode_return。
            state = self.env.reset() # 调用环境的 reset 方法来重置环境,获取初始状态。
            done = False # 初始化一个标志 done,用于判断训练回合是否结束。
            while not done: # 当回合未结束时,执行循环。
                action = self.select_action(state) # 调用 select_action 方法根据当前状态选择一个动作。
                next_state, reward, done, _ = self.env.step(action) # 执行选择的动作,获取下一个状态、奖励、回合结束标志和一些额外信息(这里用 _ 忽略)。
                self.replay_buffer.add(state, action, reward, next_state, done)
                # 将当前回合的经验(状态、动作、奖励、下一个状态和结束标志)添加到经验回放池。

                episode_return += reward # 更新当前回合的累积回报。
                state = next_state # 更新当前状态为下一个状态。

                if self.count % self.display_frequency == 0 and len(self.replay_buffer) > self.minimal_size:
                    # 如果当前训练步数 self.count 是显示频率 self.display_frequency 的倍数,并且经验回放池中的样本数量超过最小大小 self.minimal_size,则执行下面的代码块。

                    screen = self.env.render(mode='rgb_array') # 获取当前环境的屏幕图像。
                    plt.imshow(screen)# 使用 matplotlib 库显示屏幕图像。
                    plt.axis('off') # 关闭坐标轴。
                    plt.title(f'Episode: {episode}, Step: {self.count}, Return: {episode_return}')
                    # 设置图像的标题,显示当前回合、步数和累积回报。

                    plt.pause(0.001)# 暂停一小段时间,以便观察图像。

                self.count += 1 #增加训练步数。
                if done: # 如果回合结束,跳出循环。
                    break

            return_list.append(episode_return) # 将当前回合的累积回报添加到 return_list 列表中。
            self.update_policy() # 调用 update_policy 方法更新 Q 网络的策略。

        self.plot_reward(return_list) #调用 plot_reward 方法绘制累积回报随训练回合变化的曲线。

    # 绘制奖励曲线的方法 它用于绘制训练过程中累积奖励的曲线以及平滑后的累积奖励曲线。
    def plot_reward(self, reward_list): # 这行代码定义了一个名为 plot_reward 的方法,它接受一个参数 reward_list,这个参数是一个包含每个训练回合累积奖励的列表。
        episodes_list = list(range(1, len(reward_list) + 1))
        # 创建一个列表 episodes_list,它包含从 1 到 reward_list 长度加 1 的整数序列。这个列表用于 X 轴的值,表示每个训练回合的索引。

        plt.plot(episodes_list, reward_list)
        # 使用 matplotlib.pyplot 库的 plot 函数绘制一个线图,X 轴是 episodes_list(训练回合索引),Y 轴是 reward_list(每个回合的累积奖励)。

        # plt.xlabel('Episodes')# 设置 X 轴的标签为 "Episodes"。
        # plt.ylabel('Returns') # 设置 Y 轴的标签为 "Returns",这里的 "Returns" 指的是每个训练回合的累积奖励。
        # plt.title('DQN on {}'.format(self.args.env_name)) # 设置图表的标题,格式为 "DQN on [环境名称]",其中 [环境名称] 被 self.args.env_name 的值所替换。
        #
        # plt.show()

        mv_return = moving_average(reward_list, 9)
        # 调用 moving_average 函数计算 reward_list 的滑动平均值,窗口大小为 9。这个平滑后的累积奖励列表被存储在变量 mv_return 中。

        plt.plot(episodes_list, mv_return) # 再次使用 plot 函数绘制一个线图,这次 Y 轴是平滑后的累积奖励 mv_return。
        plt.xlabel('Episodes')
        plt.ylabel('Returns')
        plt.title('DQN on {}'.format(self.args.env_name))
        plt.show()

# 主函数,运行DQN算法
if __name__ == '__main__':
    args = define_args()
    # 调用 define_args 函数,该函数使用 argparse 库来定义和解析命令行参数。解析后的参数被存储在变量 args 中。

    model = DQN(args) # 使用解析得到的参数 args 创建 DQN 类的一个实例,并将其存储在变量 model 中。

    model.run()
    # 调用 model 实例的 run 方法来启动训练过程。这个方法将执行整个深度Q网络算法的训练,包括与环境的交互、收集经验、更新网络参数等。

三、利用gym创建自己的环境

1. 对自己环境进行注册

D:\anaconda\Lib\site-packages\gym\envs
在该路径中的__init__.py 中添加

# 注册环境
gym.register(
    id='UWANEnv-v0',  # 环境ID
    entry_point='gym.envs.myenv:UWANEnv',  # 入口点,路径
    timestep_limit=500,  # 可选,环境的最大步数
    reward_threshold=200.0  # 可选,奖励阈值
)

2. 放入库中

D:\anaconda\Lib\site-packages\gym\envs 路径下新建一个文件夹 myenv
D:\anaconda\Lib\site-packages\gym\envs\myenv 其中myenv包括两个文件
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/535812.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

2024最新AI系统【SparkAI】,ChatGPT商业运营版系统源码/ai问答/ai绘画/GPTs,SunoAI音乐生成大模型/带分销AIGC搭建部署教程

一、文章前言 SparkAi创作系统是基于ChatGPT进行开发的ai智能问答系统和Midjourney-AI绘画系统&#xff0c;支持OpenAI-GPT全模型国内AI全模型。本期针对源码系统整体测试下来非常完美&#xff0c;那么如何搭建部署AI创作ChatGPT&#xff1f;小编这里写一个详细图文教程吧。已…

利用Python实现可视化交互界面:Dash

Dash是一个低代码数据框架&#xff0c;用Python实现可视化交互界面&#xff0c;不用写Javascript&#xff0c;开源&#xff0c;支持回调、HTML组件等功能。 安装 pip install dash使用 # Import packages from dash import Dash, html, dash_table, dcc, callback, Output, …

MySQL压力测试最佳实践(16/16)

MySQL压力测试 基本概述 sysbench是一个模块化的、跨平台、多线程基准测试工具&#xff0c;主要用于评估测试各种不同系统参数下的数据库负载情况。项目地址&#xff1a;http://github.com/akopytov/sysbench 工具安装 1.1 在线安装&#xff08;CentOS&#xff09;&#xf…

Leetcode110_平衡二叉树

1.leetcode原题链接&#xff1a;. - 力扣&#xff08;LeetCode&#xff09; 2.题目描述 给定一个二叉树&#xff0c;判断它是否是 平衡二叉树 示例 1&#xff1a; 输入&#xff1a;root [3,9,20,null,null,15,7] 输出&#xff1a;true示例 2&#xff1a; 输入&#xff1a;…

OJ刷题日记:1、双指针(1)

目录 1、283.移动零 2、1089.复写零 3、202.快乐数 1、283.移动零 题目&#xff1a; 给定一个数组 nums&#xff0c;编写一个函数将所有 0 移动到数组的末尾&#xff0c;同时保持非零元素的相对顺序。 请注意 &#xff0c;必须在不复制数组的情况下原地对数组进行操作。 …

牛客小白月赛90(A,B,C,D,E,F)

比赛链接 官方题解&#xff08;视频&#xff09; 这场偏思维&#xff0c;感觉好像没啥算法。E需要动态维护前 k k k 小&#xff0c;F是个离散化加dp&#xff0c;状态和递推方程比较 非常规&#xff0c;建议还是看一下涨涨姿势。 A 小A的文化节 思路&#xff1a; 签到 cod…

我国量子信息科技创新发展面临的挑战及建议——基于中美对比视角的分析

2024年2月&#xff0c;中国科学技术发展战略院慕慧娟博士、丁明磊研究员及光子盒顾成建一起在《科技管理研究》上发表文章——《我国量子信息科技创新发展面临的挑战及建议&#xff1a;基于中美对比视角的分析》。 在此&#xff0c;我们整理并发布这篇文章&#xff0c;欢迎感兴…

springCloudAlibaba集成sentinel实战(超详细)

一、Sentinel介绍 1. 什么是Sentinel Sentinel是阿里开源的项目&#xff0c;提供了流量控制、熔断降级、系统负载保护等多个维度来保障服务之间的稳定性。 分布式系统的流量防卫兵&#xff1a; 随着微服务的普及&#xff0c;服务调用的稳定性变得越来越重要。Sentinel以“流…

实现创建线程的五种写法

创建线程的五种写法 1、通过继承Thread类并实现run方法创建一个线程package 创建线程;2、通过实现Runnable接口&#xff0c;并实现run方法的方法创建一个线程3、通过Thread匿名内部类创建一个线程4、通过Runnable匿名内部类创建一个线程5、通过Lambda表达式的方式创建一个线程 …

airtest-ios真机搭建实践

首先阅读4 ios connection - Airtest Project Docs 在Windows环境下搭建Airtest对iOS真机进行自动化测试的过程相对复杂&#xff0c;因为iOS的自动化测试通常需要依赖Mac OS系统&#xff0c;但理论上借助一些工具和服务&#xff0c;Windows用户也可以间接完成部分工作。下面是…

IP SSL证书免费申请教程(给IP地址开启https)

首先IP地址申请的前提&#xff1a;80端口有打开&#xff0c;或者可以短暂的打开10分钟左右等验证完IP管理权再关掉。 一&#xff1a;打开JoySSL官网选择IP地址证书并下单加入购物车&#xff0c;之后结账后就会跳转到证书申请界面。 二&#xff1a;填写需要申请证书的IP信息 三&…

【RV1106的ISP使用记录之一】基础环境搭建

公司缺少ISP工程师&#xff0c;做为图像算法工程师的我这就不就给顶上来了么&#xff0c;也没给发两份工资&#xff0c;唉~ 先写个标题&#xff0c;占一个新坑&#xff0c;记录RK平台的传统ISP工作。 一、基础环境的硬件包括三部分&#xff1a; 1、相机环境&#xff0c;用于采…

Python 网络爬虫技巧分享:优化 Selenium 滚动加载网易新闻策略

简介 网络爬虫在数据采集和信息获取方面发挥着重要作用&#xff0c;而滚动加载则是许多网站常用的页面加载方式之一。针对网易新闻这样采用滚动加载的网站&#xff0c;如何优化爬虫策略以提高效率和准确性是一个关键问题。本文将分享如何利用 Python 中的 Selenium 库优化滚动…

利用爬虫技术实现自动化数据分析

目录 前言 一、爬虫技术概述 二、自动化数据分析的步骤 1. 确定数据需求 2. 网页分析和定位 3. 编写爬虫程序 4. 数据存储和处理 5. 数据分析和可视化 三、示例代码 总结 前言 在信息时代&#xff0c;数据已成为重要的资源之一&#xff0c;并且随着互联网的发展&…

计算机网络——交换机和路由器

目录 前言 引言 交换机是用来做什么的&#xff1f; 与路由器有什么区别&#xff1f; 网关 子网掩码 网关、路由 前言 本博客是博主用于复习计算机网络的博客&#xff0c;如果疏忽出现错误&#xff0c;还望各位指正。 这篇博客是在B站掌芝士zzs这个UP主的视频的总结&am…

flutter跑通腾讯云直播Demo

运行示例 前提条件 要求java jdk 11版本 并且配置到了环境变量 重要 要求flutter 版本 2.8.0 并且配置到了环境变量 重要 要求dart-sdk版本2.15 并且配置到了环境变量 重要 您已 注册腾讯云 账号&#xff0c;并完成 实名认证。 申请 SDKAPPID 和 SECRETKEY 登录实时音视频控…

全栈开发医疗小程序 SpringBoot2.X + Vue + UniAPP 带源码

看到好多坛友都在求SpringBoot2.X Vue UniAPP&#xff0c;全栈开发医疗小程序 – 带源码课件&#xff0c;我看了一下&#xff0c;要么链接过期&#xff0c;要么课件有压缩密码。特意整理了一份分享给大家&#xff0c;个人认为还是比较全面的。希望对大家有所帮助&#xff01;…

FFmpeg: 简易ijkplayer播放器实现--04消息队列设计

文章目录 播放器状态转换图播放器状态对应的消息&#xff1a; 消息对象消息队列消息队列api插入消息获取消息初始化消息插入消息加锁初始化消息设置消息参数消息队列初始化清空消息销毁消息启动消息队列终止消息队列删除消息 消息队列&#xff0c;用于发送&#xff0c;设置播放…

探探各个微前端框架

本文作者为 360 奇舞团前端开发工程师 微前端架构是为了在解决单体应用在一个相对长的时间跨度下&#xff0c;由于参与的人员、团队的增多、变迁&#xff0c;从一个普通应用演变成一个巨石应用(Frontend Monolith)后&#xff0c;随之而来的应用不可维护的问题。这类问题在企业级…

全新华为MateBook X Pro发布,将Ultra9放入980g超轻薄机身

2024年4月11日&#xff0c;在华为鸿蒙生态春季沟通会上全新的华为MateBook X Pro正式发布。该机以美学设计、创新科技以及智慧体验&#xff0c;追求重新定义Pro、重新定义旗舰&#xff0c;将颠覆消费者对传统轻薄本的认知。 华为MateBook X Pro追求极致轻薄与强大性能的完美结合…