学习日记_20241123_聚类方法(高斯混合模型)续

前言

提醒:
文章内容为方便作者自己后日复习与查阅而进行的书写与发布,其中引用内容都会使用链接表明出处(如有侵权问题,请及时联系)。
其中内容多为一次书写,缺少检查与订正,如有问题或其他拓展及意见建议,欢迎评论区讨论交流。

文章目录

  • 前言
  • 续:
  • 手动实现
    • 代码分析
      • def __init__(self, n_components, max_iter=100, tol=1e-6)
      • def initialize_parameters(self, X)
      • def e_step(self, X)
      • def m_step(self, X)
      • 数学背景
      • fit(self, X)
      • predict(self, X)


续:

学习日记_20241117_聚类方法(高斯混合模型)
在这里插入图片描述

手动实现

import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import multivariate_normal

class GaussianMixtureModel:
    def __init__(self, n_components, max_iter=100, tol=1e-6):
        self.n_components = n_components
        self.max_iter = max_iter
        self.tol = tol
    
    def initialize_parameters(self, X):
        n_samples, n_features = X.shape
        self.weights = np.ones(self.n_components) / self.n_components
        self.means = X[np.random.choice(n_samples, self.n_components, replace=False)]
        self.covariances = np.array([np.cov(X, rowvar=False)] * self.n_components)

    def e_step(self, X):
        n_samples = X.shape[0]
        self.responsibilities = np.zeros((n_samples, self.n_components))
        for k in range(self.n_components):
            pdf = multivariate_normal(mean=self.means[k], cov=self.covariances[k])
            self.responsibilities[:, k] = self.weights[k] * pdf.pdf(X)
        self.responsibilities /= self.responsibilities.sum(axis=1, keepdims=True)

    def m_step(self, X):
        n_samples, n_features = X.shape
        effective_n = self.responsibilities.sum(axis=0)
        self.means = np.dot(self.responsibilities.T, X) / effective_n[:, np.newaxis]
        self.covariances = np.zeros((self.n_components, n_features, n_features))
        for k in range(self.n_components):
            X_centered = X - self.means[k]
            self.covariances[k] = (self.responsibilities[:, k][:, np.newaxis] * X_centered).T @ X_centered
            self.covariances[k] /= effective_n[k]
        self.weights = effective_n / n_samples

    def fit(self, X):
        self.initialize_parameters(X)
        log_likelihood_old = 0
        for iteration in range(self.max_iter):
            self.e_step(X)
            self.m_step(X)
            log_likelihood = 0
            for k in range(self.n_components):
                pdf = multivariate_normal(mean=self.means[k], cov=self.covariances[k])
                log_likelihood += np.sum(self.responsibilities[:, k] * np.log(self.weights[k] * pdf.pdf(X) + 1e-10))
            if np.abs(log_likelihood - log_likelihood_old) < self.tol:
                print(f"Converged at iteration {iteration}")
                break
            log_likelihood_old = log_likelihood

    def predict(self, X):
        n_samples = X.shape[0]
        likelihoods = np.zeros((n_samples, self.n_components))
        for k in range(self.n_components):
            pdf = multivariate_normal(mean=self.means[k], cov=self.covariances[k])
            likelihoods[:, k] = self.weights[k] * pdf.pdf(X)
        return np.argmax(likelihoods, axis=1)

# 可视化结果
def plot_results(X, labels, means, covariances):
    plt.figure(figsize=(8, 6))
    unique_labels = np.unique(labels)
    colors = ['r', 'g', 'b', 'c', 'm', 'y']

    for i, label in enumerate(unique_labels):
        plt.scatter(X[labels == label, 0], X[labels == label, 1], s=20, color=colors[i % len(colors)], label=f"Cluster {label + 1}")

        # 绘制高斯分布的等高线
        mean = means[label]
        cov = covariances[label]
        x, y = np.meshgrid(np.linspace(X[:, 0].min() - 1, X[:, 0].max() + 1, 100),
                           np.linspace(X[:, 1].min() - 1, X[:, 1].max() + 1, 100))
        pos = np.dstack((x, y))
        rv = multivariate_normal(mean, cov)
        plt.contour(x, y, rv.pdf(pos), levels=5, colors=colors[i % len(colors)], alpha=0.5)

    plt.title("Gaussian Mixture Model Clustering")
    plt.xlabel("Feature 1")
    plt.ylabel("Feature 2")
    plt.legend()
    plt.show()

# 测试
if __name__ == "__main__":
    np.random.seed(42)
    X1 = np.random.normal(0, 1, (100, 2))
    X2 = np.random.normal(5, 1, (100, 2))
    X3 = np.random.normal(10, 1, (100, 2))
    X = np.vstack((X1, X2, X3))
    plt.scatter(X[:, 0], X[:, 1])
    plt.title("Original Data")
    plt.xlabel("Feature 1")
    plt.ylabel("Feature 2")

    gmm = GaussianMixtureModel(n_components=3)
    gmm.fit(X)
    labels = gmm.predict(X)
    plot_results(X, labels, gmm.means, gmm.covariances)

数据与结果为
在这里插入图片描述
在这里插入图片描述

代码分析

def init(self, n_components, max_iter=100, tol=1e-6)

class GaussianMixtureModel:
    def __init__(self, n_components, max_iter=100, tol=1e-6):
        self.n_components = n_components 
        self.max_iter = max_iter  
        self.tol = tol 
  • n_components:高斯混合模型中的组件数,即聚类的数量。
  • max_iter:最大迭代次数,防止算法不收敛时无限循环。
  • tol:收敛的容忍度,用于判断算法是否收敛。

def initialize_parameters(self, X)

    def initialize_parameters(self, X):
        n_samples, n_features = X.shape
        self.weights = np.ones(self.n_components) / self.n_components
        self.means = X[np.random.choice(n_samples, self.n_components, replace=False)]
        self.covariances = np.array([np.cov(X, rowvar=False)] * self.n_components)

self.weights = np.ones(self.n_components) / self.n_components
K K K 为高斯混合模型中的组件数(即 n_components)则每个组件的初始权重 π k \pi_k πk 为: π k = 1 K \pi_k = \frac{1}{K} πk=K1,其中 k k k 的取值范围是 1 1 1 K K Kself.weights 为一个长度为 n_components 的数组:
π 1 = π 2 = ⋯ = π K = 1 K \pi_1 = \pi_2 = \cdots = \pi_K = \frac{1}{K} π1=π2==πK=K1

self.means = X[np.random.choice(n_samples, self.n_components, replace=False)]
X X X 为数据集,其中包含 n n n 个样本(即 n_samples),每个样本是一个特征向量。设 K K K 为高斯混合模型中的组件数(即 n_components)。
从数据集 X X X 中随机选择 K K K 个不重复的样本作为初始均值向量。用数学表达式表示就是:
μ k = X i k \mu_k = X_{i_k} μk=Xik
其中:

  • μ k \mu_k μk 是第 k k k 个组件的初始均值向量。
  • X i k X_{i_k} Xik 是数据集 X X X 中的第 i k i_k ik 个样本。
  • i k i_k ik 是从集合 { 1 , 2 , … , n } \{1, 2, \ldots, n\} {1,2,,n} 中随机选择的不重复的 K K K 个整数。
    具体地,可以表示为:
    μ 1 , μ 2 , … , μ K = X i 1 , X i 2 , … , X i K \mu_1, \mu_2, \ldots, \mu_K = X_{i_1}, X_{i_2}, \ldots, X_{i_K} μ1,μ2,,μK=Xi1,Xi2,,XiK
    其中 { i 1 , i 2 , … , i K } \{i_1, i_2, \ldots, i_K\} {i1,i2,,iK} 是从 { 1 , 2 , … , n } \{1, 2, \ldots, n\} {1,2,,n} 中随机选择的不重复的 K K K 个整数。
    在代码中,np.random.choice(n_samples, self.n_components, replace=False) 实现了从 n n n 个样本中随机选择 K K K 个不重复的样本索>引,然后通过这些索引从数据集 X X X 中提取相应的样本作为初始均值向量。
    在这里插入图片描述

self.covariances = np.array([np.cov(X, rowvar=False)] * self.n_components)
这行代码的目的是初始化高斯混合模型(Gaussian Mixture Model,GMM)中每个组件的协方差矩阵。让我们逐步分析这行代码:

  1. np.cov(X, rowvar=False): 这个函数计算输入数据 X 的协方差矩阵。参数 rowvar=False 表示每一列代表一个变量,而每一行代表一个观测值。这是在多维数据中常见的设置,其中每一维(或特征)存储在单独的列中。
  2. [np.cov(X, rowvar=False)] * self.n_components: 这部分代码创建了一个列表,其中包含 self.n_components 个相同的协方差矩阵。self.n_components 是GMM中的组件数。
  3. np.array(...): 最后,这个列表被转换成一个NumPy数组,使得 self.covariances 成为一个二维数组,其中每个元素都是一个协方差矩阵。

def e_step(self, X)

    def e_step(self, X):
        n_samples = X.shape[0]
        self.responsibilities = np.zeros((n_samples, self.n_components))
        for k in range(self.n_components):
            pdf = multivariate_normal(mean=self.means[k], cov=self.covariances[k])
            self.responsibilities[:, k] = self.weights[k] * pdf.pdf(X)
        self.responsibilities /= self.responsibilities.sum(axis=1, keepdims=True)

self.responsibilities = np.zeros((n_samples, self.n_components))
这行代码在高斯混合模型(Gaussian Mixture Model, GMM)中用于初始化一个责任矩阵(responsibility matrix)。

  • (n_samples, self.n_components) 指定了数组的形状,其中 n_samples 是输入数据集中样本的数量,self.n_components 是模型中高斯成分的数量。
  • 责任矩阵 self.responsibilities 的每一行对应于一个样本,而每一列对应于一个高斯成分。
  • 矩阵中的每个元素 self.responsibilities[i, j] 表示样本 i 属于高斯成分 j 的责任值(即概率)。它衡量了样本 i 在当前模型参数下属于成分 j 的可能性。
    这段代码是高斯混合模型(Gaussian Mixture Model, GMM)中 E 步骤(Expectation Step)的一部分。它的主要作用是计算每个样本属于每个高斯成分的责任值(responsibility),并进行归一化处理。我们来逐行分析这段代码的含义:

for k in range(self.n_components): 这里的循环遍历所有的高斯成分
kself.n_components 是高斯成分的数量。

pdf = multivariate_normal(mean=self.means[k], cov=self.covariances[k]) 使用 scipy.stats.multivariate_normal
创建一个多元高斯分布对象 pdf,其均值为 self.means[k],协方差矩阵为self.covariances[k]。这表示当前成分 k 的概率密度函数(PDF)。

self.responsibilities[:, k] = self.weights[k] * pdf.pdf(X)

  • 这一行计算每个样本在高斯成分 k 下的责任值,并将其存储在责任矩阵 self.responsibilities 的第 k 列中。
  • self.weights[k] 是成分 k 的混合权重,表示该成分在总体中占的比例。
  • pdf.pdf(X) 计算所有输入样本 X 在成分 k 下的概率密度值。
  • self.weights[k] * pdf.pdf(X) 计算每个样本在成分 k 下的加权概率密度(即责任值)。

self.responsibilities /= self.responsibilities.sum(axis=1, keepdims=True)

  • 这行代码对责任矩阵进行归一化处理,使得每个样本在所有成分上的责任值之和为 1。
  • self.responsibilities.sum(axis=1, keepdims=True) 计算每个样本在所有成分上的总责任值。
  • 将责任矩阵每一行的值除以该行的总和,确保每个样本的责任值在所有成分之间是一个概率分布。

def m_step(self, X)

    def m_step(self, X):
        n_samples, n_features = X.shape
        effective_n = self.responsibilities.sum(axis=0)
        self.means = np.dot(self.responsibilities.T, X) / effective_n[:, np.newaxis]
        self.covariances = np.zeros((self.n_components, n_features, n_features))
        for k in range(self.n_components):
            X_centered = X - self.means[k]
            self.covariances[k] = (self.responsibilities[:, k][:, np.newaxis] * X_centered).T @ X_centered
            self.covariances[k] /= effective_n[k]
        self.weights = effective_n / n_samples

effective_n = self.responsibilities.sum(axis=0)
这行代码的作用是计算每个高斯成分的有效样本数量(effective number of samples),并将其存储在变量 effective_n 中。我们来详细分析这一行代码的含义。

  1. self.responsibilities
    • 这是之前提到的责任矩阵,形状为 (n_samples, n_components),其中每一行对应一个样本,每一列对应一个高斯成分。矩阵中的每个值表示样本对某个成分的责任。
  2. self.responsibilities.sum(axis=0)
    • sum(axis=0) 表示对责任矩阵的列进行求和。
    • 这将返回一个一维数组,长度等于高斯成分的数量(n_components)。
    • 数组中的每个元素 effective_n[k] 表示第 k 个高斯成分的有效样本数量,即所有样本在该成分上的责任值之和。
  • 有效样本数量:有效样本数量反映了每个高斯成分在当前模型下的“重要性”或“权重”。如果某个成分的有效样本数量很小,说明这个成分对当前数据的解释能力较弱。

self.means = np.dot(self.responsibilities.T, X) / effective_n[:, np.newaxis]
这行代码用于更新高斯混合模型中每个高斯成分的均值(means)。让我们逐步分析这行代码及其背后的逻辑。

  1. self.responsibilities.T
    • self.responsibilities 是一个形状为 (n_samples, n_components) 的矩阵,表示每个样本对每个高斯成分的责任值。
    • self.responsibilities.T 是将责任矩阵进行转置,得到一个形状为 (n_components, n_samples) 的矩阵。
  2. np.dot(self.responsibilities.T, X)
    • X 是输入数据矩阵,形状为 (n_samples, n_features),表示 n_samples 个样本的特征。
    • 执行矩阵乘法 np.dot(self.responsibilities.T, X) 将会产生一个形状为 (n_components, n_features) 的矩阵。
    • 这里,每一行对应一个高斯成分,表示该成分加权后的特征总和。具体来说,这些特征是根据每个样本在该成分上的责任值加权后的结果。
  3. effective_n[:, np.newaxis]
    • effective_n 是一个一维数组,表示每个高斯成分的有效样本数量(我们在之前的讨论中提到过)。
    • 使用 np.newaxiseffective_n 转换为形状为 (n_components, 1) 的列向量,这样可以在后续的除法运算中进行广播。
  4. 最后的除法
    • 将加权特征总和除以每个成分的有效样本数量,得到加权均值。
    • 这一步的结果将更新 self.means,即每个高斯成分的新均值。

数学背景

在高斯混合模型中,均值的更新可以用以下公式表示:
μ k = ∑ i = 1 N γ i k x i ∑ i = 1 N γ i k \mu_k = \frac{\sum_{i=1}^{N} \gamma_{ik} x_i}{\sum_{i=1}^{N} \gamma_{ik}} μk=i=1Nγiki=1Nγikxi
其中:

  • μ k \mu_k μk是第 k k k个高斯成分的均值。
  • γ i k \gamma_{ik} γik是样本 i i i对成分 k k k的责任值。
  • x i x_i xi 是样本 i i i的特征向量。
    这行代码正是这个公式的实现形式,通过矩阵运算来有效地更新每个成分的均值。

在这里插入图片描述
这段代码的目的是为高斯混合模型中的每个高斯成分计算协方差矩阵,并更新权重。

  1. self.covariances = np.zeros((self.n_components, n_features, n_features))
    这一行初始化每个高斯成分的协方差矩阵为零矩阵,形状为 (n_components, n_features, n_features),即为每个成分分配一个 n features × n features n_{\text{features}} \times n_{\text{features}} nfeatures×nfeatures 的协方差矩阵。
  2. for k in range(self.n_components):
    这个循环遍历每一个高斯成分,从 0 到 self.n_components - 1
  3. X_centered = X - self.means[k]
    这行代码计算每个样本相对于当前成分均值的偏差。X_centered 是一个包含所有样本的矩阵,其中每个样本的特征值都减去了该成分的均值。
  4. self.covariances[k] = (self.responsibilities[:, k][:, np.newaxis] * X_centered).T @ X_centered
    这里计算协方差矩阵的主要部分:
    • self.responsibilities[:, k][:, np.newaxis]:提取第 k k k 个成分的责任值,并将其转换为列向量。
    • * X_centered:将责任值与居中后的数据相乘,以加权样本。
    • (.T @ X_centered):进行矩阵乘法,计算加权样本的外积,从而得到一个 n features × n features n_{\text{features}} \times n_{\text{features}} nfeatures×nfeatures 的矩阵。
  5. 协方差计算
  • 计算得到的结果表示了当前成分的加权协方差矩阵,但为了得到正确的协方差矩阵,还需要将其除以该成分的有效样本数量。
    self.covariances[k] /= effective_n[k]
    • 将加权结果除以 effective_n[k],得到第 k k k 个高斯成分的协方差矩阵。
  1. 权重更新
    self.weights = effective_n / n_samples
    • 最后一行代码用于计算每个高斯成分的权重。权重的计算是将每个成分的有效样本数量除以总样本数量 n_samples,从而得到每个成分在整个模型中的比重。

fit(self, X)

    def fit(self, X):
        self.initialize_parameters(X)
        log_likelihood_old = 0
        for iteration in range(self.max_iter):
            self.e_step(X)
            self.m_step(X)
            log_likelihood = 0
            for k in range(self.n_components):
                pdf = multivariate_normal(mean=self.means[k], cov=self.covariances[k])
                log_likelihood += np.sum(self.responsibilities[:, k] * np.log(self.weights[k] * pdf.pdf(X) + 1e-10))
            if np.abs(log_likelihood - log_likelihood_old) < self.tol:
                print(f"Converged at iteration {iteration}")
                break
            log_likelihood_old = log_likelihood

这段代码实现了高斯混合模型(GMM)中的 fit 方法。它通过期望最大化(EM)算法来拟合模型,计算对数似然(log likelihood)。

  1. 初始化参数
    Initialize  μ k , Σ k ,  and  π k  for all components  k \text{Initialize } \mu_k, \Sigma_k, \text{ and } \pi_k \text{ for all components } k Initialize μk,Σk, and πk for all components k
  2. E步(期望步)
    在E步中,计算每个数据点对每个成分的责任(即每个组件生成该数据点的概率):
    r n k = π k ⋅ N ( x n ∣ μ k , Σ k ) ∑ j = 1 K π j ⋅ N ( x n ∣ μ j , Σ j ) r_{nk} = \frac{\pi_k \cdot \mathcal{N}(x_n | \mu_k, \Sigma_k)}{\sum_{j=1}^{K} \pi_j \cdot \mathcal{N}(x_n | \mu_j, \Sigma_j)} rnk=j=1KπjN(xnμj,Σj)πkN(xnμk,Σk)
    其中, r n k r_{nk} rnk 是数据点 x n x_n xn 对于成分 k k k 的责任值, N ( x n ∣ μ k , Σ k ) \mathcal{N}(x_n | \mu_k, \Sigma_k) N(xnμk,Σk) 是多元正态分布的概率密度函数。
  3. M步(最大化步)
    在M步中,更新模型参数,即均值、协方差和权重:
  • 更新均值:
    μ k = 1 N k ∑ n = 1 N r n k x n \mu_k = \frac{1}{N_k} \sum_{n=1}^{N} r_{nk} x_n μk=Nk1n=1Nrnkxn
  • 更新协方差:
    Σ k = 1 N k ∑ n = 1 N r n k ( x n − μ k ) ( x n − μ k ) T \Sigma_k = \frac{1}{N_k} \sum_{n=1}^{N} r_{nk} (x_n - \mu_k)(x_n - \mu_k)^T Σk=Nk1n=1Nrnk(xnμk)(xnμk)T
  • 更新权重:
    π k = N k N \pi_k = \frac{N_k}{N} πk=NNk
    其中, N k = ∑ n = 1 N r n k N_k = \sum_{n=1}^{N} r_{nk} Nk=n=1Nrnk 是属于成分 k k k 的有效样本数量。
  1. 对数似然计算
    对数似然是整个数据集 X X X 在模型下的对数概率:
    log ⁡ L = ∑ n = 1 N log ⁡ ( ∑ k = 1 K π k ⋅ N ( x n ∣ μ k , Σ k ) ) \log L = \sum_{n=1}^{N} \log \left( \sum_{k=1}^{K} \pi_k \cdot \mathcal{N}(x_n | \mu_k, \Sigma_k) \right) logL=n=1Nlog(k=1KπkN(xnμk,Σk))
    由于在计算中添加了一个小的常数 1 e − 10 1e-10 1e10 以避免对数计算中的数值问题,完整的表达式为:
    log ⁡ L ≈ ∑ n = 1 N ∑ k = 1 K r n k log ⁡ ( π k ⋅ N ( x n ∣ μ k , Σ k ) + 1 e − 10 ) \log L \approx \sum_{n=1}^{N} \sum_{k=1}^{K} r_{nk} \log \left( \pi_k \cdot \mathcal{N}(x_n | \mu_k, \Sigma_k) + 1e-10 \right) logLn=1Nk=1Krnklog(πkN(xnμk,Σk)+1e10)
  2. 收敛检查
    收敛条件是检查当前对数似然与上一轮的对数似然之差是否小于容忍度 tol \text{tol} tol
    ∣ log ⁡ L − log ⁡ L old ∣ < tol |\log L - \log L_{\text{old}}| < \text{tol} logLlogLold<tol

predict(self, X)

    def predict(self, X):
        n_samples = X.shape[0]
        likelihoods = np.zeros((n_samples, self.n_components))
        for k in range(self.n_components):
            pdf = multivariate_normal(mean=self.means[k], cov=self.covariances[k])
            likelihoods[:, k] = self.weights[k] * pdf.pdf(X)
        return np.argmax(likelihoods, axis=1)

这段代码实现了高斯混合模型(GMM)中的 predict 方法,目的是根据已拟合的模型来预测给定数据点 X X X 的每个样本属于哪个组件。

  1. 输入数据
    • X X X 是一个 n × d n \times d n×d 的矩阵,其中 n n n 是样本数量, d d d 是特征维数。
  2. 初始化似然数组
    • 创建一个 n × K n \times K n×K 的矩阵 likelihoods,其中 K K K 是组件的数量。这个矩阵将用于存储每个样本在每个组件下的似然值。
      likelihoods = [ 0 0 … 0 0 0 … 0 ⋮ ⋮ ⋱ ⋮ 0 0 … 0 ] ( n × K ) \text{likelihoods} = \begin{bmatrix} 0 & 0 & \ldots & 0 \\ 0 & 0 & \ldots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \ldots & 0 \end{bmatrix} \quad (n \times K) likelihoods= 000000000 (n×K)
  3. 计算每个组件的似然
    • 对于每个组件 k k k,计算数据点 X X X 在该组件下的加权似然值:
      likelihoods [ : , k ] = π k ⋅ N ( X ∣ μ k , Σ k ) \text{likelihoods}[:, k] = \pi_k \cdot \mathcal{N}(X | \mu_k, \Sigma_k) likelihoods[:,k]=πkN(Xμk,Σk)
      其中:
    • π k \pi_k πk 是组件 k k k 的权重(混合系数)。
    • N ( X ∣ μ k , Σ k ) \mathcal{N}(X | \mu_k, \Sigma_k) N(Xμk,Σk) 是多元正态分布在组件 k k k 下的概率密度函数。
  4. 确定预测标签
    • 对于每个样本,选择具有最大似然值的组件,返回其索引作为预测类别:
      predictions = arg ⁡ max ⁡ k ( likelihoods [ : , k ] ) \text{predictions} = \arg\max_{k}(\text{likelihoods}[:, k]) predictions=argkmax(likelihoods[:,k])
      这意味着,对于每个样本 $ n $,其最终预测标签为:
      y ^ n = arg ⁡ max ⁡ k ( π k ⋅ N ( x n ∣ μ k , Σ k ) ) \hat{y}_n = \arg\max_{k} \left( \pi_k \cdot \mathcal{N}(x_n | \mu_k, \Sigma_k) \right) y^n=argkmax(πkN(xnμk,Σk))
  5. 返回预测结果
    • 结果是一个长度为 n n n 的数组,包含每个样本的预测组件索引。

总结起来,predict 方法通过计算每个样本在每个高斯组件下的加权似然,将样本分配给最可能的组件,从而完成聚类或分类任务。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/921878.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

15.C++STL 2(string类的使用,6000字详解)

⭐本篇重点&#xff1a;string类的使用 ⭐本篇代码&#xff1a;c学习/05.string类的学习 橘子真甜/c-learning-of-yzc - 码云 - 开源中国 (gitee.com) 目录 一. C/C字符与string类 二. STL中的string类的使用 2.1 string类常见的构造与赋值 2.2 string对象的数据容量操作 …

神经网络(系统性学习一):入门篇——简介、发展历程、应用领域、基本概念、超参数调优、网络类型分类

相关文章&#xff1a; 神经网络中常用的激活函数 神经网络简介 神经网络&#xff08;Neural Networks&#xff09;是受生物神经系统启发而设计的数学模型&#xff0c;用于模拟人类大脑处理信息的方式。它由大量的节点&#xff08;或称为“神经元”&#xff09;组成&#xff0…

shell 基础知识2 ---条件测试

目录 一、条件测试的基本语法 二、文件测试表达式 三、字符串测试表达式 四、整数测试表达式 五、逻辑操作符 六、实验 为了能够正确处理 Shell 程序运行过程中遇到的各种情况&#xff0c; Linux Shell 提供了一组测试运算符。 通过这些运算符&#xff0c;Shell 程序能够…

数据指标与标签在数据分析中的关系与应用

导读&#xff1a;分享数据指标体系的文章很多&#xff0c;但讲数据标签的文章很少。实际上&#xff0c;标签和指标一样&#xff0c;是数据分析的左膀右臂&#xff0c;两者同样重要。实际上&#xff0c;很多人分析不深入&#xff0c;就是因为缺少对标签的应用。今天系统的讲解下…

Flutter-Web首次加载时添加动画

前言 现在web上线后首次加载会很慢&#xff0c;要5秒以上&#xff0c;并且在加载的过程中界面是白屏。因此想在白屏的时候放一个加载动画 实现步骤 1.找到web/index.html文件 2.添加以下<style>标签内容到<head>标签中 <style>.loading {display: flex;…

51单片机基础 06 串口通信与串口中断

目录 一、串口通信 二、串口协议 三、原理图 四、串口通信配置参数 1、常用的串行口工作方式1 2、数据发送 3、数据接收 4、波特率计算 5、轮询接收 6、中断接收 一、串口通信 串口通信是一种常见的数据传输方式&#xff0c;广泛用于计算机与外部设备或嵌入式系统之间…

【深度学习之回归预测篇】 深度极限学习机DELM多特征回归拟合预测(Matlab源代码)

深度极限学习机 (DELM) 作为一种新型的深度学习算法&#xff0c;凭借其独特的结构和训练方式&#xff0c;在诸多领域展现出优异的性能。本文将重点探讨DELM在多输入单输出 (MISO) 场景下的应用&#xff0c;深入分析其算法原理、性能特点以及未来发展前景。 1、 DELM算法原理及其…

动态规划子数组系列一>最长湍流子数组

1.题目&#xff1a; 解析&#xff1a; 代码&#xff1a; public int maxTurbulenceSize(int[] arr) {int n arr.length;int[] f new int[n];int[] g new int[n];for(int i 0; i < n; i)f[i] g[i] 1;int ret 1;for(int i 1; i < n-1; i,m. l.kmddsfsdafsd){int…

RabbitMQ3:Java客户端快速入门

欢迎来到“雪碧聊技术”CSDN博客&#xff01; 在这里&#xff0c;您将踏入一个专注于Java开发技术的知识殿堂。无论您是Java编程的初学者&#xff0c;还是具有一定经验的开发者&#xff0c;相信我的博客都能为您提供宝贵的学习资源和实用技巧。作为您的技术向导&#xff0c;我将…

【mongodb】社区版8:改变配置bindip和授权

更改配置 sudo systemctl restart mongod (base) root@k8s-master-pfsrv:/home/zhangbin# sudo tail -n 20 /var/log/mongodb/mongod.log 日志感觉是成功了:{"t":{"$date":"2024-11-19T19:57:47.076+08:00"

element dialog 2层弹窗数据同步问题

注意&#xff1a;本帖为公开技术贴&#xff0c;不得用做任何商业用途 element dialog 2层弹窗数据同步问题 如果嵌套dialog&#xff0c;也就是多层dialog嵌套 2个input&#xff0c;key用同样的值 会导致内外2层dialog&#xff0c;用相同key值的input会数据同步 原因如下&a…

C# 属性 学习理解记录

字段和属性 左边字段&#xff0c;右边属性 拓展&#xff0c;属性安全&#xff1a; 1、设置public private 和protected 等&#xff0c;只读&#xff0c;只写&#xff0c; 2、在get set 方法时&#xff0c;验证&#xff0c;异常时抛出错误

如何提取某站 MV 视频中的音乐为 MP3 音频

我们常常会遇到需要将视频中的音频提取出来并转换为 MP3 格式的情况&#xff0c;比如想要单独保存一段视频中的精彩音乐、演讲或旁白。简鹿视频格式转换器就是一款能够轻松实现这一需求的实用软件&#xff0c;它支持 Windows 和 Mac 系统&#xff0c;为不同操作系统的用户提供了…

SQLynx让数据库变得简单!

SQLynx让数据库管理和开发变得更简单&#xff0c;SQLynx是一款旨在简化飞客使用体验的创新型工具&#xff0c;它为数据库管理者、数据库分析师和开发人员提供了一个直观、易用、高效的平台&#xff0c;首先&#xff0c;SQLynx拥有直观友好的用户界面。无论您是新建还是导表&…

stm32f10x_tim.h(函数学习自用)

stm32f10x_tim.h 函数库 void TIM_TimeBaseInit(TIM_TypeDef* TIMx, TIM_TimeBaseInitTypeDef* TIM_TimeBaseInitStruct); //时基单元配置void TIM_OC1Init(TIM_TypeDef* TIMx, TIM_OCInitTypeDef* TIM_OCInitStruct); void TIM_OC2Init(TIM_TypeDef* TIMx, TIM_OCInitTypeDe…

Centos Stream 9安装Jenkins-2.485 构建自动化项目步骤

官网&#xff1a;https://www.jenkins.io/ 1 下载 环境准备&#xff1a; 版本支持查询&#xff1a;https://pkg.jenkins.io/redhat-stable/ 安装JDK17&#xff1a;https://blog.csdn.net/qq_44870331/article/details/140784297 yum -y install epel-release wget upgradew…

ubuntu修改成静态ip

先用ifconfg查询网卡名称 例如以下的是enp10s0 enp10s0: flags4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500inet 192.168.100.159 netmask 255.255.255.0 broadcast 192.168.100.255inet6 fe80::127c:61ff:fe4c:ab6b prefixlen 64 scopeid 0x20<link>ether…

Canvas 前端艺术家

目前各种数据来看&#xff0c;前端未来在 数据可视化 和 AI 这两个领域会比较香&#xff0c;而 Canvas 是 数据可视化 在前端方面的基础技术。所以给大家唠唠Canvas这个魔幻工具。 Canvas 介绍 Canvas 中文名叫 “画布”&#xff0c;是 HTML5 新增的一个标签。Canvas 允许开发…

WEB攻防-通用漏洞文件上传二次渲染.htaccess变异免杀

知识点&#xff1a; 1、文件上传-二次渲染 2、文件上传-简单免杀变异 3、文件上传-.htaccess妙用 4、文件上传-PHP语言特性 1、上传后门时&#xff0c;文件内容带.就不行 这时可以上传一个转换后的ip地址&#xff0c;ip地址对应网站包含后门代码 转换后的int会在访问的时候…

Linux驱动开发(9):pinctrl子系统和gpio子系统--led实验

在前面章节&#xff0c;我们有过使用寄存器去编写字符设备的经历了。这种直接在驱动代码中&#xff0c; 通过寄存器映射来对外设进行使用的编程方式&#xff0c;从驱动开发者的角度可以说是灾难。 因为每当芯片的寄存器发生了改动&#xff0c;那么底层的驱动几乎得重写。 那么…