深度学习面试问题 | 降维

本文给大家带来的百面算法工程师是深度学习降维面试总结,文章内总结了常见的提问问题,旨在为广大学子模拟出更贴合实际的面试问答场景。在这篇文章中,我们还将介绍一些常见的深度学习面试问题,并提供参考的回答及其理论基础,以帮助求职者更好地准备面试。通过对这些问题的理解和回答,求职者可以展现出自己的深度学习算发工程师领域的专业知识、解决问题的能力以及对实际应用场景的理解。同时,这也是为了帮助求职者更好地应对深度学习算法工程师岗位的面试挑战,提升面试的成功率和竞争力

专栏地址:百面算法工程师——总结最新各种计算机视觉的相关算法面试问题

目录

19.1 怎样避免维数灾难?

19.2 降维的必要性?

19.3 降维有什么意义?

19.4 PCA主成分分析?

19.5 PCA核心思想?

19.6 如何得到包含最大差异性的主成分方向?

19.7 特征值分解矩阵

19.8 SVD分解矩阵?

19.9 PCA算法流程总结?

19.10 PCA核心思想

19.11 PCA降维之后的维度怎么确定?

19.12 PCA有什么优缺点?

19.13 线性判别分析LDA?

19.14 线性判别分析LDA核心思想?

19.15 LDA的优缺点?

19.16 PCA和LDA的对比


19.1 怎样避免维数灾难?

避免维数灾难通常涉及以下几个方法:

  1. 特征选择(Feature Selection:只选择对任务有用的特征,而忽略无关或冗余的特征。这可以通过各种方法实现,如方差阈值、相关性分析、前向选择、后向选择等。
  2. 降维(Dimensionality Reduction:通过将数据投影到低维空间来减少特征数量。常用的降维技术包括主成分分析(PCA)、线性判别分析(LDA)、t-分布邻域嵌入(t-SNE)等。
  3. 流形学习(Manifold Learning:考虑数据可能存在的非线性结构,并在保留数据重要信息的同时降低维度。流形学习算法如局部线性嵌入(LLE)、等距映射(Isomap)等。
  4. 使用稀疏模型(Sparse Models:通过使用稀疏模型,只关注对预测有贡献的特征,而忽略对预测没有贡献的特征。L1 正则化(Lasso)是一种常用的方法。
  5. 集成学习(Ensemble Learning:将多个模型的预测结果结合起来,可以通过减少过拟合的方式降低维度灾难的影响。
  6. 增加数据量:在某些情况下,增加数据量可以缓解维数灾难的问题,因为更多的数据可能使得高维空间更加稀疏,降低模型过拟合的风险。
  7. 使用深度学习技术:深度学习技术在处理高维数据时通常表现较好,因为它们可以自动学习到数据的特征表示,并且在训练过程中可以利用大规模的数据来减少过拟合的风险。
19.2 降维的必要性?

降维的必要性可以从几个方面来理解:

  1. 简化模型:高维数据集通常会导致模型复杂度增加,因为模型需要学习大量的特征之间的关系。通过降维可以减少模型复杂度,提高模型的泛化能力,并且可以更容易地理解和解释模型的行为。
  2. 减少计算成本:高维数据集意味着计算量巨大,训练和评估模型的成本也相应增加。降维可以减少计算成本,加快模型的训练和预测速度。
  3. 解决维数灾难:在高维空间中,数据变得稀疏且分布不均匀,导致模型过拟合的风险增加。降维可以减少这种稀疏性,提高模型的泛化能力,避免维数灾难的发生。
  4. 可视化数据:人类对于低维数据的理解和可视化能力更强。降维可以将高维数据映射到二维或三维空间,使得数据更容易理解和可视化,从而帮助发现数据中的模式和结构。
  5. 去除冗余信息:高维数据集可能包含大量冗余信息或噪声,降维可以帮助去除这些冗余信息,提取数据中的主要特征,从而提高模型的性能。

因此,降维在机器学习和数据分析中具有重要的作用,可以帮助简化模型、减少计算成本、提高泛化能力、改善可视化效果,并去除冗余信息,从而提高数据分析和模型建模的效率和准确性。

19.3 降维有什么意义?

降维在数据分析和机器学习中具有重要意义,主要体现在以下几个方面:

  1. 简化数据:降维可以将高维数据转换为低维数据,从而简化了数据的复杂度。这使得数据更容易理解和处理,减少了数据分析和模型建立的难度。
  2. 去除冗余信息:高维数据往往包含大量冗余信息或噪声,降维可以帮助去除这些不重要的信息,提取出数据中的主要特征,从而提高了数据的表达效率和模型的性能。
  3. 减少计算成本:高维数据集需要更多的计算资源来处理和分析,而降维可以减少数据集的维度,降低了计算成本,加快了数据分析和模型训练的速度。
  4. 避免维度灾难:在高维空间中,数据变得稀疏且分布不均匀,容易导致模型过拟合。降维可以减少维度,提高了模型的泛化能力,避免了维度灾难的发生。
  5. 可视化数据:降维可以将高维数据映射到二维或三维空间,使得数据更容易可视化。通过可视化数据,我们可以更直观地理解数据的结构和特征,发现数据中的模式和规律。
  6. 提高模型解释性:降维可以将数据转换为更少的特征,使得模型更容易理解和解释。这有助于深入分析模型的行为和结果,从而更好地指导业务决策和优化模型性能。

综上所述,降维对于简化数据、提高计算效率、改善模型性能、避免维度灾难、可视化数据以及提高模型解释性都具有重要意义,是数据分析和机器学习中不可或缺的一环。

19.4 PCA主成分分析?

主成分分析(Principal Component Analysis,PCA)是一种常用的降维技术,其主要目标是通过线性变换将原始数据投影到一个新的低维空间,从而使得投影后的数据具有最大的方差。这些投影后的维度被称为主成分,是原始特征的线性组合。

PCA的主要步骤如下:

  1. 数据中心化:对原始数据进行中心化处理,即将每个特征的均值减去相应的平均值,使得数据的均值为零。
  2. 计算协方差矩阵:计算中心化后的数据的协方差矩阵。协方差衡量了两个变量之间的关系,它的值越大表示两个变量之间的关系越密切。
  3. 计算特征值和特征向量:对协方差矩阵进行特征值分解,得到特征值和对应的特征向量。特征值表示了数据在特征向量方向上的方差,而特征向量则表示了数据在对应方向上的线性组合。
  4. 选择主成分:按照特征值的大小降序排列特征向量,选择前k个特征向量作为主成分,其中k为降维后的维度。
  5. 投影数据:将原始数据投影到选定的主成分上,得到降维后的数据。

PCA的优点包括:

  • 可以减少数据的维度,去除冗余信息,提高数据的表达效率。
  • 可以帮助理解数据的结构和特征,发现数据中的模式和规律。
  • 可以提高模型的泛化能力,减少过拟合的风险。

然而,PCA也有一些限制,例如对非线性关系的数据处理能力较弱,因为PCA是基于线性变换的。此外,在选择主成分时需要谨慎,以保留尽可能多的原始数据信息。

19.5 PCA核心思想?

PCA的核心思想是通过线性变换将原始数据投影到一个新的低维空间,使得投影后的数据具有最大的方差。在这个新的低维空间中,数据的每一个维度被称为一个主成分,它是原始特征的线性组合。

具体来说,PCA的核心思想可以概括为以下几点:

  1. 最大化方差:PCA旨在找到投影方向,使得数据在这个方向上的方差最大。因为方差代表了数据的信息量,所以通过最大化方差,可以保留尽可能多的数据信息。
  2. 正交性:PCA要求找到的主成分是正交的,即它们之间是相互独立的。这意味着主成分之间没有冗余信息,每个主成分都捕捉了数据中新的信息。
  3. 降维:在找到主成分后,可以选择保留其中的一部分主成分,从而实现降维。通过保留方差较大的主成分,可以在减少数据维度的同时最大程度地保留数据的信息。
  4. 数据重构:通过保留的主成分,可以将降维后的数据重新映射回原始高维空间,从而实现对原始数据的重构。虽然降维会损失一部分信息,但通过尽可能保留主要的数据特征,可以在保留数据结构的同时减少数据维度。

综上所述,PCA的核心思想是通过找到数据中的主要方向(主成分),从而实现数据的降维和重构,以保留尽可能多的数据信息。通过最大化方差和保持主成分之间的正交性,PCA能够有效地减少数据的维度,并发现数据中的主要模式和结构。

19.6 如何得到包含最大差异性的主成分方向?

要得到包含最大差异性的主成分方向,可以按照以下步骤进行:

  1. 数据标准化:对原始数据进行标准化处理,使得每个特征的均值为0,方差为1。这是因为PCA对数据的尺度敏感,标准化可以确保所有特征在相同的尺度上。
  2. 计算协方差矩阵:计算标准化后的数据的协方差矩阵。协方差矩阵描述了数据特征之间的相关性和变化方向。
  3. 特征值分解:对协方差矩阵进行特征值分解,得到特征值和对应的特征向量。特征向量代表了数据在新的特征空间中的方向,而特征值表示了数据在对应特征向量方向上的方差。
  4. 选择主成分:按照特征值的大小降序排列特征向量,选择前k个特征向量作为主成分,其中k为降维后的维度。因为特征值表示了方差,所以选择特征值较大的特征向量意味着选择了数据变化较大的方向,即包含了最大的差异性。
  5. 投影数据:将原始数据投影到选定的主成分上,得到降维后的数据。

通过这些步骤,可以得到包含最大差异性的主成分方向,从而实现对数据的降维和重构。这些主成分方向是原始数据中方差最大的方向,能够最大程度地保留数据的信息和结构。

19.7 特征值分解矩阵

特征值分解(Eigenvalue Decomposition)是一种将方阵分解为特征向量和特征值的方法。在数学上,给定一个方阵 ( A ),它可以被分解为如下形式:

A=Q-1

其中,( Q ) 是由 ( A ) 的特征向量组成的矩阵,Λ 是对角矩阵,对角线上的元素是 ( A ) 的特征值。特征值分解可以用于对称矩阵的分解。

在特征值分解中,( Q ) 是正交矩阵,它的列向量是 ( A ) 的特征向量。Λ是对角矩阵,它的对角线上的元素是 ( A ) 的特征值。特征值分解的目的是将矩阵 ( A ) 分解为一组特征向量和特征值,从而更好地理解和处理矩阵的性质。

特征值分解在很多数学和工程应用中都有广泛的应用,其中最为著名的应用之一就是主成分分析(PCA)。PCA通常使用特征值分解来计算数据的协方差矩阵,并得到主成分和对应的特征值,从而实现数据的降维和分析。

19.8 SVD分解矩阵?

奇异值分解(Singular Value Decomposition,SVD)是一种将任意矩阵分解为奇异向量和奇异值的方法。对于一个m×n 的实数或复数矩阵 ( A ),它可以被分解为如下形式:

A=V^T

其中,( U ) 是一个 m×m的正交矩阵,( V ) 是一个 n×n的正交矩阵,Σ 是一个 m×n 的对角矩阵。对角矩阵 Σ的对角线上的元素称为奇异值,通常按照降序排列。奇异向量 ( U ) 和 ( V ) 是对应于矩阵 ( A A^T ) 和 (A^T A) 的特征向量。

SVD分解在很多数学和工程应用中都有广泛的应用,例如在数据降维、矩阵逆的计算、矩阵伪逆的计算、奇异值截断等方面。在很多情况下,SVD分解可以提供对矩阵的最优低秩逼近,从而更好地理解和处理矩阵的性质。

19.9 PCA算法流程总结?

PCA(Principal Component Analysis)算法的流程可以总结为以下步骤:

  1. 数据标准化:对原始数据进行标准化处理,使得每个特征的均值为0,方差为1。这是为了确保所有特征在相同的尺度上,避免某些特征对PCA结果的影响过大。
  2. 计算协方差矩阵:计算标准化后的数据的协方差矩阵。协方差矩阵描述了数据特征之间的相关性和变化方向。
  3. 特征值分解:对协方差矩阵进行特征值分解,得到特征值和对应的特征向量。特征向量代表了数据在新的特征空间中的方向,而特征值表示了数据在对应特征向量方向上的方差。
  4. 选择主成分:按照特征值的大小降序排列特征向量,选择前k个特征向量作为主成分,其中k为降维后的维度。通常选择特征值较大的特征向量,因为它们对应的方差较大,包含了更多的信息。
  5. 投影数据:将原始数据投影到选定的主成分上,得到降维后的数据。这可以通过将原始数据与选定的主成分相乘来实现。

通过以上步骤,PCA可以将原始高维数据转换为低维空间中的主成分,实现了数据的降维。降维后的数据仍然保留了原始数据的主要信息,可以用于后续的分析和建模。

19.10 PCA核心思想

PCA(Principal Component Analysis)的核心思想是通过线性变换将高维数据投影到一个低维的子空间上,使得投影后的数据能够保留尽可能多的原始数据的信息。换句话说,PCA试图找到一个最优的投影方式,以尽可能少的信息损失来表示原始数据。

具体来说,PCA的核心思想可以概括为以下几点:

  1. 最大化方差:PCA试图找到一个投影方向,使得数据在这个方向上的方差最大。因为方差代表了数据的信息量,所以通过最大化方差,可以保留尽可能多的数据信息。
  2. 正交性:PCA要求找到的投影方向是正交的,即它们之间是相互独立的。这意味着投影后的特征之间没有冗余信息,每个特征都捕捉了数据中新的信息。
  3. 降维:在找到投影方向后,可以选择保留其中的一部分特征,从而实现降维。通过保留方差较大的特征,可以在减少数据维度的同时最大程度地保留数据的信息。
  4. 数据重构:通过保留的投影方向,可以将降维后的数据重新映射回原始高维空间,从而实现对原始数据的重构。虽然降维会损失一部分信息,但通过尽可能保留主要的数据特征,可以在保留数据结构的同时减少数据维度。

综上所述,PCA的核心思想是通过找到数据中的主要方向(主成分),从而实现数据的降维和重构,以尽可能少的信息损失来表示原始数据。通过最大化方差和保持主成分之间的正交性,PCA能够有效地减少数据的维度,并发现数据中的主要模式和结构。

19.11 PCA降维之后的维度怎么确定?

确定PCA降维后的维度通常是根据应用需求和数据特征来决定的。有几种常用的方法来确定PCA降维后的维度:

  1. 保留一定比例的方差:可以根据累计解释方差比例来确定降维后的维度。通常情况下,我们希望保留的主成分能够解释原始数据中大部分的方差。可以通过计算累计解释方差比例来确定保留的主成分数量,通常选择使累计解释方差比例达到设定阈值(如90%或95%)的维度。
  2. Elbow Method:Elbow Method是一种直观的方法,它通过观察主成分对应的特征值的大小来确定降维后的维度。可以绘制特征值与主成分序号的关系图,然后找到一个"拐点",即特征值急剧下降的地方。该拐点对应的主成分数量可以作为降维后的维度。
  3. 业务需求和实际应用场景:根据具体的业务需求和实际应用场景来确定降维后的维度。有时候,我们可能需要根据具体的领域知识或专家建议来确定合适的维度。
  4. 交叉验证:可以使用交叉验证来评估不同维度下模型的性能,并选择表现最好的维度作为降维后的维度。

无论选择哪种方法确定PCA降维后的维度,都需要考虑到数据的特点、业务需求和实际应用场景,以及对信息保留的要求。

19.12 PCA有什么优缺点?

优点

缺点

1. 降维:可以将高维数据转换为低维数据,简化了数据分析和模型建立的复杂度。

1. 线性限制:PCA假设数据特征之间是线性相关的,对于非线性关系的数据处理能力较弱。

2. 去除冗余信息:能够去除数据中的冗余信息和噪声,提取出数据中最重要的特征。

2. 信息损失:降维会导致信息的损失,降低了数据的表达能力和模型的性能。

3. 减少计算成本:降维后的数据量减少了,可以加快模型训练和预测的速度,降低了计算成本。

3. 依赖特征之间的线性关系:PCA对数据特征之间的线性关系敏感,如果数据中存在非线性关系,可能无法很好地捕捉数据的特征。

4. 减轻维数灾难:可以减少维度,提高模型的泛化能力,减轻了维数灾难的影响。

4. 选择主成分数量:选择主成分数量是一个主观的过程,需要根据具体的应用需求和数据特点来确定,可能需要一定的经验和领域知识。

5. 可视化数据:能够将高维数据映射到二维或三维空间,使得数据更容易理解和可视化。

19.13 线性判别分析LDA?

线性判别分析(Linear Discriminant Analysis,LDA)是一种常用的监督学习算法,用于将数据投影到一个低维空间中,同时最大化类别之间的差异性,从而实现数据的降维和分类。

LDA的核心思想是通过线性变换将原始数据投影到一个低维空间上,使得同一类别的样本尽可能接近,不同类别的样本尽可能远离。与PCA不同,LDA是一种有监督学习算法,它利用了类别信息来进行降维和分类。

LDA的主要步骤如下:

  1. 计算类别均值向量:对每个类别的样本计算均值向量,即该类别样本在每个特征上的平均值。
  2. 计算类内散布矩阵:计算每个类别内样本的散布矩阵,用来描述同一类别内样本的分布情况。
  3. 计算类间散布矩阵:计算所有类别样本的类间散布矩阵,用来描述不同类别之间的分布情况。
  4. 计算投影方向:通过最大化类间散布矩阵与类内散布矩阵的比值(Fisher判别准则),得到最优的投影方向。
  5. 投影数据:将原始数据投影到选定的投影方向上,得到降维后的数据。

与PCA相比,LDA具有以下特点:

  • LDA是一种有监督学习算法,利用了类别信息,因此在分类任务中通常比PCA更有效。
  • LDA寻找的投影方向是使得不同类别样本之间的差异最大化的方向,而PCA寻找的是使得数据整体方差最大化的方向。
  • LDA在数据分布明显的情况下表现较好,但在数据分布混合的情况下可能效果不佳。

总的来说,LDA在降维和分类任务中有着广泛的应用,并且通常比PCA在分类任务中表现更好。

19.14 线性判别分析LDA核心思想?

LDA(Linear Discriminant Analysis)的核心思想是通过线性变换将原始数据投影到一个低维空间上,同时最大化类别之间的差异性,从而实现数据的降维和分类。具体来说,LDA的核心思想可以概括为以下几点:

  1. 最大化类间距离:LDA试图找到一个投影方向,使得不同类别的样本在投影后的空间中尽可能远离彼此,从而最大化类间距离。这样做的目的是为了在投影后的低维空间中更容易地将不同类别的样本分开。
  2. 最小化类内方差:同时,LDA也试图最小化同一类别内样本的方差,使得同一类别的样本在投影后的空间中尽可能靠近彼此。这样做的目的是为了保持同一类别内样本的紧密性,减少同一类别内部的混淆。
  3. Fisher判别准则:LDA通过最大化类间距离与最小化类内方差的比值(Fisher判别准则),找到最优的投影方向。这样得到的投影方向不仅能够在降维后的空间中更好地区分不同类别的样本,同时也能保持同一类别内样本的紧密性。

综上所述,LDA的核心思想是通过最大化类间距离和最小化类内方差,找到一个最优的投影方向,从而实现数据的降维和分类。通过这种方式,LDA能够更好地保留数据的类别信息,提高了分类的准确性。

19.15 LDA的优缺点?

优点

缺点

1. 利用类别信息:LDA是一种有监督学习算法,利用了类别信息来进行降维和分类。

1. 对异常值敏感:LDA对异常值比较敏感,异常值可能影响到投影方向的确定,从而影响分类效果。

2. 最大化类间距离:LDA通过最大化类间距离的方式进行投影,能够更好地区分不同类别的样本。

2. 需要类别标签:LDA需要类别标签作为输入,因此不能用于无监督学习的场景。

3. 降低维度:LDA可以将高维数据降低到更低维的空间中,减少了数据的复杂度和计算成本。

3. 线性限制:LDA是基于线性变换的方法,对于非线性关系的数据处理能力较弱。

4. 减少类内方差:LDA同时也最小化了同一类别内样本的方差,保持了同一类别内样本的紧密性。

4. 适用性有限:LDA在数据分布不均匀或者类别重叠严重的情况下可能效果不佳。

5. 降低维度的同时实现分类:LDA不仅可以用于降维,还可以直接用于分类任务,具有双重作用。

5. 受样本分布影响:LDA假设数据服从正态分布,如果数据分布不符合该假设,则可能影响分类效果。

19.16 PCA和LDA的对比

特征

PCA

LDA

监督/无监督

无监督学习

有监督学习

目标

最大化数据的方差

最大化类间差异,最小化类内方差

数据处理

不考虑类别信息,仅关注数据本身的分布

考虑类别信息,利用类别标签进行数据投影

投影方向

基于数据的方差结构,保留数据中的主要特征

基于类别之间的差异性,尽可能使得不同类别之间的距离最大化,同时使得同一类别内的样本尽可能靠近

适用场景

主要用于无监督学习任务,如数据预处理、可视化、噪声过滤等

主要用于有监督学习任务,如模式识别、分类、特征提取等

非线性拓展

通常为线性方法,但可以通过核技巧进行非线性拓展

通常为线性方法,但可以通过核技巧扩展为非线性方法

对异常值敏感

对异常值不敏感

对异常值较为敏感

类别标签

不需要类别标签,只考虑数据本身的结构

需要类别标签,通过类别信息进行数据投影

适用性

在数据分布均匀、不同类别样本分布重叠的情况下效果较好

在数据分布不均匀、类别间差异明显的情况下效果较好

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/628074.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

No Cortex-M SW Device Found

将DIO和CLK管脚调换一下

【制作100个unity游戏之26】unity2d横版卷轴动作类游戏4(附带项目源码)

最终效果 系列导航 文章目录 最终效果系列导航前言添加敌人受击动画第一种 配置闪烁动画第二种 受伤击退效果人物死亡源码完结 前言 欢迎来到【制作100个Unity游戏】系列!本系列将引导您一步步学习如何使用Unity开发各种类型的游戏。在这第26篇中,我们将…

一文读懂:低代码

引言 在数字化转型的时代,软件开发已经成为企业迅速响应市场需求和创新的关键。然而,传统的软件开发模式往往面临着繁琐的代码编写、长周期的开发时间以及对技术专业知识的依赖,这使得许多企业在追求创新和业务扩展的过程中倍感束手无策。 …

dragonbones 5.6.3不能导出的解决办法

问题描述 使用dragonbones 5.6.3导出资源时无反应。 解决方法 第一步安装node.js,我这里使用的是V18.16.0第二步进入到DragonBonesPro\egretlauncher\server\win目录,然后把里面的node.exe替换为刚刚下载的node文件夹即可,如下图&#xff…

Synchronize 底层实现原理

1 、加锁实现原理 public class SynchronizedTest {public void get(){synchronized (this){ // 这个是同步代码块System.out.println("你好呀");}}public synchronized void f(){ //这个是同步方法System.out.println("Hello world");}public s…

数据生命周期管理:从提取到治理再到安全保障的全面策略

在大数据的时代背景下,数据已经成为企业运营不可或缺的资源。然而,数据的管理并非易事,特别是在数据的整个生命周期中——从数据的提取、治理到安全保障,每一个环节都至关重要。本文将探讨如何制定一个全面的数据生命周期管理策略…

单片机开发板上外设资源讲解

单片机开发电路板上简单外设 开发板上各基础外设LED灯按键:数码管介绍液晶屏矩阵键盘扫描的概念LED点阵屏实时时钟蜂鸣器存储器 温度传感器&单总线 开发板上各基础外设 LED灯 中文名:发光二极管 外文名:Light Emitting Diode 简称&…

elasticsearch(下载安装、基本操作、查询、聚合、SpringData-Elasticsearch)

文章目录 1. 了解搜索技术1.1. 什么是搜索1.2. 新业务需求1.3. 搜索引擎1.4. 倒排索引(Inverted index)1.5. 认识lucene1.6. 什么是全文检索 2.下载安装2.1. elastic2.2 下载2.2.1 elasticsearch2.2.2 kibana地址2.2.3 ik中文分词器地址 2.3 安装elasticsearch2.3.1 安装elasti…

AI Agent LangChain使用方法记录

B站教程OpenAI官网获取密钥: OPENAI官网获取KEY 报错“Did not find openai_api_key, please add an environment variable OPENAI_API_KEY”

智能网红主播直播手机:助您轻松卖货、卖团购卷、拓客利器!

在当下快速发展的电商行业中,直播销售已经成为无可忽视的一大趋势。智能网红主播直播手机的出现,让人们无需拥有专业设备和经验,便可轻松参与直播销售,享受销售乐趣。本文将介绍智能网红主播直播手机的操作简单、易上手以及其在卖…

JSON格式化输出html——数组+对象+JSON字符串+汉字——基础积累——@pgrabovets/json-view

昨天写了一篇关于JSON格式化输出到页面上——数组对象JSON字符串汉字——基础积累的文章,效果是可以实现的 但是如果要实现右侧部分的展开/折叠,则可以使用到下面的插件了pgrabovets/json-view github链接:https://github.com/pgrabovets/j…

【C语言】水仙花数

问题 水仙花数(Narcissistic number)也被称为超完全数字不变数(pluperfect digital invariant, PPDI)、自恋数、自幂数或阿姆斯壮数数(Armstrong number)。 它是指一个n位数(n≥3)…

什么样的开放式耳机好用舒服?五款高人气质量绝佳产品力荐!

​随着人们越来越注重个人的身体健康问题,掀起了一股运动浪潮,现在大家都会喜欢跑跑步,运动一下使自己的身体更好,那么在运动时候如果能有音乐听的话,人们的运动状态就能达到更好的水平。鉴于传统入耳式耳机给用户带来…

特征模态分解(FMD):一种小众而又新颖的分解方法

​ 声明:文章是从本人公众号中复制而来,因此,想最新最快了解各类智能优化算法及其改进的朋友,可关注我的公众号:强盛机器学习,不定期会有很多免费代码分享~ 今天为大家介绍一个小众而又新颖的信号分…

【全开源】Java同城信息付费系统家政服务房屋租赁房屋买卖房屋装修信息发布平台小程序APP公众号源码

同城信息付费系统:家政服务的新篇章 在快节奏的现代生活中,家政服务已成为许多家庭不可或缺的一部分。然而,如何快速、准确地找到合适、可靠的家政服务人员,一直是困扰着许多家庭的问题。为了解决这一难题,我们推出了…

JVS物联网、无忧企业文档、规则引擎5.14功能新增说明

项目介绍 JVS是企业级数字化服务构建的基础脚手架,主要解决企业信息化项目交付难、实施效率低、开发成本高的问题,采用微服务配置化的方式,提供了 低代码数据分析物联网的核心能力产品,并构建了协同办公、企业常用的管理工具等&am…

谷歌 I/O 2024大会全面硬钢OpenAI;腾讯宣布旗下的混元文生图大模型;阿里巴巴技术下的AI自动视频剪辑工具

✨ 1: 谷歌 I/O 2024 谷歌 I/O 2024 发布了众多新技术,包括 Gemini AI、大语言模型和通用 AI 智能体等,全面颠覆搜索体验。 谷歌 I/O 2024发布会带来许多令人兴奋的新功能和技术创新: Gemini 1.5 Pro:一个极其强大的语言模型&am…

消息队列选型

一、要解决的问题 1.1 异步 分析: 需要根据场景来判断。若整体链路的逻辑中,某些逻辑是不需要强实时的,滞后一段时间是允许的,同时又不会对用户带来不好的体验,那么可以使用MQ完成异步操作。 例如:秒杀场…

x264 帧类型代价计算原理:slicetype_frame_cost 函数分析

slicetype_frame_cost 函数 函数功能 这个函数的核心是计算编码一系列帧(从 p0 到p1,以 b 为当前帧)的代价 cost,并根据这个代价 cost来辅助帧类型决策。它考虑了运动搜索的结果、帧间和帧内预测的成本,并且可以并行处理以提高效率。该函数在帧类型决策、MBtree 分析、场…

消防物资存储|基于SSM+vue的消防物资存储系统的设计与实现(源码+数据库+文档)

消防物资存储系统 目录 基于SSM+vue的消防物资存储系统的设计与实现 一、前言 二、系统设计 三、系统功能设计 1用户功能模块 2 管理员功能模块 四、数据库设计 五、核心代码 六、论文参考 七、最新计算机毕设选题推荐 八、源码获取: 博主介…