贝叶斯定理

贝叶斯定理

1.知识前驱

1. 全概率公式

它允许我们计算一个事件发生的总概率,这个事件可以通过几个互斥的途径发生。

事件 B B B 发生的总概率是 B B B 在每个互斥情况下发生的概率之和。每个“情况” A i A_i Ai 都被视为一个可能的路径,通过这个路径 B B B 可以发生。

定义

全概率公式可以表述为:如果事件 A 1 , A 2 , … , A n A_1, A_2, \ldots, A_n A1,A2,,An 构成了样本空间的一个划分,即它们互斥且完全穷尽(即它们不能同时发生,且它们的并集是整个样本空间),那么任何事件 B B B 的概率可以表示为:

P ( B ) = P ( B ∣ A 1 ) P ( A 1 ) + P ( B ∣ A 2 ) P ( A 2 ) + ⋯ + P ( B ∣ A n ) P ( A n ) P(B) = P(B|A_1)P(A_1) + P(B|A_2)P(A_2) + \cdots + P(B|A_n)P(A_n) P(B)=P(BA1)P(A1)+P(BA2)P(A2)++P(BAn)P(An)

这里:

  • P ( B ∣ A i ) P(B|A_i) P(BAi) 是在事件 A i A_i Ai 发生的条件下事件 B B B 发生的条件概率。
  • P ( A i ) P(A_i) P(Ai) 是事件 A i A_i Ai 发生的概率。

2. 二项分布(Binomial Distribution)

二项分布是一种离散概率分布,它描述了在固定次数的独立伯努利试验中成功的次数,其中每次试验成功的概率相同。

参数

  • n n n:试验次数,必须是一个正整数。
  • p p p:每次试验成功的概率,取值范围在0到1之间。

概率质量函数(PMF)
P ( X = k ) = ( n k ) p k ( 1 − p ) n − k P(X = k) = \binom{n}{k} p^k (1-p)^{n-k} P(X=k)=(kn)pk(1p)nk
其中, X X X 是表示成功次数的随机变量, k k k 是成功的次数, ( n k ) \binom{n}{k} (kn) 是组合数,表示从 n n n 次试验中选择 k k k 次成功的方式数。

特点

  • 二项分布是离散的。
  • 它用于模拟有固定次数试验和只有两种可能结果(成功或失败)的场景。
  • n n n 很大且 p p p 很小的时候,二项分布可以用泊松分布来近似。

3. 正态分布(Normal Distribution)

正态分布,也称为高斯分布,是一种连续概率分布。

参数

  • μ \mu μ:分布的均值(期望值),决定了分布的中心位置。
  • σ 2 \sigma^2 σ2:分布的方差,决定了分布的离散程度;标准差 σ \sigma σ 是方差的平方根。

概率密度函数(PDF)
f ( x ∣ μ , σ 2 ) = 1 2 π σ 2 exp ⁡ ( − ( x − μ ) 2 2 σ 2 ) f(x | \mu, \sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x - \mu)^2}{2\sigma^2}\right) f(xμ,σ2)=2πσ2 1exp(2σ2(xμ)2)
其中, x x x 是随机变量的取值。

特点

  • 正态分布是连续的。
  • 它的形状是对称的,均值 μ \mu μ 决定了分布的中心,标准差 σ \sigma σ 决定了分布的宽度。
  • 正态分布在其均值附近的值最为集中,随着距离均值的增加,概率密度逐渐减小。
  • 根据中心极限定理,许多独立随机变量的和(或平均值)在样本量足够大时近似正态分布,无论这些变量本身是什么分布。

二项分布适用于离散型随机变量

正态分布适用于连续型随机变量

2. 贝叶斯定理

贝叶斯定理是贝叶斯统计学的核心,它描述了如何根据新的证据更新对假设的概率估计。贝叶斯定理的公式是:

P ( H ∣ E ) = P ( E ∣ H ) ⋅ P ( H ) P ( E ) P(H|E) = \frac{P(E|H) \cdot P(H)}{P(E)} P(HE)=P(E)P(EH)P(H)

其中:

  • P ( H ∣ E ) P(H|E) P(HE) 是在证据 E E E 发生的条件下假设 H H H 为真的后验概率。
  • P ( E ∣ H ) P(E|H) P(EH) 是在假设 H H H 为真的条件下证据 E E E 发生的可能性,也称为似然性。
  • P ( H ) P(H) P(H) 是在考虑任何证据之前假设 H H H 为真的先验概率。
  • P ( E ) P(E) P(E) 是证据 E E E 发生的总概率,可以通过全概率公式计算。

推导贝叶斯定理

贝叶斯定理可以从条件概率的定义出发进行推导。根据条件概率的定义,我们有:

P ( H ∩ E ) = P ( H ) ⋅ P ( E ∣ H ) P(H \cap E) = P(H) \cdot P(E|H) P(HE)=P(H)P(EH)

这里, P ( H ∩ E ) P(H \cap E) P(HE) 表示假设 H H H 和证据 E E E 同时发生的概率。

同样地,我们也可以从 E E E 的角度来表达这个联合概率:

P ( H ∩ E ) = P ( E ) ⋅ P ( H ∣ E ) P(H \cap E) = P(E) \cdot P(H|E) P(HE)=P(E)P(HE)

现在,我们可以将两个表达式设置为相等,因为它们表示的是同一个联合概率:

P ( H ) ⋅ P ( E ∣ H ) = P ( E ) ⋅ P ( H ∣ E ) P(H) \cdot P(E|H) = P(E) \cdot P(H|E) P(H)P(EH)=P(E)P(HE)

接下来,我们解出 P ( H ∣ E ) P(H|E) P(HE),即在证据 E E E 发生的情况下假设 H H H 为真的概率:

P ( H ∣ E ) = P ( H ) ⋅ P ( E ∣ H ) P ( E ) P(H|E) = \frac{P(H) \cdot P(E|H)}{P(E)} P(HE)=P(E)P(H)P(EH)

这就是贝叶斯定理的基本形式。它表明后验概率 P ( H ∣ E ) P(H|E) P(HE) 与先验概率 P ( H ) P(H) P(H) 和似然性 P ( E ∣ H ) P(E|H) P(EH) 的乘积成正比,并且与证据 E E E 发生的总概率 P ( E ) P(E) P(E) 成反比。

3. 先验分布

先验分布是在考虑任何数据之前对参数的初始概率分布。它反映了我们对参数的先验信念或知识。先验分布可以是主观的,也可以基于以往的研究或数据。

4. 似然函数

似然函数是给定参数下观察到数据的概率。它是贝叶斯定理中的关键组成部分,用于量化模型参数与观测数据之间的匹配程度。

似然函数是统计模型中的一个重要概念,它衡量了在给定一组参数的情况下,观测到特定数据样本的概率。数学上,如果我们有一个参数向量 θ \theta θ 和一个数据样本 D D D,似然函数 L ( θ ∣ D ) L(\theta | D) L(θD) 定义为:

L ( θ ∣ D ) = P ( D ∣ θ ) L(\theta | D) = P(D | \theta) L(θD)=P(Dθ)

这里:

  • L ( θ ∣ D ) L(\theta | D) L(θD) 是似然函数。
  • θ \theta θ 是模型参数。
  • D D D 是观测到的数据。
  • P ( D ∣ θ ) P(D | \theta) P(Dθ) 是给定参数 θ \theta θ 下数据 D D D 的概率。

似然函数的作用

  1. 参数估计

    • 似然函数用于估计模型参数。在最大似然估计(MLE)中,我们找到使似然函数最大化的参数值。
  2. 模型比较

    • 在模型选择中,似然函数用于比较不同模型对数据的拟合程度。例如,通过比较两个模型的似然比来决定哪个模型更好。
  3. 量化不确定性

    • 似然函数帮助量化在给定参数下观测数据的不确定性。

似然函数与概率密度函数(PDF)

对于连续型随机变量,似然函数通常与概率密度函数(PDF)相关。如果我们的数据 D D D 由多个独立同分布(i.i.d.)的观测组成,似然函数可以表示为:

L ( θ ∣ D ) = ∏ i = 1 n f ( x i ∣ θ ) L(\theta | D) = \prod_{i=1}^{n} f(x_i | \theta) L(θD)=i=1nf(xiθ)

其中:

  • f ( x i ∣ θ ) f(x_i | \theta) f(xiθ) 是单个观测 x i x_i xi 的概率密度函数。
  • n n n 是观测的数量。

似然函数与对数似然函数

由于似然函数的乘积形式可能导致数值计算问题(特别是当观测数量很大时),通常使用对数似然函数,它将乘积转换为求和:

ℓ ( θ ∣ D ) = log ⁡ L ( θ ∣ D ) = ∑ i = 1 n log ⁡ f ( x i ∣ θ ) \ell(\theta | D) = \log L(\theta | D) = \sum_{i=1}^{n} \log f(x_i | \theta) (θD)=logL(θD)=i=1nlogf(xiθ)

对数似然函数更容易处理,并且在数学上更稳定

5. 后验分布

后验分布是在考虑了数据(证据)之后对参数的更新概率分布。它是通过贝叶斯定理结合先验分布和似然函数得到的。

在贝叶斯统计中,后验分布 P ( θ ∣ D ) P(\theta | D) P(θD) 是通过贝叶斯定理结合先验分布 P ( θ ) P(\theta) P(θ) 和似然函数 P ( D ∣ θ ) P(D | \theta) P(Dθ) 得到的:

P ( θ ∣ D ) = P ( D ∣ θ ) ⋅ P ( θ ) P ( D ) P(\theta | D) = \frac{P(D | \theta) \cdot P(\theta)}{P(D)} P(θD)=P(D)P(Dθ)P(θ)

这里:

  • P ( D ∣ θ ) P(D | \theta) P(Dθ) 是似然函数。
  • P ( θ ) P(\theta) P(θ) 是先验分布。
  • P ( D ) P(D) P(D) 是证据或边际似然,它是归一化常数,确保后验分布的积分为1。

似然函数的形式

似然函数的形式取决于数据的性质和模型的假设。例如:

  • 对于正态分布数据,似然函数是正态分布的概率密度函数。
  • 对于二项分布数据,似然函数是二项分布的概率质量函数。
正态分布数据的似然函数

对于正态分布数据,如果我们有一个样本 D = { x 1 , x 2 , … , x n } D = \{x_1, x_2, \ldots, x_n\} D={x1,x2,,xn},其中每个 x i x_i xi 是独立同分布(i.i.d.)的正态随机变量,其均值为 μ \mu μ,方差为 σ 2 \sigma^2 σ2,那么似然函数 L ( μ , σ 2 ∣ D ) L(\mu, \sigma^2 | D) L(μ,σ2D) 是各个数据点概率密度函数(PDF)的乘积:

L ( μ , σ 2 ∣ D ) = ∏ i = 1 n 1 2 π σ 2 exp ⁡ ( − ( x i − μ ) 2 2 σ 2 ) L(\mu, \sigma^2 | D) = \prod_{i=1}^{n} \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x_i - \mu)^2}{2\sigma^2}\right) L(μ,σ2D)=i=1n2πσ2 1exp(2σ2(xiμ)2)

这个乘积可以简化为:

L ( μ , σ 2 ∣ D ) = ( 1 2 π σ 2 ) n exp ⁡ ( − 1 2 σ 2 ∑ i = 1 n ( x i − μ ) 2 ) L(\mu, \sigma^2 | D) = \left(\frac{1}{\sqrt{2\pi\sigma^2}}\right)^n \exp\left(-\frac{1}{2\sigma^2} \sum_{i=1}^{n} (x_i - \mu)^2\right) L(μ,σ2D)=(2πσ2 1)nexp(2σ21i=1n(xiμ)2)

在实际应用中,我们通常使用对数似然函数来避免数值计算中的下溢问题,并且对数变换将乘积转换为求和,更容易处理:

ℓ ( μ , σ 2 ∣ D ) = log ⁡ L ( μ , σ 2 ∣ D ) = − n 2 log ⁡ ( 2 π ) − n log ⁡ ( σ ) − 1 2 σ 2 ∑ i = 1 n ( x i − μ ) 2 \ell(\mu, \sigma^2 | D) = \log L(\mu, \sigma^2 | D) = -\frac{n}{2} \log(2\pi) - n \log(\sigma) - \frac{1}{2\sigma^2} \sum_{i=1}^{n} (x_i - \mu)^2 (μ,σ2D)=logL(μ,σ2D)=2nlog(2π)nlog(σ)2σ21i=1n(xiμ)2

二项分布数据的似然函数

对于二项分布数据,如果我们有 n n n 次独立的伯努利试验,每次试验成功的概率为 θ \theta θ,并且我们观测到 k k k 次成功,那么似然函数 L ( θ ∣ D ) L(\theta | D) L(θD) 是二项分布的概率质量函数(PMF):

L ( θ ∣ D ) = ( n k ) θ k ( 1 − θ ) n − k L(\theta | D) = \binom{n}{k} \theta^k (1-\theta)^{n-k} L(θD)=(kn)θk(1θ)nk

这里:

  • ( n k ) \binom{n}{k} (kn) 是二项式系数,表示从 n n n 次试验中选择 k k k 次成功的方式数。
  • θ k \theta^k θk k k k 次成功的概率。
  • ( 1 − θ ) n − k (1-\theta)^{n-k} (1θ)nk n − k n-k nk 次失败的概率。

二项分布的对数似然函数是:

ℓ ( θ ∣ D ) = log ⁡ L ( θ ∣ D ) = log ⁡ ( n k ) + k log ⁡ θ + ( n − k ) log ⁡ ( 1 − θ ) \ell(\theta | D) = \log L(\theta | D) = \log \binom{n}{k} + k \log \theta + (n-k) \log (1-\theta) (θD)=logL(θD)=log(kn)+klogθ+(nk)log(1θ)

在贝叶斯框架中,我们可以使用这些似然函数与先验分布结合,通过贝叶斯定理更新后验分布。对于正态分布数据,后验分布将取决于 μ \mu μ σ 2 \sigma^2 σ2 的先验分布;对于二项分布数据,后验分布将取决于 θ \theta θ 的先验分布。这些后验分布允许我们对参数进行推断,并量化参数的不确定性。

6. 边缘似然(模型选择)

边缘似然是给定模型下数据的总概率。它可以通过对所有可能的参数值进行积分来计算。边缘似然在模型选择中非常重要,因为它允许我们比较不同模型对数据的拟合程度。

它表示在给定模型下观测到数据的总概率。边缘似然的计算涉及对所有可能的参数值进行积分(对于连续参数)或求和(对于离散参数),这通常由模型的先验分布加权。

边缘似然的计算

对于连续参数,边缘似然 P ( D ) P(D) P(D) 由下式给出:

P ( D ) = ∫ P ( D ∣ θ ) P ( θ )   d θ P(D) = \int P(D | \theta) P(\theta) \, d\theta P(D)=P(Dθ)P(θ)dθ

其中:

  • P ( D ∣ θ ) P(D | \theta) P(Dθ) 是似然函数,表示在给定参数 θ \theta θ 下观测到数据 D D D 的概率。
  • P ( θ ) P(\theta) P(θ) 是参数 θ \theta θ 的先验分布。
  • 积分是对所有可能的 θ \theta θ 值进行的。

对于离散参数,边缘似然是:

P ( D ) = ∑ P ( D ∣ θ ) P ( θ ) P(D) = \sum P(D | \theta) P(\theta) P(D)=P(Dθ)P(θ)

其中求和是对所有可能的 θ \theta θ 值进行的。

边缘似然在模型选择中的作用

边缘似然用于比较不同的模型对同一数据集的拟合程度。在模型选择中,我们通常比较两个或多个模型的边缘似然值。模型的边缘似然值越高,表示该模型对数据的拟合越好。

比较模型

比较两个模型 M 1 M_1 M1 M 2 M_2 M2 的边缘似然时,我们计算模型的相对证据,即贝叶斯因子:

贝叶斯因子 = P ( D ∣ M 1 ) P ( D ∣ M 2 ) \text{贝叶斯因子} = \frac{P(D | M_1)}{P(D | M_2)} 贝叶斯因子=P(DM2)P(DM1)

如果贝叶斯因子大于1,它表明模型 M 1 M_1 M1 比模型 M 2 M_2 M2 更可能;如果小于1,则表明模型 M 2 M_2 M2 更可能。

7. 共轭先验

共轭先验是指先验分布和后验分布属于同一家族的分布。这意味着后验分布的形式与先验分布相同,只是参数不同。例如,对于二项分布的似然函数,共轭先验是贝塔分布。

8. 贝叶斯推断的步骤

  1. 定义模型:选择一个概率模型来描述数据的生成过程。
  2. 指定先验:为模型参数选择一个先验分布。
  3. 计算似然:根据模型计算给定参数下数据的似然性。
  4. 更新后验:使用贝叶斯定理结合先验和似然来更新后验分布。
  5. 做出决策:基于后验分布进行预测或决策。

9. 贝叶斯推断的挑战

  • 计算复杂性:后验分布可能难以直接计算,特别是当模型复杂或数据量大时。
  • 先验选择:先验的选择可能会影响后验分布,特别是在数据较少时。

10. 贝叶斯推断的工具

马尔可夫链蒙特卡洛(MCMC)

一种通过模拟随机样本来近似后验分布的方法。

马尔可夫链蒙特卡洛(Markov Chain Monte Carlo,简称MCMC)方法是一类强大的算法,它们用于从复杂的概率分布中生成随机样本,尤其是当这些分布难以直接抽样时。它们可以用来近似后验分布,即使这些分布的解析形式未知或难以计算。

即:一种通过模拟随机样本来近似后验分布的方法。

MCMC的工作原理

MCMC方法通过构建一个马尔可夫链来工作,这个马尔可夫链是一个随机过程,其下一个状态的概率分布仅依赖于当前状态。通过设计这个链,使其在长期运行后,其状态的分布收敛到我们想要抽样的目标分布(例如后验分布)。

MCMC的关键步骤
  1. 初始化

    • 选择一个初始状态 x 0 x_0 x0
  2. 迭代过程

    • 从当前状态 x t x_t xt 开始,提出一个新状态 x ′ x' x,这个提议可以通过各种方法生成,例如随机游走或更复杂的方法。
    • 计算接受概率 α \alpha α,这是新状态被接受的概率,由下式给出:
      α = min ⁡ ( 1 , P ( x ′ ) Q ( x ∣ x ′ ) P ( x ) Q ( x ′ ∣ x ) ) \alpha = \min\left(1, \frac{P(x')Q(x|x')}{P(x)Q(x'|x)}\right) α=min(1,P(x)Q(xx)P(x)Q(xx))
      其中 P P P 是目标分布, Q Q Q 是提议分布。
  3. 接受或拒绝

    • 生成一个均匀随机数 u u u 在区间 ([0, 1])。
    • 如果 u ≤ α u \leq \alpha uα,则接受新状态 x ′ x' x,即设置 x t + 1 = x ′ x_{t+1} = x' xt+1=x
    • 如果 u > α u > \alpha u>α,则拒绝新状态,保持当前状态不变,即设置 x t + 1 = x t x_{t+1} = x_t xt+1=xt
  4. 重复

    • 重复步骤2和3多次,以生成足够多的样本。
  5. 收敛和混合

    • 随着时间的推移,马尔可夫链的状态将收敛到目标分布,前提是链是不可约的和非周期的,并且满足详细的平衡条件。

变分推断

一种通过优化一个简单分布来近似后验分布的方法。

11.焦糖板栗(例子)

假设我们有一个装满球的袋子,其中30%是红球,70%是蓝球。我们随机抽取一个球,发现它是红色的。我们想计算这个袋子最初是装红球的袋子的概率,假设我们有两种类型的袋子:一种装有30%的红球和70%的蓝球,另一种装有80%的红球和20%的蓝球。

让我们定义:

  • A 1 A_1 A1:袋子是第一种类型(30%红球,70%蓝球)。
  • A 2 A_2 A2:袋子是第二种类型(80%红球,20%蓝球)。
  • B B B:我们抽取了一个红球。

我们需要找到 P ( A 1 ∣ B ) P(A_1|B) P(A1B) P ( A 2 ∣ B ) P(A_2|B) P(A2B)

使用贝叶斯定理:

P ( A 1 ∣ B ) = P ( B ∣ A 1 ) ⋅ P ( A 1 ) P ( B ) P(A_1|B) = \frac{P(B|A_1) \cdot P(A_1)}{P(B)} P(A1B)=P(B)P(BA1)P(A1)
P ( A 2 ∣ B ) = P ( B ∣ A 2 ) ⋅ P ( A 2 ) P ( B ) P(A_2|B) = \frac{P(B|A_2) \cdot P(A_2)}{P(B)} P(A2B)=P(B)P(BA2)P(A2)

其中:

  • P ( A 1 ) = P ( A 2 ) = 0.5 P(A_1) = P(A_2) = 0.5 P(A1)=P(A2)=0.5(因为我们假设两种袋子的可能性相等)。
  • P ( B ∣ A 1 ) = 0.3 P(B|A_1) = 0.3 P(BA1)=0.3(第一种袋子中抽到红球的概率)。
  • P ( B ∣ A 2 ) = 0.8 P(B|A_2) = 0.8 P(BA2)=0.8(第二种袋子中抽到红球的概率)。

为了找到 P ( B ) P(B) P(B),我们使用全概率公式:

P ( B ) = P ( B ∣ A 1 ) ⋅ P ( A 1 ) + P ( B ∣ A 2 ) ⋅ P ( A 2 ) P(B) = P(B|A_1) \cdot P(A_1) + P(B|A_2) \cdot P(A_2) P(B)=P(BA1)P(A1)+P(BA2)P(A2)
P ( B ) = 0.3 ⋅ 0.5 + 0.8 ⋅ 0.5 = 0.55 P(B) = 0.3 \cdot 0.5 + 0.8 \cdot 0.5 = 0.55 P(B)=0.30.5+0.80.5=0.55

现在我们可以计算后验概率:

P ( A 1 ∣ B ) = 0.3 ⋅ 0.5 0.55 = 0.15 0.55 ≈ 0.2727 P(A_1|B) = \frac{0.3 \cdot 0.5}{0.55} = \frac{0.15}{0.55} \approx 0.2727 P(A1B)=0.550.30.5=0.550.150.2727
P ( A 2 ∣ B ) = 0.8 ⋅ 0.5 0.55 = 0.4 0.55 ≈ 0.7273 P(A_2|B) = \frac{0.8 \cdot 0.5}{0.55} = \frac{0.4}{0.55} \approx 0.7273 P(A2B)=0.550.80.5=0.550.40.7273

所以,如果我们抽取了一个红球,这个袋子是第二种类型(80%红球,20%蓝球)的概率大约是72.73%。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/910504.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

小时收入:衡量工作效率与个人自由的标准

小时收入,就是按照小时来计算一个人的收入。比如,一个月一共工作200小时,获得的总收入是20000元,那么小时收入就是100元/小时。 小时收入可以反应一个人的赚钱效率。 可能两个人的月收入一样,但是付出的总工作时间不…

RFID文件柜在文件管理中的作用

一、RFID文件柜系统概述 1.1 RFID技术简介 RFID(Radio Frequency Identification,无线射频识别)技术是一种非接触式的自动识别技术,它通过无线电讯号识别特定目标并读写相关数据,无需识别系统与特定目标之间建立机械…

mysql代码生成器

项目 pom 文件内容 <?xml version"1.0" encoding"UTF-8"?> <project xmlns"http://maven.apache.org/POM/4.0.0"xmlns:xsi"http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation"http://maven.apache.org/…

域控操作二十四:主域故障辅域接替

模拟环境&#xff1a;上海DC1故障无法开机&#xff0c;导致只有一个DNS的电脑无法上网&#xff08;实际可以添加DC2但是为了实验就不说了&#xff09; FSMO还在DC1上 使用powershell把角色迁移到DC2 ntdsutil roles connections connect to server DC2SHA.whbk.cn quitSeize …

Redis(2):内存模型

一、Redis内存统计 工欲善其事必先利其器&#xff0c;在说明Redis内存之前首先说明如何统计Redis使用内存的情况。 在客户端通过redis-cli连接服务器后&#xff08;后面如无特殊说明&#xff0c;客户端一律使用redis-cli&#xff09;&#xff0c;通过info命令可以查看内存使用情…

数据分析:宏基因组DESeq2差异分析筛选差异物种

禁止商业或二改转载,仅供自学使用,侵权必究,如需截取部分内容请后台联系作者! 文章目录 介绍原理:计算步骤:结果:加载R包准备画图主题数据链接导入数据Differential abundance (No BP vs 2BP TA)构建`countData`矩阵过滤低丰度物种构建DESeq数据对象DESeq2差异分析画图Di…

泷羽sec学习打卡-shodan扫描4

声明 学习视频来自B站UP主 泷羽sec,如涉及侵权马上删除文章 笔记的只是方便各位师傅学习知识,以下网站只涉及学习内容,其他的都与本人无关,切莫逾越法律红线,否则后果自负 关于shodan的那些事儿-4 一、shodan4如何查看公网ip&#xff1f;如何查看自己的ip&#xff1f;如何查看出…

abap 可配置通用报表字段级日志监控

文章目录 1.功能需求描述1.1 功能1.2 效果展示2.数据库表解释2.1 表介绍3.数据库表及字段3.1.应用日志数据库抬头表:ZLOG_TAB_H3.2.应用日志数据库明细表:ZLOG_TAB_P3.3.应用日志维护字段配置表:ZLOG_TAB_F4.日志封装类5.代码6.调用方式代码7.调用案例程序demo1.功能需求描述 …

Spark中的shuffle

Shuffle的本质基于磁盘划分来解决分布式大数据量的全局分组、全局排序、重新分区【增大】的问题。 1、Spark的Shuffle设计 Spark Shuffle过程也叫作宽依赖过程&#xff0c;Spark不完全依赖于内存计算&#xff0c;面临以上问题时&#xff0c;也需要Shuffle过程。 2、Spark中哪…

golang安装,常用框架安装,记忆点

0.安装 虚拟机扩容 【Linux干货分享】LVM快速扩容虚拟机磁盘_哔哩哔哩_bilibili newvim 安装 sudo add-apt-repository ppa:neovim-ppa/stable sudo apt-get update sudo apt-get install -y neovim 最强Vim新手指南&#xff0c;手把手教你打造只属于自己的代码编辑器&am…

亚马逊旺季爆品攻略:如何利用旺季打造爆品?

随着假日季的脚步日益临近&#xff0c;亚马逊卖家们正摩拳擦掌&#xff0c;准备迎接这一年度的销售高峰。本文将为您揭示如何在旺季中抓住机遇&#xff0c;通过精心策划和执行一系列策略&#xff0c;让您的产品在众多竞争对手中脱颖而出&#xff0c;成为真正的爆品&#xff01;…

别卷Transformer了!时序卷积这么做,一样发顶会!

Transformer爆火之后&#xff0c;时间序列领域基本上算是被占领了&#xff0c;围绕此类相关的研究也是非常之卷。这种情况下&#xff0c;我们不妨了解一下时序卷积。 在大规模时间序列数据处理任务中&#xff0c;时序卷积是一种非常重要的方法&#xff0c;它结合了传统CNN的特…

【C++】STL中的list容器详解及常用函数用法

个人主页: 起名字真南的CSDN博客 个人专栏: 【数据结构初阶】 &#x1f4d8; 基础数据结构【C语言】 &#x1f4bb; C语言编程技巧【C】 &#x1f680; 进阶C【OJ题解】 &#x1f4dd; 题解精讲 目录 &#x1f4cc; 1 引言&#x1f4cc;2 list容器✨2.1 list容器简介✨2.2 li…

使用kalibr_calibration标定相机(realsense)和imu(h7min)

vslam-evaluation/VINS/Installation documentation/4.IMU和相机联合标定kalibr_calibration.md at master DroidAITech/vslam-evaluation GitHub 目录 1.kalibr安装 1.1安装依赖项 1.2创建工作空间 1.3下载kalibr并编译 1.4设置环境变量 2.准备标定板 3.配置驱动和打…

论文阅读:基于语义分割的非结构化田间道路场景识别

论文地址&#xff1a;DOI: 10.11975/j.issn.1002-6819.2021.22.017 概要 环境信息感知是智能农业装备系统自主导航作业的关键技术之一。农业田间道路复杂多变&#xff0c;快速准确地识别可通行区域&#xff0c;辨析障碍物类别&#xff0c;可为农业装备系统高效安全地进行路径规…

能识别黑烟的摄像头

能识别黑烟的摄像头主要应用于监测车辆尾气排放情况&#xff0c;特别是针对排放黑烟的车辆进行抓拍和识别。以下是朗观视觉对这类摄像头的详细介绍&#xff1a; 一、主要特点 智能识别&#xff1a;摄像头内置视频识别功能&#xff0c;能够实时分析视频中的车辆尾气排放情况&am…

Docker镜像分成

1. 镜像分层原理 1.1 镜像分层的定义与结构 Docker 镜像的分层存储机制是其核心特性之一&#xff0c;它允许 Docker 镜像由多个只读层组成&#xff0c;这些层叠加在一起形成一个完整的文件系统。每个层代表 Dockerfile 中的一个指令&#xff0c;并且每一层都是不可变的&#…

2020年美国总统大选数据分析与模型预测

数据集取自&#xff1a;2020年&#x1f1fa;&#x1f1f8;&#x1f1fa;&#x1f1f8;美国大选数据集 - Heywhale.com 前言 对2020年美国总统大选数据的深入分析&#xff0c;提供各州和县层面的投票情况及选民行为的可视化展示。数据预处理阶段将涉及对异常值的处理&#xff0…

微服务系列五:避免雪崩问题的限流、隔离、熔断措施

目录 实验环境说明 前言 一、一片小雪花引起的雪崩&#xff01; 1.1 雪崩问题&#xff08;级联失败问题&#xff09;示意图 1.2 雪崩问题的产生原因与解决策略 二、雪崩问题的具体解决策略 2.1 请求限流 2.2 线程隔离 2.3 服务熔断 2.4 总结——具体解决策略 三、微…