【强化学习的数学原理】课程笔记--1(基本概念,贝尔曼公式)

目录

  • 基本概念
    • State, Action, State transition
    • Policy, Reward, Trajectory, Discount Return
    • Episode
    • Markov decision process
  • 贝尔曼公式
    • 推导确定形式的贝尔曼公式
    • 推导一般形式的贝尔曼公式
      • State Value
      • Action Value
    • 一些例子
    • 贝尔曼公式的 Matric-vector form
    • 贝尔曼公式的解析解
      • 一些理论可得的结论
    • 贝尔曼公式的迭代解

基本概念

State, Action, State transition

  • State: 用于描述agent目前所处的状态,以grid-world为例,即location: s 1 , s 2 , . . . s_1, s_2, ... s1,s2,...

  • Action: 在某个State时,可以做的动作的集合,以grid-world为例,即:

  • State transition:State转移矩阵(确定情形)or State转移分布(概率情形),以grid-world为例,eg:

Policy, Reward, Trajectory, Discount Return

  • Policy:即策略,告诉agent在每个State时,应该做什么Action,也有(确定形式)和(概率形式):

Policy在实际使用时,一般是存为表格(数组)形式,eg:

  • Reward:一个实值(标量),eg:正数用于reward,负数用于punishment,数学表达,eg :
    { P ( r = 1 ∣ 当前 s t a t e ,当前选择的 a i ) = 0.8 P ( r = 0 ∣ 当前 s t a t e ,当前选择的 a i ) = 0.2 \begin{cases} P(r=1|当前state,当前选择的a_i) = 0.8\\ \\ P(r=0|当前state,当前选择的a_i) = 0.2 \end{cases} P(r=1∣当前state,当前选择的ai)=0.8P(r=0∣当前state,当前选择的ai)=0.2

  • Trajectory:即 state-action-reward 链,eg:

  • Return:即一个Trajectory上所有reward之和,eg:上图中第一个return是2,第二个return是1,所以第一个policy更好(没有进到forbidden block)

    由于在到达target s 9 s_9 s9之后, s 9 s_9 s9的action会维持在 s 9 s_9 s9,即action一直是 a 5 a_5 a5(维持不动),因此reward会一直+1(那为什么不设置到达target之后停止/退出?),引入 discount rate γ ∈ ( 0 , 1 ) \gamma \in (0,1) γ(0,1)
    discount return = 0 + 0 γ + 0 γ 2 + 1 γ 3 + 1 γ 4 + 1 γ 5 + . . . = γ 3 ( 1 + γ + γ 2 + . . . ) = γ 3 1 1 − γ \begin{aligned} \text{discount return} &= 0 + 0\gamma + 0\gamma^2 + 1\gamma^3 + 1\gamma^4 + 1\gamma^5 + ... \\ &= \gamma^3 (1 + \gamma + \gamma^2 + ...) = \gamma^3 \frac{1}{1-\gamma} \end{aligned} discount return=0+0γ+0γ2+1γ3+1γ4+1γ5+...=γ3(1+γ+γ2+...)=γ31γ1
    作用是: γ \gamma γ更趋于0时,return更受早期的action影响,而当 γ \gamma γ更趋于1时,return更受后期的action的影响

Episode

  • Episode:当有terminal state时,即到这个state就停止,称为 episodic task(有限步);反之称为 continuing task(无限步,现实不存在,但当步数非常多时,近似认为是continuing task)。可以通过以下两种方法将 episodic task 看作特殊的 continuing task,这样后面就只需要对continuing task做理解:
    1. 将terminal state看作特殊的absorbing state(即进到这个stage再也不会离开),且需要将这个state的action的reward都设为0
    2. 将terminal state看作普通的state,可以离开,且每次进入该state时 r = + 1 r = +1 r=+1 (后面采用该种,因为更一般化)

Markov decision process

需要以上几个分布:

  1. π ( a ∣ s ) \pi(a|s) π(as),在当前状态s,所做的action的分布 (即Policy
  2. P ( s ′ ∣ s , a ) P(s' | s,a) P(ss,a),在当前状态s,选定了动作a之后,下一个可能到的状态的分布(eg:往下时,即可能往下一格,也可能往下两格)
  3. P ( r ∣ s , a ) P(r | s,a) P(rs,a),在当前状态s,选定了动作a之后,可能的reward ( P ( s ′ ∣ s , a ) P(s' | s,a) P(ss,a)属同一分布,即 s ′ s' s 定了reward 就定了;还是说即使 s ′ s' s 定了,reward也仍然不是确定值?
  4. 以及Markov假设:
    P ( s t + 1 ∣ a t + 1 , s t , . . . , a 1 , s 0 ) = P ( s t + 1 ∣ a t + 1 , s t ) P ( r t + 1 ∣ a t + 1 , s t , . . . , a 1 , s 0 ) = P ( r t + 1 ∣ a t + 1 , s t ) \begin{aligned} P(s_{t+1}|a_{t+1},s_t, ..., a_1,s_0) &= P(s_{t+1}|a_{t+1},s_t) \\ P(r_{t+1}|a_{t+1},s_t, ..., a_1,s_0) &= P(r_{t+1}|a_{t+1},s_t) \end{aligned} P(st+1at+1,st,...,a1,s0)P(rt+1at+1,st,...,a1,s0)=P(st+1at+1,st)=P(rt+1at+1,st)

贝尔曼公式

推导确定形式的贝尔曼公式

定义 v i v_i vi 为从 s i s_i si 出发的Trajectory的return, eg:

则有 Bootstrapping 推导式:

⇒ v = r + γ P v \Rightarrow v = r + \gamma P v v=r+γPv

⇒ \Rightarrow 解析解 : v = ( I − γ P ) − 1 r v=(I-\gamma P)^{-1} r v=(IγP)1r


推导一般形式的贝尔曼公式

State Value

首先给出 State Value 的定义,对于一个multi-step trajectory,其步骤可以表示为:
S t → A t S t + 1 , R t + 1 → A t + 1 S t + 2 , R t + 2 → A t + 2 S t + 3 , R t + 3 , . . . S_t \overset{A_t} \rightarrow S_{t+1}, R_{t+1} \overset{A_{t+1}} \rightarrow S_{t+2}, R_{t+2} \overset{A_{t+2}} \rightarrow S_{t+3}, R_{t+3},... StAtSt+1,Rt+1At+1St+2,Rt+2At+2St+3,Rt+3,...

该条从 S t S_t St 出发的 trajectory 的 discounted return 则为:
G t = R t + 1 + γ R t + 2 + γ 2 R t + 3 + . . . G_t = R_{t+1} + \gamma R_{t+2} + \gamma^2R_{t+3} + ... Gt=Rt+1+γRt+2+γ2Rt+3+...

由于 R t + 1 , R t + 2 , . . . R_{t+1}, R_{t+2}, ... Rt+1,Rt+2,... 均为随机变量,因此 G t G_t Gt 也是随机变量。

  • State Value:即当前状态为 s 时,discounted return G t G_t Gt 的期望值
    v π ( s ) = E [ G t ∣ S t = s ] v_{\pi}(s) = E[G_t|S_t=s] vπ(s)=E[GtSt=s]

更具象的理解是 :

  1. 给定Policy π \pi π ,当从状态 s 出发时,discounted return的期望值(从一个state出发,可能有多条路径到达terminal/或称多条trajectory,对所有可能的trajectory的discounted return求期望)
  2. 某个状态的 v π ( s ) v_{\pi}(s) vπ(s) 越高,说明它越有价值/越值得去(见以下例子)

Action Value

State Value 是指从一个 state 出发的 average return,而 Action Value 是指从一个 state 出发,并且 take 某个 action 的 average return。
q π ( s , a ) = E [ G t ∣ S t = s , A t = a ] q_{\pi}(s,a) = E[G_t|S_t=s, A_t =a ] qπ(s,a)=E[GtSt=s,At=a]

state value 用于选择哪个 Policy 更好,而 action value 用于选择哪个 action 更好

Action Value 和 State value 的关系:
E [ G t ∣ S t = s ] = ∑ a E [ G t ∣ S t = s , A t = a ] π ( a ∣ s ) E[G_t|S_t=s] = \sum_a E[G_t|S_t=s, A_t =a ] \pi(a|s) E[GtSt=s]=aE[GtSt=s,At=a]π(as)
即: v π ( s ) = ∑ a π ( a ∣ s ) q π ( s , a ) v_{\pi}(s) = \sum_a \pi(a|s) q_{\pi}(s,a) vπ(s)=aπ(as)qπ(s,a)
⇒ \Rightarrow State Value 实际是所有 Action Value 的 “平均”

下面开始推导贝尔曼公式

由于
G t = R t + 1 + γ R t + 2 + γ 2 R t + 3 + . . . = R t + 1 + γ ( R t + 2 + γ R t + 3 + . . . ) = R t + 1 + γ G t + 1 \begin{aligned} G_t &= R_{t+1} + \gamma R_{t+2} + \gamma^2 R_{t+3} + ...\\ &= R_{t+1} + \gamma (R_{t+2} + \gamma R_{t+3} + ...) \\ & = R_{t+1} + \gamma G_{t+1} \end{aligned} Gt=Rt+1+γRt+2+γ2Rt+3+...=Rt+1+γ(Rt+2+γRt+3+...)=Rt+1+γGt+1

⇒ v π ( s ) = E [ G t ∣ S t = s ] = E [ R t + 1 + γ G t + 1 ∣ S t = s ] = E [ R t + 1 ∣ S t = s ] + γ E [ G t + 1 ∣ S t = s ] \begin{aligned} \Rightarrow v_{\pi}(s) &= E[G_t|S_t=s]\\ &= E[R_{t+1} + \gamma G_{t+1}|S_t=s] \\ &= E[R_{t+1}|S_t=s] + \gamma E[G_{t+1}|S_t=s] \end{aligned} vπ(s)=E[GtSt=s]=E[Rt+1+γGt+1St=s]=E[Rt+1St=s]+γE[Gt+1St=s]

其中第一项为 下一步的reward的期望,可以分解为:
E [ R t + 1 ∣ S t = s ] = ∑ a E [ R t + 1 ∣ S t = s , A t = a ] π ( a ∣ s ) = ∑ a π ( a ∣ s ) ∑ r P ( r ∣ s , a ) r \begin{aligned} E[R_{t+1}|S_t=s] &= \sum_{a} E[R_{t+1}|S_t=s, A_t=a] \pi(a|s)\\ &= \sum_{a} \pi(a|s) \sum_{r} P(r|s,a)r \end{aligned} E[Rt+1St=s]=aE[Rt+1St=s,At=a]π(as)=aπ(as)rP(rs,a)r

第二项为 从下一时刻的状态为起点的 trajectory 的 discounted return,可以分解为:
E [ G t + 1 ∣ S t = s ] = ∑ s ′ E [ G t + 1 ∣ S t = s , S t + 1 = s ′ ] P ( s ′ ∣ s ) = ∑ s ′ E [ G t + 1 ∣ S t + 1 = s ′ ] P ( s ′ ∣ s ) = ∑ s ′ v π ( s ′ ) P ( s ′ ∣ s ) = ∑ s ′ v π ( s ′ ) ∑ a P ( s ′ ∣ s , a ) π ( a ∣ s ) \begin{aligned} E[G_{t+1}|S_t=s] &= \sum_{s'} E[G_{t+1}|S_t=s, S_{t+1}=s'] P(s'|s)\\ &= \sum_{s'} E[G_{t+1}|S_{t+1}=s'] P(s'|s)\\ &= \sum_{s'} v_{\pi}(s') P(s'|s)\\ &= \sum_{s'} v_{\pi}(s') \sum_{a} P(s'|s,a) \pi(a|s) \end{aligned} E[Gt+1St=s]=sE[Gt+1St=s,St+1=s]P(ss)=sE[Gt+1St+1=s]P(ss)=svπ(s)P(ss)=svπ(s)aP(ss,a)π(as)

由上得贝尔曼公式一般形式:
v π ( s ) = ∑ a π ( a ∣ s ) [ ∑ r P ( r ∣ s , a ) r + γ ∑ s ′ P ( s ′ ∣ s , a ) v π ( s ′ ) ] , ∀ s \begin{aligned} v_{\pi}(s) = \sum_{a} \pi(a|s) [\sum_{r} P(r|s,a)r + \gamma \sum_{s'} P(s'|s,a) v_{\pi}(s')], \quad \forall s \end{aligned} vπ(s)=aπ(as)[rP(rs,a)r+γsP(ss,a)vπ(s)],s
贝尔曼公式描述了 两个 state value v π ( s ) v_{\pi}(s) vπ(s) v π ( s ′ ) v_{\pi}(s') vπ(s) 的关系

同时由 state value 和 action value 的关系: v π ( s ) = ∑ a π ( a ∣ s ) q π ( s , a ) v_{\pi}(s) = \sum_a \pi(a|s) q_{\pi}(s,a) vπ(s)=aπ(as)qπ(s,a)
可得 q π ( s , a ) = ∑ r P ( r ∣ s , a ) r + γ ∑ s ′ P ( s ′ ∣ s , a ) v π ( s ′ ) q_{\pi}(s,a) = \sum_{r} P(r|s,a)r + \gamma \sum_{s'} P(s'|s,a) v_{\pi}(s') qπ(s,a)=rP(rs,a)r+γsP(ss,a)vπ(s)
即如果知道所有的State Value,反过来也可以求 Action Value

一些例子

  1. 对于policy:
    在这里插入图片描述
    由于
    π ( a = a 3 ∣ s 1 ) = 1 , π ( a ≠ a 3 ∣ s 1 ) = 0 P ( s ′ = s 3 ∣ s 1 , a 3 ) = 1 , P ( s ′ ≠ s 3 ∣ s 1 , a 3 ) = 0 P ( r = 0 ∣ s 1 , a 3 ) = 1 , P ( r ≠ 0 ∣ s 1 , a 3 ) = 0 \begin{aligned} &\pi(a = a_3|s_1) = 1, \pi(a \neq a_3|s_1) = 0 \\ &P(s'=s_3|s_1, a_3) =1, P(s'\neq s_3|s_1, a_3) =0 \\ &P(r=0|s_1, a_3) = 1, P(r \neq 0|s_1, a_3) = 0 \end{aligned} π(a=a3s1)=1,π(a=a3s1)=0P(s=s3s1,a3)=1,P(s=s3s1,a3)=0P(r=0∣s1,a3)=1,P(r=0∣s1,a3)=0

⇒ v π ( s 1 ) = ∑ a π ( a ∣ s 1 ) [ ∑ r P ( r ∣ s 1 , a ) r + γ ∑ s ′ P ( s ′ ∣ s 1 , a ) v π ( s ′ ) ] = 1 ∗ [ ∑ r P ( r ∣ s 1 , a 3 ) r + γ ∑ s ′ P ( s ′ ∣ s 1 , a 3 ) v π ( s ′ ) ] = 1 ∗ [ 1 ∗ 0 + 0 + γ ∗ 1 ∗ v π ( s 3 ) ] = 0 + γ v π ( s 3 ) \begin{aligned} \Rightarrow v_{\pi}(s_1) &= \sum_{a} \pi(a|s_1) [\sum_{r} P(r|s_1,a)r + \gamma \sum_{s'} P(s'|s_1,a) v_{\pi}(s')]\\ &= 1* [\sum_{r} P(r|s_1,a_3)r + \gamma \sum_{s'} P(s'|s_1,a_3) v_{\pi}(s')] \\ &= 1* [1*0 + 0 + \gamma * 1*v_{\pi}(s_3)]\\ &= 0 + \gamma v_{\pi}(s_3) \end{aligned} vπ(s1)=aπ(as1)[rP(rs1,a)r+γsP(ss1,a)vπ(s)]=1[rP(rs1,a3)r+γsP(ss1,a3)vπ(s)]=1[10+0+γ1vπ(s3)]=0+γvπ(s3)

同理有:
v π ( s 2 ) = 1 + γ v π ( s 4 ) v π ( s 3 ) = 1 + γ v π ( s 4 ) v π ( s 4 ) = 1 + γ v π ( s 4 ) \begin{aligned} v_{\pi}(s_2) &= 1 + \gamma v_{\pi}(s_4) \\ v_{\pi}(s_3) &= 1 + \gamma v_{\pi}(s_4) \\ v_{\pi}(s_4) &= 1 + \gamma v_{\pi}(s_4) \end{aligned} vπ(s2)vπ(s3)vπ(s4)=1+γvπ(s4)=1+γvπ(s4)=1+γvπ(s4)

解得:
v π ( s 1 ) = γ 1 − γ v π ( s 2 ) = 1 1 − γ v π ( s 3 ) = 1 1 − γ v π ( s 4 ) = 1 1 − γ \begin{aligned} v_{\pi}(s_1) &= \frac{\gamma}{1-\gamma}\\ v_{\pi}(s_2) &= \frac{1}{1-\gamma}\\ v_{\pi}(s_3) &= \frac{1}{1-\gamma}\\ v_{\pi}(s_4) &= \frac{1}{1-\gamma} \end{aligned} vπ(s1)vπ(s2)vπ(s3)vπ(s4)=1γγ=1γ1=1γ1=1γ1

⇒ v π ( s 1 ) < v π ( s 2 ) = v π ( s 3 ) = v π ( s 4 ) \Rightarrow v_{\pi}(s_1) < v_{\pi}(s_2) = v_{\pi}(s_3) =v_{\pi}(s_4) vπ(s1)<vπ(s2)=vπ(s3)=vπ(s4)
解释: s 1 s_1 s1 距离 target state 比其他 state 都要远,因此其 价值 低于其他的 state,(直观上也可以看到 s 1 s_1 s1 距离 target state,比其他的 state 都要远)


  1. 更复杂的例子
    两种好的 Policy,及其各个 state 的 state value:

两种不好的 Policy:一个全向右的 Policy 和 一个随机生成的 Policy:

可以看到

  1. 好的 Policy 的 state value,基本都为正;而不好的 Policy 的 state value 中,会有很多负数
  2. 两个不完全相同的 Policy,也可能有完全一样的 state value (因为在其出现 diff 的部分路径上,reward总和相同)

贝尔曼公式的 Matric-vector form


r π ( s i ) = ∑ a π ( a ∣ s i ) ∑ r P ( r ∣ s i , a ) r = E [ R t + 1 ∣ S t = s i ] \begin{aligned} r_{\pi}(s_i) &= \sum_{a} \pi(a|s_i) \sum_{r} P(r|s_i,a)r = E[R_{t+1}|S_t=s_i] \end{aligned} rπ(si)=aπ(asi)rP(rsi,a)r=E[Rt+1St=si]

又有: P π ( s j ∣ s i ) = ∑ a P ( s j ∣ s i , a ) π ( a ∣ s i ) P_{\pi}(s_j|s_i) = \sum_{a} P(s_j|s_i,a) \pi(a|s_i) Pπ(sjsi)=aP(sjsi,a)π(asi)

因此 v π ( s i ) = r π ( s i ) + γ ∑ s j P π ( s j ∣ s i ) v π ( s j ) v_{\pi}(s_i) = r_{\pi}(s_i) + \gamma \sum_{s_j} P_{\pi}(s_j|s_i) v_{\pi}(s_j) vπ(si)=rπ(si)+γsjPπ(sjsi)vπ(sj)
Matric-vector form: v π = r π + γ P π v π v_{\pi} = r_{\pi} + \gamma P_{\pi} v_{\pi} vπ=rπ+γPπvπ

例如:

上式可展开为:

贝尔曼公式的解析解

贝尔曼公式: v π = r π + γ P π v π v_{\pi} = r_{\pi} + \gamma P_{\pi} v_{\pi} vπ=rπ+γPπvπ
⇒ 解析解: v π = ( I − γ P π ) − 1 r π \Rightarrow 解析解:v_{\pi} = (I - \gamma P_{\pi})^{-1} r_{\pi} 解析解:vπ=(IγPπ)1rπ

一些理论可得的结论

  1. ( I − γ P π ) (I - \gamma P_{\pi}) (IγPπ) 是可逆的

Gershgorin 圆盘定理

A A A 是一个 n × n n \times n n×n 复矩阵,矩阵的元素为 a i j a_{ij} aij。对于每个 i i i,定义 Gershgorin 圆盘 D i D_i Di 为以 a i i a_{ii} aii 为中心,半径为矩阵第 i i i 行上非对角元素绝对值之和的圆盘。即:
D i = { z ∈ C : ∣ z − a i i ∣ ≤ R i } D_i = \{ z \in \mathbb{C} : |z - a_{ii}| \leq R_i \} Di={zC:zaiiRi}
其中 R i = ∑ j ≠ i ∣ a i j ∣ R_i = \sum_{j \neq i} |a_{ij}| Ri=j=iaij
\quad
Gershgorin 圆盘定理的结论是:矩阵 A A A 的所有特征值都位于至少一个 Gershgorin 圆盘内


Proof:

那么根据Gershgorin 圆盘定理, ( I − γ P π ) (I - \gamma P_{\pi}) (IγPπ) 的每个特征值都至少在一个
圆心为 : [ ( I − γ P π ) ] i i = 1 − γ P π ( s i ∣ s i ) 半径为 : ∑ j ≠ i ∣ [ I − γ P π ] i j ∣ = ∑ j ≠ i γ P π ( s j ∣ s i ) (因为 j ≠ i 时, I i j = 0 ) \begin{aligned} 圆心为&: [(I - \gamma P_{\pi})]_{ii} = 1-\gamma P_{\pi}(s_i | s_i)\\ 半径为&:\sum_{j \neq i} |[I-\gamma P_{\pi}]_{ij}| = \sum_{j \neq i} \gamma P_{\pi}(s_j|s_i) (因为 j \neq i 时,I_{ij} =0) \end{aligned} 圆心为半径为[(IγPπ)]ii=1γPπ(sisi)j=i[IγPπ]ij=j=iγPπ(sjsi)(因为j=i时,Iij=0
的圆当中,又有:

∑ j ≠ i γ P π ( s j ∣ s i ) + γ P π ( s i ∣ s i ) = γ < 1 \sum_{j \neq i} \gamma P_{\pi}(s_j|s_i) + \gamma P_{\pi}(s_i | s_i) = \gamma < 1 j=iγPπ(sjsi)+γPπ(sisi)=γ<1
因此:
∑ j ≠ i γ P π ( s j ∣ s i ) < 1 − γ P π ( s i ∣ s i ) \sum_{j \neq i} \gamma P_{\pi}(s_j|s_i) < 1 - \gamma P_{\pi}(s_i | s_i) j=iγPπ(sjsi)<1γPπ(sisi)
半径 < |圆心|,说明 ( I − γ P π ) (I - \gamma P_{\pi}) (IγPπ) 的 Gershgorin 圆盘都不包含原点,因此其特征值都不为零。


  1. ( I − γ P π ) − 1 > I (I - \gamma P_{\pi})^{-1} > I (IγPπ)1>I

由泰勒级数展开: 1 1 − x = 1 + x + x 2 + x 3 + . . . \frac{1}{1-x} = 1 + x + x^2 + x^3 + ... 1x1=1+x+x2+x3+...
⇒ ( I − γ P π ) − 1 = I + γ P π + γ 2 P π 2 + . . . ≥ I , ( γ > 0 ,而 P π 的值是概率,也总大于 0 ) \Rightarrow (I - \gamma P_{\pi})^{-1} = I + \gamma P_{\pi} + \gamma^2 P_{\pi}^2 + ... \geq I , (\gamma > 0, 而 P_{\pi} 的值是概率,也总大于0) (IγPπ)1=I+γPπ+γ2Pπ2+...I,(γ>0,而Pπ的值是概率,也总大于0)


贝尔曼公式的迭代解

不过实际中, ( I − γ P π ) (I - \gamma P_{\pi}) (IγPπ) 是一个很大的矩阵,求逆计算量太大,因此实际一般使用迭代式:
v k + 1 = r π + γ P π v k v_{k+1} = r_{\pi} + \gamma P_{\pi} v_{k} vk+1=rπ+γPπvk

以上迭代式成立的原因是:
v k → v π = ( I − γ P π ) − 1 r π ,  as  k → ∞ . v_k \to v_\pi = (I - \gamma P_\pi)^{-1} r_\pi, \text{ as } k \to \infty. vkvπ=(IγPπ)1rπ, as k∞.
证明如下:


Reference:
1.强化学习的数学原理

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/750086.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

VS studio2019配置远程连接Ubuntu

VS studio2019配置远程连接Ubuntu 1、网络配置 &#xff08;1&#xff09;获取主机IP &#xff08;2&#xff09;获取Ubuntu的IP &#xff08;3&#xff09;在 windows 的控制台中 ping 虚拟机的 ipv4 地址&#xff0c;在 Ubuntu 中 ping 主机的 ipv4 地址。 ubuntu: ping…

多分类情绪识别模型训练及基于ChatGLM4-9B的评论机器人拓展

你的下一个微博罗伯特何必是罗伯特 这是一篇我在使用开源数据集(Twitter Emotion Dataset (kaggle.com))进行情绪识别的分类模型训练及将模型文件介入对话模型进行应用的过程记录。当通过训练得到了可以输入新样本预测的模型文件后&#xff0c;想到了或许可以使用模型文件对新样…

recogito-js:用于文本注释/图像注释的前端插件

创建批注&#xff1a; 继续批注&#xff1a; 右侧批注列表&#xff1a; 1、功能与应用&#xff1a; 文本注释&#xff1a;recogito-js可以将注释功能添加到网页上&#xff0c;或者作为构建完全自定义注释应用程序的工具箱。图像注释&#xff1a;除了文本注释外&#xff0c;它还…

测试用例设计方法-因果图法

大家好&#xff0c;在软件开发过程中&#xff0c;测试是确保产品质量和稳定性的关键步骤。而设计有效的测试用例则是保证测试过程高效和全面的重要因素之一。在各种测试用例设计方法中&#xff0c;因果图法作为一种结构化和系统化的方法&#xff0c;日益受到测试人员的青睐。 因…

python练习题2

python期考复习题 目录 1. 判断n**2的值每一位互不相同​编辑 2. 密码 3. 图书版号 4. 情感分类矩阵 5. 计算数对个数 1. 判断n**2的值每一位互不相同 def isdiff(n):sstr(n)for i in range(len(s)):for j in range(len(s)):if i!j:if s[i]s[j]:return Falsereturn Truel…

ET9中ETTask传递新的Context原理

ET9中ETTask传递新的Context原理 前言 每一个异步函数都会创建两个对象&#xff0c; 第1个是当前异步函数返回值&#xff08;ETTASK&#xff09;对应的ETAsyncTaskMethodBuilder&#xff0c;通过这个类的静态方法Create创建返回&#xff0c;这个builder类中会有一个Task对象&…

FME实现批量合并shapefile文件数据,并提取原文件名,输出到属性表字段中的解决方法

目录 一、实现效果 二、实现过程 1.读取数据 2.暴露文件名属性 3.设置文件名字段 4.输出成果 5.模板的使用 三、总结 今天来介绍如何使用FME软件来实现对多个shapefile数据进行批量合并&#xff0c;同时提取原文件名并存储到合并后shapefile数据属性表字段中的方法&…

中小企业的数字化转型业务场景落地案例

引言&#xff1a;随着商业活动的复杂化和全球化程度的提高&#xff0c;合同作为商业交易的重要组成部分&#xff0c;其数量、条款和复杂性都在不断增加。企业面临着越来越多的合同管理挑战&#xff0c;包括合同数量增多、条款繁琐、文件分散存储等问题。而中小企业由于管理不到…

HMI 的 UI 风格,精妙无比

HMI 的 UI 风格&#xff0c;精妙无比

Shopee本土店选品有什么技巧?EasyBoss ERP为你整理了6个高效选品的方法!

电商圈有句话叫&#xff1a;七分靠选品&#xff0c;三分靠运营&#xff0c;选品对了&#xff0c;事半功倍&#xff0c;选品错了&#xff0c;功亏一篑&#xff01; 很多卖家都会为选品发愁&#xff0c;特别对于Shopee本土店卖家来说&#xff0c;要囤货到海外仓&#xff0c;如果…

前端 Array.sort() 源码学习

源码地址 V8源码Array 710行开始为sort()相关 Array.sort()方法是那种排序呢&#xff1f; 去看源码主要是源于这个问题 // In-place QuickSort algorithm. // For short (length < 22) arrays, insertion sort is used for efficiency.源码中的第一句话就回答了我的问题…

QT的keypressevent只响应功能键不响应字母键或者组合键

参考https://bbs.csdn.net/topics/392378467 这位兄弟准确说明了解决方案。 在pyqt中&#xff0c;则在__init__中添加 self.grabKeyboard()

专题页面设计指南:从构思到实现

如何设计专题页&#xff1f;你有什么想法&#xff1f;专题页的设计主要以发扬产品优势为核心。一个好的专题页可以从不同的角度向用户介绍产品&#xff0c;扩大产品的相关优势&#xff0c;表达产品的优势&#xff0c;让用户在短时间内了解产品。因此&#xff0c;在设计详细信息…

数据采集Selenium中的弹窗处理

在爬虫技术中&#xff0c;弹窗处理是一个常见但具有挑战性的问题。Selenium作为一个强大的网页自动化工具&#xff0c;可以帮助我们有效地处理网页中的各种弹窗。本文将概述如何使用Selenium处理弹窗&#xff0c;并提供实现代码&#xff0c;代码中将使用代理IP技术。 概述 弹…

基于Java微信小程序火锅店点餐系统设计和实现(源码+LW+调试文档+讲解等)

&#x1f497;博主介绍&#xff1a;✌全网粉丝10W,CSDN作者、博客专家、全栈领域优质创作者&#xff0c;博客之星、平台优质作者、专注于Java、小程序技术领域和毕业项目实战✌&#x1f497; &#x1f31f;文末获取源码数据库&#x1f31f;感兴趣的可以先收藏起来&#xff0c;还…

突然!某大客户核心凌晨突然崩溃....

这几天实在太忙&#xff0c;刚弄完文档。业务线的同事就找到我&#xff0c;说一个银行客户的核心系统昨晚出了故障&#xff0c;还没找到原因&#xff0c;希望能帮忙分析下。 从提供的信息来看是业务跑任务报错&#xff0c;遇到了Oracle-00600和ora-07445 错误。 Doing block re…

Zynq7000系列FPGA中的DMA控制器——PL外设请求接口

图9-4中展示了PL外设请求接口主要由两部分组成&#xff1a;PL外设请求总线和DMAC确认总线。这两部分分别使用特定的前缀进行标识&#xff0c;具体如下&#xff1a; PL外设请求总线&#xff08;PL Peripheral Request Bus&#xff09;&#xff1a; 前缀&#xff1a;DR功能&…

YOLO模型评价指标

在模型训练完成之后&#xff0c;需要对模型的优劣作出评估&#xff0c;YOLO系列算法的评价指标包括&#xff1a; 1. 准确率&#xff08;Precision&#xff09;&#xff1a;指模型预测为正样本中实际为正样本的比例。 &#x1d447;&#x1d443;、&#x1d439;&#x1d443;、…

uniapp字体ttf在小程序报错,解决方法

文章目录 导文解决方法1&#xff1a;把字体改成base64格式解决方法2&#xff1a;改成线上模式 导文 报错1&#xff1a; uniapp 小程序报错&#xff1a;app.js错误: Error: Module build failed (from ./node_modules/mini-css-extract-plugin/dist/loader.js): ModuleBuildErro…

【Java Web】Pinia实现组件间数据共享

目录 一、Pinia概述 二、Pinia基本用法 一、Pinia概述 在前端工程化的开发环境中&#xff0c;当多个组件(.vue)文件需要使用同一个数据对象时&#xff0c;传统的方法可以使用组件传参或者路由传参来解决但此两种方式都有自己的缺点。pinia可以将多个组件需要共享使用的数据单独…