赫布定律 | 机器学习 / 反向传播 / 经验 / 习惯

注:本文为 “赫布定律” 相关文章合辑。

未整理。


赫布定律 Hebb‘s law

馥墨轩 2021 年 03 月 13 日 00:03

1 赫布集合的基本定义

唐纳德・赫布(Donald Hebb)在 1949 年出版了《行为的组织》(The Organization of Behavior)。他在书中提出,脑内反映的某些外界客观物体的表征,是由被该外界刺激激活的所有皮层细胞组成的,赫布把这群同时激活的皮层细胞称为一个细胞集合(cell asssembly)。突触前神经元向突触后神经元进行持续重复的刺激后,会使传递的效能被强化或改变。

这句话的意思就是当有邻近的刺激时,无论是空间邻近,还是时间邻近,邻近元素都会形成一个被强化的整体。

下面通过简单、抽象的图式来一步步说明赫布集合。首先,细胞集合是由神经元和神经元之间的连接构成的,如下图所示。

图片

基本的赫布集合

图中的一个圆圈既可以代表一个神经元,也可以代表另一个细胞集合。

图片

一个圆圈也可以是一个更小级别的赫布集合

所以第一个图也可以用更复杂的形式表达,如下图所示。

图片

一个大的赫布集合可以由多个子赫布集合构成

2 赫布定律的产生作用的过程

前面介绍了赫布集合的基本定义,它产生作用分为两步,第一步是同时刺激,形成赫布集合;第二步是再现,即再现原始的刺激。下面详细说明。

图片

(1)同时刺激

当出现一个刺激源的时候,与刺激源具有映射关系的神经元或细胞集合就会受到刺激,当被反复刺激之后,映射的神经元之间的连接就被加强了。

图片
刺激会加强神经元或细胞集合之间的联系

(2)再现

同时受到刺激的神经元被加强后,只要其中的一部分受到刺激,就会通过被加强的联系(突触或髓鞘的变化)激活之前共同受到刺激的神经元。

图片

再现原始刺激

一个并不完整的刺激可以激活完整的记忆,这就是格式塔闭合原则的神经学基础。

图片

将未闭合图形认知为闭合的倾向

大家可以思考一下邻近元素之间构成的整体与赫布集合原始刺激之间的关系,这二者是不是有什么联系呢?

文章来源:书籍:UI 设计与认知心理学


赫布法则(Hebb’s rule)与机器学习

Neuro 科学和人工智能 2022 年 10 月 24 日 20:16 上海

人工智能的方法,不管是搜索还是决策,本质上是基于预先定义的规则的,即使是概率推理,也是根据预先给定的概率分布的,但当 Agent 面对真实环境时,实际的情况会比预先规则能够预见的情况复杂很多倍,在经过很多年的努力后专家系统的基本上以失败告终的结局更加使人们认清了这个事实,在这种情况下,如果能够让 Agent 能够不断地根据实际环境进行自发调整就变得越来越重要,这背后的基础理论涉及到记忆和学习,本节我们就来介绍机器学习。

我们首先需要明确的一点是:机器学习是有着明确的目标的,也就是学习是和具体的问题有关的。只有把具体的一类问题能够用很清晰的数学语言定义出来,机器学习才能够发挥惊人的威力,但是在这个严格定义的数学问题之外,曾经非常成功的机器学习算法也很难发挥威力。我们现在聚焦一类具体的学习问题:从一组 “输入 - 输出” 对中学习能够预测新输入相对应的输出的函数。

我们描述的 Agent 的部件包括:

① 在当前状态上,条件到动作的直接映射;

② 从感知序列推演世界的合适特征的方法;

③ 关于世界进化方式的信息和关于 Agent 能执行的可能动作的结果信息;

④ 表明世界状态愿望的效用信息;

⑤ 表明动作愿望的动作 - 价值信息;

⑥ 描述能最大化成就的 Agent 效用的状态类的目标。

这些部件中的每一个都能学习。关于 Agent 部件的表示法有:逻辑 Agent 部件的命题和一阶逻辑语句;决策 - 理论 Agent 推理部件的贝叶斯网络,等等,对于所有这些表示法,都已经发明了有效学习算法。大多数当前机器学习研究涉及到这样的输入和输出,其中输入使用一种要素化表示法 —— 属性值向量,输出或是连续数字值或是离散值。除了这种被称为归纳学习的之外,还有就是所谓的分析或演绎学习,是从已知通用规则走向被其逻辑蕴涵的新规则,不过随着专家系统的式微,这种学习已经沉寂很久了。

有三种类型的反馈,决定了如下三种主要的学习类型:无监督学习、强化学习和有监督学习,当然居间的还有所谓的半监督学习。

接下来我们重点关注在计算神经学构建的生物神经元网络和人工智能的机器学习搭建的人工神经元网络模型中涉及的学习。-=

神经元学习中的赫布法则及相关问题

神经元中的学习基础是前面讲过的赫布法则,赫布认为通过修改突触连接强度可以模拟训练时神经元之间的关系。然而,直接应用赫布法则会存在问题:突触连接的增强是一个正反馈,修改突触连接的活动本身会带来更强的活动以及更多的突触增强,如果没有对突触可塑性规则的一些调整或增加限制条件,赫布修改将会产生突触强度的不可控增长,因此一般需要对权重设置上限。

然而,突触后神经元本来对于输入具有选择性,这是通过突触间竞争来实现的,但是如果设置了权重上限,而许多突触的权重达到上限,这样就失去了对输入的选择性,这就需要我们再引入一些其它规则来恢复突触间的竞争。

基于累积放电模型的讨论

我们用累积放电模型的线性方程为基础进行讨论:

τ r d v d t = − v + w ⋅ u = − v + ∑ b = 1 N u w b u b \Large\tau_{r} \frac{d v}{d t}=-v + w\cdot u=-v + \sum_{b = 1}^{N_{u}} w_{b} u_{b} τrdtdv=v+wu=v+b=1Nuwbub

突触可塑性的过程远比上式描述的要慢得多,如果我们再假设刺激也是足够慢使得网络在训练期间保持稳定状态的活动,则上式变成:

v = w ⋅ u \Large v = w\cdot u v=wu
最简单的赫布法则是如下的形式:

τ w d w d t = v u \Large\tau_{w} \frac{d w}{d t} = vu τwdtdw=vu
其中, τ w \tau_{w} τw 是控制权重变化率的时间常数。

我们用训练期间的平均输入,上式变成:

τ w d w d t = ⟨ v u ⟩ \Large\tau_{w} \frac{d w}{d t} = \langle vu\rangle τwdtdw=vu

角括号 ⟨ ⟩ \langle\rangle 表示多次试验的平均值。在无监督学习中,将 v = w ⋅ u v = w\cdot u v=wu 带入:

τ w d w d t = Q ⋅ w or τ w d w b d t = ∑ b ′ = 1 N u Q b b ′ w b ′ \Large\tau_{w} \frac{d w}{d t} = Q\cdot w \quad \text{or} \quad \tau_{w} \frac{d w_{b}}{d t} = \sum_{b' = 1}^{N_{u}} Q_{b b'} w_{b'} τwdtdw=Qworτwdtdwb=b=1NuQbbwb

这个式子叫做基于相关系数的可塑性规则。其中, Q Q Q 是输入的相关系数矩阵:

Q = ⟨ u u ⟩ or Q b b ′ = ⟨ u b u b ′ ⟩ \Large Q = \langle uu\rangle \quad \text{or} \quad Q_{b b'} = \left\langle u_{b} u_{b'}\right\rangle Q=uuorQbb=ubub

上面的基本赫布法则是不稳定的。为避免没有边界的增长,我们必须设定一个饱和上限。如果活动变量允许为负,那就同样需要一个下限。但是即使加上饱和条件,基本赫布法则也无法同时满足在不同突触前的竞争要求。

BCM 法则及相关改进

在赫布最原始的推测中, u u u v v v 代表放电率,则上面的基本赫布法则只描述了突触的长时程增强(LTP),而没有将长时程抑制(LTD)也包括进来。Bienenstock, Cooper and Munro在1982年提出了被称为BCM法则的改进方程:

τ w d w d t = v u ( v − θ v ) \Large\tau_{w} \frac{d w}{d t} = vu\left(v - \theta_{v}\right) τwdtdw=vu(vθv)

其中, θ v \theta_{v} θv 是一个阈值向量,突触后活动如果超过阈值是 LTP,否则就是 LTD。这样,突触后活动与突触前活动一起参与塑造突触权重。

如果阈值 θ v \theta_{v} θv 是固定的,那么 BCM 法则象基本的赫布法则一样是不稳定的,但是如果阈值是可变的,并且当输出活动增加时 θ v \theta_{v} θv v v v 变化得更快,则权重的变化就可以避免无界限地增长。这可以通过引入一个滑动阈值,或者更直接地引入与权重相关的项,一般是通过归一化来实现的,例如Oja法则(参看:https://www.zhihu.com/question/26564573/answer/1604087457):

τ w d w d t = v u − α v 2 w \Large\tau_{w} \frac{d w}{d t} = vu - \alpha v^{2} w τwdtdw=vuαv2w

其中, α \alpha α 是一个正的常数。

突触可塑性的脉冲时间依赖关系

在实际中突触前动作电位和突触后动作电位的相对时间对于活动产生的对突触功效变化的符合和幅度至关重要。例如,在一些试验中发现只有突触前和突触后脉冲时间落在 ± 50 m s \pm50ms ±50ms 窗口内才会表现出突触可变性,在这个窗口之内,突触前脉冲出现在突触后动作电位之前产生LTP,反之则产生 LTD,这是与赫布法则一致的。

如果要模拟上述的突触可塑性的脉冲时间依赖关系需要脉冲模型,但是我们可以用放电率模型来近似模拟,例如在突触前放电率和突触后放电率之间引入一个时间差 τ \tau τ ,而函数 H ( τ ) H(\tau) H(τ) 表示由与突触前活动相差时间 τ \tau τ 的突触后活动引起的突触权重变化,则突触权重变化由下式给出:

τ w d w d t = ∫ 0 ∞ d τ ( H ( τ ) v ( t ) u ( t − τ ) + H ( − τ ) v ( t − τ ) u ( t ) ) \Large\tau_{w} \frac{d w}{d t} = \int_{0}^{\infty} d\tau(H(\tau) v(t) u(t - \tau) + H(-\tau) v(t - \tau) u(t)) τwdtdw=0dτ(H(τ)v(t)u(tτ)+H(τ)v(tτ)u(t))

如果对于正的时间 τ \tau τ H ( τ ) H(\tau) H(τ) 为正,对于负的时间 τ \tau τ H ( τ ) H(\tau) H(τ) 为负,则式中右边第一项表示 LTP,第二项表示 LTD。-=

下图给出这样一个 H ( τ ) H(\tau) H(τ) 的曲线例子:

图片

H 的时间不对称性对于突触权重修改带来了戏剧性的效果,因为它使它们在训练时依赖于活动的时间顺序,这使得突触权重可以存储时间序列的信息。

赫布法则启发了人工智能领域的研究人员。最早 McCulloch 和 Pitts 设计的简单的神经元模型如下图:

图片

而霍普菲尔德(Hopfield)提出了一个全连接的 Hopfield 神经网络模型:

图片

左图是离散 Hopfield 网络,右图是 Hopfield 网络的网状结构。

现在一般通用的人工神经元网络如下图所示:

图片
-=
人工数据应用网络由结点或单元组成,单元通过有向链相连接。从单元 i i i 到单元 j j j 的链负责从 i i i j j j 传播激活 a i a_i ai 。每个链也有一个数值权重 w i j w_{ij} wij 与它相关联,该权重决定了连接强度和符号。另外,每个单元有一个哑输入 a 0 = 1 a_0 = 1 a0=1 ,其连接权重为 w 0 j w_{0j} w0j 。每个单元 j j j 首先计算输入的加权和:

i n j = ∑ i = 0 n w i , j a i \Large i{{n}_{j}}=\sum\limits_{i=0}^{n}{{{w}_{i,j}}{{a}_{i}}} inj=i=0nwi,jai

然后在该和之上施加一个激活函数 g g g 而导致输出:

a j = g ( i n j ) = g ( ∑ i = 0 n w i , j a i ) \Large a_{j}=g\left(in_{j}\right)=g\left(\sum\limits_{i = 0}^{n}w_{i,j}a_{i}\right) aj=g(inj)=g i=0nwi,jai

典型的激活函数可以是一个硬阈值,其中的单元称为感知器,也可以是 l o g i s t i c logistic logistic 函数,有时用术语 s i g m o i d sigmoid sigmoid 感知器称呼之。人工神经元可以连接成单纯的前馈网络,前馈网络的连接仅有一个方向,即它形成一个有向无环图,也可以连接成循环网络,循环网络将其输出反馈到其输入,这意味着网络的激活层级形成了一个动态系统,这样,循环网络就能够支持短期记忆。

前馈网络一般排列成层次,每一个单元都仅仅从其直接前一层的单元接受输入。多层网络除了直接的输入层和最终的输出层之外,中间有一个或多个隐藏单元层,这些单元不与网络的输出连接。

最早的人工神经元网络由于硬件资源和数据的限制,是所有输入直接连接到输出的网络,称为感知机( P e r c e p t r o n Perceptron Perceptron ),训练的过程要么是感知机学习规则,要么是关于 l o g i s t i c logistic logistic 回归的梯度下降。如明斯基和 P a p e r t Papert Papert 证明了感知机不能够对异或进行分类,造成了人工神经网络研究几十年的停滞,直到采用反向传播的深度学习才带来了人工神经网络的回归和复兴。-=

参考书籍:

计算神经学教材(Theoretical Neuroscience, Computational and Mathematical Modeling of Neural Systems, by Peter Dayan and L. F. Abbott).


反向传播和生物学没关系?

新智元 2021 年 02 月 24 日 17:52

新智元报道

来源:quantamagazine

编辑:LRS,LQ

【新智元导读】反向传播和生物学无关?近期网上出现了一些质疑,那么二者之间真的没有关系?也许 Hinton 和 Bengio 的想法可以解答你的疑惑。

2007 年,深度学习研究的先驱们在 NIPS 召开期间发起了一场关于「深度学习」的非正式研讨会,当时距离深度神经网络接管人工智能还有几年时间。

图片

这次会上,最后一位发言人是多伦多大学的杰弗里・辛顿(Geoffrey Hinton),他以一个笑话开场:「大概一年前,我回家吃晚饭,我说,‘我想我终于弄明白大脑是怎么工作的了’,我 15 岁的女儿说,‘哎呀,爸爸,又来了,别这样了。」观众大笑。

图片

辛顿继续说:「而这,就是它的工作原理」。这又引发了更多的笑声。

人工智能领域一直都有一个严肃的追求:如何利用人工智能来理解大脑。今天,深层神经网络统治人工智能的部分原因是源于反向传播 (backpropagation) 算法。

但是真正的大脑不可能依赖反向传播算法。「大脑的概括和学习能力比最先进的 AI 系统更快更好」(Bengio),而且反向传播不符合大脑的解剖学和生理学,特别是在大脑皮层。

许多研究人员一直在思考更具生物学意义的学习机制,其中,反馈比对法、平衡传播法和预测编码法具有独特的应用前景。

一些研究人员还将某些类型的皮层神经元和注意力等过程的特性加入到他们的模型中,这些研究使我们更能理解哪些算法可能在大脑中起作用。

「人们普遍认为,对于大脑这个巨大的谜团,如果我们能够解开其中的一些原理,那将对人工智能有所帮助。但它本身也有价值。」Bengio 说。

通过「反向传播」学习

几十年来,神经科学家关于大脑如何学习的理论主要受到 1949 年提出的「赫布理论」影响,通常被解释为「共同激发的神经元之间存在连接」,即相邻神经元的活动越相关,它们之间的突触联系就越强。

图片

这个原则经过一些修改后,成功解释了某些类型的学习和分类任务。

图片

赫布规则在使用错误信息时,是一种的非常狭窄、特殊且不敏感的方法。尽管如此,这对神经科学家来说,仍然是最好的学习规则,甚至在 20 世纪 50 年代后期,它就激发了第一个人工神经网络的发展。

这些网络中的每个人工神经元接收多个输入并产生一个输出,就真实的神经元一样。人工神经元用一个所谓的「突触」权重 (一个表示该输入重要性的数字),然后对输入进行加权求和。

到了 20 世纪 60 年代,这些神经元可以被组织成一个有输入层和输出层的网络,人工神经网络可以被训练来解决某些简单的问题。

在训练过程中,神经网络为其神经元确定最佳权值,以降低误差。

图片

然而直到 1986 年以前,没有人知道如何有效地训练带有隐藏层的人工神经网络,直到 Hinton 发表了「反向传播算法」相关论文。

图片

对大脑来说反向传播是不可能的

反向传播的发明立即引起了一些神经科学家的强烈抗议,他们认为这种方法不可能在真正的大脑中起作用。

首先,虽然计算机可以很容易地在两个阶段实现该算法,但是对于生物神经网络来说,这样做并不简单。

其次,是计算神经科学家所说的权重传递问题:反向传播算法复制或「传输」关于推理所涉及的所有突触权重的信息,并更新这些权重以获得更高的准确性。

但是在生物网络中,神经元只能看到其他神经元的输出,而不能看到影响输出的突触权重或内部过程。

从神经元的角度来看,「知道自己的突触权重是可以的,你不能知道其他神经元的突触权重。」

图片

任何生物学上似乎可行的学习规则也需要遵守神经元只能从相邻神经元获取信息的限制;反向传播可能需要从更远的神经元获取信息。

因此,「如果你反向传播信号,大脑似乎不可能计算。」

更像生命体

2016 年,DeepMind 的 Timothy Lillicrap 提供了一个解决权重传递问题的特殊方法:使用一个随机值初始化的矩阵作为反向传递的权重矩阵,而不使用正向传递。

图片

一旦被赋值,矩阵中的值是恒定的,因此不需要为每个反向通道传输权重。让人惊讶的是,网络仍然是可训练的。

由于用于推理的正向权值和每次反向通道的更新频率一致,因此网络仍然沿着不同的路径减小误差。

正向权重慢慢地与随机选择的反向权重对齐,最终得到正确的答案,这种算法就是「反馈对齐」。

对于大规模的问题和具有更多隐藏层的更深层次的网络,反馈对齐不如反向传播好:因为正向权重的更新不如真正的反向传播信息准确,所以训练网络需要更多的数据。

在辛顿研究的基础上,本吉奥的团队在 2017 年提出了一个学习规则,要求神经网络具有循环连接 (也就是说,如果神经元 A 激活神经元 B,那么神经元 B 反过来激活神经元 A)。

图片

如果给这样一个网络一些输入,网络就会自我学习,每个神经元都与直接相邻的神经元来传递权重。

神经网络达到一个最终状态,在这个状态中神经元与输入以及彼此之间处于平衡,它产生一个输出,然后该算法将输出神经元推向预期结果。

这就通过网络设置了另一个反向传播的信号,引发了类似的动态。网络找到了新的平衡点。训练网络在大量的标记数据上重复这个「平衡传播」过程。

预测知觉

Beren Millidge 提出的预测编码 (predictive coding),也同样要求反向传播。「如果合理设置预测编码,将会生成一个在生物学上看起来很合理的学习规则。」

图片

预测编码假定大脑不断地对感觉输入的原因进行预测。这个过程包括了神经处理的层次结构。

为了产生特定的输出,每一层必须预测前一层的神经活动。如果最上层想要看到一张脸,那他就会预测前一层的活动来判断这种感知的预测。

前面的层对更前的层进行相似的预测,以此类推。最低层能够预测实际的感受输入,比如说光子落在视网膜上。

通过这种方式,高层的感知能力流向低层。

但是错误可能发生在任何一个网络中的任何一个层,每层的期望的输入和实际的输入之间的存在误差。

最底层根据接收到的感知信息调整突触的权重来降低误差。这个调整结果导致了更新后的高层和更上面一层之间的误差,因此更高层也必须调整突触的权重来降低预测误差。

这些错误信号向上逐层传递,直到每层的预测误差都达到最小值。通过适当的设置,预测编码网络可以收敛到和反向传播几乎相同的学习梯度值。

然而,对于反向传播运行一次来说,预测编码网络必须迭代多次。尽管如此,如果可以接受一定程度上不准确的预测结果,预测编码通常可以快速地得到有用的答案。

锥体神经元

一些科学家已经开始研究基于单个神经元的已知特性来构建类似反向传播的算法。

图片

标准神经元有树突,它们从其他神经元的轴突中收集信息。树突传递信号到神经元的细胞体来整合信号。

但并非所有的神经元都有这种结构。特别是锥体神经元,它在大脑皮层中有着最丰富的的神经元类型。

锥体神经元具有树状结构,有两套不同的树突。树干向上伸展,分枝形成所谓的顶端树突。

树干向上延伸,分枝形成顶端树突。根向下延伸,分枝形成基部树突。

图片

2001 年由 Kording 独立开发的模型已经表明锥体神经元能够同时进行向前和向后计算,可以作为深度学习网络的基本单元。

模型的关键是分离进入神经元的信号,包括前向推理或者向后的流动误差。这些误差可以通过基树突和顶树突分别处理。

这两种信号都可以编码在神经元传递到轴突电活动的尖峰中。

Richards 的团队最新研究表明,已经可以通过相当真实的神经元模拟,来训练锥体神经元网络去完成各种各样的任务。

没有人会告诉大脑神经元该打开 / 关闭

对于使用反向传播的深度网络,一个隐含的要求就是必须有「老师」来帮助计算神经元网络的误差。

但是,大脑中没有一个老师会告诉运动皮层中的每一个神经元,「你应该被打开,你应该被关闭。」

Roelfsema 认为大脑解决这个问题的方案是「注意力」。

在上世纪 90 年代后期,他和他的同事发现,当猴子盯着一个物体,在大脑皮层中表示该物体的神经元变得更加活跃。

猴子集中注意力的行为给相关的神经元一个反馈信号。

「这是一个高度选择性的反馈信号,它不是一个错误信号。他只是告诉这些神经元:你们负责这个动作。」

当这种反馈信号与其他神经科学的研究成果结合起来时,可以实现类似反向传播学习的效果。

剑桥大学的 Wolfram Schultz 和其他研究人员已经证明:当动物做一个行动产生比预期更好的结果时,大脑中的多巴胺系统就会被激活。

图片

「他让整个大脑充满了神经调节剂。多巴胺水平就像一个全局强化的信号。」

图片

理论上,注意力的反馈信号只能通过更新对应的突触权重来启动那些负责对整体强化信号做出反应的神经元。

Roelfsema 和他的同事利用这个想法构建了一个深层神经网络,并且研究了数学属性,得到的是和反向传播基本相同的等式,但在生物学上有了合理的解释。

这个团队在 NIPS 上展示了这项工作,它可以被训练成深层次的网络,这只比反向传播慢两到三倍,比其他所有生物学相关的算法都要快。

鉴于这些进步,计算神经学家们对未来的发展十分乐观。

Hinton 提出的反向传播,并且是深度学习的大大牛,但是现在他一直在否定自己的工作,提出胶囊网络还有其他工作来增加生物学上的解释。

参考资料:

https://www.quantamagazine.org/artificial-neural-nets-finally-yield-clues-to-how-brains-learn-20210218/


人如何一步步成为经验的奴隶?

原创 Chantel Prat 酷炫脑 2022 年 08 月 24 日 20:00 湖北

图片

Via:Rozie

作者 |Chantel Prat

翻译 | 棉花熊

审校 | 酷炫脑主创

朗读 | 鸽仔

美工 | 老雕虫

编辑 | 加薪

大脑是由我们的经验塑造的,这样我们就可以适应各种不同的情况

我们对新冠疫情初期第一次接到 “待在家里” 命令的那一天记忆犹新。我的态度很快从 “可能是暂时的吧,就像暴雪天在家一样” 的感觉转变为感觉像一只被关在笼子里的鸟。作为一个性格外向又不喜欢被人指手画脚的人,这个转变是非常艰难的。

但是你知道吗?我已经习惯了。尽管这场大流行病无疑对你们一些人的生活影响更大,但我知道它以我们永远不会忘记的方式影响着我们每一个人。现在,经过两年的计算,我确信,每一个读到这篇文章的人都与疫情开始时的态度有根本的不同。

因为我们的大脑就是这样工作的。它们是由我们的经验塑造的,这样我们就可以适应各种不同的情况**。

这实际上是我们大脑中最具人性的东西之一。事实上,根据当代人类进化的一些观点,我们的祖先经历了一场 “认知革命”,正是因为他们被迫适应环境。有证据表明,在极端天气不稳定的时期,我们祖先的大脑体积会增加,对于我们大脑的灵活性,一个流行的解释是,无法适应环境变化的原始人类没有生存下来。换句话说,现代人类的大脑因其学习和适应不断变化的环境的能力而被选中。

但这种显著灵活性的主要代价之一是:人类生来就没有任何关于事物如何运作的先入为主的概念。如果你和某人谈论过一件你们都参与过的事情,你可能会觉得你们中的一个人有妄想症,因为你们的故事太不一样了,你可能会发现你的经历在多大程度上塑造了你理解周围世界的方式。这可能会令人抓狂,因为 —— 让我们面对现实吧 —— 我们自己的大脑在构建我们个人版本的现实时,真的很有说服力。还记得蓝金裙子之争吗?虽然当别人看到的与你的不同时,你会感觉说服别人你所看到的像是在操控别人,但也完全有可能你们都在说自己眼见为实的真相。

图片

图源互联网

你的经历塑造你的大脑最重要的方式之一是通过一个被称为赫布理论(Hebbian Learning)的过程。从本质上说,赫布理论(Hebbian Learning)是一种生物机制,它让你的大脑保持一套关于事物在你的环境中发生的频率的统计数据。

就像运动队会保存球员的统计数据,并利用这些数据来决定谁首发谁会被转移到别的俱乐部一样,你的大脑也有一种方法来 “计算” 不同类型事件发生的频率,并在接收到不完全信息的情况下,使用这个系统来找出最有可能发生的事情。

幸运的是,**你的大脑统计数据的方式不需要你进行任何计算。**相反,这自动发生在八卦神经元之间的连接中 —— 在决定谁在和谁说话以及说话声音有多大的空间中。时间对于组织这种交流非常重要。事实证明,这对学习也很重要。

当两个靠近的神经元几乎同时兴奋时,它们之间的联系会加强,增加了其中一个接收到另一个的信息的可能性。虽然赫布理论的实际原则比这要微妙一些,但我始终记得我在本科时第一次学到的那句吸引人的口号:“一起激发的神经元,连接在一起。” 这种情况发生得越频繁,两个神经元之间的连接就越强。这是你的大脑把这些点连接起来的方式。它假设,如果事件 A 和事件 B 几乎总是同时发生,它们是同一 “神经事件” 的一部分。一旦发生了这种情况,即使你的大脑只得到了 A 在外部世界发生的证据,它也可能会假设 B 也发生了,并会为你创造那种体验。

图片

Via:《绿皮书》

我想具体说明,在发展你的观点时,什么才 “算” 是经验。简单地说,**你从所有的神经经验中学习。**从你的大脑的角度来看,通过它的信号是否来自于你在外部世界看到的东西、白日梦的幻想,或者是有意想象你潜在的未来,这并不重要。每一个相应的电风暴都会塑造你大脑数据库的格局。

几乎所有人都有一个共同的经历,它对你的思想和大脑有广泛的影响,那就是我们所说的语言**。这是因为语言是我们思考、感觉和行为方式的中心,我们醒着的大部分时间都在使用它。

如果你只懂一种以上的语言,或者你的第二语言知识有限,又或者是后天习得的 (例如,青春期后),那么你的大脑会只适应你的第一语言,相比起那些拥有更多样的语言经历的人。这样做的一个好处是,你的大脑可能比学过多种语言的人的大脑更容易使用这一种语言。粗略地说,也就是说多种语言的人在使用他们的统计数据来理解或产生一种语言时有更多的选择。在使用任何特定的语言之前,他们需要解决它们之间的竞争。这意味着他们需要多花几分之一秒的时间来获取他们需要使用的任何语言信息,即使是用他们最熟练的语言。

但广泛接触不同类型的统计数据也有好处。接触多种语言的人不仅有更丰富的行为选择,他们在决定如何行为时也可能会考虑更多的信息 —— 比如他们认为哪种语言在当前环境下最合适。但是考虑到 “在野外” 的不同回应方式的成本肯定会增加。简而言之,大脑暴露的范围越广,在任何特定环境或背景下的处理速度就会越慢,但这也能让一个人为更多的情况做好准备。

图片

唐纳德 赫布

我们大多数人都知道,**在孩提时代学习语言比成年后学习语言要容易得多。**这就提出了一个问题:有多少学习是在生命的早期阶段进行的,我们又能在多大程度上适应以后的生活?简而言之,大脑的不同部位有不同的适应窗口。

为了简化,我们可以根据对经验开放的程度和持续的时间,将大脑区域分成三种类型。**第一种类型,几乎完全由大脑中控制维持生命的功能的部分组成,是独立于经验的。**这些是大脑中调节呼吸、心率和体温等关键功能的部分,这些功能在不同的环境中变化不大。

下一个是经验期待区。**大脑的这些部分注定要学习与解释关于 “外面” 世界的特定类型的信息,因为它们天生就能从我们的感官接收信息。例如,在正常发育的婴儿中,通过眼睛进入的光线被传送到大脑后部的枕叶皮层,通过耳朵进入的声音被传送到大脑两侧颞叶的听觉皮层,通过鼻子进入的气味被位于大脑前部底部的嗅球处理。我们必须学会识别我们看到的、听到的和闻到的东西,这使得人类婴儿能够在他们出生的环境中成长。

但是,许多期待经验的区域也有接受输入的 “关键时期”。在生命之初,它们等待数据,并且具有不可思议的可塑性。但随着你年龄的增长,这些区域积累了关于周围世界的信息,它们在处理它们期望看到的事物时变得越来越顽固,而且很少受到外部世界新经验的影响。

幸运的是,我们大脑的某些部分在我们一生的大部分时间里都保持着可塑性**。这些是大脑中依赖经验的部分。其中包括我们大脑皮层的大部分 “联系” 区域,包括那些让我们在一生中获得新词汇的区域。

最关键的经验依赖区域之一是额叶,它支持人类适应环境的大部分灵活行为。基底神经节核也依赖于经验。**事实上,它们可以说是适应性最强的大脑区域之一,因为它们富含增加神经可塑性的多巴胺交流信号。这对塑造大脑的决策过程至关重要。

图片

图源互联网

不幸的是,这些依赖经验的区域也会把我们引向一些死胡同:例如,它们塑造了我们关于种族、年龄、性别和性取向的隐性偏见。**即使这些偏见涉及到我们学习在同一时间或同一背景下发生的高级概念与另一个概念相关联的方式,它们仍然会以令人不安的方式影响我们对世界的早期感性理解。

一个明显的例子,在世界各地的实验室中,在不同的人群和不同的条件下,被反复证明的是,当一个模糊的物体被放在一张黑人的脸旁边时 (在空间或时间上),人们更有可能报告说看到了武器。

Keith Payne 在 2001 年首次证明了这种效应。在两个实验中,佩恩向 60 名非黑人参与者展示了一系列工具或手枪的黑白图片,这些图片在屏幕上快速闪烁,时间为五分之一秒,并要求他们指出他们看到了什么。问题在于,在两个实验中,在每个要被识别的物体前都有一张黑人或白人男性的脸。研究参与者被告知,这些面孔只是物体即将到来的提示;他们不被期望与物体有任何关系,事实上他们也没有。在工具和手枪面前,黑人和白人的面孔同样频繁出现。尽管如此,佩恩的参与者发现,根据他们的反应时间,当看到一张黑人面孔时比看到一张白人面孔时更容易识别出手枪。随着黑人的面孔,枪比工具更容易被识别,尽管当它们随着白人的面孔时,两者同样容易被识别。

虽然这种影响的规模很小,但它反映的关于学习和参与者的大脑的信息是重要的。在实验中,在黑人面孔后面显示枪支是最容易识别的事情,这一事实表明,平均而言,参与者的神经数据库在黑人面孔和枪支之间包含了足够强的联系,从而在他们的大脑中创建了一条捷径。换句话说,为什么人们在看到黑人面孔后能更快地识别出枪支,最直接的解释是,当他们单独看到黑人面孔时,他们的大脑已经开始填补空白,构建武器的概念。

对任何能看到新闻的人来说,这一事件的致命后果是显而易见的。不幸的是,这项原始研究基本上没有回答一个关键问题:我们如何修复它?首先要弄清楚导致这些偏见的数据来自哪里。尽管很多美国人拥有枪支,但很难相信这些研究中的普通大学生在现实生活中与黑人和枪支有过很多 (或任何) 经历。那么,这些捷径从何而来呢?

图片

Via:《绿皮书》

简单地说,**你在现实生活中对某一特定类型的人、地点或事物的体验越少,你大脑对该主题的数据库条目就越有可能是基于你在电视上看到的,或在新闻中读到的,在社交媒体上,或在虚构的描述中接收到的。**因此,如果你在电视上看到的黑人面孔更有可能拿着枪,而不是听诊器,你的大脑就会认为这是真实的,并将其纳入你所看到的基于经验的透镜中。

通过这种方式,当我们消费他人创造的现实版本时,我们的许多大脑实际上受到了社会系统性偏见的影响。这些偏见会以一种快速而自动的方式影响我们理解世界的方式。这让我想到了另一个重要的区别 —— 参与这项研究的人,他们的大脑中有这种类型的捷径,他们不一定对什么样的人携带枪支持有有意识的、明确的想法。事实上,你的外显信念和你的经验数据库完全可以互相矛盾。

你可能会认为内隐偏见是过度适应的结果,当大脑在一个比你想要生活的更狭窄的环境中变得根深蒂固时,就会发生这种情况。当我们开始从比通常更狭窄的流行病隔离泡沫中摆脱出来时,意识到这种过度适应似乎就更加重要了。

为了纠正我们大脑中的捷径,我们可以让自己接触到各种各样的真实世界的经历,允许从不同角度讲述的故事来塑造我们。如果我们能更有意识地考虑我们向大脑灌输什么样的体验,我们就能帮助塑造未来自我适应世界的方式。

图片

Via:《绿皮书》

参考文献

1.The Neuroscience of You: How Every Brain Is Different and How to Understand Yours by Chantel Prat, Ph.D., published on August 2, 2022 by Dutton, an imprint of Penguin Publishing Group, a division of Penguin Random House, LLC. Copyright © 2022 by Chantel Prat.


赫布定律:为什么有些坏习惯很难打破?

原创 胡风 胡风笔记 2023 年 12 月 14 日 17:24 湖南

你是否有遇到下面这些情况

自己明明在做自己不想做的事情,但又一直还在做,没有停止?

为什么一个人重复喝酒的次数越多,喝酒的冲动就会变得越来越强烈?

我们可能在赫布定律中找到答案。

01 赫布定律

赫布定律是心理学家唐纳德・赫布(Donald Olding Hebb)提出的关于神经元之间联系的变化规律的定律。赫布的理论认为在同一时间被激发的神经元间的联系会被强化。

例如,在一个实验中,研究人员对狗进行训练,通过摇铃铛激发狗的铃铛连接,然后再给狗喂狗粮,激发狗的口水连接。在训练之前,铃铛连接和口水连接没有关系,但是通过训练,这两个连接组被强化了,形成了新的细胞回路。

另一个案例是关于记忆的研究。研究人员发现,当人们学习新的知识时,大脑中的神经元会形成新的连接。这些新的连接会被强化和巩固,从而形成记忆。

比如幼儿园老师教小朋友认识苹果,会拿着苹果的卡片,然后大声朗读 “苹果”,反复多次后,一条新的神经元通路就建立起来。以后再听到苹果,小朋友就迅速想到那个圆圆的苹果。

赫布定律可以解释为什么人们在学习新知识时需要反复练习和重复,以及为什么在学习之后进行复习可以提高记忆效果。

02 为什么坏习惯难打破

简单来说,大脑中的神经元使用越频繁,它们之间的连接就越强,越牢固。我以戒烟为例,为何人们开始抽烟后就很难停下来?

有没有上班起不来的朋友?假设你来到一个新公司上班,最开始是 8 点上班,你也许会在 7:50 左右赶到,慢慢地变成 7:57,再慢慢地变成 8:00,最后变成迟到赶不上偶尔发生。

此时,你会怀疑是不是 8 点上班太早了。但是换一种情况,夏天来了,公司改成了 8:30 上班,你还会重复上面的情况,这到底是为什么呢?

比如 8 点打卡上班,你错过了一辆地铁后,感觉会被领导骂,于是抽了一根烟以缓解压力。尼古丁的香味,使你放松了下来。

此时,你的大脑开辟了一条新的神经元通路,迟到带来的压力和抽烟降压联系起来。而你以后每次迟到,这种情况就会加强。曾经的一次迟到,变成了一种新习惯。本来是一个解决迟到压力的方案,却变成了一个新的永久的,痛苦的问题。

多年以前,我经常年初制定 Flag,到了年底被频发打脸,于是又重新立 Flag,然后又被打脸。此时,我年底立 Flag 目的,是为了缓解没有完成目标的快速解决方案,但是它并没有从根源上帮我解决问题。

此时,也就是赫布定律提到的,当神经细胞以相同的模式反复激活时,它们最终会形成大脑回路。一旦建立了回路,每次出现类似情况时,回路中涉及的大脑区域都会以相同的方式自动响应。这会导致电路变得更坚固,并养成和保持习惯。

最好的办法是什么?不是年底立新的 Flag,而是完成一件又一件小事情。不要想着快速解决,而是哪些习惯能从根源上解决。当我们遇到目标没有达成时,我们就去做小事情,这样一来,做小事情的习惯和没有达成目标绑定起来。于是,我们就真的就能完成制定的目标。

03 赫布定律的应用

应用赫布定律可以帮助我们解决工作、生活中多种问题:

1.学习与记忆:赫布定律解释了为什么重复和练习对于学习和记忆是重要的。通过反复刺激神经元之间的连接,我们可以强化它们,从而提高记忆和学习的效果。例如,在准备考试时,重复学习和练习是关键,因为这可以帮助我们加强大脑中的相关神经元连接,从而更有效地记住和应用知识。

2.团队协作:赫布定律也可以应用于团队协作。当团队成员经常一起工作并取得成功时,他们之间的联系会被强化,形成一个有效的团队回路。这种团队回路可以提高团队的效率和协作能力。例如,在工作中,如果一个团队成员经常与另一个成员合作并取得成功,那么他们之间的信任和合作能力会增强,从而提高整个团队的工作效率。

3.习惯养成:赫布定律也可以应用于习惯养成。通过重复某种行为,我们可以强化与这种行为相关的神经元连接,从而形成习惯。例如,如果我们每天早晨都锻炼,那么与锻炼相关的神经元连接会被强化,从而更容易养成锻炼的习惯。

4.问题解决:赫布定律还可以应用于问题解决。通过反复思考和尝试不同的解决方案,我们可以强化与问题解决相关的神经元连接,从而更有效地找到解决方案。例如,在工作中遇到难题时,我们可以尝试不同的解决方案,并反复思考和尝试,从而找到最有效的解决方案。

很多时候,大脑会欺骗我们。我们很多自动自发的行为,误以为是最好的解决方案;但是这些简单行为的重复,反而加强了问题解决的难度;用一种新的坏习惯来代替老的坏习惯,最终让问题越来越难解决。

其实,很多的 “拖延癌” 就是这么来的。简单粗暴的解决方案,科学家称此为喂养怪物。


(1949 年)基于神经心理学的学习机制 —— 赫布学习规则

曲靖妇女儿童中心 麒麟区青少年校外活动中心 2021 年 01 月 20 日 20:05 云南

1949 年,唐纳德・赫布基于神经心理学的学习机制,踏出了学习的第一步,创造了此后被称为赫布学习规则的方法。赫布认为神经网络的学习过程发生在神经元之间的突触部位,突触的联结强度随着突触前后神经元的活动而变化,正确的反馈会让两个神经元的联系得到强化。这个原理机制类似巴普洛夫的条件反射实验:每次给够喂食前都响铃,时间一长,够的神经系统就会将铃声和食物联系起来。

赫布用一套加权公式来模仿人类的神经网,权重就代表神经元之间联系的强弱。赫布给机器创造了一套可以简单区分事物的方法,对于每个数据,让决策程序做出判断,判断对了就奖励,判断错了就惩罚。他利用这个方法创造了一个分类器,可以提取数据集的统计特性,把输入信息按照它们的相似程度划分为若干类。

看上去如同人类在观察某种现象时,会观察和总结并区分事物,但机器的这种 “观察” 更接近一种通过训练达成的条件反射,并非如人类那样思考,重视的是数据中蕴含的相关性关系,而非人类思维中的因果性关系。

图片

Hebb 学习规则是一个无监督学习规则,这种学习的结果是使网络能够提取训练集的统计特性,从而把输入信息按照它们的相似性程度划分为若干类。这一点与人类观察和认识世界的过程非常吻合,人类观察和认识世界在相当程度上就是在根据事物的统计特征进行分类。Hebb 学习规则只根据神经元连接间的激活水平改变权值,因此这种方法又称为相关学习或并联学习。

由赫布提出的 Hebb 学习规则为神经网络的学习算法奠定了基础,在此基础上,人们提出了各种学习规则和算法,以适应不同网络模型的需要。有效的学习算法,使得神经网络能够通过联结权重的调整,构造客观世界的内在表征。

赫布理论

是一个神经科学理论,解释了在学习的过程中脑中的神经元所发生的变化。赫布理论描述了突触可塑性的基本原理,即突触前神经元向突触后神经元的持续重复的刺激,可以导致突触传递效能的增加。赫布理论解释了神经元如何组成联接,从而形成记忆印痕。

图片

赫布理论阐明了细胞集群(Cell Assemblies)的形态和功能:“两个神经元或者神经元系统,如果总是同时被激发,就会形成一种‘组合’,其中一个神经元的激发会促进另一个的激发。” 赫布同时写道:“如果一个神经元持续激活另一个神经元,前者的轴突将会生长出突触小体(如果已有,则会继续长大)和后者的胞体相连接。”

在人工神经网络中,突触间传递作用的变化被当作是(被映射成)神经元网络图中相应权重的变化。如果两个神经元同步激发,则它们之间的权重增加;如果单独激发,则权重减少。赫布学习规则是最古老的也是最简单的神经元学习规则。

表达意义

由赫布提出的 Hebb 学习规则为神经网络的学习算法奠定了基础,在此基础上,人们提出了各种学习规则和算法,以适应不同网络模型的需要。有效的学习算法,使得神经网络能够通过联结权重的调整,构造客观世界的内在表征。

Hebb 学习规则与 “条件反射” 机理一致,并且已经得到了神经细胞学说的证实。

巴甫洛夫的条件反射实验:每次给狗喂食前都先响铃,时间一长,狗就会将铃声和食物联系起来。以后如果响铃但是不给食物,狗也会流口水。

受该实验的启发,Hebb 的理论认为在同一时间被激发的神经元间的联系会被强化。比如,铃声响时一个神经元被激发,在同一时间食物的出现会激发附近的另一个神经元,那么这两个神经元间的联系就会强化,从而记住这两个事物之间存在着联系。相反,如果两个神经元总是不能同步激发,那么它们间的联系将会越来越弱。


via:

  • 赫布定律 馥墨轩 2021 年 03 月 13 日 00:03
    https://mp.weixin.qq.com/s/GocwOkuemA6WgVoJihcnlw

  • 赫布法则(Hebb’s rule)与机器学习 Neuro 科学和人工智能 2022 年 10 月 24 日 20:16 上海
    https://mp.weixin.qq.com/s/gYceJ8DuqeoKTCrSsgLPTw

  • 反向传播和生物学没关系?NO!大牛告诉你:在反向传播基础上找到生物学解释 新智元 2021 年 02 月 24 日 17:52
    https://mp.weixin.qq.com/s/_mzsSmEZlQDEe_3y7rVTsw

  • 人如何一步步成为经验的奴隶?原创 Chantel Prat 酷炫脑 2022 年 08 月 24 日 20:00 湖北

    https://mp.weixin.qq.com/s/UiFc3wKq3W28VwW6SMtr1A

  • 赫布定律:为什么有些坏习惯很难打破?原创 胡风 胡风笔记 2023 年 12 月 14 日 17:24 湖南
    https://mp.weixin.qq.com/s/V5-nKYUAwuVvgajG_1vJoQ

  • (1949 年)基于神经心理学的学习机制 —— 赫布学习规则 曲靖妇女儿童中心 麒麟区青少年校外活动中心 2021 年 01 月 20 日 20:05 云南
    https://mp.weixin.qq.com/s/uvijPNIwULpOc0X5oRD2rQ

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/938342.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

uni-app实现小程序、H5图片轮播预览、双指缩放、双击放大、单击还原、滑动切换功能

前言 这次的标题有点长,主要是想要表述的功能点有点多; 简单做一下需求描述 产品要求在商品详情页的头部轮播图部分,可以单击预览大图,同时在预览界面可以双指放大缩小图片并且可以移动查看图片,双击放大&#xff0…

杭州乘云联合信通院发布《云计算智能化可观测性能力成熟度模型》

原文地址:杭州乘云联合中国信通院等单位正式发布《云计算智能化可观测性能力成熟度模型》标准 2024年12月3日,由全球数字经济大会组委会主办、中国信通院承办的 2024全球数字经济大会 云AI计算创新发展大会(2024 Cloud AI Compute Ignite&…

第6章图6.21-6.27-《分析模式》原图和UML图对比

DDD领域驱动设计批评文集 做强化自测题获得“软件方法建模师”称号 《软件方法》各章合集

如何在谷歌浏览器中设置广告屏蔽

在数字时代,网络广告无处不在,虽然它们为网站提供了收入来源,但有时也会干扰我们的浏览体验。如果你正在寻找一种方法来减少这些干扰,那么在谷歌浏览器中设置广告屏蔽是一个不错的选择。本文将指导你完成这一过程,并简…

认识网络互联设备(二)

交换机 功能: (1)通过支持并行通信,提高交换机的信息吞吐量; (2)将传统的一个大局域网上的用户分若干工作组,每个端口连接一台设备或者连接一个工作组,有效的解决了拥塞情…

数据可视化-2. 条形图

目录 1. 条形图适用场景分析 1.1 比较不同类别的数据 1.2 展示数据分布 1.3 强调特定数据点 1.4 展示时间序列数据的对比 1.5 数据可视化教育 1.6 特定领域的应用 2. 条形图局限性 3. 条形图图代码实现 3.1 Python 源代码 3.2 条形图效果(网页显示&#…

AMBA-CHI协议详解(十二)

AMBA-CHI协议详解(一)- Introduction AMBA-CHI协议详解(二)- Channel fields / Read transactions AMBA-CHI协议详解(三)- Write transactions AMBA-CHI协议详解(四)- Other transac…

【MATLAB第109期】基于MATLAB的带置信区间的RSA区域敏感性分析方法,无目标函数

【MATLAB第108期】基于MATLAB的带置信区间的RSA区域敏感性分析方法,无目标函数 参考第64期文章【MATLAB第64期】【保姆级教程】基于MATLAB的SOBOL全局敏感性分析模型运用(含无目标函数,考虑代理模型) 创新点: 1、采…

《外国服务区加油站模型:功能与美观的完美结合 caotu66.com》

这个外国服务区加油站模型在设计上独具特色,兼具实用性和美观性。 从整体布局来看,加油站位于服务区的显眼位置。加油站的顶棚采用了现代风格的设计,顶棚的颜色主要是黄色和蓝色,色彩鲜明且具有辨识度。顶棚下方有多个加油柱&…

mybatis-plus超详细讲解

mybatis-plus (简化代码神器) 地址:https://mp.baomidou.com/ 目录 mybatis-plus 简介 特性 支持数据库 参与贡献 快速指南 1、创建数据库 mybatis_plus 2、导入相关的依赖 3、创建对应的文件夹 4、编写配置文件 5、编写代码 …

数据结构(顺序表)JAVA方法的介绍

前言 在 Java 中,集合类(Collections)是构建高效程序的核心组件之一,而 List 接口作为集合框架中的重要一员,是一个有序、可重复的元素集合。与 Set 接口不同,List 保证了元素的顺序性,并允许存…

泊松编辑 possion editing图像合成笔记

开源地址: GitHub - kono-dada/Reproduction-of-possion-image-editing 掩码必须是矩形框

【Flink-scala】DataStream编程模型之状态编程

DataStream编程模型之状态编程 参考: 1.【Flink-Scala】DataStream编程模型之数据源、数据转换、数据输出 2.【Flink-scala】DataStream编程模型之 窗口的划分-时间概念-窗口计算程序 3.【Flink-scala】DataStream编程模型之窗口计算-触发器-驱逐器 4.【Flink-scal…

Linux实操篇-远程登录/Vim/开机重启

目录 传送门前言一、远程登录1、概念2、ifconfig3、实战3.1、SSH(Secure Shell)3.2、VNC(Virtual Network Computing)3.3、RDP(Remote Desktop Protocol)3.4、Telnet(不推荐)3.5、FT…

【计算机网络】期末考试预习复习|上

作业讲解 物理层作业 共有4个用户进行CDMA通信。这4个用户的码片序列为: A: (–1 –1 –1 1 1 –1 1 1);B: (–1 –1 1 –1 1 1 1 –1) C: (–1 1 –1 1 1 1 –1 –1);D: (–1 1 –1 –1 –1 –1 1 –1) 现收到码片序列:(–1 1 –…

CTFHub-ssrf

技能树--Web--SSRF 内网访问 开启题目 尝试访问位于127.0.0.1的flag.php吧 进入环境 根据提示输入即可 127.0.0.1/flag.php 伪协议读取文件 开启题目 尝试去读取一下Web目录下的flag.php吧 进入环境,根据提示输入 file:///var/www/html/flag.php 鼠标右键查看…

解决PyTorch模型推理时显存占用问题的策略与优化

在将深度学习模型部署到生产环境时,显存占用逐渐增大是一个常见问题。这不仅可能导致性能下降,还可能引发内存溢出错误,从而影响服务的稳定性和可用性。本文旨在探讨这一问题的成因,并提供一系列解决方案和优化策略,以…

Java从入门到工作3 - 框架/工具

3.1、SpringBoot框架结构 在 Spring Boot 或微服务架构中,每个服务的文件目录结构通常遵循一定的约定。以下是一个常见的 Spring Boot 服务目录结构示例,以及各个文件和目录的简要说明: my-service │ ├── src │ ├── main │ │…

电子应用设计方案-56:智能书柜系统方案设计

智能书柜系统方案设计 一、引言 随着数字化时代的发展和人们对知识获取的需求增加,智能书柜作为一种创新的图书管理和存储解决方案,能够提供更高效、便捷和个性化的服务。本方案旨在设计一款功能齐全、智能化程度高的智能书柜系统。 二、系统概述 1. 系…

2024 年贵州技能大赛暨全省第二届数字技术应用职业技能竞赛“信息通信网络运行管理员”赛项--linux安全题

Linux操作系统渗透测试 Nmap -sS -p- ip 扫描 这题有俩种做法,一种用3306端口,另一种用48119端口 用48119端口是最简单的做法 nc 连接这个端口如何修改root密码 ssh连接 这样我们就成功的拿到root权限 1.通过本地PC中渗透测试平台Kali对服务器场景进…