【博士每天一篇文献-算法】Adult neurogenesis acts as a neural regularizer

阅读时间:2023-12-20

1 介绍

年份:2022
作者:Lina M. Tran,Adam Santoro,谷歌DeepMind
期刊: Proceedings of the National Academy of Sciences
引用量:13
代码:https://github.com/linamnt/dnn-neurogenesis
Tran L M, Santoro A, Liu L, et al. Adult neurogenesis acts as a neural regularizer[J]. Proceedings of the National Academy of Sciences, 2022, 119(45): e2206704119.
image.png
image.png
本文探讨成人神经发生(adult neurogenesis)在大脑中的作用,特别是它如何作为一种神经调节器来促进学习过程中的泛化能力。类似神经发生的进程作为一种正则化手段,促进类别学习任务中的泛化。在一个用于训练CIFAR-10对象识别数据集的卷积神经网络(CNN)中模拟了神经发生,将其视为一种替换/更替机制,即在模型学习对10个不同类别的对象进行分类时,随机选择一小部分隐藏层神经元的权重被重新初始化为新值。研究发现,与没有神经发生的网络相比,神经发生增强了在未见过的测试数据上的泛化能力。但是实验表明随机选择和针对性选择在性能上没有显著差异。

2 创新点

  1. 神经发生作为正则化机制的假设:提出成人神经发生可能在大脑中起到类似于机器学习中正则化技术的作用,这是一种新的视角,将神经科学的理论与机器学习的技术联系起来。
  2. 计算模型的应用:使用计算模型来模拟神经发生过程,这种方法允许研究者在控制条件下测试神经发生对学习泛化能力的影响。
  3. 卷积神经网络(CNN)的模拟:在CNN中模拟神经发生,通过重新初始化隐藏层中一小部分神经元的权重来模拟新神经元的整合,这种方法提供了一种新的神经网络训练策略。
  4. 神经发生的替换/更替机制:将神经发生视为一种替换机制,这种机制在神经网络中通过随机选择并重新初始化权重来模拟新神经元的加入,这与以往研究不同,它专注于权重的动态变化。
  5. 与传统正则化方法的比较:将神经发生作为一种正则化手段与传统的正则化技术(如dropout、权重衰减和神经噪声)进行了比较,发现神经发生至少与传统正则化手段一样有效。
  6. 神经兴奋性的调节:研究了通过增加新神经元的激活来模拟其高兴奋性是否能够进一步促进网络的正则化和性能提升。
  7. 针对性神经发生的探索:探索了是否有可能通过针对性地选择哪些神经元进行更替来提高网络性能,虽然结果表明随机选择和针对性选择在性能上没有显著差异,但这为未来的研究提供了新的方向。
  8. 网络鲁棒性的分析:研究了神经发生对网络依赖于单个神经元与分布式编码的影响,发现神经发生可能通过不同于减少对单个神经元依赖的机制来提高泛化能力。
  9. 实验代码的公开:作者将实验的代码公开在GitHub上,这为其他研究者复现实验结果和进一步研究提供了便利。

3 相关研究

论文《Hoel E. The overfitted brain: Dreams evolved to assist generalization[J]. Patterns, 2021, 2(5).》和《Richards, B.A., & Frankland, P.W. (2017). The Persistence and Transience of Memory. Neuron, 94, 1071-1084.》提出神经噪声可能是大脑执行正则化以更好地提取经验的统计规律性的一种策略。

4 算法

  1. CNN架构:使用的CNN包含多个卷积层和池化层,后接全连接层。输入层接收32x32像素的RGB图像,然后数据通过卷积层和池化层进行特征提取,最终通过全连接层进行分类。
  2. 神经发生模拟:在CNN的隐藏层中模拟神经发生,通过在训练过程中随机选择一小部分神经元,并重新初始化它们的权重来模拟新神经元的整合。
  3. 替换/更替机制:神经发生被建模为一种“替换/更替”机制,其中选定的神经元的输入和输出权重被重置为新值,而成熟神经元的连接保持不变。选定的方式有随机、权重大的部分、权重小的部分三种方式。
  4. 训练过程:使用随机梯度下降进行网络训练。在训练过程中,神经发生以持续的方式实施,即在每个mini-batch更新后有一定概率发生神经元的更替。
  5. 超参数调整:确定神经发生发生频率和每次更替事件中要重置的神经元数量,使用贝叶斯优化进行超参数调整。
  6. 增强兴奋性:为了评估新神经元的兴奋性对正则化的影响,实验中增加了一个兴奋性组件,在每次前向传播中将新神经元的激活乘以一个兴奋性因子。

5 实验分析

(1)神经发生实现过程图示
image.png

  • 图1A 展示了在实验中使用的卷积神经网络(CNN)的结构示意图。这个CNN包含多个卷积层和池化层,以及随后的全连接层。输入层接收32x32像素的RGB图像,然后通过卷积层和池化层提取特征,最后通过全连接层进行分类。
  • 图1B 描述了如何在CNN中实施替换/更替(replacement/turnover)类型的神经发生。在这个过程中,全连接层中随机选择的一小部分神经元的权重会被重新初始化,模拟新神经元的整合。这种模拟不影响网络的整体大小,但改变了网络的连接模式。
  • 图1C 说明了在训练过程中如何进行带有神经发生的训练,以及在测试时不进行任何神经发生的事件。训练时,每隔一定数量的 minibatch 更新,就会执行一次神经发生的权重重置。而在测试阶段,不进行任何权重的重置或神经元的更替。

(2)训练准确率和测试准确率的对比实验
image.png

  • 图2A 展示了对照网络(未引入神经发生)和神经发生网络(引入了神经发生)在训练后的测试准确率的箱线图。箱线图显示了数据的分布和中位数,同时t检验的结果显示神经发生网络的测试准确率显著高于对照网络。
  • 图2B 通过小提琴图展示了对照组和神经发生组在最低分(左侧)和最高分(右侧)的得分分布。小提琴图提供了更详细的信息,显示了每个分数的频率分布。t检验结果表明,无论是在最低分还是最高分的网络中,引入神经发生都能显著提高性能。
  • 图2C 示意了如何在神经发生网络中实现新神经元的增强兴奋性。通过将新神经元的激活乘以一个兴奋性因子c,来模拟新神经元的高兴奋性。
  • 图2D 展示了对照网络、神经发生网络以及增强兴奋性的神经发生网络在测试准确率上的箱线图。ANOVA(方差分析)和Tukey’s HSD(Tukey诚实显著性差异)测试表明,引入神经发生和增强兴奋性的网络在性能上均优于对照网络。
  • 图2E 展示了对照组和神经发生组在训练结束时的训练准确率的箱线图。t检验结果显示,尽管神经发生网络在训练准确率上有所下降,但这种差异是显著的。
  • 图2F 展示了在训练过程中对照网络和神经发生网络的验证损失变化。这有助于观察模型在训练过程中的泛化能力。

实验结论:
引入神经发生的网络,在训练准确率上略有下降,但是在测试准确率高于未引入神经发生的对照网络,这表明神经发生通过正则化效应提高了网络的泛化能力。
(3)与其他正则化方法相比较
image.png

  • 图3A 展示了Dropout正则化方法:在每次前向传播过程中,随机地停用一部分神经元及其权重。
  • 图3B 展示了权重衰减(Weight decay):在损失函数中添加一个小的惩罚项,这个惩罚项会惩罚大的权重值,导致大的权重随时间衰减。
  • 图3C 展示了神经噪声(Neural noise):在每一层的激活值中添加高斯噪声。
  • 图3D 展示了神经发生(Neurogenesis)与其他正则化方法(包括Dropout、权重衰减和神经噪声)相比的测试准确率的箱线图。方差分析(ANOVA)和Tukey’s HSD测试结果表明,神经发生与传统的对照组相比有显著提高,与Dropout相比没有显著差异,但与权重衰减和神经噪声相比则有显著提高。
  • 图3E 展示了使用组合正则化方法的网络相对于仅使用神经发生的网络的测试性能的热图。z分数表示性能的变化,热图显示了不同组合方法的性能差异。
  • 图3F 展示了使用较低参数值的Dropout(0.1)和神经发生(每1000次更新更替一次)组合时的性能图。方差分析显示,这种组合方法并没有比单独使用神经发生的方法有更好的性能。

实验结论:
神经发生作为一种正则化手段,在提高CNN的测试准确率方面与传统的Dropout方法相当,并且优于权重衰减和神经噪声方法。这表明神经发生可以作为一种有效的正则化技术,提高模型的泛化能力。当使用组合正则化方法时,例如同时使用神经发生和Dropout,并没有观察到性能的进一步提升。这可能表明,这些正则化方法的组合并不总是带来累加的效果,甚至可能相互抵消。在某些情况下,组合使用不同的正则化技术可能会降低模型的性能。这些发现强调了在选择正则化策略时需要考虑正则化方法之间的相互作用,以及它们对特定任务和模型架构的适应性。
(4)探讨神经发生的条件
image.png

  • 图4A 展示了在隐藏层中实施目标神经发生(Targeted Neurogenesis)的示意图。在这个方法中,神经元根据输入权重的大小进行排序,然后选择权重最低的(认为较不重要的)或权重最高的(认为较重要的)神经元进行神经发生处理,即重置这些神经元的权重。还有一种情况是不进行目标选择,即随机选择神经元进行神经发生(Random)。
  • 图4B 展示了对照组(Control)、随机神经发生(Random Neurogenesis)、针对权重最高的神经元的目标神经发生(High Importance Neurons,作为阳性对照组)、以及针对权重最低的神经元的目标神经发生(Low Importance Neurons)的模型测试准确率的箱线图。图中还包括了方差分析(ANOVA)和Tukey’s HSD(Tukey诚实显著性差异)的统计测试结果。

实验结论:
实验结果表明,与随机神经发生相比,目标性地对权重最高的神经元进行神经发生(High Importance Neurons)会显著降低模型的测试准确率,这可能是因为这些权重较高的神经元对网络性能有重要贡献,重置它们的权重可能损害了网络已经学到的有用特征。另一方面,目标性地对权重最低的神经元进行神经发生(Low Importance Neurons)并没有比随机神经发生带来性能上的提升。这表明在权重大小的基础上进行的目标选择可能不是提高神经发生效果的有效策略。简单地基于权重大小来选择哪些神经元进行神经发生可能不足以优化网络性能。可能需要更复杂的方法来确定哪些神经元对网络学习最关键,以及如何通过神经发生来有效地调节网络的泛化能力。
(5)消融实验
image.png

  • 图5A 展示了消融实验(Ablation Experiments)的示意图。消融实验是一种评估网络中单个神经元或神经元组重要性的方法,通过逐渐移除(消融)网络中的神经元,并观察这对网络性能的影响。
  • 图5B 展示了随着网络中逐渐增加消融神经元数量,20次重复实验的平均归一化准确率的变化曲线。归一化准确率是将消融后的准确率与原始准确率进行比较,以衡量消融对网络性能的影响。
  • 图5C 展示了对照组、神经发生组和Dropout组在第二隐藏层神经元的类选择性(Class Selectivity)的密度图。类选择性是指神经元对特定类别的激活程度,反映了神经元对不同类别的偏好性。
  • 图5D 展示了训练后测试准确率的箱线图,这些网络在训练时有或没有引入神经发生,并在测试时有或没有添加新神经元。此外,还展示了重复测量方差分析(Repeated-measures ANOVA)的结果,用以分析训练和测试后添加新神经元的交互效应。

实验结论:
引入神经发生的网络相对于对照网络,在消融神经元后显示出较低的鲁棒性。这意味着,虽然神经发生提高了网络的泛化能力,但这些网络对单个神经元的依赖性更高,消融较少比例的神经元就足以显著影响性能。
类选择性密度图显示了不同网络条件下神经元的类选择性分布。这可能表明神经发生对网络中信息编码方式的影响,以及不同网络如何通过其神经元对输入数据进行分类。

6 思考

(1)只在全连接层实现的神经元更替,不具有代表性,应该在其他网络结构上也试一试效果
(2)神经发生组相对于对照组训练准确率低,但测试准确率高的现象,可以通过以下几个方面来解释:

  1. 正则化效应:神经发生可以作为一种正则化机制。在机器学习中,正则化技术用来减少模型对训练数据的过拟合,提高模型在未见数据上的泛化能力。神经发生通过在训练过程中引入新的、未经训练的神经元,增加了模型的噪声,这迫使网络学习更加鲁棒的特征表示,而不是仅仅记住训练数据。
  2. 减少对训练数据的过度拟合:对照组网络可能在训练数据上表现得很好,但可能过于适应这些数据,导致在新的测试数据上泛化能力下降。而神经发生组虽然在训练数据上的表现不如对照组,但因为减少了对特定训练样本的依赖,它能够更好地泛化到新的测试数据上。
  3. 促进特征的泛化表示:神经发生的引入可能促进了网络权重的更优分布,使得网络能够捕捉到更加泛化的特征表示,这些特征在新的测试集上同样有效。
  4. 权重重置带来的灵活性:在神经发生过程中,新神经元的权重是随机初始化的,这为网络提供了额外的灵活性来调整其参数,以更好地适应测试数据。
  5. 损失景观的探索:神经发生可能帮助网络在权重空间中探索更广阔的区域,从而有可能找到比传统训练方法更优的局部最小值。
  6. 训练和测试的权衡:神经发生组可能在训练过程中牺牲了一些准确率,但这种牺牲换来了在测试集上的更高准确率,这表明模型在训练时避免了对噪声或特定样本的过度学习。
  7. 统计学习理论:根据统计学习理论,适当的模型复杂度和正则化可以帮助模型更好地捕捉数据的潜在分布,即使这可能导致训练误差的略微增加。

(3)本文算法存在的缺点
没有确定如何进行神经元替换(神经元发生),没有一个明确的指标。简单地基于权重大小来选择哪些神经元进行神经发生可能不足以优化网络性能。可能需要更复杂的方法来确定哪些神经元对网络学习最关键,以及如何通过神经发生来有效地调节网络的泛化能力。
(4)什么是类选择性?有什么作用?
类选择性(Class Selectivity)是指神经元对特定类别或类别之间差异的响应特性。在神经网络和机器学习的背景下,每个神经元可能会对输入数据的某些特征表现出更高的激活水平,这反映了它对该特征的“偏好”或“选择性”。当一个神经元对特定类别的输入表现出显著高于其他类别的激活时,我们称这个神经元具有高类选择性。类选择性也是评估网络泛化能力的一个指标。通常认为,具有高类选择性的神经元可能有助于网络在特定任务上的表现,但也可能降低网络对新或未见类别的泛化能力。相反,低类选择性可能表明网络能够更灵活地响应多种输入,从而提高泛化能力。
类选择性密度图是展示网络中神经元对不同类别的响应强度分布。在这种图中,每个点或区域代表一个神经元,而它们在图中的位置表示对不同类别的偏好程度。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/775079.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Java后端每日面试题(day1)

目录 JavaWeb三大组件依赖注入的方式Autowire和Resurce有什么区别?Spring Boot的优点Spring IoC是什么?说说Spring Aop的优点Component和Bean的区别自定义注解时使用的RetentionPolicy枚举类有哪些值?如何理解Spring的SPI机制?Spr…

2024年【四川省安全员B证】考试及四川省安全员B证考试题

题库来源:安全生产模拟考试一点通公众号小程序 2024年【四川省安全员B证】考试及四川省安全员B证考试题,包含四川省安全员B证考试答案和解析及四川省安全员B证考试题练习。安全生产模拟考试一点通结合国家四川省安全员B证考试最新大纲及四川省安全员B证…

第一篇——导论:数学通识课的体系和学习攻略

目录 一、背景介绍二、思路&方案三、过程1.思维导图2.文章中经典的句子理解3.学习之后对于投资市场的理解4.通过这篇文章结合我知道的东西我能想到什么? 四、总结五、升华 一、背景介绍 数学的认知大厦;之前听的时候就觉得很重要,本次又…

Google Earth Engine(GEE)——控制台ui.Textbox复制你想要的textbox

结果 函数: ui.Textbox(placeholder, value, onChange, disabled, style) A textbox that enables the user to input text information. Arguments: placeholder (String, optional): The placeholder text to display when the textbox is empty. Defaults to none. …

鸿蒙开发设备管理:【@ohos.account.appAccount (应用帐号管理)】

应用帐号管理 说明: 本模块首批接口从API version 7开始支持。后续版本的新增接口,采用上角标单独标记接口的起始版本。开发前请熟悉鸿蒙开发指导文档:gitee.com/li-shizhen-skin/harmony-os/blob/master/README.md点击或者复制转到。 导入模…

Linux中配置sudo用户访问权限

一、如何在 Linux 中配置 sudo 的访问权限 1.1、给用户dhz普通用户增加 sudo 权限 [rootlocalhost ~]# id dhz uid1000(dhz) gid1000(dhz) 组1000(dhz),10(wheel)1.2、使用root用户编辑/etc/sudoers文件 [rootlocalhost ~]# vi /etc/sudoers-- 增加: dhz ALL(ALL…

2024/07/05

1、梳理笔记 2、课堂习题 1、循环输入一个5位数&#xff0c;判断它是不是回文数。当输入0时循环结束。 即12321是回文数&#xff0c;个位与万位相同&#xff0c;十位与千位相同。 #include<stdio.h> int main(int argc, char const *argv[]) {while(1){int num0;printf(…

贪吃蛇——C语言(VS2022含源代码,及源代码zip文件)

一.游戏背景 贪吃蛇是一款在世界上盛名已久的小游戏&#xff0c;贪食蛇游戏操作简单&#xff0c;可玩性比较高。这个游戏难度最大的不是蛇长得很长的时候&#xff0c;而是开始。那个时候蛇身很短&#xff0c;看上去难度不大&#xff0c;却最容易死掉&#xff0c;因为把玩一条小…

vscode连接SSH

1、安装Remote-SSH插件 2、点击左下角&#xff0c;选择SSH 3、点击连接到主机后&#xff0c;添加新的SSH主机&#xff0c;示例ssh 用户ip 4、点击服务器&#xff0c;输入密码登录服务器 5、可在远程资源管理器选项卡中查看 6、可以在ssh设置中打开ssh配置文件 config中的文件…

合合信息大模型“加速器”亮相2024世界人工智能大会,助力大模型学好“专业课”

7月4日至7日&#xff0c;2024世界人工智能大会在上海拉开帷幕。现阶段&#xff0c;“百模大战”现象背后的中国大模型发展前景与堵点仍然是各界关注的焦点。如何帮助大模型在信息的海洋中快速找准航向&#xff0c;在数据的荒漠中找到高质量的“水源”&#xff1f;合合信息在本次…

Vue报错:Module not found: Error: Can‘t resolve ‘less-loader‘ in ‘文件地址‘

原因&#xff1a;Webpack无法找到 less-loader 模块&#xff0c;但在<style langless></style>中进行使用。less-loader 是一个Webpack的加载器&#xff0c;它用于将less文件编译成CSS。如果Webpack无法解析这个加载器&#xff0c;它就无法处理less文件&#xff0c…

LeetCode刷题记录:(15)三角形最小路径和

知识点&#xff1a;倒叙的动态规划 题目传送 解法一&#xff1a;二维动态规划【容易理解】 class Solution {public int minimumTotal(List<List<Integer>> triangle) {int n triangle.size();if (n 1) {return triangle.get(0).get(0);}// dp[i][j]:走到第i层第…

论文导读 | 综述:大模型与推荐系统

最近&#xff0c;预训练语言模型&#xff08;PLM&#xff09;在自然语言处理领域取得了巨大成功&#xff0c;并逐渐引入推荐系统领域。本篇推文介绍了最近的两篇预训练语言模型和推荐系统结合的综述&#xff1a; [1] Pre-train, Prompt, and Recommendation: A Comprehensive …

深度调峰汽轮机相关技术资料 厂家培训用

网盘 https://pan.baidu.com/s/16KfuoVko5xCUk3bDOfTlvQ?pwdezjb 亚临界循环流化床机组深度调峰下的输出功率预测方法.pdf 基于时间序列分析的燃煤电厂深度调峰预测方法及装置】.pdf 基于汽轮机低压缸排汽压力调节的深度调峰方法.pdf 基于深度调峰工况下阀门阀杆的振动预测方…

c++之旅第十一弹——顺序表

大家好啊&#xff0c;这里是c之旅第十一弹&#xff0c;跟随我的步伐来开始这一篇的学习吧&#xff01; 如果有知识性错误&#xff0c;欢迎各位指正&#xff01;&#xff01;一起加油&#xff01;&#xff01; 创作不易&#xff0c;希望大家多多支持哦&#xff01; 一,数据结构…

代码随想录第43天|动态规划

121. 买卖股票的最佳时机 股票只能被买卖一次 dp[i][0] 持有股票所得到的最大现金, dp[i][1] 不持有股票所得的最大现金, 避免定义多个变量递推公式: dp[i][0] 可能是在之前买入, 也可能是在这次被买入 max(dp[i - 1][0],-prices[i])dp[i][1] 可能是在本次抛售, 也可能在之…

Day44:LeedCode 188.买卖股票的最佳时机IV 309.最佳买卖股票时机含冷冻期 714.买卖股票的最佳时机含手续费

188. 买卖股票的最佳时机 IV 给你一个整数数组 prices 和一个整数 k &#xff0c;其中 prices[i] 是某支给定的股票在第 i 天的价格。 设计一个算法来计算你所能获取的最大利润。你最多可以完成 k 笔交易。也就是说&#xff0c;你最多可以买 k 次&#xff0c;卖 k 次。 注意&…

无人机常见故障及维修方法详解

一、无人机故障识别与处理原则 无人机故障识别是维修的第一步&#xff0c;要求操作人员具备基本的无人机系统知识和故障识别能力。在识别故障时&#xff0c;应遵循“先易后难、先外后内、先软件后硬件”的原则。一旦识别出故障&#xff0c;应立即停止飞行&#xff0c;避免进一…

若依 Vue 前端分离 3.8.8 版中生成的前端代码中关于下拉框只有下拉箭头的问题

生成代码修改前 <el-form-item label"课程学科" prop"subject"><el-select v-model"queryParams.subject" placeholder"请选择课程学科" clearable><el-optionv-for"dict in course_subject":key"dict…

2024 年 6 月区块链游戏研报:Pixels 引发 DAU 波动,行业用户留存率差异显著

作者&#xff1a;Stella L (stellafootprint.network) 数据来源&#xff1a;区块链游戏研究页面 2024 年 6 月&#xff0c;加密货币市场遭遇显著回调&#xff0c;比特币跌幅达 7.3%&#xff0c;以太坊更是下跌了 9.8%。此番波动不可避免地波及区块链游戏领域&#xff0c;导致…