如何提高记忆力?

许多学员经常问我:为什么您的记忆力那么好?有没有什么方法,可以提高记忆力?

今天,我想好好聊聊这个问题。

当然,学习和记忆,是一个巨大的话题。这篇文章只是一个初探。希望能帮你打开一些视野,扫清一些困惑。

图片

首先,我们来看看大脑的第一个记忆系统。

众所周知,记忆系统可以大略分为短时记忆和长时记忆。短时记忆相当于「内存」,长时记忆相当于「硬盘」。当我们接收到任何一段信息时,必须先放入短时记忆,让大脑「识别它」,然后才能被写入长时记忆,让大脑「记住」它。

也就是说,我们能够记住多少东西,取决于有多少信息最终被写入长时记忆。

但比起电脑,大脑有一个巨大的劣势:

我们的长时记忆可以很庞大,但短时记忆的容量少得可怜。

有多少呢?大家一定听说过「7+-2」—— 这是上个世纪的数据。实际上,按照 2001 年 Cowan 的研究结果,更精确的数据是:4个单位。

什么叫4个单位呢?简单来说,就是4个词,或者4个短语。也就是说,当你阅读上一段话时,你的大脑正在忙碌地做许多事情:把一个句子拆成若干个短语,先把4个塞进短时记忆里,识别它们;再清除掉,重新塞4个短语进来,识别。循环往复。

这里的问题就在于:识别的速度要远远快于「记忆」。也就是说,这4个短语被你识别之后,它们很可能还未能形成记忆,就被立刻清除出去了,迎接新的4个短语。

在这个过程中,你得到了什么呢?你其实什么都没有得到。大量的信息都在这个「进入 → 离开」的过程里被清除了,无法真正被大脑「记住」。你所得到的,只是一连串「我知道了!」的瞬间。

打个比方,这就像是一个小偷,潜入城堡里偷东西,抓起一堆财宝就往口袋里塞,但口袋破了一个大洞,他还恍然不知 —— 结果是什么呢?塞多少漏多少。唯一留下的,只有「这儿有财宝」「这儿也有!」「它们全都是我的啦!」的「虚假的狂喜」。

所以,为什么我们读了很多书、很多文章,阅读的时候觉得「讲得真好」,但读完就留不下多少印象了?原因正在于此。

那么,如何让我们偷到的财宝 —— 不对,是读到的信息,能够最大限度地留下来,从短时记忆里写入长时记忆呢?我们就需要来研究下一个系统。

图片

请思考一个问题:你昨天晚上吃了什么?

这个问题不难,我相信绝大多数人都能立刻回答出来。如果不能,那……你可能脑子里的事情太多了,请让自己放松一下。

那么,再回答一个问题:你上一周的周三晚上,吃了什么?

我相信,能回答起这个问题的朋友,就不多了吧。

那么,为什么昨晚吃的东西,能立即回忆起来;但上周三吃的东西就想不起来呢?在这里,「你昨晚吃了什么」,是属于短时记忆,还是长时记忆?

显然,是长时记忆。因为短时记忆的信息会被不断清除,只能保持几秒到几十秒。

但是,即使是长时记忆,这里面也很复杂。长时记忆里,有一个缓冲区域,叫做「鲜活区」。它指的是:最近一段时间内,被写入长时记忆里的信息。

这个「最近一段时间」有多长呢?因人而异,目前还没有明确的研究结果,不过一般认为是6个小时以上,1天以内。

位于鲜活区以内的信息,我们可以不费力地「回忆」起来。但一旦信息脱离了鲜活区,再去回忆就很困难了。

那么,把这两个系统结合起来,我们现在有了这么一个模型:

信息 → 短时记忆 → 长时记忆(鲜活区)→ 真正的长时记忆

接下来,我们来看看它们的神经基础。

图片

我们总是说「记忆」「储存」……但大脑里面是否存在一个东西,像电脑的内存和硬盘一样,专门用来储存数据呢?

其实是没有的。

我们的大脑皮层,有约160亿个神经元。一切的记忆,都由这160亿个神经元来表征。

如何表征呢?每个神经元都可以跟其他神经元相连接。而这160亿个神经元,它们的「连接状态」状态,每一刻都是不同的。当你阅读上一段话时,神经元集群A处于A1状态;当你阅读下一句话时,这个集群A处于A2状态……这就是「储存记忆」的本质。

也就是说,当你回忆起第一段话时,大脑里面发生了什么?实质上,就是让神经元集群A,再一次构建出了A1状态。

这是一个很有趣的事情:大脑并不能「储存」任何信息 —— 它能储存的,只有当获取到某些信息时,自身神经元的状态。而所谓的「回忆」,实质上就是「回放」出了这个状态。

好了,明白了这一点之后,我们来看:

短时记忆的本质是什么?就是让一堆神经元,彼此之间暂时连接起来,构成状态A1。

长时记忆的本质是什么?就是让这堆神经元,彼此之间通过长时间的连接,产生化学上的变化,让它们「粘合」起来,把这个A1状态固定下来 —— 这就叫做「突触可塑性」。

而「鲜活区」呢?它指的是这么一个状态:这堆神经元彼此之间有高度的敏感性,特别容易「回放」出A1;但与此同时,它们的「粘合性」又还不够强,不足以长久地固化,形成长时记忆。

那为什么过了一段时间,鲜活区里面的信息就没了呢?因为这堆神经元的「高度敏感」消失了。你可以理解为,它们放着放着,没有人把它们粘在一起,所以就凉了,失去了彼此之间的敏感性,重新变得跟之前一样。

从这里呢,其实还可以得到一个推论:学习的本质是什么?其实就是通过这种「突触可塑性」,改变大脑的结构,从而拥有全新的思维模式。

也就是说,一个非常聪明的人,他未必脑容量很大,未必有什么非常特殊的脑回路,但他的大脑中,一定拥有比常人更丰富、更复杂的神经元连接。正是这些复杂的连接,让他的思维可以毫无阻碍地、自由地游走。

学习一个领域,学习一系列知识,学习一项技能……本质上,都是一样的,都是改变大脑的内在连接方式。

到这里,我们可以来思考一下。

当我们说一个人记忆力很好时,我们指的是什么?通常情况下,是两个含义:

1)他看过的东西,能够几乎毫无遗漏地复述出来。

2)他能够回忆起很久以前读过的信息、经历过的事件。

第一种,指的是能有效地把信息从短时记忆写入长时记忆,避免丢失;第二种,指的是他的长时记忆比较丰富、完备,从而能轻易地「回放」出某一种状态。

显然,第二种是基于第一种而存在的 —— 只有能够不断地丰富长时记忆,才能使到长时记忆变得丰富。

那么,我们的问题就来了:如何培养「把信息从短时记忆写入长时记忆」的能力呢?

实际上,心理学界还真有一个实验方法,叫做「n-back 测试」。

什么意思呢?举个例子:你盯着一个屏幕,屏幕上会不断随机出现1-9的数字。你要做的是,看当前的数字,把它跟「前第 n 个数字」做对比。如果一致,按 Yes;如果不一致,按 No。

比如,屏幕上显示的数字是这样:……1, 4, 3, 4, 2……

现在,你看到的数字是3,假设n=2,那么,你需要回想,前第2个数字是什么?是1,不一样,那么,按 No。

下一个数字是4,你继续回想,前第2个数字是什么?是4,一致,好的,按 Yes。

下一个数字是2,继续回想,前第2个数字是3,不一致,按 No……

难吗?要知道,n=2是最简单的情况了(也有n=1,那就是「跟上一个数字对比」,比较多用于认知障碍或记忆障碍患者)。难度往上走,还有n=3,n=4……

有很多研究认为,n-back 测试能够在一定程度上提高记忆力,进而提高流体智力。在很多实验中,n-back 测试也常被用来衡量记忆力水平:犯错的次数越少,答对的次数越高,记忆力就越好。

但是,我们在日常生活中,是不是一定要用n-back测试来锻炼记忆力呢?其实也不是。我们要做的,是通过这个简单的方法,探究背后的原理。

图片

不难发现,n-back的测试的原理是什么?其实就是「强迫」你的大脑,让它花费更多的精力,去把一段信息,「保持」在短时记忆里。

简而言之:既然识别的速度远远快于记忆,而正是因为这一点,信息来不及「被记住」就被清除出去 —— 那我们人为把它保持得更久一点,岂不是就能有效地强化记忆?

打个比方:你伸出手,掬起一捧沙子,它会怎么样呢?会从你指缝间流失。如何才能把这捧沙子带走?你就必须紧闭指缝,合拢双手,让你的双手变成一个封闭空间,把沙子「束缚」在里面。

同样,如何让一段信息能够被记住?你就需要花费精力,让大脑把一段复杂的信息,「打包压缩」在短时记忆里,对它进行加工。

如何进行加工呢?也即是前面讲过的:建立神经元之间的连接,让这段信息,在你的脑海里「落地生根」。这就叫做「精细加工」。

用一个流程来说就是:

把一段复杂的信息「打包压缩」到短时记忆里,集中注意力保持一段时间,在这段时间里对其进行精细加工,建立尽可能多的联系。

所以,提高记忆力,要锻炼的,就是两个能力:

1)压缩、保持一段复杂信息的能力

2)使信息建立更多联系的能力

那么,基于这个原理,我们在平时的生活中,可以去做一些什么样的练习,来锻炼它们呢?

分享几个简单的方法。

1. 「我刚才读到了什么?」

我在阅读、看视频时,会有一个多年形成的习惯:每看到一个新的段落,都会问自己一句:我前面都读到了哪些东西?

这个「新的段落」,可能是一两页,一个小标题,也可能是视频的一个转场,诸如此类。

这样做的好处是什么?有两点。一,是提升自己「打包压缩」的能力,让短时记忆能够容纳更多、更复杂的信息;二,是提醒自己,是不是有些信息已经漏掉了?我能否把它们找回来?

试一试:读到这里时,回想一下这篇文章的全文,问自己:文章讲了什么?我能否把前面的大意复述出来?

让信息过脑子,而不是任由它流走 —— 这样,才能真正把获取的信息,吸收成为自己的。

2. 「它的内部逻辑是什么?」

读一篇文章、一本书,读到一个有趣的观点,或者一个知识点时,我都会让自己动脑想一想:它的内部逻辑是什么?

什么叫内部逻辑呢?举个例子:如果一个点可以分成三个小点,我不会单单记住这三个小点,而是会去思考:这样划分的依据和标准是什么?每个点的原理和支撑是什么?它跟之前讲过的内容有没有逻辑上的联系?

这样做的好处是什么呢?你不会仅仅停留在「它是什么」的层级,可以透过现象,从更深层的逻辑去理解:它为什么是这样的?

简而言之,这样可以不断建立知识点之间的联系,把它从简单的树状结构,变成一张紧密的、复杂的「网络」。

提升记忆力,永远不是说要强行去记住它,而是要通过透彻的理解去记住它。

3. 「关于它,我能够想到些什么?」

当我碰到一些新的知识点,或者一个主题、话题时,我会做一些「反刍」。亦即暂时关闭外界的信息输入,以这个主题为引子,让自己展开联想。

为什么这样做呢?一方面,它可以激活大脑中那些沉睡的神经元节点,重新唤醒它们(可参考我在 为什么我们越来越喜欢独处? 中提到的 DMN 模式)。另一方面,它相当于在旧的知识网络和新节点之间拓展了联系,让新的节点更不容易丢失。

也就是说,它实质上,是一种转向内部的,梳理、维护、清扫自己内在知识网络的方法。

当然,它也会有代价:你看上去总是很容易出神,总像沉浸在自己的世界里。

所以,如果你想尝试这种方法,我会建议你每天空出一段不受打扰的时间,最好是下班后,拨出一段时间,漫无目的地看一些东西,一边看,一边让大脑放松,发散联想,并记录下想到的内容。

4. 「我能否把它讲给别人听?」

这是一个非常经典又非常有效的办法。什么情况下,你能算是真正掌握、记住了一个知识点?当你能够把它讲给别人听,并让别人理解它的情况下。

原理非常简单:当你讲授它的时候,你会调用大脑的各种相关节点,进行全方位的「精细加工」。你也许需要类比,也许需要举例,也许还需要提炼它的重点信息,对它的逻辑和结构进行重构……

这些,都是在不断强化大脑对它的记忆。

所以,为什么我强烈建议大家写作?原因也正是如此。输出,才是最好的学习。

图片

这些是我日常的心得和经验,分享给你。你也可以基于前面的原理,探索、尝试出适合自己的锻炼方式。

另外,简单讲几个可能反常识的东西。

1)艾宾浩斯遗忘曲线有用吗?

没有。

艾宾浩斯的研究发生在19世纪末,而那时实验心理学还未建立(他本人就是实验心理学的先驱),缺乏有效的范式,因而他的研究成果是简单的,没有考虑到语义、联系等要素,整个实验也非常粗糙,严格来说并不科学。

学界如今基本已不再使用艾宾浩斯的成果。如果看到市面上打着「艾宾浩斯」旗号的产品,忽略就好了……他们的知识更新可能有点滞后。

2)记忆宫殿法有用吗?

没有明确的研究表明其有用。不过,从前面的原理你也可以知道:如果它有用,那无非也是用你非常熟悉的事物作为依托,来「建立联系」 —— 也就是精细加工的一种,本质并没有什么特别神奇的。

并且,记忆宫殿更多用在记忆文本、词汇上面,但我们有必要记住一大堆文本和词汇吗?其实没有。生活不是考试做题,我们更需要的,是高维度、高层次的「全局记忆」,是丰富知识体系,而不是复述细节。

所以,我对它的态度就是:不提倡也不反对。如果你喜欢可以用用,但不要抱太大期望。

3)图像记忆法、讲故事法……等等一系列记忆法,有用吗?

没有明确的研究表明其它们有用。但是,还是那句话,如果有用,那其实都只是因为两点:一,保持信息;二、建立联系。

毕竟,你要把一段信息编成故事、想象出画面,或是放进记忆宫殿里,那……总得把它们在大脑里「保持」一段时间吧?在这段时间内,再对它们反复地加工,怎么说也该记住了。

所以,态度也是一样的:不予置评。喜欢的朋友可以用用,不失为一种精细加工的办法。

图片

最后,再讲一个问题。

不知道大家有没有想过:通常情况下,我们的记忆力都不怎么好,很容易出错,也很容易遗忘细节 —— 那问题来了,为什么大脑要这样设计呢?为什么不能像电脑一样,忠实地把所有信息储存起来,需要的时候再读取就好?

原因可能非常复杂,但有一点至关重要:记忆的本质,不是用来让你「回忆过去」的,而是为了让你更好地「面对未来」。

什么意思呢?我在 认知的冰山 中提过,大脑的本质,是一个贝叶斯模型。我们面对这个世界上的种种事件,都会有一个概率判断。这可以让我们更高效地理解日常生活,也可以更有效地逃避危险、解决问题。

而记忆,实际上就是这个贝叶斯模型的反馈:我们从日常生活中经历种种事件,从中提取出「大脑觉得有用的信息」,把它们纳入模型里面,用来改进概率判断,完善概率库 —— 这些信息,就是记忆。

所以,记忆从来都不需要100%还原,因为目前这样,就已经非常够用了。

也正因为如此,我才一直强调:大脑是用来思考的,不是用来记忆的。

但这句话意味着我们「不需要记住」事物吗?当然不是。它最确切的理解是什么?我们无需去「强行记忆」事物,而是通过对事物的理解,把事物的特征和模式提取出来,纳入我们已有的知识体系里面。

简而言之,就是8个字:提纲挈领,以点带面。

你需要记住一个复杂理论的详情吗?需要记住它可以细分为几个点、每个点又可以细分为几个小点吗?没必要。你要记住的是:

它具备什么特征?在整个体系和框架里处于什么位置?在思考哪些类型的问题时可能需要用到?跟其他问题、概念之间存在什么联系?我可以如何调用它?

只有把知识拆散,重构,再连接,编织成网,你才算是真正地理解和记住了它们。

同样,也只有这样,当你需要时,从某个节点出发,就能透过节点之间的联系,提取出整张知识网络。

这才是真正意义上的「记忆」。也才是更有价值、更有效的「记忆」。

以我为主,为我所用。

你所经历的一切,只有当它们形成「你的一部分」,才是真正发挥了价值。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/351368.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

IPoE技术汇总

在国内并没有遇到这么多的IPoE(IP over Ethernet)技术,可能也是因为我来日本多年了,没有接触国内的IPv4 over IPv6的技术,感觉国内IPv4地址紧张,用的传统NAT和PPPoE非常多,大多数设备还是建立在…

好物周刊#38:在线图片处理

https://github.com/cunyu1943/JavaPark https://yuque.com/cunyu1943 村雨遥的好物周刊,记录每周看到的有价值的信息,主要针对计算机领域,每周五发布。 一、项目 1. AiEditor 一个面向 AI 的下一代富文本编辑器,她基于 Web C…

8通液体水位检测IC/液位检测芯片/抗干扰水位检测VK36W8I SOP16/QFN16L FAE支持

产品型号:VK36W8I 产品品牌:永嘉微电/VINKA 封装形式:SOP16/QFN16L 工程服务,技术支持! 概述 VK36W8I具有8个触摸检测通道,可用来检测8个点的水位。该芯片具有较高的集成度,仅需极少的外部组…

2024 高级前端面试题之 CSS 「精选篇」

该内容主要整理关于 CSS 的相关面试题,其他内容面试题请移步至 「最新最全的前端面试题集锦」 查看。 CSS模块精选篇 1. 盒模型2. BFC3. 层叠上下文4. 居中布局5. 选择器权重计算方式6. 清除浮动7. link 与 import 的区别8. CSS3的新特性9. CSS动画和过渡10. 有哪些…

目录操作(实现ls -i的功能(加一个文件类型))

1》打开目录 opendir #include <sys/types.h> #include <dirent.h> DIR *opendir(const char *name); 形参&#xff1a;name&#xff1a;要打开的目录的路径/名字 返回值&#xff1a;成功DIR *类型的目录流指针 失败&#xff1a;返回NULL 2》关闭目录 closedir #…

万界星空科技可视化数据大屏的作用

随着科技的不断发展和进步&#xff0c;当前各种数据化的设备也是如同雨后春笋般冒了出来&#xff0c;并且其可以说是给我们带来了极大的便利的。在这其中&#xff0c;数据大屏就是非常具有代表性的一个例子。 数据大屏的主要作用包括&#xff1a; 数据分析&#xff1a;数据大屏…

一些反序列化总结

1 反序列化漏洞原理 如果反序列化的内容就是那串字符串&#xff0c;是用户可以控制的&#xff08;即变量的值&#xff09;&#xff0c;且后台不正当的使用了PHP中的魔法函数&#xff0c;就会导致反序列化漏洞&#xff0c;可以执行任意命令。Java 序列化指 Java 对象转换为字节序…

插入排序和希尔排序

. 个人主页&#xff1a;晓风飞 专栏&#xff1a;数据结构|Linux|C语言 路漫漫其修远兮&#xff0c;吾将上下而求索 文章目录 插入排序基本思想&#xff1a;代码实现&#xff1b; 希尔排序基本思想&#xff1a;在这里插入图片描述多组并排优化《数据结构(C语言版)》--- 严蔚敏希…

Golang中make与new有何区别

&#x1f4d5;作者简介&#xff1a; 过去日记&#xff0c;致力于Java、GoLang,Rust等多种编程语言&#xff0c;热爱技术&#xff0c;喜欢游戏的博主。 &#x1f4d7;本文收录于go进阶系列&#xff0c;大家有兴趣的可以看一看 &#x1f4d8;相关专栏Rust初阶教程、go语言基础系…

Typora 无法导出 pdf 问题的解决

目录 问题描述 解决困难 解决方法 问题描述 Windows 下&#xff0c;以前&#xff08;Windows 11&#xff09; Typora 可以顺利较快地由 .md 导出 .pdf 文件&#xff0c;此功能当然非常实用与重要。 然而&#xff0c;有一次电脑因故重装了系统&#xff08;刷机&#xff09;…

Armv8-M的TrustZone技术之SAU寄存器总结

每个SAU寄存器是32位宽。下表显示了SAU寄存器概要。 5.1 SAU_CTRL register SAU_CTRL寄存器的特征如下图和表所示&#xff1a; 5.2 SAU_TYPE register 5.3 SAU_RNR register 5.4 SAU_RBAR register 5.5 SAU_RLAR register 5.6 SAU区域配置 当SAU启用时&#xff0c;未由已启用…

Android 基础技术——RecyclerView

笔者希望做一个系列&#xff0c;整理 Android 基础技术&#xff0c;本章是关于 RecyclerView RecyclerView 对比 ListView 的优点 Adapter 面向的是 ViewHolder 不是 View, 可以省略 convertView.setTag 和 getTag 这些步骤可以设置布局管理器&#xff1a;竖向、横向、瀑布流方…

RUST笔记:candle使用基础

candle介绍 candle是huggingface开源的Rust的极简 ML 框架。 candle-矩阵乘法示例 cargo new myapp cd myapp cargo add --git https://github.com/huggingface/candle.git candle-core cargo build # 测试&#xff0c;或执行 cargo ckeckmain.rs use candle_core::{Device…

惊了!用vue开发官网,以前我觉得胡闹,现在觉得未尝不可。

以前&#xff0c;有人做好官网UI&#xff08;展示性&#xff0c;没啥功能&#xff09;&#xff0c;找我开发前端&#xff0c;说要vue来做&#xff0c;我都劝了。 基于以下四个原因&#xff1a; 1、官网毕竟还是考虑seo的&#xff0c;流量多少算多少&#xff0c;总比没有强&am…

Doris 与 Clickhouse 对比(一)

1. 常用引擎 ☕️ Doris 表数据模型 duplicate key &#x1f3ac; 场景&#xff1a;适用于数据无需提前聚合的分析业务。 ⚠️ 注意点&#xff1a;只指定排序列&#xff0c;相同的行并不会合并。 unique key &#x1f3ac; 场景&#xff1a;适用于有更新需求的业务。 ⚠…

Flink 集成 Debezium Confluent Avro ( format=debezium-avro-confluent )

博主历时三年精心创作的《大数据平台架构与原型实现:数据中台建设实战》一书现已由知名IT图书品牌电子工业出版社博文视点出版发行,点击《重磅推荐:建大数据平台太难了!给我发个工程原型吧!》了解图书详情,京东购书链接:https://item.jd.com/12677623.html,扫描左侧二维…

数据结构——链式二叉树(2)

目录 &#x1f341;一、二叉树的销毁 &#x1f341;二、在二叉树中查找某个数&#xff0c;并返回该结点 &#x1f341;三、LeetCode——检查两棵二叉树是否相等 &#x1f315;&#xff08;一&#xff09;、题目链接&#xff1a;100. 相同的树 - 力扣&#xff08;LeetCode&a…

私有化部署ASR的方案,优缺点

私有化部署自动语音识别&#xff08;ASR&#xff09;系统的方案具有一些优点和缺点&#xff0c;下面苏州磐石云提出一些常见的优缺点&#xff1a; 优点&#xff1a; 数据隐私和安全性&#xff1a;私有化部署ASR系统可以确保数据在本地环境中进行处理和存储&#xff0c;更好地保…

《动手学深度学习(PyTorch版)》笔记4.5

注&#xff1a;书中对代码的讲解并不详细&#xff0c;本文对很多细节做了详细注释。另外&#xff0c;书上的源代码是在Jupyter Notebook上运行的&#xff0c;较为分散&#xff0c;本文将代码集中起来&#xff0c;并加以完善&#xff0c;全部用vscode在python 3.9.18下测试通过。…

Notepad在文件中查找多行相同内容的文字

Notepad在文件中查找多行相同的内容 查找&#xff1a;打开 Notepad软件&#xff0c; Ctrl F 查找 。输入关键词&#xff0c; 点击【在当前文件中查找】。 复制&#xff1a;直接在下方的【搜索结果】复制。 Notepad提取含有特定字符串的行 详情见&#xff1a; https://blog…